В настоящее время запущен 7-узловой кластер Ceph, используемый в качестве хранилища файловой системы.
Два независимых узла используются для запуска службы mon+mgr+mds, остальные 5 узлов используются в качестве узлов хранения, а один из узлов хранения смешивается с набором служб mon+mgr+mds.
node1: пн+мгр+мдс
node2: пн+мгр+мдс
osd1: пн+мгр+мдс+жесткий диск*12 ссд*1
OSD2: жесткий диск * 12 твердотельный накопитель * 1
OSD3: жесткий диск * 12 твердотельный накопитель * 1
OSD4: жесткий диск * 12 твердотельный накопитель * 1
OSD5: жесткий диск * 12 твердотельный накопитель * 1
цеф версия: 15.2.10
Пул хранения использует жесткие диски и является пулом кода стирания, k=2, m=1; пул хранения использует HDD-устройства;
Устройство ssd используется в качестве уровня кэша пула хранения hdd, а hdd использует другой раздел ssd nvme как block.db;
В настоящее время мы расширяем узлы хранения для этого кластера, добавляя только по одному OSD за раз, но общий размер существующего пула хранения будет уменьшено.
Например, 320T до расширения, только 300T после расширения.
Кто-нибудь сталкивался с подобной проблемой? Я хочу знать, что вызвало эту проблему.