Рейтинг:2

ceph застрял в активном+переназначенном+backfill_toofull после lvextend тома OSD

флаг us

У меня есть кластер Ceph с двумя OSD. Начальный размер резервных томов составлял 16 ГБ. Затем я отключил OSD, сделал lvextend на обоих и снова включите OSD. В настоящее время цеф osd df показывает:

цеф osd df

Но цеф -с показать, что он застрял в активный+переназначенный+backfill_toofull для 50 стр.: цеф -с

Я попытался понять механизм, прочитав алгоритм CRUSH, но, похоже, требуется много усилий и знаний. Было бы очень признательно, если бы кто-нибудь мог описать поведение (почему застрял в слишком полном, несмотря на то, что свободное пространство значительно увеличилось) и помочь мне разрешить это состояние.

Martian2020 avatar
флаг ec
у вас есть данные (ceph osd) до того, как «провели расширение на обоих» и «значительно увеличилось свободное пространство»?
Martian2020 avatar
флаг ec
и я мог бы сказать, что 90% использования высоки.
флаг us
Если я вас правильно понял, да, в кластере были данные и данные до сих пор доступны клиентам.
Martian2020 avatar
флаг ec
нет, вы пишете "Теперь ceph osd df показывает:" Я имел в виду вывод `ceph osd df`, как в вашем вопросе до того, как "выполнил lvextend на обоих"
флаг us
Нет, к сожалению.
Martian2020 avatar
флаг ec
почему вы сделали `lvextend`? какие показатели указали вам на это? + может быть, вы помните какие-то числа, например, %USE до
флаг us
Использование было около 11 ГБ из 32 ГБ.Я хотел увеличить размер кластера, поэтому сделал `lvextend`, по-видимому, неправильно.
флаг us
Давайте [продолжим это обсуждение в чате](https://chat.stackexchange.com/rooms/131964/discussion-between-ahmad-ahmadi-and-martian2020).
Рейтинг:0
флаг ec

Твой НЕОБРАБОТАННОЕ ИСПОЛЬЗОВАНИЕ в разы больше, чем ДАННЫЕ. Примечание: решение не пробовал, но это то, что я нашел.

Re: Необработанное использование в 10 раз выше, чем использование данных

Вероятно, первое, что нужно проверить, это наличие объектов, которые под размер min_alloc. Эти объекты приведут к потраченному впустую пространству так как они будут использовать полный размер min_alloc.

Подобные советы: https://stackoverflow.com/questions/68185503/ceph-df-octopus-shows-used-is-7-times-higher-than-stored-in-erasure-coded-pool/68186461#68186461

Это связано с bluestore_min_alloc_size_hdd=64K (по умолчанию на Осьминог).

При использовании Erasure Coding данные разбиваются на более мелкие фрагменты, которые каждый занимает 64 КБ на диске.

Другой способ решить проблему можно попытаться следовать инструкциям на втором экране:

добавьте хранилище, если это не разрешится само по себе

Ответить или комментировать

Большинство людей не понимают, что склонность к познанию нового открывает путь к обучению и улучшает межличностные связи. В исследованиях Элисон, например, хотя люди могли точно вспомнить, сколько вопросов было задано в их разговорах, они не чувствовали интуитивно связи между вопросами и симпатиями. В четырех исследованиях, в которых участники сами участвовали в разговорах или читали стенограммы чужих разговоров, люди, как правило, не осознавали, что задаваемый вопрос повлияет — или повлиял — на уровень дружбы между собеседниками.