Во время динамического решардинга очень большого бакета закончилось место в

метадата пуле. Если я сейчас увеличу full ratio, решардинг всё равно продолжится и место опять забьётся. Есть идеи как этот решардинг остановить?

https://docs.ceph.com/en/latest/radosgw/dynamicresharding/#cancel-pending-bucket-resharding тут написано что работающий решардинг отменить нельзя

8 ответов

48 просмотров

size--

Ivan- Автор вопроса
Ivan
size?

https://t.me/ceph_ru/279960

Ivan- Автор вопроса
Igor
https://t.me/ceph_ru/279960

replicated size 4 min_size 2 но даже если я уменьшу до 3, то боюсь что этот решардинг заполнит мне и такой пул

Можно попробовать удалить метаданные из бакета. ``` radosgw-admin metadata get bucket.instance:name-bucket:id-bucket > file.json Удаляешь строки "reshard_status": 1, "new_bucket_instance_id: radosgw-admin metadata put bucket.instance:name-bucket:id-bucket < file.json ``` Я так делела когда у меня завис решардинг.

Ivan- Автор вопроса
Ivan- Автор вопроса
Максим
Можно попробовать удалить метаданные из бакета. `...

а что-то еще нужно делать? рестартовать rgw? потому что я сделал так, и metadata get этого бакета говорит reshard_status 0, но radosge-admin reshard list все равно тот бакет есть

Ivan- Автор вопроса
Максим
Можно попробовать удалить метаданные из бакета. `...

в итоге у меня получилось остановить решард вот этим способом + рестартом rgw. В решард лист этот бакет всё еще есть, но статус not-resharding root@s102:~# radosgw-admin reshard status --bucket=inq-ai-tracking | grep status | head -3 "reshard_status": "not-resharding", "reshard_status": "not-resharding", "reshard_status": "not-resharding", Большое спасибо!

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Карта сайта