Во время динамического решардинга очень большого бакета закончилось место в

метадата пуле. Если я сейчас увеличу full ratio, решардинг всё равно продолжится и место опять забьётся. Есть идеи как этот решардинг остановить?

https://docs.ceph.com/en/latest/radosgw/dynamicresharding/#cancel-pending-bucket-resharding тут написано что работающий решардинг отменить нельзя

8 ответов

16 просмотров

size--

Ivan- Автор вопроса
Ivan
size?

https://t.me/ceph_ru/279960

Ivan- Автор вопроса
Igor
https://t.me/ceph_ru/279960

replicated size 4 min_size 2 но даже если я уменьшу до 3, то боюсь что этот решардинг заполнит мне и такой пул

Можно попробовать удалить метаданные из бакета. ``` radosgw-admin metadata get bucket.instance:name-bucket:id-bucket > file.json Удаляешь строки "reshard_status": 1, "new_bucket_instance_id: radosgw-admin metadata put bucket.instance:name-bucket:id-bucket < file.json ``` Я так делела когда у меня завис решардинг.

Ivan- Автор вопроса
Ivan- Автор вопроса
Максим
Можно попробовать удалить метаданные из бакета. `...

а что-то еще нужно делать? рестартовать rgw? потому что я сделал так, и metadata get этого бакета говорит reshard_status 0, но radosge-admin reshard list все равно тот бакет есть

Ivan- Автор вопроса
Максим
Можно попробовать удалить метаданные из бакета. `...

в итоге у меня получилось остановить решард вот этим способом + рестартом rgw. В решард лист этот бакет всё еще есть, но статус not-resharding root@s102:~# radosgw-admin reshard status --bucket=inq-ai-tracking | grep status | head -3 "reshard_status": "not-resharding", "reshard_status": "not-resharding", "reshard_status": "not-resharding", Большое спасибо!

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
#Вопрос Доброе утро. Есть 3 ноды Proxmox на каждой ноде LAN 10g 8Nmve u2 ssd на текущий момент zfs, СХД нет есть жирный NAS на 180tb. На сколько велика вероятность катастрофы...
f1gar0 tyt
14
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Карта сайта