Вопрос относительно s3. ceph - octopus 15.2.8 "залип" процесс решардинга бакета. При

попытке отрешардить получаю ошибку:
ERROR: the bucket is currently undergoing resharding and cannot be added to the reshard list at this time
при попытке отменить решард:
root@cephmon3z23:~# radosgw-admin --cluster z23 reshard cancel --bucket vision-shard-8
2021-01-14T14:14:11.618+0000 7fc6a6870080 -1 ERROR: failed to remove entry from reshard log, oid=reshard.0000000006 tenant= bucket=vision-shard-8
Статус решардинга по бакету:
root@cephmon3z23:~# radosgw-admin --cluster z23 reshard status --bucket vision-shard-8
[
{
"reshard_status": "not-resharding",
"new_bucket_instance_id": "",
"num_shards": -1
},
{
.... и так по всем шардам.

Как я понимаю за решард отвечают шлюзы. их порестартил, но ситуация не изменилась. Кто сталкивался или как это побороть?

4 ответов

13 просмотров

Классика, ёпт. Разобрался, сказал и свалил. Для будущих поколений При попытке запустить решард бакета foo говорит, мол, бакет решардится, но radosgw-admin reshard cancel --bucket foo В ответ что-то вроде 2023-06-05T20:09:33.289+0000 7f6d60b94c80 -1 ERROR: failed to remove entry from reshard log, oid=reshard.0000000011 tenant= bucket=records То radosgw-admin metadata get --metadata-key=bucket.instance:foo:foo-id > bucket.meta foo:foo-id посмотреть можно radosgw-admin metadata list --metadata-key=bucket.instance: | grep foo в фале bucket.meta меняем строку "reshard_status": 1 на "reshard_status": 0 применяем radosgw-admin metadata put --metadata-key=bucket.instance:foo:foo-i < bucket.meta и решардим, если нужно.

Roman
Классика, ёпт. Разобрался, сказал и свалил. Для бу...

> Разобрался, сказал и свалил. ты его настиг и пытал, что ль? ))

Igor
> Разобрался, сказал и свалил. ты его настиг и пы...

Нет, столкнулся с такой проблемой, поискал по чату, пригорело немного.

Roman
Классика, ёпт. Разобрался, сказал и свалил. Для бу...

После этого стоит проверить на stale reshard и удалить.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Карта сайта