Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph

-v
ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable)

На текущий момент в кластере имеется сообщение:

[WRN] LARGE_OMAP_OBJECTS: 2 large omap objects
2 large objects found in pool 'default.rgw.buckets.index'
Search the cluster log for 'Large omap object found' for more details.

А конкретно:

2023-07-10T04:18:41.246875+0300 osd.88 (osd.88) 9698 : cluster [WRN] Large omap object found. Object: 8:eebddccc:::.dir.7a9771ff-8b91-48ea-b801-35432d86a2c2.175643700.1.385:head PG: 8.333bbd77 (8.17) Key count: 828432 Size (bytes): 231685412
2023-07-06T14:37:48.879376+0300 osd.55 (osd.55) 7899 : cluster [WRN] Large omap object found. Object: 8:285cbb81:::.dir.7a9771ff-8b91-48ea-b801-35432d86a2c2.175643700.1.71:head PG: 8.81dd3a14 (8.14) Key count: 1165107 Size (bytes): 326906071

Соответствие ID и бакета:

radosgw-admin metadata list --metadata-key bucket.instance | grep -i "7a9771ff-8b91-48ea-b801-35432d86a2c2.175643700.1"
"my-bucket:7a9771ff-8b91-48ea-b801-35432d86a2c2.175643700.1",

В интернете натыкался на то, что причиной может быть переполненный бакет и его надо перешардить. Но такой проблемы нет:

radosgw-admin bucket limit check | jq '.[] | select(.user_id |contains ("my-bucket"))'
{
"user_id": "my-bucket",
"buckets": [
{
"bucket": "my-bucket",
"tenant": "",
"num_objects": 25656690,
"num_shards": 409,
"objects_per_shard": 62730,
"fill_status": "OK"
}
]
}

Где-то просто советуют сделать deep_scrub на проблемные PG и OSD, но это тоже не особо помогает. Deep scrub делается, а результат не меняется

ceph pg dump pgs | awk '{print $1" "$20" "$21" "$22" "$23}'| egrep '^8\.14|^8\.17|SCRUB' | column -t
dumped pgs
PG_STAT LAST_SCRUB SCRUB_STAMP LAST_DEEP_SCRUB DEEP_SCRUB_STAMP
8.14 126724'52746904 2023-07-12T15:20:19.798161+0300 126724'52746904 2023-07-12T15:20:19.798161+0300
8.17 126663'83832160 2023-07-11T13:24:23.048353+0300 126608'83798404 2023-07-10T04:18:45.772106+0300

Граниченое значение на osd_deep_scrub_large_omap_object_key_threshold стандартное, его не крутил. И пока не очень понятно, стоит ли его увеличивать. Где-то читал, что когда-то давно он был 2.000.000, а потом его уменьшили до 200.000:

ceph config get mgr osd_deep_scrub_large_omap_object_key_threshold
200000

7 ответов

26 просмотров

А в системе один бакет?

Nesterov-Ivan Автор вопроса

Точно все в норме и не требуют решарадинга?

Nesterov-Ivan Автор вопроса
Nesterov-Ivan Автор вопроса
Alexander mamahtehok
На всех бакетах?

На проблемном, на остальных тоже ок

> Где-то просто советуют сделать deep_scrub на проблемные PG и OSD, но это тоже не особо помогает. Deep scrub делается, а результат не меняется — так это как обычно путают тёплое с мягким. Просто статистика по OMAP обновляется именно при scrub'е, но сам он ни-че-го с этой проблемой не решает.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
#Вопрос Доброе утро. Есть 3 ноды Proxmox на каждой ноде LAN 10g 8Nmve u2 ssd на текущий момент zfs, СХД нет есть жирный NAS на 180tb. На сколько велика вероятность катастрофы...
f1gar0 tyt
14
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
есть идеи почему так много места занято метадатой? ceph tell osd compact не помог, пересоздание osd.12 не помогло (хотя почему-то теперь он говорит 49G omap, а не метадата). Н...
Ivan
4
Карта сайта