Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph

-v
ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable)

На текущий момент в кластере имеется сообщение:

[WRN] LARGE_OMAP_OBJECTS: 2 large omap objects
2 large objects found in pool 'default.rgw.buckets.index'
Search the cluster log for 'Large omap object found' for more details.

А конкретно:

2023-07-10T04:18:41.246875+0300 osd.88 (osd.88) 9698 : cluster [WRN] Large omap object found. Object: 8:eebddccc:::.dir.7a9771ff-8b91-48ea-b801-35432d86a2c2.175643700.1.385:head PG: 8.333bbd77 (8.17) Key count: 828432 Size (bytes): 231685412
2023-07-06T14:37:48.879376+0300 osd.55 (osd.55) 7899 : cluster [WRN] Large omap object found. Object: 8:285cbb81:::.dir.7a9771ff-8b91-48ea-b801-35432d86a2c2.175643700.1.71:head PG: 8.81dd3a14 (8.14) Key count: 1165107 Size (bytes): 326906071

Соответствие ID и бакета:

radosgw-admin metadata list --metadata-key bucket.instance | grep -i "7a9771ff-8b91-48ea-b801-35432d86a2c2.175643700.1"
"my-bucket:7a9771ff-8b91-48ea-b801-35432d86a2c2.175643700.1",

В интернете натыкался на то, что причиной может быть переполненный бакет и его надо перешардить. Но такой проблемы нет:

radosgw-admin bucket limit check | jq '.[] | select(.user_id |contains ("my-bucket"))'
{
"user_id": "my-bucket",
"buckets": [
{
"bucket": "my-bucket",
"tenant": "",
"num_objects": 25656690,
"num_shards": 409,
"objects_per_shard": 62730,
"fill_status": "OK"
}
]
}

Где-то просто советуют сделать deep_scrub на проблемные PG и OSD, но это тоже не особо помогает. Deep scrub делается, а результат не меняется

ceph pg dump pgs | awk '{print $1" "$20" "$21" "$22" "$23}'| egrep '^8\.14|^8\.17|SCRUB' | column -t
dumped pgs
PG_STAT LAST_SCRUB SCRUB_STAMP LAST_DEEP_SCRUB DEEP_SCRUB_STAMP
8.14 126724'52746904 2023-07-12T15:20:19.798161+0300 126724'52746904 2023-07-12T15:20:19.798161+0300
8.17 126663'83832160 2023-07-11T13:24:23.048353+0300 126608'83798404 2023-07-10T04:18:45.772106+0300

Граниченое значение на osd_deep_scrub_large_omap_object_key_threshold стандартное, его не крутил. И пока не очень понятно, стоит ли его увеличивать. Где-то читал, что когда-то давно он был 2.000.000, а потом его уменьшили до 200.000:

ceph config get mgr osd_deep_scrub_large_omap_object_key_threshold
200000

7 ответов

65 просмотров

А в системе один бакет?

Nesterov-Ivan Автор вопроса

Точно все в норме и не требуют решарадинга?

Nesterov-Ivan Автор вопроса
Alexander mamahtehok
На всех бакетах?

На проблемном, на остальных тоже ок

> Где-то просто советуют сделать deep_scrub на проблемные PG и OSD, но это тоже не особо помогает. Deep scrub делается, а результат не меняется — так это как обычно путают тёплое с мягким. Просто статистика по OMAP обновляется именно при scrub'е, но сам он ни-че-го с этой проблемой не решает.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Привет, коллеги! Пятница, время охуенных вопросов по RGW. Задача - сделать гранулярный доступ к директориям в бакете. У aws есть пример ну, чтож сделаем по примеру следующую п...
Andrey S
6
Карта сайта