Есть идеи почему так много места занято метадатой? ceph tell

osd compact не помог, пересоздание osd.12 не помогло (хотя почему-то теперь он говорит 49G omap, а не метадата). На этих 100G nvme лежат только индексы от бакетов.

root@s101:~# ceph osd df | egrep "META|ssd" | sort -nk1
ID CLASS WEIGHT REWEIGHT SIZE RAW USE DATA OMAP META AVAIL %USE VAR PGS STATUS
7 ssd 0.09099 1.00000 93 GiB 43 GiB 124 MiB 1.9 GiB 41 GiB 50 GiB 46.01 0.70 46 up
8 ssd 0.09099 1.00000 93 GiB 45 GiB 124 MiB 1.8 GiB 43 GiB 48 GiB 48.48 0.74 42 up
9 ssd 0.09099 1.00000 93 GiB 57 GiB 124 MiB 2.2 GiB 55 GiB 36 GiB 61.63 0.94 52 up
10 ssd 0.09099 1.00000 93 GiB 54 GiB 124 MiB 2.0 GiB 52 GiB 39 GiB 57.61 0.87 46 up
11 ssd 0.09099 1.00000 93 GiB 48 GiB 124 MiB 1.8 GiB 46 GiB 45 GiB 51.63 0.78 45 up
12 ssd 0.09099 1.00000 93 GiB 50 GiB 124 MiB 49 GiB 757 MiB 43 GiB 53.38 0.81 45 up
13 ssd 0.09099 1.00000 93 GiB 44 GiB 124 MiB 1.5 GiB 43 GiB 49 GiB 47.46 0.72 45 up
root@s101:~#

4 ответов

18 просмотров

rgw?

Ivan- Автор вопроса

а что касается изначального вопроса, то надо бы пожалуй и остальные OSD compact, там тогда не только один будет с увесистым omap — rgw именно там данные индексов и хранит

Ivan- Автор вопроса
Igor
а что касается изначального вопроса, то надо бы по...

Остальные нвме? Я им всем сделал компакт уже. Osd.12 получил 49G omap после пересоздания, а не после компакта. Я не понимаю трех вещей: 1. Как вообще получается 50g метадаты на 124мб даты (ведь дата на нвме это и есть индексы бакетов у меня) 2. Почему не помогает компакт? 3. Почему после пересоздания osd.12 49G метадаты перешло в омап?

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
#Вопрос Доброе утро. Есть 3 ноды Proxmox на каждой ноде LAN 10g 8Nmve u2 ssd на текущий момент zfs, СХД нет есть жирный NAS на 180tb. На сколько велика вероятность катастрофы...
f1gar0 tyt
14
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Карта сайта