Подскажите, пожалуйста, как понять что сьедает столько места? POOL_NAME

USED OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS RD WR_OPS WR USED COMPR UNDER COMPR
.mgr 1.7 MiB 2 0 6 0 0 0 126 109 KiB 181 2.9 MiB 0 B 0 B
ceph-filesystem-data0 29 GiB 2480 0 7440 0 0 0 1 1 KiB 4150 9.7 GiB 0 B 0 B
ceph-filesystem-metadata 4.3 MiB 25 0 75 0 0 0 4649 3.7 MiB 639 1.6 MiB 0 B 0 B

total_objects 2507
total_used 149 GiB
total_avail 905 MiB
total_space 150 GiB
1 пул сжирает 30гб, но доступно всего 905 мегабайт. Фактор репликации 3.

https://pastebin.com/2x2NGZfm

8 ответов

41 просмотр

В целом плохая настройка. Скорее всего есть дизбаланс заполнения осд

Ceph osd df

Игорь-Самарский Автор вопроса
Alexander mamahtehok
Ceph osd df

DATA - 10 гигабайтов А RAW DATA - 50 гигабайтов https://pastebin.com/phL28KNT

Игорь-Самарский Автор вопроса

Почему так происходит? Как это исправить?

Игорь-Самарский Автор вопроса
Igor
ceph df detail

Вот результат команды https://pastebin.com/raw/StE8yMXa

Игорь Самарский
Почему так происходит? Как это исправить?

А у вас отдельные DB volume не прописаны? Гигабайт на 40?

Игорь-Самарский Автор вопроса
Igor Fedotov
А у вас отдельные DB volume не прописаны? Гигабайт...

А как это посмотреть? Такой настройки не видел.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Карта сайта