Подскажите, пожалуйста, как понять что сьедает столько места? POOL_NAME

USED OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS RD WR_OPS WR USED COMPR UNDER COMPR
.mgr 1.7 MiB 2 0 6 0 0 0 126 109 KiB 181 2.9 MiB 0 B 0 B
ceph-filesystem-data0 29 GiB 2480 0 7440 0 0 0 1 1 KiB 4150 9.7 GiB 0 B 0 B
ceph-filesystem-metadata 4.3 MiB 25 0 75 0 0 0 4649 3.7 MiB 639 1.6 MiB 0 B 0 B

total_objects 2507
total_used 149 GiB
total_avail 905 MiB
total_space 150 GiB
1 пул сжирает 30гб, но доступно всего 905 мегабайт. Фактор репликации 3.

https://pastebin.com/2x2NGZfm

8 ответов

8 просмотров

В целом плохая настройка. Скорее всего есть дизбаланс заполнения осд

Ceph osd df

Игорь-Самарский Автор вопроса
Alexander mamahtehok
Ceph osd df

DATA - 10 гигабайтов А RAW DATA - 50 гигабайтов https://pastebin.com/phL28KNT

Игорь-Самарский Автор вопроса

Почему так происходит? Как это исправить?

Игорь-Самарский Автор вопроса
Igor
ceph df detail

Вот результат команды https://pastebin.com/raw/StE8yMXa

Игорь Самарский
Почему так происходит? Как это исправить?

А у вас отдельные DB volume не прописаны? Гигабайт на 40?

Игорь-Самарский Автор вопроса
Igor Fedotov
А у вас отдельные DB volume не прописаны? Гигабайт...

А как это посмотреть? Такой настройки не видел.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
#Вопрос Доброе утро. Есть 3 ноды Proxmox на каждой ноде LAN 10g 8Nmve u2 ssd на текущий момент zfs, СХД нет есть жирный NAS на 180tb. На сколько велика вероятность катастрофы...
f1gar0 tyt
14
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Карта сайта