Всем привет, возможно тупой вопрос, про сеф услышал ток вчера,

почему не рекомендовано испольовать рейд контроллеры для кубера на baremetal?

3 ответов

6 просмотров

raid-контроллер (не hba) может соврать что что-то записал а на самом деле нет (только в кэш)

Вся проблема в том, что CEPH послав команду flush и получив в ответ ОК пребывает в уверенности, что данные легли на физические диски. Но в случае RAID-контроллерами это поведение можно намеренно или ненамеренно (по незнанию) поменять. Например настроив RAID на работу диска или группы дисков в режиме RAID-0 и включив write back на кэш. И тогда на flush от CEPH контроллер быстро скажет ОК, но физически на диски данные попадут чуть позже. Вот аккурат это время является самым критическим. Обычно в это время что-то ИНОГДА происходит. Сеть пропадает. Нода падает. Диск умирает. Умирает у всех разное. Но CEPH считает что все ОК и начинается то, что обычно называют повреждением данных. А учитывая размер и распределение данных, восстановление этих данных превращается в ужас-ужас. Хорошо если упало "хорошо". Т.е. сдохла нода и CEPH отработает отказ по репликам. А если сдох или подсдох диск... Или группа дисков, а кэш не флюшнулся потому что батарейка сдохла или ее вообще не было, но write back включили... И начинаются рассказы про бессонные ночи, вырывание волос в разных местах, подвиги и преодоления... В общем всякое такое, о чем в курилках говорят или когда хорошо примут на грудь. Про такое говорят в селе "не было у бабки хлопот, купила порося". Ну вы поняли.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
#Вопрос Доброе утро. Есть 3 ноды Proxmox на каждой ноде LAN 10g 8Nmve u2 ssd на текущий момент zfs, СХД нет есть жирный NAS на 180tb. На сколько велика вероятность катастрофы...
f1gar0 tyt
14
Карта сайта