Всем привет, возможно тупой вопрос, про сеф услышал ток вчера,

почему не рекомендовано испольовать рейд контроллеры для кубера на baremetal?

3 ответов

14 просмотров

raid-контроллер (не hba) может соврать что что-то записал а на самом деле нет (только в кэш)

Вся проблема в том, что CEPH послав команду flush и получив в ответ ОК пребывает в уверенности, что данные легли на физические диски. Но в случае RAID-контроллерами это поведение можно намеренно или ненамеренно (по незнанию) поменять. Например настроив RAID на работу диска или группы дисков в режиме RAID-0 и включив write back на кэш. И тогда на flush от CEPH контроллер быстро скажет ОК, но физически на диски данные попадут чуть позже. Вот аккурат это время является самым критическим. Обычно в это время что-то ИНОГДА происходит. Сеть пропадает. Нода падает. Диск умирает. Умирает у всех разное. Но CEPH считает что все ОК и начинается то, что обычно называют повреждением данных. А учитывая размер и распределение данных, восстановление этих данных превращается в ужас-ужас. Хорошо если упало "хорошо". Т.е. сдохла нода и CEPH отработает отказ по репликам. А если сдох или подсдох диск... Или группа дисков, а кэш не флюшнулся потому что батарейка сдохла или ее вообще не было, но write back включили... И начинаются рассказы про бессонные ночи, вырывание волос в разных местах, подвиги и преодоления... В общем всякое такое, о чем в курилках говорят или когда хорошо примут на грудь. Про такое говорят в селе "не было у бабки хлопот, купила порося". Ну вы поняли.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Карта сайта