Подскажите, что будет с пулом, если при RF=3 выйдет из

строя одновременно 3 диска (по диску на каждом хосте) и будет как минимум одна PG, у которой потеряются все три реплики?
Кластер используется только для S3.

Теряются объекты, которые находились в этой PG или теряем весь пул?

2 ответов

10 просмотров

Вообще теоретически не теряем, у тебя же все 3 диска не умрут окончательно с какого-то можно будет стянуть данные.. но там уже особая магия..

Vitaliy-Ponomarev Автор вопроса
Sergei Emelyanov
Вообще теоретически не теряем, у тебя же все 3 дис...

Моя (совсем небольшая) статистика говорит, что половина дисков перед смертью подаёт какие-то признаки (relocated сектора, существенное повышение latency операций) и данные оттуда можно планово забрать (дальнейшую их жизнь не знаю, возможно они бы ещё несколько лет проработали в таком режиме), а другая - умирает мгновенно и перестаёт сразу определяться в операционке (у части из них комбо - он подаёт признаки, но при попытке эвакуировать данные - дохнет окончательно). Теоретически - это проблемы с электроникой при живых блинах, специализированные фирмы смогут добыть оттуда данные. На практике - процесс восстановления совсем не быстрый, гарантия тоже далеко не 100%. Поэтому и интересуюсь, чем рискуем при неудачной тройной потере - всем S3 или потерей 0.25% - 0.5% данных при условных 200 дисках в кластере. И что будет со всем S3 - он свалится в RO (а это критическая проблема, которую нужно срочно решать) или объекты из погибшей PG будут недоступны, а сам S3 будет продолжать работать в RW режиме.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Карта сайта