Подскажите, что будет с пулом, если при RF=3 выйдет из

строя одновременно 3 диска (по диску на каждом хосте) и будет как минимум одна PG, у которой потеряются все три реплики?
Кластер используется только для S3.

Теряются объекты, которые находились в этой PG или теряем весь пул?

2 ответов

8 просмотров

Вообще теоретически не теряем, у тебя же все 3 диска не умрут окончательно с какого-то можно будет стянуть данные.. но там уже особая магия..

Vitaliy-Ponomarev Автор вопроса
Sergei Emelyanov
Вообще теоретически не теряем, у тебя же все 3 дис...

Моя (совсем небольшая) статистика говорит, что половина дисков перед смертью подаёт какие-то признаки (relocated сектора, существенное повышение latency операций) и данные оттуда можно планово забрать (дальнейшую их жизнь не знаю, возможно они бы ещё несколько лет проработали в таком режиме), а другая - умирает мгновенно и перестаёт сразу определяться в операционке (у части из них комбо - он подаёт признаки, но при попытке эвакуировать данные - дохнет окончательно). Теоретически - это проблемы с электроникой при живых блинах, специализированные фирмы смогут добыть оттуда данные. На практике - процесс восстановления совсем не быстрый, гарантия тоже далеко не 100%. Поэтому и интересуюсь, чем рискуем при неудачной тройной потере - всем S3 или потерей 0.25% - 0.5% данных при условных 200 дисках в кластере. И что будет со всем S3 - он свалится в RO (а это критическая проблема, которую нужно срочно решать) или объекты из погибшей PG будут недоступны, а сам S3 будет продолжать работать в RW режиме.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
#Вопрос Доброе утро. Есть 3 ноды Proxmox на каждой ноде LAN 10g 8Nmve u2 ssd на текущий момент zfs, СХД нет есть жирный NAS на 180tb. На сколько велика вероятность катастрофы...
f1gar0 tyt
14
Карта сайта