Коллеги, разрешите немного провокационный вопрос) Есть потребность сделать очень большое хранилище

на Ceph (десятки петабайт), с высокой скоростью чтения и низкой скоростью записи (по сути файлы кладутся один раз, потом не меняются, но части могут считываться). Возникла крамольная мысль сделать это поверх рейдов 5 или 10 при условии что он будет очень быстрый и надежный (правилная настройка кэширования, ребилда без просадки скорости и т.п.). Минусы все понятны, я понимаю почему этот сценарий в общем случае не рекомендуется. Из плюсов - сверхнадежные OSD, практически не падающие, существенное снижение количества OSD => ребалансировок и т.п. Кто-то такие сценарии апробировал? Спасибо!

6 ответов

13 просмотров

Вы же так еще больше места потеряете, избыточность в raid, а потом еще избыточность в ceph.

А как отдаваться будет?

Само блочное устройство osd может падать и не будет, но если упадет процесс, или хост, представляете, сколько времени на ребаланс может уйти? Дальше: r5 при выходе из строя накопителя проседает по производительности чтения в том числе, а когда идёт ребилд, то в целом по производительности

sashok- Автор вопроса
Unsupported User
Само блочное устройство osd может падать и не буде...

да, мы эти ключевые недостатки понимаем тут как раз и интересует вопрос соотношения как я понимаю, без RAID будет ооочень много OSD, и просадка любого диска по производительности - это автоматом просадка всей PG тут как раз и была крамольная мысль "вынести под капот" дополнительного слоя абстракции всякие накладки с отдельными дисками - при условии конечно, что рейд суперстабильный и быстрый, и ребалансировка не сильно просаживает (условно, идет не спеша фоном с низким процентом приоритета, плюс у нас нагрузка в основном ридонли) интересны практические результаты, если кто-то делал

если Вы организовываете фильмотеку каую-то, то как мне кажется, нормально вполне сделал на hdd + bcache/lvmcache на nvme, кэширование write-through и вполне нормально через rgw отдавать

Unsupported User
если Вы организовываете фильмотеку каую-то, то как...

Тогда не вижу смысла в bcache, кмк интереснее на фронте поставить кеш в виде nginx с ssd

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Карта сайта