#Вопрос Доброе утро. Есть 3 ноды Proxmox на каждой ноде

LAN 10g 8Nmve u2 ssd на текущий момент zfs, СХД нет есть жирный NAS на 180tb. На сколько велика вероятность катастрофы с Ceph?

14 ответов

27 просмотров

А где в этой конфигурации ceph?

f1gar0-tyt Автор вопроса
Sergey Dryomov
А где в этой конфигурации ceph?

Вот и думаю пока не пустил в продакшен сделать мульти хранилку CEPH + ZFS + 1SSD Ext4

Sergey Dryomov
А где в этой конфигурации ceph?

в вероятности катастрофы, он же написал )

f1gar0-tyt Автор вопроса
Igor
в вероятности катастрофы, он же написал )

Теорию знаю но не щупал, ЦОД свой на 14 филиалов.

f1gar0 tyt
Вот и думаю пока не пустил в продакшен сделать мул...

Т.е. часть nvme под ceph, часть под zfs и где-то сбоку nas? А какой смысл так усложнять?

f1gar0-tyt Автор вопроса

В описанной ситуации вероятность близка к критической Тут просто комбо, нахрен

f1gar0-tyt Автор вопроса
Alexander 🐕 Chistyakov
В описанной ситуации вероятность близка к критичес...

Боюсь что сервер выпьет фанты и все встанет, а так хоть из бэкапов смогу достать сервисы

f1gar0 tyt
Боюсь что сервер выпьет фанты и все встанет, а так...

1) Не стоит делать кластер Ceph на Proxmox (не потому что Ceph или Proxmox плохие инструменты, а просто, не стоит) 2) Не стоит делать кластер Ceph на три ноды (потому что это полностью бессмысленно, как по мне, в случае отказа из трех нод остается две, не выглядит как отказоустойчивое решение, откровенно говоря)

f1gar0-tyt Автор вопроса
Alexander 🐕 Chistyakov
1) Не стоит делать кластер Ceph на Proxmox (не пот...

Как понимаю когда будет "ребилд" если встанет 1 года будут тормоза

Alexander 🐕 Chistyakov
1) Не стоит делать кластер Ceph на Proxmox (не пот...

Так что чё-т мне тут видится вкусовщина™

Как с динозавром, 50 на 50

В схеме нет цефа -> вероятность 0)

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
есть идеи почему так много места занято метадатой? ceph tell osd compact не помог, пересоздание osd.12 не помогло (хотя почему-то теперь он говорит 49G omap, а не метадата). Н...
Ivan
4
Карта сайта