Коллеги, добрый вечер! Интересует два вопроса: 1. Был ли у кого-то опыт

настройки бэкапа дисков CephFS? Какие есть подводные камни? Предполагается RF 3, и диски по 100ГБ (изначально планировалось два диска по 100ГБ и арбитр на 10ГБ, но похоже, это косяк при планировании кластера, и если я всё правильно понимаю, с ceph так не сработает)

2. Как лучше разворачивать OSD, чтобы потом можно было её увеличить в случае чего? Так как всё в облаке, увеличить диск можно достаточно быстро, но сейчас на тестовой ВМ увеличил диск до 30G (при установке osd указал диск, там было 15G), но том LVM (osd-block-xxx) остался того же размера, что и был.
Надо устанавливать OSD на уже готовый LVM, или же в раздел/на том LVM?

Буду благодарен, если потыкаете носом в документацию.

6 ответов

10 просмотров

Цеф в облаке это такое себе

Artem-Reznikov Автор вопроса
Виталий На Заборе
Цеф в облаке это такое себе

Правильно понимаю, что по той же причине, что и в комментарии Алексея (будут сложности с OSD)?

Artem Reznikov
Правильно понимаю, что по той же причине, что и в ...

Нет, по той что в облаках как правило диски уже на каком-то своём "цефе" и получается цеф поверх цефа)

Artem-Reznikov Автор вопроса
Виталий На Заборе
Нет, по той что в облаках как правило диски уже на...

Ааа, понял, спасибо! Похоже, что придется тогда гластер использовать, ему и на арбитра надо мелкий диск, а диски в облаке безумно дорогие

Artem Reznikov
Ааа, понял, спасибо! Похоже, что придется тогда гл...

Ну вот они потому и дорогие что уже с избыточностью и всё такое

Artem-Reznikov Автор вопроса
Виталий На Заборе
Ну вот они потому и дорогие что уже с избыточность...

Ну понятное дело, но синкать их через рсинк в 2022 году, когда всё остальное в кластере, это чет такое. Ну и в ТЗ у нас РФС указана

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
#Вопрос Доброе утро. Есть 3 ноды Proxmox на каждой ноде LAN 10g 8Nmve u2 ssd на текущий момент zfs, СХД нет есть жирный NAS на 180tb. На сколько велика вероятность катастрофы...
f1gar0 tyt
14
Карта сайта