Всем добра. продолжаю знакомится с ceph, возник вопрос на который

я с ходу найти ответ не могу.
Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном датацентре + меньшая чаcть нод кластера в другом. Связность между этими частями через интернет. В меньшей части должна хранится полная копия данных в одном экземпляре, но с низким приоритетом по чтению и записи. В общем такой себе резерв на случай блэкаута в датацентре.
Кто-нибудь строил подобное? Каких подводных камней следует ожидать?

28 ответов

28 просмотров

Позволь узнать, енто что же за датацентр такой интересный?

"полная копия данных в одном экземпляре, но с низким приоритетом по чтению и записи. В общем такой себе резерв на случай блэкаута в датацентре." тут скорее про два разных хранилища

mendisobal- Автор вопроса

Для чего использовать то планируешь?

mendisobal- Автор вопроса
Alexander mamahtehok
Для чего использовать то планируешь?

кладывать архивные записи стримингового сервиса

https://docs.ceph.com/en/latest/dev/cephfs-mirroring/

mendisobal- Автор вопроса

Через крашмап поделить так не проблема, но в реалиях цефа это не будет полноценной(без доп плясок с бубном работающей) копией данных. первый момент, если у тебя фактор репликации 3 к 2 (а меньше не надо делать, практический опыт) то пока не будет восстановлено до 2 копий данных обратно с цефа данных не получишь(ручками вытащить можно, но замучаешься) и работать с ними не сможешь. второй момент, медленный дц будет замедлять работу всей системы. третий момент, кросс дц цеф, почти всегда говно идея, потому что любая потеря связности или перестроение сети это боль и порой крайне неприятный дебаг. если нужны данные, то либо 3к2 в одном дц и бекап во втором либо два цефа в двух дц и код который с этим умеет работать. в любом случае нужно раз в какое то время тестить что всё это работает.

mendisobal- Автор вопроса
mendisobal
Это пока мысленный эксперимент

У меня построен кластер в трёх дата центрах на одном ceph.

mendisobal- Автор вопроса
Ilya Intelligent
У меня построен кластер в трёх дата центрах на одн...

А вот это интересно, расскажите пожалуйста как распределены сервисы, были ли потери связности между ДЦ во время эксплуатации?

SlyRaccoon
Через крашмап поделить так не проблема, но в реали...

Если нужны данные и срочно уменьшаешь min size и продалжаешь работать на свой страх и риск. Или делаешь краш мап с двумя копиями на одном дц ... Все решаемо

mendisobal- Автор вопроса

размер блока osd тюнили? MDS CephFS используете?

mendisobal- Автор вопроса
Ilya Intelligent
Если нужны данные и срочно уменьшаешь min size и п...

Как распределены менеджеры и мониторы по ДЦ?

mendisobal
размер блока osd тюнили? MDS CephFS используете?

Нет смысла менять размер блока, это не решает ничего.есть и fs и rbd и rgw

Ilya Intelligent
Если нужны данные и срочно уменьшаешь min size и п...

вот прям максимально не согласен, уменьшать сайз до 2 к 1 это нажраться говна заранее

SlyRaccoon
вот прям максимально не согласен, уменьшать сайз д...

Эээ ... спор ни о чем, так как есть как разные данные, так и разная конфигурация

SlyRaccoon
вот прям максимально не согласен, уменьшать сайз д...

да оно заработает, да данные достанешь. но не надо такое советовать людям которые недавно с цефом. обосраться тут как делать нефиг

Ilya Intelligent
Не сломал, не разобрался )))

прод преимущественно с тобой не согласен. разбирайся, учись, но в стейже. когда это стрельнет на проде, это будет ооочень далеко не плюсом тебе как специалисту

mendisobal- Автор вопроса
Ilya Intelligent
Не сломал, не разобрался )))

вот тут полностью согласен. Я пока в одном ДЦ поднял тестовую ноду. В понедельник буду расширять её ещё на 2 ДЦ. А затем буду ломать по всякому )

mendisobal- Автор вопроса
SlyRaccoon
прод преимущественно с тобой не согласен. разбирай...

Да, на проде эксперименты - плохо. Поэтому я за месяц-два до начала строительства прода и начал играться

Ilya Intelligent
Я говорю как научиться, а не обосраться

тогда и надо уточнять, что для научиться. человек же сейчас знакомится с цефом, подумает что это норм практика.

SlyRaccoon
прод преимущественно с тобой не согласен. разбирай...

Специалист это тот кто уже сломал пяток раз и пару раз получил по шее ))) но в другом месте

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
#Вопрос Доброе утро. Есть 3 ноды Proxmox на каждой ноде LAN 10g 8Nmve u2 ssd на текущий момент zfs, СХД нет есть жирный NAS на 180tb. На сколько велика вероятность катастрофы...
f1gar0 tyt
14
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
есть идеи почему так много места занято метадатой? ceph tell osd compact не помог, пересоздание osd.12 не помогло (хотя почему-то теперь он говорит 49G omap, а не метадата). Н...
Ivan
4
Карта сайта