Добрый день. Подскажите, может кто сталкивался (по поиску не нашёл). Есть

кластер Куба, Rook-Ceph и Openstack.
Спустя время обнаружили, что при удалении\добавлении нод с ceph-mons автоматически пересоздаются деплойменты этих мониторов, а вместе с ними и сервисы. В конечном итоге это может привести (привело на деве) к полной замене адресов мониторов. Ceph впорядке, но вот в libvirt\qemu у запущенных виртуалок старые адреса, которые можно обновить только рестартом виртуалок (чего хотелось бы избежать).
Может есть какой-то способ сказать Rook'у использовать статический пул для Сервисов ceph mons?

Good day.
Did someone experience same problems?
We have: K8s cluster, Rook-Ceph cluster, Openstack.
During maintenance tests we found out that if\when deleteing\re-joining kube nodes that have ceph-mons bound to them, Rook re-creates those deployments including Services for them. This results in a new set of Ceph Mon IPs which is perfectly fine for Ceph cluster, but most of running Openstack VMs have old Cpeh monitor IPs which can only be updated by restarting those VMs.
We would really like to avoid these restarts. Is there a way to tell Rook-Ceph to use a static pool of IPs for monitor Services?

8 ответов

19 просмотров

Так надо к мониторам по dns-имени обращаться

Maxim-Shepelev Автор вопроса
Pavel Zilke
Так надо к мониторам по dns-имени обращаться

мысль здравая, но при переджоине storge-controller ноды в кластер, Rook считает её новой и выписывает ей деплоймент с новой буквой в имени. Например, были 3 монитора - a, b, c. После переждоина 3-х нод мониторы будут зваться d, e, f

Maxim-Shepelev Автор вопроса

Пока что мы тестируем workaround со сменой IP на старые через monmaptool ceph mon getmap -o /tmp/map.1 monmaptool --print /tmp/map.1 monmaptool --rm g /tmp/map.1 monmaptool --addv g [v2:100.10.10.2:3000,v1:100.10.10.2:6789] /tmp/map.1 monmaptool --print /tmp/map.1 ceph-mon -i {mon-id} --inject-monmap {tmp}/{filename} Но хотелось бы понимать есть ли способ зафиксировать адреса мониторов на будущее.

Maxim Shepelev
мысль здравая, но при переджоине storge-controller...

Создать руками сервис, который будет на все мониторы указывать

Maxim Shepelev
мысль здравая, но при переджоине storge-controller...

А сервисов поверх деплоймента нет? Если нет - можно сделать ручками с селекторами (посмотреть у деплойментов) У сервиса можно через kube-vip например закрепить статический плавающий между нодами адрес или прямо node port смотреть. Профит.

Maxim-Shepelev Автор вопроса
Владимир Храмов
А сервисов поверх деплоймента нет? Если нет - мож...

есть, они пересоздаются вместе с дейплойментами rook-ceph-mon-e rook-ceph-mon-f rook-ceph-mon-g видимо, для новых инсталляций так и будем делать. А с текущими будем развлекаться как можем

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Карта сайта