https://github.com/Altinity/clickhouse-operator/tree/master/deploy/clickhouse-keeper да, но тесты не проходят пока https://github.com/Altinity/clickhouse-operator/blob/0.18.4/tests/e2e/test_keeper.py вот это починили https://github.com/ClickHouse/ClickHouse/issues/35464 а вот это еще нет https://github.com/ClickHouse/ClickHouse/issues/3546 но если вам scaledown не нужен, можно пользоваться
3 ноды это для кластера типа 2 на 2?
нет, это три standalone 3 ноды кипера которые между собой кворумную запись устанавливают кластер clickhouse можете делать оператором какой угодно
А на каком из серверов кластера поднимается keeper решается рандомно или там есть какой-то алгоритм?
что такое "кластер" и "сервер" в вашем предложении? мне кажется мы друг друга не понимаем для меня кластер это "kubernetes" а сервер это "worker node" а для вас?
Все так, но например у меня есть кластер 2 на 2 (4 ноды всего), для него нужен кластер зукипера там 3 ноды. Сейчас вместо зукипера будет кликхауз кипер, который разворачивается отдельно (как я понимаю) и там тоже будет 3 ноды. Фактически оператор поднимет 7 нод, в моём случае.
оператор сам не менеджит ни зукипер ни кликхаускипер, clickhouse-keeper только планируется поддержка оператор самостоятельно не поднимает НОДЫ он генерирует statefulset для кубернетес а дальше кубернетес контроллер менеджер уже сам распихивает ПОДы на НОДы, в соответсвии с настройками podAntiAffinity например
соответственно если у вас какой нибудь AWS EKS настроенный с karpenter или группами нод с AWS ASG то да. может поднять до 7 worker nodes а если у вас minikube локальный с одной worker нодой и нет podAntiAffinity то все 7 подов стартанут на одной ноде
Обсуждают сегодня