понял требуется минимум три мастер ноды + серв под load-balancer; при этом машины у меня под всё это только три, сейчас временно развернул haproxy на кастомный порт одной из нод.
Подскажите пожалуйста, какой оптимальный вариант в такой ситуации?
Только три ноды вообще на весь кластер? Или 3 мастер +3 воркер?
от задачи зависит
Три мастера + три воркера. Но воркеры совсем другой конфигурации, категорически не хочется их под это дело отдавать
Самый просто и надёжный вариант, как пишет @gecube - на каждом воркере по haproxy(как systemd или static pod) или (как делается в kubespray) static pod с nginx,а внутри upstream на мастера
https://inductor.medium.com/say-good-bye-to-haproxy-and-keepalived-with-kube-vip-on-your-ha-k8s-control-plane-bb7237eca9fc
Может не надо? кубер который балансит сам себя очень феерично разлетается на куски.
ну не проверял, хочу сделать тестовый стенд и попробовать
Попробуй и расскажи
я пробовал) почти самая крупная авария в проде, которая у меня была)
У меня так же. Хз зачем тебе внешний лб. Все равно cicd агент деплоится в сам куб, а неграм нефиг туда лазить грязными руками
Можешь создать А-запись с тремя адресами твоих мастеров для доступа извне кластера. Только она должна быть в SAN серта аписервера. HA тут и не пахнет. Но для доступа извне оно и не нужно
Норм же тема, самодостаточный кубер, без внешник зависимостей
пока что-то не флапнуло и кубер себя не потерял)
Сильный и независимый кубер
Угу, с кошками)
А ты уверен что сможешь провести чёткую границу где заканчивается куб и где начинаются внешние зависимости?)
это самый худший вариант для контрол плейна. Очень не советую Просто поставь на каждой ноде по балансировщику (nginx/haproxy). Добавь в него мастера, и kubelet'ы пусть ходят на него локально на 127.0.0.1:6443. Хорошая и надежная схема. Никаких VIP и внешних балансировщиков не требует.
Либо внешний балансировщик
Обсуждают сегодня