шедуллятся? никакого NodeSelector в демонсете нет, как нет и Affinity/Toleration. На нодах нет кордона, шедуллинг разрешен.
в describe демонсета Desired Number of Nodes Scheduled: 0 что как-бы намекает.
Или логи в ns.
Если ты хочешь раскинуть ds на все ноды в кластере, то толер как раз таки нужно установить: tolerations: - operator: Exists Таким образом Поды твоем ds будут толлерантны к любым значениям
тоже не помогло. но, кажется, дело у меня в чём-то другом. из того же чарта демонсет еще и не шедуллится, хотя там уже Desired: 3
Скажи в этом ns : k get all
K get deployment -o yaml и в конце статус посмотреть
пусто там status: {}
чёт с конторл-менеджером у тебя похоже
Или psp там же его вот так сразу не видно вроде
А да?
# k get deploy NAME READY UP-TO-DATE AVAILABLE AGE testing-kubernetes-admin 1/1 1 1 206d testing-kubernetes-apiserver 2/2 2 2 206d testing-kubernetes-controller-manager 0/0 0 0 206d testing-kubernetes-scheduler 2/2 2 2 206d testing-ltsp 1/1 1 1 206d
Заскейлил в 2, завелось. Хз кто его отключил, но проблема была в этом. Но мне больше интересно, как долго кластер без control-manager'а работал? 🤔
Круто)) а почему?
А ни у кого туда доступа нет))
давай в ЛС
Лол
ООО, может долго
А где можно почитать как делаются managed кластера?с tanzu и cloud provider немного знаком. Основной вопрос как от пользователя скрыть control plane и другие служебные деплои в kube-system или других NS
Вот тут расшифровка моего доклада как раз про эту штуку и видео там же https://habr.com/ru/company/oleg-bunin/blog/558900/
запускать их не в кластере =) А в другом кластере например
Не лезть туда, там больно)
Я же правильно понимаю, что в основном кластере запускается control plane для managed кластера и потом туда подключаются ноды? Дальше все стандартным RBAC рулится ?
В целом да, но до полноценным managed это ещё пока назвать сложно. Тебе потребуется решить сторадж, логи, метрики и вот это всё
Да это понятно, я хотел посмотреть что получается.
а чем лучше/хуже sidero.dev?
Тем, что это мпл😂
Никогда не слышал про sidero.dev 🤔
это абстракция над talos.dev
Kubernetes-in-Kubernetes - это обычный хельм-чарт созданный из дефолтных static-манифестов куба
Kubefarm - это Kubernetes-in-Kubernetes + PXE-сервер, всё
А у них куча кода над кластер апи
Эта штука никуда не ставится, она прямо из RAM работает
ну с талосом удобно что ОС пишется через докерфайл и любое изменение конфига это ребут и по сути установка с нуля всего. т.е. прям иммутабельность
В кубефарм тоже :-3
Обсуждают сегодня