Необходимо подготовить мини кластер на двух железках и затем перевезти их на постоянное место. Т.е. полностью выключив сервера при этом.
Поднял чистый кластер с 3 мастерами (kubespray) на двух железках (ESXi), провел первичную настройку. Выключил их на ночь, утром запустил - get no говорит Ready, но на одном мастере под с Calico в состоянии CrashLoopBackOff
Находил Issue с "хотфиксом":
—-
Fortunately increasing timeoutSeconds for both livenessProbe & readinessProbe from 1 to 60 fixes the issue.
kubectl edit -n kube-system daemonset.apps/calico-node
kubectl edit -n kube-system deployment.apps/calico-kube-controllers
@caseydavenport Thank you very much
—-
Но особо не помогло, постепенно остальные поды начали переходить в состояние
kube-apiserver-k8s-i-m01 0/1 Running 6 (<invalid> ago)
kube-proxy-dhn6t 1/1 Running 1 (<invalid> ago)
kube-scheduler-k8s-i-m01 0/1 Running 6 (<invalid> ago)
Какой-то закономерности не нашел.
логи покажи
В логах сейчас пусто. В describe: (combined from similar events): Readiness probe failed: 2022-03-17 08:57:19.379 [INFO][12410] confd/health.go 180: Number of node(s) with BGP peering established = 0 calico/node is not ready: BIRD is not ready: BGP not established with 10.80.0.4,10.80.0.1,10.80.0.3,10.80.0.5,10.80.0.6,10.80.0.7 Сеть одноранговая, друг друга видят без проблем. Никаких сетевых фильтров нету
Сетевой плагин отъехал
Стейтфул нужен?
Обсуждают сегодня