2 воркерами. После добавления воркеров в кластер, переодически падают api controller-manager kube-proxy.
api logs
1 controller.go:178] quota evaluator worker shutdown
I1114 11:08:24.623868 1 secure_serving.go:258] Stopped listening on [::]:6443
I1114 11:08:24.624227 1 controller.go:178] quota evaluator worker shutdown
I1114 11:08:24.623983 1 gc_controller.go:91] Shutting down apiserver lease garbage collector
I1114 11:08:24.624214 1 controller.go:178] quota evaluator worker shutdown
I1114 11:08:24.623970 1 apf_controller.go:385] Shutting down API Priority and Fairness config worker
I1114 11:08:24.624309 1 dynamic_serving_content.go:146] "Shutting down controller" name="serving-cert::/etc/kubernetes/pki/apiserver.crt::/etc/kubernetes/pki/apiserver.key"
I1114 11:08:24.623945 1 dynamic_cafile_content.go:171] "Shutting down controller" name="request-header::/etc/kubernetes/pki/front-proxy-ca.crt"
I1114 11:08:24.624498 1 system_namespaces_controller.go:77] Shutting down system namespaces controller
Из за чего может api упасть?
много причин может быть
ищите по чятику containerd cgroup driver systemd
Вы про это? [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc] ... [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options] SystemdCgroup = true
да тут вроде штатное выключение не?
а падают это как? смотрел describe? Копится счетчик рестартов? показывай describe и kubectl get po -o yaml пода kube-apiserver'а
если честно непонятно на каком основании ребята подумали что дело в cgroup драйвере
Периодически The connection to the server 10.10.3.172:6443 was refused - did you specify the right host or port? смотрю crictl ps -a все контейнеры на мастеры легли кроме etcd
Да в драйвере дело 99 147%))
ну такое, о драйвере в логах напишет kubelet
Ниче он там не пишет
E1113 12:45:55.265410 14324 server.go:294] "Failed to run kubelet" err="failed to run Kubelet: misconfiguration: kubelet cgroup driver: "cgroupfs" is different from containerd cgroup driver: "systemd"" или наоборот, в зависимости от конфигурации
ты лучше глянь describe и yaml и поделись с чатом хотя если он не стартанул то это не сделать =)
быстро добавил :) Ток хотел написать что с мертвым апи не увидит)
смотри логи kube-apiserver через crictl
Неееееее))) В 1.27 кубелет с-ка запускается) И работает. А вот статик поды - 2-3 минуты и рестарт
в 1.27 если задать разные драйвера? Странное поведение
По умолчанию ни в кубелете не в контейнерД это явно не указывается. Берутся умолчания. И вот с последним контейнреД похоже драйверы стали разные
если бы не совпадал драйвер - то кубелет падал бы при старте.
не верю. покажи конфиг от своего CRI и настройки kubelet
Обсуждают сегодня