лог апи посмотри, лог кублета и лог контейнерд
причина падения там будет - других мест где искать - нет
порт не живой, логи апи и контейнерд нечего криминального не показывает, а вот куберет kubelet.service: Scheduled restart job, restart counter is at 10. Nov 14 14:37:34 srv-asua-app1.qg.kz systemd[1]: Stopped kubelet: The Kubernetes Node Agent. Nov 14 14:37:34 srv-asua-app1.qg.kz systemd[1]: Started kubelet: The Kubernetes Node Agent. Nov 14 14:37:34 srv-asua-app1.qg.kz kubelet[5877]: E1114 14:37:34.852797 5877 run.go:74] "command failed" err="failed to load kubelet config file, path: /var/lib/kubelet/config.yaml,error failed to read kubelet config file \"/var/lib/kubelet/config.yaml\", error: open /var/lib/kubelet/config.yaml: no such file or directory"
а, у тебя kubelet даже не стартанул что-то странное, куда делся /var/lib/kubelet/config.yaml?
Падает, файлик на месте)
а почему в логах пишет что не на месте? логи актуальные? У тебя kubelet перезапускается или всё таки работает?
Файлик актуальный, если перезапустить его он поднимается и контейнеры живут около минут и падает все
а в config.yaml какой cgroupDriver указан? И указан ли? @s2504s говорит что сталкивался с таким рестартом по кругу, когда cgroup драйвера разные указаны (раньше в таких кейсах kubelet просто не стартовал)
По умолчанию (для дебиана) config.toml отсутствует. Я включал это принудительно через создание файла и явного указания опции
cgroupDriver: systemd
config.toml это cointaierd конфиг, я про config.yaml kubelet, поскольку он выше писал что в config.toml containerd у него systemd стоит
это в кубелете?
/var/lib/kubelet/config.yaml
Тебе надо контейнерди конфиг сделать, но ребята тебе это уже повторили раз десять
https://t.me/kubernetes_ru/766891
Он есть /etc/containerd/config.toml [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc] [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options] SystemdCgroup = true
А он точно применился ?
Рестартанул containerd
там вообще конфиг по длиннее надо и он меняется от версии к версии советую выполнить containerd config default он распечатает дефолтный конфиг, внести туда правки и сохранить его в /etc/containerd/config.toml
Вроде помогло, понаблюдаю еще. Спасибо всем за советы🫡
не долго счастье длилось, опять упало. "Error updating node status, will retry" err="error getting node Get \"https://10.10.3.172:6443/api/v1/namespaces/kube-system/pods/kube-controller-manager-srv-asua-app1.qg.kz\": dial tcp 10.10.3.172:6443: connect: connection refused"
false
да ты подожди хоть, чтобы у тебя всё поднялось на мастере =) и чтобы с мастера хоть kubectl начал работать
Поднялось там все, я даже cni не успел поставить как все упало
при этом kubeadm Отработал ? :)
kubectl отработал, все поды запустились. Через минуты все отвалилось. На мастере все контейнеры упали кроме etcd
значит не выставил всё таки Что-то такое должно быть ... [plugins] .... [plugins."io.containerd.grpc.v1.cri"] ... [plugins."io.containerd.grpc.v1.cri".containerd] .... [plugins."io.containerd.grpc.v1.cri".containerd.runtimes] ... [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc] ... [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options] ... SystemdCgroup = true (Боже, кто этот toml придумал) ну и перезапустить containerd надо
ты не ответил на вопрос, kubeadm отработал ?
Ага, не туда воткнул crictl info | jq .config.containerd.runtimes.runc.options.SystemdCgroup true
перезапускай containerd, перезапускай kubelet жди
А что у тебя со временем на серверах ??? В логах 14:37, А телега пишет, что сообщение создано в 14:33
Это тестовые, еще не правил
ну и зря. ))) из-за этого может падать. тот же etcd не смог собраться. вот api сервер и падает
Там один мастер, так что не должно мешать по идее
Обсуждают сегодня