кто-то знает норм способ delete 150К джобов ?
у кого-то встречались такое что docker контейнер виснет и его даже не стопнуть и не убить , кроме как напрямую не отмонтировать у него том в /var/lib/docker/overlay2 ? * есть...
5 мастеров и 5 etcd через kubeadm это на иззи делается ?
у кого-то бывало что при установке докера как здесь (https://kubernetes.io/docs/setup/production-environment/container-runtimes/#docker) с apparmor (он по-умолчанию ставится в...
1. кубер развернут через дефолтный kubeadm с calico 2. периодически на нодах делается iptables -F 3. kubelet или calico сможет на таких нодах восстанавливать iptables для себя...
кто знает самый красивый способ рефрешнуть known_hosts у себя , если машины сменились ?
а это же всегда у кубера было , что 1.N+1.X нода не коннектится в кластер 1.N.X ?
кто-нибудь использовал подобные либы https://github.com/kelproject/pykube или https://github.com/mnubo/kubernetes-py ? Это самое лучшее что есть на питоне для управления Job,...
один мастер на 50 нод это слишком ужасно ? (в кластере только Job выполняются)
Меня apparmor задолбал. Не могу удалить контейнер и kubelet тоже. Его безопасно остановить таким образом? Я слышал , что это вызовет проблемы в каких-то программах
Подскажите плиз. Нормальная ли это конфигурация, если пользователю нужно работать с api-server? Есть ли тут подводные камни, может какой-то функционал kubectl работать не буде...
первое правило клуба , не читать документацию ? :)
что самое простое из CNI для kubeadm+ipv6(only) настройки ?
так а разве сейчас какой-то костыль нельзя вставить чтобы работал swap ? Типа поднять kubelet когда свап вырублен , а потом его врубить.
потеря джоба не страшное дело (в моем случае) . Плюс наверное докеры досчитаются (даже без мастера ?) и с них можно будет вытащить инфу .
хочешь сказать нужно постоянно делать docker prune ? А то докер заваливается от миллионов выполненных контейнеров ?
а кто-то парился с Azure Kubernetes Service, чтобы просто запускать контейнеры, и только потом узнал, что есть Azure Container Instances ?
но если я прописывал kubeadm init --apiserver-advertise-address=<ipv6...> он не должен в него стучаться тогда ?
есть готовое решение ? или надо самому писать сервак , который будет принимать yaml и проверять на валидность
Классический kubeadm нормально разворачивается на машинах только с ipv6 ? Или что-то пойдет не так ?