k8s.io/client-go/informers/factory.go:134: Failed to watch *v1beta1.CSIStorageCapacity: failed to list *v1beta1.CSIStorageCapacity: the server could not find the requested resource
reflector.go:138] k8s.io/client-go/informers/factory.go:134: Failed to watch *v1.PodDisruptionBudget: failed to list *v1.PodDisruptionBudget: the server could not find the requested resource
Они могут мешать работе?
Видимо пока ничего не сделаешь 😞 https://github.com/kubernetes/autoscaler/issues/2054#issuecomment-817962760
Молодец, ишью читать - правильное дело
Вот тут вроде говорят что пофиксили, но не понимаю - попала ли эта ветка в актуальный мастер: https://github.com/kubernetes/autoscaler/pull/4020
коммон, ты правку видел? =) Там просто role испаравляется, доступов больше дать надо. Исправь просто роль и все
Пичаль. Значит у меня эта правка уже есть 😞 До этого ругалось на нехватку прав: reflector.go:138] k8s.io/client-go/informers/factory.go:134: Failed to watch *v1beta1.CSIStorageCapacity: failed to list *v1beta1.CSIStorageCapacity: csistoragecapacities.storage.k8s.io is forbidden: User "system:serviceaccount:kube-system:cluster-autoscaler" cannot list resource "csistoragecapacities" in API group "storage.k8s.io" at the cluster scope
эти ошибки не выглядят как важные, ну нет этих ресурсов и пофиг, это наверное ворнинги прост
Я тоже подумал что раз он дальше пишет про пул, возможно это не критичные варнинги. Но тогда не понимаю почему он пишет это: hetzner_node_group.go:421] Set node group pool1 size from 0 to 0, expected delta 0 Если я правильно понимаю логику, он в любом случае должен поздать минимальное кол-во нод (я выставил 1).
нет, он поднимает ноды только когда есть поды в Pending, и если эти поды смогут зашедулиться на новые поднятые ноды (то есть все taints, nodeSelector подходят)
Теперь становится понятно 😊 Спасибо
Обсуждают сегодня