| grep rook-ceph-mds
rook-ceph-mds-rook-ceph-a-5dc9d4f4bc-lv5k2 1/1 Running 0 30h
rook-ceph-mds-rook-ceph-b-7fc5f59d8c-4shzr 1/1 Running 1 25d
rook-ceph-mds-rook-ceph-c-558d76bd55-pdtx6 1/1 Running 0 34d
rook-ceph-mds-rook-ceph-d-c7bbdb795-rprj6 0/1 Pending 0 15m
Зачем он запускает 4-й под, когда ноды всего три?
Естественно он его не может запустить по affinity, т.к. не найдет свободной ноды...
описание дейплоймента покажи полностью
Ok. Через 2 ч.
Думаю причина в этом: k get deployments NAME READY UP-TO-DATE AVAILABLE AGE csi-cephfsplugin-provisioner 2/2 2 2 51d csi-rbdplugin-provisioner 2/2 2 2 51d rook-ceph-mds-rook-ceph-a 1/1 1 1 47d rook-ceph-mds-rook-ceph-b 1/1 1 1 47d rook-ceph-mds-rook-ceph-c 1/1 1 1 47d rook-ceph-mds-rook-ceph-d 0/1 1 0 47d rook-ceph-mgr-a 1/1 1 1 51d rook-ceph-mon-a 1/1 1 1 51d rook-ceph-mon-c 1/1 1 1 51d rook-ceph-mon-e 1/1 1 1 5d17h rook-ceph-operator 1/1 1 1 51d rook-ceph-osd-0 1/1 1 1 51d rook-ceph-osd-1 1/1 1 1 51d rook-ceph-osd-2 1/1 1 1 51d rook-ceph-tools 1/1 1 1 51d То есть почему-то возник лишний деплоймент, может быть я где-то накосячил? Убрать его не получается, он восстанавливается. Ок, подумав, сделал так: kubectl scale -n rook-ceph deployment rook-ceph-mds-rook-ceph-d --replicas=0 Под таки убрался, вроде все работает, но вопрос остался. Откуда вообще взялся 4-й деплоймент, когда ноды три? Деплоймент здесь не привожу, т.к. он очень большой, но если нужен, файл прикреплю...
Обсуждают сегодня