1 контейнер completed (cron job), то кубер убил linkerd-proxy? А то job отработал но под продолжает висеть из за работающего linkerd-proxy
оу. недавно с такой же проблемой приходили... никто не смог помочь. ;) Попробуй джобу прописать activeDeadlineSeconds: 120
сайдкаром там?
Но у меня cron job, почитал про эту команду, она зафейлит job, то есть оно пересоздаваться будет раньше чем мне нужно (например каждые 120 сек, если я правильно понял)
- node index.js && kubectl exec -n ${POD_NAMESPACE} ${POD_NAME} -c istio-proxy -- bash -c "sleep 5 && /bin/kill -s TERM 1 &" вот истио сайдкары я убиваю так )) есть еще https://github.com/cropse/K8S-job-sidecar-terminator
эм нет. она не зафейлит джоб. при превышении лимита - под, который джоб создал будет удален.
ну если знаешь более изящный способ, поделись )
Ага, знаю - у меня нет istio)
https://github.com/karlkfi/kubexit
погоди, а как он узнает, что надо убивать сайдкар отработавшей джобы, я чет не вдупляю
Там папочка examples есть, в ней примеры
Кстати есть куда более простой путь: shareProcessNamespace: true https://kubernetes.io/docs/tasks/configure-pod-container/share-process-namespace/
ты тестил такое? я нет ) вот попробуй, будет ли такое работать с джобой? )
почему нет? podSpec то общий
Обсуждают сегодня