наскейлятся мимо стейта
А при удалении самой asg он не удаляет все ноды, "подключенные" к самой asg ?
не уверен, надо смотреть. У меня автоскейлер работает через cluster-api, возможно он там в шаблонах циферку меняет, так и скейлит. Если так, то вопрос не актуален, все удалится
Причем тут вообще тф
причем тут кубик?
я тебе про то что тф не должен отвечать за автоселинг нод куба, это две разные сучности
дак а том блэт и загвоздка. тф подымает инфру утром, вечером тушит. В теории должны оставаться ноды сиротки.
lifecycle { ignore_changes = [scaling_config.0.desired_size] } про это наверное
ну, не надо создавать ноды сиротки, очевидно же. Какой бекенд ?авс?
cluster-api / hetzner
так вот обычно и счтается хорошей практикой для екс, ты поднимаешь кластер у тебя всего один воркер куда прилетают так сказать кор модули, а уже дальше у тебя деплоится автоскеллер на выбор и он управляет скелингом, при сносе сначала выносишь ворклод а уже потом саму инфру
хз как оно работает в хетцнере, но частенько если ты дропаешь оператор - он дропает и сущности. МБ он у тебя и доп ноды дропнет
может, не проверял %))
операторы по другому не работают, если улетает ресурс оператора то оператор обязан вычистить все дочерние ресурсы по графу, если он это не сделает и не делает тогда это уже ишью разрабам
не уверен что это сработает с нодами
вообще работает) покрайней мере у меня проблем не было в aws
В aws автоскейлинг группы же
не всегда смотря как сделаешь
что бы ноды убрались надо что бы кто то их убрал, если ты карпентер снес то некому
ты не карпертер снести вначале должен
дык я о том и гооврю
объект конечно)
ну то есть ноду удолить?)
я не говорил про ноду я говорю про обьект
CR соответствующий? Или что? я тебя не понимаю, соре
что такое обьект в операторе
О, квиз пошел
ты либо издеваешься либо я даже хз, карпертер оператор и там есть ряд CR, собственно стандартное фло для операторов
собственно это и есть обьект для оператора
Ну дык, это понятно, что если CR дропнуть, то поедет удаление всех зависимых от этого CR сущностей, и запуск финализатора. Я скорее сомневаюсь что это можно повесить на ноды, т.к. ни разу такого не встречал
Background: EC2 instances can exist in an AWS account outside of the Kubernetes cluster. Threat: An actor who obtains control of the Karpenter pod’s IAM role may be able to create or terminate EC2 instances not part of the Kubernetes cluster managed by Karpenter. Почему нельзя?
Обсуждают сегодня