кушают условно 500цпу, но потом работают спокойно при 50. Мы решили так и поставить limit: 500, request: 50.
Однако возникает вопрос: если у меня упадёт нода, нет ли риска, что шедулер разом перенесет несколько адаптеров на другую ноду, они разожрутся до 500цпу и будут. валить одну ноду за другой?
Если сделать реквесты и лимиты одинаковыми, выходит очень дорого. Если занизить лимит до условных 300цпу,адаптер запускается очень долго.
Можете подсказать про практики выставления requests/limits?
Да, так и будет. В один прекрасный момент вы получите свалку всего на одной ноде. Она перестанет быть доступной, скедулер перепланирует эти поды на другую ноду и приляжет следующая. И так пока все ноды не улетят в валхаллу.
Anti-affinity вас не спасёт? Поставите условие чтобы адаптеры не запускались на одной ноде. Если я правильно понял вопрос.
это не риск - так и будет. Есть на эту тему старый тикет https://github.com/kubernetes/kubernetes/issues/3312 но решения для этого нормального нет, как вариант рандомный sleep в инит контейнере (привет старой технике с разбрасыванием кронов по разным секундам), есть вот такое решение https://github.com/serhii-samoilenko/pod-startup-lock
Обсуждают сегодня