катил kubespray, одну потом спустя некоторое время удалил, последнюю, s6. Добавил еще 2 ноды, сделал между ними локалку и потом раскатил эти же роли kubespray, но с другими hostname на эти 3 сервера. Старую шестую ноду, перед тем как катить на нее новый кластер, сделал reset kubespray и kubadm. Без полной перенастройки ноды, т.к на ней были данные.
Сейчас ситуация следующая, новый кластер из 3-х нод, если через hosts обращаться на первую ноду в ingress и далее по svc на дальнейшие сервисы, то во всех логах этих сервисов указывается ip-адрес этой НОДЫ, что приводит к неработоспособности deny листов.
А ноды, которые были настроены с нуля, на них таких проблем в этом же кластере, нет. Ingress-nginx один и тот же. Причем касается это не только ingress’а, а вообще всего, будь та же монга или mysql.
Итого получается что на первой ноде deny листы не работают, а на двух других работают, если на них попадаешь.
Куда посмотреть?
Подскажет кто?
Ну посмотрите кто-нибудь, пожалуйста))
как у вас трафик заходит? зачем через hosts идти?
ingress-nginx запущен с hostnetwork на 80,443
externalTrafficPolicy что стоит?
Не задавали. По умолчанию. Это не только для ингресса такая проблема, для любых сервисов внутри.
https://kubernetes.io/docs/tasks/access-application-cluster/create-external-load-balancer/#preserving-the-client-source-ip
Ты уверен ??? Сколько подов с ингресс контроллером запущено ? А то выглядит это так, что есть три узла. На двух есть поды с приложухой, а трафик снаружи через сервис с external ip в кластер попадает. И на узле двойной нат происходит, меняется адрес источника, когда пакет уходит на другой узел
3 узла, 3 ингресс контроллера, за ними svc и приложение в одном экземпляре. так вот, если приложение работает на первой ноде, то в логах у себя пишет айпи самой этой первой ноды, а на двух других серверах нормально externalIP (svc) не использую
Ну как бы так и есть. А в чем вопрос?
В том, что любые запросы, которые приходят на первую ноду, в логах фигурирует айпи адрес самой этой первой ноды, а не клиента. А на двух других клиента.
Сам под работает в одном экземпляре
Узел ребутал ? Ну или хотя бы очищал правила иптейблес и ипвс ? Теоретически могли остаться от предыдкщего кластера Покажи манифесты. На пасте бин. Ингресс контроллера, сервисов, подов K get pod -o yaml
Обсуждают сегодня