на vDS был тип балансировки нагрузки iphash (предполагает статическую группировку портов на физ свичах), воткнуты в два nexus 5k (через fex по 1/2 линка в каждый нексус). На нексусе были portchannel для хостов, мы их убрали (по схеме: оставляем один включенный линк - удаляем portchannel) - хосты перевели на другой vDS с тимингом/балансировкой portid (дефолтная, не требует никаких объединений на физ свичах) после этого все линки подняли. Проблема в том, что теперь некоторые ВМ в этом кластере не видят друг друга в пределах одного вилана. Также хосты/виртуалки других кластеров в некоторых случая не видят по сети эти виртуалки (опять же в пределах одного вилана, если через шлюз - все ок). Сетевиков допрашивал, их конфиги смотрел, вроде все нормально. Проблема плавающая, мигрируешь виртуалку на другой хост - связь восстанавливается, гасишь/включаешь линки esxi по одному - связь восстанавливается. Еще прикол ВМ А не пингует ВМ Б, при этом если пустить пинг в обратном направлении, то связь тоже налаживается О_о..... хосты ребутал, esxi переустанавливал, vDS еще один делал, шаркой rarp ловил при миграции.
Подскажите куда можно копнуть в данной ситуации?
Из идей, посмотреть что происходит с arp записями на свичах при миграции виртуалок. Может они не очищаются.
спасибо попробуем
Обсуждают сегодня