нибудь сталкивался с тем, что jager-spark при отработке кронджобы выжирает огромное количество памяти и его киляет оом? Сначала была проблема с тем, что ему нехватает хипа джавы. Увеличил хип добавив в https://github.com/jaegertracing/helm-charts/blob/main/charts/jaeger/values.yaml#L495 JAVA_OPTS Xms30g -Xmx30g, на контейнер также выделил 30Gi. Пробовал выдавать 100Gi — все также отваливается. Спан за 1 день чуть больше 200Гб. Джоба spark-dependency запускается каждые 3 часа.
Есть какое то решение для такого огромного потребления памяти?
выбор спарк в качестве backend хранилища чем-то обусловлен? почему не устроил обычный эластик?
Спарк пишет в эластик
попробуйте вариант через кафку. Там намного меньшие объёмы требуются (основываюсь на своей инсталяции)
@rmntrvn, дополнительным плюсом (с кафкой) получите возможность сохранить трейсы, даже если эластик будет временно недоступен.
Он сохраняет все данные в памяти, это нормально
а с чем может быть связано, что джоба jaeger-spark отрабатывает каждые 3 часа, но отрабатывают только ночные джобы? Дневные с 13 до 22 все валятся по памяти. Используется эластик и кафка. По мониторингу с эластиком все норм
с тем что днём работают и другие приложения и свободной памяти меньше? Или объём событий в егере ночью меньше чем днём
чем больше спанов летит, тем ему труднее, и нужно больше памяти ему
я правильно понимаю что у вас работает связка: jaeger agent -> collector -> kafka -> ingester -> elastic? и если да, то зачем тогда нужен спарк?
в веб морде джагера во вкладке system architecture пропала DAG вкладка, она нужна разрабам и я так понял она появляется при успешно отработанных джобах спарка
я всё же не понимаю для чего нужен спарк, если взаимодействие егеря и эластика идёт через кафку вот такая схема вполне успешно работает и не требует гигантских размеров памяти
Обсуждают сегодня