данных. Обработка долгая и прожорливая до памяти. Кластер не резиновый и хотелось бы соблюсти баланс между возможностями и желанием. Желание - обрабатывать столько задач параллельно, сколько позволяет свободная память на данный момент времени. Т.е. идеально чтобы всегда был запущен хотя-бы экземпляр для обработки и остальные создавались в случае не пустой очереди пока память позволяет. Есть стандартные пути решения?
Выглядят похожим образом job'ы. Но кто их создавать должен для каждого задания из очереди?
Spark + storm cluster
Хотя технологии не озвучены, поэтому будут стоковые) Еще есть маза, вроде бы, у AirFlow с DAG, но я это не колупал
Сейчас это просто несколько вечных подов в кубере...
А, ну в таком случае🤔 хз, самописный оператор? Который будет мониторить очередь и память кластера. Мб кто-то стек подскажет, я прост вне кубера делал spark+storm
Это как раз тот случай, которого хотелось избежать... 😀 Велосипед это круто, но долго...
🤷♂тоды больше деталей где очередь, кто исполнитель и вот это все) а так...ну где-то очередь, какие-то статик поды...мож тебе вообще подойдёт дженкинс с динамическими воркерами)
Очередь redis queue, исполнитель python. :)
Смотри, нашел такую штуку. Функционал очень приличный. Если попробуешь - отпишись, пожалуйста
О, спасибо! Действительно. На неделе попробую!
Обсуждают сегодня