Любой вменяемый человек знает что брать технологии с вертикальным скалированием в 2023 тупо, поэтому там где нужны задачи обработки большого объёма данных (и следовательно требования параллелизма), берут распределенные стрим фреймворки, а не ин-процесс парашу, которую можно скалировать только улучшением железа
А в ситуации если мне нужно сделать массу независимых запросов к апи не принимающему массив то в таком случае без параллелизма не обойтись
Ну да, для таких вещей есть хорошие экстеншны над ченелами, ща найду
А можно попонятнее?
Датафлоу не умеет работать в кластере. Единственный способ обработать больше информации - это скейлинг компухтера, а цена там растёт в геометрической прогрессии
а какие стрим фреймворки есть? орлеанс?
То есть, когда у тебя много данных, надо брать что то, что умеет параллелить задачу на множество машин, а не в одной?
Обсуждают сегодня