профиль нагрузки это чтение кафки через kafka table > mv > replacing MT + построение отчетов на этих данных. Таблиц много, но общий объем данных сейчас около 300гб, в ближайшее время кратно должно увеличиться количество данных.
Думаю на счет 32/128 минимум, желательно 48/196, но можно ли как то более точно рассчитать?
ну посмотрите SELECT max(memory_usage), max(read_bytes) FROM system.query_log например вставка у вас не должна сильно много память жрать, но где то по 1-2Mb на колонку на каждую вставку.. такие буфера... а отчеты с GROUP BY должны память отжирать...
Обсуждают сегодня