существенные проблемы с памятью при заливе данных в таблицу, как в шеле через
| clickhouse-client --query "INSERT INTO ... FORMAT CSV"
так и при копировании/создании таблицы в клиенте через
CREATE TABLE ... AS SELECT ...
Либо память просто кончается и падает исключение, либо упираюсь в любой (доступный в рамках RAM) лимит на пользовательский запрос и падает исключение, либо приходится делать здоровый swap и все тормозит.
Это проблема имеет решение? Поменять какую-то настройку, класть данные кусками? Почему вообще при поточном не рекурсивном заливе так происходит?
Кеш марков по умолчанию 5гб
Обсуждают сегодня