Пытался через cat dataset.csv | clickhouse-client --query="INSERT INTO dataset FORMAT CSV"
Процесс выдает Killed после вставки примерно 30% данных
Первое, что в голову пришло, на 4 файла порезать и по очереди вставлять
да, но думал есть ещё какие-то варианты. И мне скорее интересно разобраться в причинах такого поведения.
в с3 залить и потом insert into select from s3()
cat dataset.csv | clickhouse-client --query="INSERT INTO dataset FORMAT CSV" --max_insert_block_size=10000
Добавлю, s3Cluster использовать не стоит - он жрет память, хотя и быстрее
к сожалению также killed.
--max_execution_time=секунд
не помогает. скорее с памятью как-то связанно
Обсуждают сегодня