таблицы с прода (включая данные). Возможно какие то аналоги дампов или dblink?
https://clickhouse.com/docs/en/operations/backup или https://github.com/AlexAkulov/clickhouse-backup
https://clickhouse.com/docs/en/sql-reference/table-functions/remote create table test Engine =... as select * from remote(....
Спасибо! Сработало но сейчас другая проблема. В исходной таблице 60M строк, есть json. Сжатая таблица 3.6 Гб. Без сжатия 56 Гб. Когда пытаюсь вставить INSERT INTO table SELECT * FROM remote('') Запрос падает с ошибкой Code: 241. DB::Exception: Received from localhost:9000. DB::Exception: Memory limit (total) exceeded: would use 3.48 GiB (attempt to allocate chunk of 4357904 bytes), maximum: 3.46 GiB. OvercommitTracker decision: Query was selected to stop by OvercommitTracker.. (MEMORY_LIMIT_EXCEEDED) Памяти 4 Гб. Пробовал через limit offset. Но работает только при значениях порядка limit 200 offset 100. Даже при нескольких тысячах уже падает. Можно как то настройки подкрутить что бы можно было данные перелить или есть способы правильно запрос переписать?
Обсуждают сегодня