несколько десятков миллионов записей (размером в 12GB) мне надо его загрузить в базу clickhouse.cloud. Может кто-то сможет подсказать как лучше это сделать через clickhouse-client? пробую делать через: cat events.sql | clickhouse-client --database db_name_here --password some_password_here --host some_host_here --secure и процесс падает жалуясь на broken pipe. А clickhouse-client --database db_name_here --password some_password_here --host some_host_here --secure --queries-file events.sql просто висит какое-то время и выходит без выполнения запроса.
С сервера залить, чтобы ошибки сети отсечь
--progress --receive_timeout 7200 добавьте broken pipe странно вообще, не должно быть по идее
к сожалению, не помогло —progress не дал никакого эффекта, но висело чуть дольше чем без —receive_timeout, в итогде получил zsh: killed clickhouse-client, похоже придётся разбивать на мелкие файлы и вставлять их по одному
broken pipe в такой конфигурации означает что или cat или clickhouse-client неожиданно завершилась и соответственно закрыла анонимный пайп между ними который служит для перенаправления ввода вывода. Может cat в докере не может осилить этот файл (памяти в контейнере не хватает и т.д.), может в файле ошибка и clickhouse-client соответственно из-за этого отваливается.
я не в докере, 64гб оперативки, cat > file работает корректно
64g там где clickhouse-client и cat запускаются или на сервере?
там где client. и cat, сервер у меня clickhouse cloud
clickhouse-client --version что говорит?
не у компа сейчас, вечером гляну, должен быть последний из репозитория для убунту. Обновлял пару дней назад пакеты
Обсуждают сегодня