ноды) вместе со всеми данными с одного хостинга (GCP) на другой (DigitalOcean).
На исходном сервере несколько disks и storage_policies. На целевом предполагаются дефолтные.
Думаю, с помощью rsync/scp перетащить директорию с данными или использовать backup/restore. Какой способ сейчас считается предпочтительным для этой задачи?
clickhouse-backup 1.6.x умеет восстанавливать из мультидиск на default
собственно изначально мой вопрос был можно ли поправить тут /var/lib/clickhouse/metadata/system/
не нужно тут править оно пересоздается при старте
Спасибо! Если я правильно понимаю, за счет использования GCS в качестве временного хранилища для дампа, еще получится сэкономить на egress трафике?
ну в целом да.. но все равно egress трафик в GCS никто не отменял
спасибо! Правда теперь не понятно почему в конфиге то TTL и не прописать
Да 🙁 Я почему-то считал, что чтение из GCS бесплатно, но это не так. Расценка такая же как VM -> Worldwide
можно обычный rsync использовать после создания бекапа в DO
TTL также в engine прописывается
ну так и энжин можно описать в сонфиге. Зачем в отдельном файле?
Спасибо, согласен. Этот способ будет удобнее. Я правильно понимаю, что на целевой машине мне не нужно будет руками описывать таблицы, MV и т.п. Они будут автоматически созданы при восстановлении дампа утилитой clickhouse-backup?
вам надо как то понять логику объединения конфигов потому что в отдельном файле менеджить удобнее config.xml может быть переписан при обновлении версии clickhouse-server и ваша настройка потеряется
мы не рекомендуем менять config.xml и user.xml, потому что иначе возникают проблемы при апгрейде КХ
Обсуждают сегодня