и какой объем данных бекапируется?
что посоветуете для объемов 30 ТБ+?
30+ это на один сервер или на несколько? у нас есть инсталяции clickhouse-backup где 15-20Tb на один сервер, нужны жирная сеть для remote_storage и чтобы CAP_SYS_NICE была выставлена capability чтобы clickhouse-backup мог себя по приоритетам ограничить в целом sync внутри VM и стапшоты инкрементальные VM тоже работают, но при восстановлении какие то парты могут в detached уйти...
А как согласуются бекапы клика с бекапами зукипера или кликкипера?
из коробки никак... более того clickhouse-backup не бекапит replication_queue стейт для ReplicatedMergeTree таблиц при полном восстановлении... сначала делается DROP TABLE что чистит состояние реплики... потом CREATE TABLE получаем пустую реплику и потом ATTACH PART - который реплицруется по остальным репликам при частичном восстановлении у вас просто ATTACH PART
Вы имеете ввиду, если зукипер с нуля? Или в любом случае?
в любом случае бекап кипера это бекап кипера... просто как то состояние сохраняете... бекап кликхауса это бекап данных кликхауса
На таких обьемах бекапирование экономически мало целесообразно. Просто посчитайте стоимость СХД на 7 дней хранения (например) и время восстановления. Клик это не Postgre.
На таких объемах только снепшоты. Можно глянуть в сторону zfs или ceph
Обсуждают сегодня