поочередно сжимать разными вариантами (в режиме теста), чтобы понять как она ведёт себя, кликхаус корректно переводит из любого кодека в любой другой?
только если вы на одной и той же таблице будете кодеки менять, будет очень трудно их между собой сравнивать
План был в том, чтобы взять самые жирные колонки, которые по дефолту меньше всех сжаты, и поочереди на каждой колонке пробовать разные комбинации кодеков и потом собрать статистику. По сути сделать тоже что в статье с числами
скопируйте лучше данные в несколько таблиц с разными кодеками
есть TTL re-compress, можно старые данные пережимать более сильным компрессором
У нас особо старых нету, все прямо сейчас резко полетело, за неделю с 200мб до гига доросли) Репликации нет, один сервак, поэтому менять проще)
<compression> <!-- Set of variants. Checked in order. Last matching case wins. If nothing matches, lz4 will be used. --> <case> <!-- Conditions. All must be satisfied. Some conditions may be omitted. --> <!-- Min part size in bytes. --> <min_part_size>100000000</min_part_size> <!-- What compression method to use. --> <method>zstd</method> <level>1</level> </case> </compression> вот: если размер парта меньше 100000000 байт то LZ4, если больше то ZSTD нужет рестарт
на таких объёмах можно сжатие не оптимизировать, время разработчика дороже. просто возьмите дешёвый нормальный хостинг, например hetzner. возьмите там самый дешёвый сервер (40 евро, 2tb sata или 512 пи ssd) и вам его с головой хватит. либо у них же самую дорогую виртуалку за 50 евро (360gb ssd).
Обсуждают сегодня