или до нескольких секунд?
Как я понял гранулярность влияет на количество выставляемых засечек (и на объем от засечек), но не на объем хранения основных данных, при увеличении гранулярности с 8 тыс. до 32 тыс - сжатие не будет проводиться бОльшими или меньшими блоками.
Со сжатием тоже экспериментирую на уровне колонок, если я правильно понимаю сжатие таблицы это то же самое, только вариант "по умолчанию" - т.е. если не указываю сжатие для колонки.
ReplacingMergeTree - спасибо, посмотрел.
Мне к сожалению не подойдёт - мне надо хранить сырые логи веб-серверов, а при атаках там много очень одинаковых запросов, которые в такой таблице схлопнуться до одной записи в секунду.
Можно сократить, как сказал @den_crane, если серверы с КХ не выключаются по питанию
Сжатие, что я имел ввиду - сжатие файлов с помощью lz4
Если логи веб серверов то играйтесь с сортировкой это сильно влияет на сжатие, как минимум сортируйте по локейшену, обычно для них данные +- похожи
Обсуждают сегодня