Какой принцип обработки данных? например DateTime CODEC(Delta(2), ZSTD(1))
В колонках лежат подряд значения из разных строк в порядке order by таблицы. Стрим этих значений режется на куски по 64kb (зависит) и дальше накладываются все кодеки по очереди. В вашем случае дельта и сверху zstd. Если кодеков на колонке нет, то используется компрессор из config.xml Есть возможность указать компрессор default CODEC(Delta, default ) это нужно для TTL recompress.
Получается что это двойное сжатие. Соответсвенное и разжатие. Чем сильнее сжатие меньше места и больше процессорной модности на извлечение. Верно?
Типа да. Иногда это имеет смысл потому что место сильно экономится иногда нет. Zstd очень хорош и зачастую жмёт лучше и быстрее чем Delta/doubledelta/gorilla https://kb.altinity.com/altinity-kb-schema-design/codecs/ https://kb.altinity.com/altinity-kb-schema-design/codecs/altinity-kb-how-to-test-different-compression-codecs/ https://kb.altinity.com/altinity-kb-schema-design/codecs/codecs-speed/
поэтому не надо всегда стремиться к максимальному сжатию — например, в облачных сервисах процессорное время дороже дискового пространства, так что надо искать компромиссное сочетание
Вот мне как раз надо хранить холожнные данные эффективно, но жти данные периодически могут подыматься. Пока в процессорное время не упираемся. Свое железо. Много Float и его хотелос бы немного поджать
https://kb.altinity.com/altinity-kb-queries-and-syntax/ttl/ttl-recompress-example/ Старые данные пережать в zstd(3) декомпрессия у него очень легкая
Обсуждают сегодня