184 похожих чатов

> Ведь наверно CH сохраняет крайние значения колонок, по которому

делается нарезка партиций и не обращается к лишним кускам?

Верно.

> А что мешает это делать в таблицах в целом и с аналогичной скоростью выполнять запрос с Merge?

Для обычных MergeTree с помесячным партиционированием условие на дату тоже используется для выбора кусков. Конечно, если вы партиционируете не только по дате, но и по чему-либо ещё, то второе условие будет использоваться только в таблице нового стиля.

Скорее всего проблема с производительностью для Merge-таблицы связана со статическим распределением потоков выполнения. Предположим у вас max_threads=16 и для ровного счёта Merge-таблица над 16 MergeTree. Вы задаёте запрос с условием, под которое подпадают только данные одной таблицы. Получается они будут вычитываться в 1 поток. А для таблицы с PARTITION BY в 16 потоков.

1 ответов

12 просмотров

Да кстати, я посылаю запрос в котором участвуют все таблицы, т.е. не ограничиваю его по дате или тому доп.критерию. Например запрос с like на одну из ~100 колонк. Поэтому и ожидаю, что такой запрос должен разойтись параллельно на все таблицы и выполниться за приблизительно одинаковое кол-во времени и там и там. А сладывается ощущение, что с Merge они действительно вычитываются в конце последовательно. —---------- ### clickhouse-partition_by (1498 кусков) select count() from test_partition_by where column1 like '%test'; 1 rows in set. Elapsed: 0.914 sec. Processed 291.04 million rows, 6.97 GB (318.44 million rows/s., 7.63 GB/s.) select * from test_partition_by where column1 like '%test'; 88 rows in set. Elapsed: 15.183 sec. Processed 291.04 million rows, 7.76 GB (19.17 million rows/s., 511.41 MB/s.) —---------- ### clickhouse-merge+mergeTree (1020 таблиц, состоящих из 1183 кусков) т.е. в основном все из одного куска. select count() from test_merge where column1 like '%test'; 1 rows in set. Elapsed: 1.031 sec. Processed 291.04 million rows, 6.97 GB (282.21 million rows/s., 6.76 GB/s.) select * from test_merge where column1 like '%test'; 61 rows in set. Elapsed: 120.695 sec. Processed 193.00 million rows, 252.44 GB (1.60 million rows/s., 2.09 GB/s.) (ps. в последнем результатов меньше так как в конфиге ограничили время до 120сек.)

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта