184 похожих чатов

UPD: Переписал запрос с рандом инпутом чтобы можно было сразу выполнять

=)

Повторю вопрос с возможными workarounds: есть таблица с полями [key1, key2, EventId] с огромным количеством строк (>40 миллиардов).
SELECT
count(*) AS TotalDistinctKeysCount,
countIf(aaa_count < 20) AS keys_with_aaa_event,
countIf(bbb_count < 20) AS keys_with_bbb_event,
countIf(ccc_count < 20) AS keys_with_ccc_event,
countIf(ddd_count < 20) AS keys_with_ddd_event,
countIf(aaa_count >=20 and aaa_count<70) AS keys_with_2_aaa_events,
countIf(bbb_count >=20 and bbb_count<70) AS keys_with_2_bbb_events,
countIf(ccc_count >=20 and ccc_count<70) AS keys_with_2_ccc_events,
countIf(ddd_count >=20 and ddd_count<70) AS keys_with_2_ddd_events,
countIf(aaa_count >= 70) AS keys_with_many_aaa_events,
countIf(bbb_count >= 70) AS keys_with_many_bbb_events,
countIf(ccc_count >= 70) AS keys_with_many_ccc_events,
countIf(ddd_count >= 70) AS keys_with_many_ddd_events
from (
-- подзапрос возвращает миллиарды строк
SELECT
key1 as key1,
key2 as key2,
countIf(eventid = 35) AS aaa_count,
countIf(eventid = 31) AS bbb_count,
countIf(eventid = 30) AS ccc_count,
countIf(eventid IN (30, 32, 31, 28, 35)) AS ddd_count
from (
select rand()%10 key1, rand(2)%12 key2, rand(3)%40 eventid from numbers(100000)
)
GROUP BY
key1,
key2
);

Так как у подзапроса высокий кардиналити по ключам [key1,key2], он падает из-за нехватки памяти.
Есть конечно вариант руками итерировать по партициям и самому складывать в приложении.
max_bytes_before_external_group_by, судя по всему, работает только на внутреннем уровне. (можеи кто подтвердить?)
Есть ли вариант у кликхауса спиллить промежуточные данные в диск или переписать запрос более эффективно без подзапроса?

На данный момент workaroundы пришедшие в голову:
1. забитмапить весь подзапрос в "бины" и положить в одну 8/16 битную колонку и потом уже в готовом виде передавать наверх. Это не то, чтобы решит проблему. Но отложит её до больших объёмов данных. Минус - это не полноценное решение.
2. mat-view и все дела, минусы - слишком статично. Мы не хотим, запросы ad-hoc и комбинаций слишком много.
3. Разбить запрос на под-части сырых данных и объединить саггрегированные по Union all и саггрегировать ещё раз. Не пробовал, но может он будет их по очереди запускать?

Есть ещё мысли?

1 ответов

14 просмотров

1/256 результат должна помещаться в память. Смотрите видео Алексея Миловидова про групбай

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта