=)
Повторю вопрос с возможными workarounds: есть таблица с полями [key1, key2, EventId] с огромным количеством строк (>40 миллиардов).
SELECT
count(*) AS TotalDistinctKeysCount,
countIf(aaa_count < 20) AS keys_with_aaa_event,
countIf(bbb_count < 20) AS keys_with_bbb_event,
countIf(ccc_count < 20) AS keys_with_ccc_event,
countIf(ddd_count < 20) AS keys_with_ddd_event,
countIf(aaa_count >=20 and aaa_count<70) AS keys_with_2_aaa_events,
countIf(bbb_count >=20 and bbb_count<70) AS keys_with_2_bbb_events,
countIf(ccc_count >=20 and ccc_count<70) AS keys_with_2_ccc_events,
countIf(ddd_count >=20 and ddd_count<70) AS keys_with_2_ddd_events,
countIf(aaa_count >= 70) AS keys_with_many_aaa_events,
countIf(bbb_count >= 70) AS keys_with_many_bbb_events,
countIf(ccc_count >= 70) AS keys_with_many_ccc_events,
countIf(ddd_count >= 70) AS keys_with_many_ddd_events
from (
-- подзапрос возвращает миллиарды строк
SELECT
key1 as key1,
key2 as key2,
countIf(eventid = 35) AS aaa_count,
countIf(eventid = 31) AS bbb_count,
countIf(eventid = 30) AS ccc_count,
countIf(eventid IN (30, 32, 31, 28, 35)) AS ddd_count
from (
select rand()%10 key1, rand(2)%12 key2, rand(3)%40 eventid from numbers(100000)
)
GROUP BY
key1,
key2
);
Так как у подзапроса высокий кардиналити по ключам [key1,key2], он падает из-за нехватки памяти.
Есть конечно вариант руками итерировать по партициям и самому складывать в приложении.
max_bytes_before_external_group_by, судя по всему, работает только на внутреннем уровне. (можеи кто подтвердить?)
Есть ли вариант у кликхауса спиллить промежуточные данные в диск или переписать запрос более эффективно без подзапроса?
На данный момент workaroundы пришедшие в голову:
1. забитмапить весь подзапрос в "бины" и положить в одну 8/16 битную колонку и потом уже в готовом виде передавать наверх. Это не то, чтобы решит проблему. Но отложит её до больших объёмов данных. Минус - это не полноценное решение.
2. mat-view и все дела, минусы - слишком статично. Мы не хотим, запросы ad-hoc и комбинаций слишком много.
3. Разбить запрос на под-части сырых данных и объединить саггрегированные по Union all и саггрегировать ещё раз. Не пробовал, но может он будет их по очереди запускать?
Есть ещё мысли?
1/256 результат должна помещаться в память. Смотрите видео Алексея Миловидова про групбай
Обсуждают сегодня