на запись и редкими чтениями
может ли кликхаус держать большую нагрузку на небольшие и простые чтения из одной таблицы?
например:
rps: 50k
records to read per query: 10-20k
Нет, не может. Рассматривайте ее как OLAP - запросов в час.
Теоретически можно сделать, но придётся тюнить. 1. Оптимизация схемы и запросов, смотрите clickhouse in the storm, тюнинг конфигурации КХ 2. Высокий фактор репликации для увеличения qps 3. Шардирование данных по ключу, выполнение запроса в пределах шарда как идеал Ну и конечно много хорошего железа под это дело
если запросы не тяжелые. ограничить запросы max_threads=1 и много ядер. Просто в КХ нет кеша запросов/statement cache и прочего, поэтому наверное не стоит. если есть повторяющиеся запросы лучше сделать свой кеш. Прямо вот полный ad-hoc с высоким qps будет сложно.
50k rps в КХ? Хорошая тема для первоапрельской статьи про антипаттерны. Оно и для mysql/postgress уже как-то на грани получается. Там у вас большое разнообразие запросов? Может закешировать получится? Redis?
Реалистично больше пары тысяч QPS (с учетом max_threads=1 на запрос и прочих приседаний) я бы не расчитывал. Все-таки ClickHouse предназначен больше для того, чтобы пару миллиардов строк за запрос прошерстить и как-нибудь по-хитрому сгруппировать, чем для точечных запросов
Я бы на меньше 1к реально смотрел. Пробуйте.
Конечно все можно, я думаю в Яндекс метрики и больше запросов, только сколько миллиардов уйдет 👍
Я бы переформулировал, "сколько Вы готовы заплатить, что бы БД без транзакций начала себя вести именно так, как Вы хотите?"
Обсуждают сегодня