привет В таблице лежат метрики типа строка в формате “param1.param2.param3” и тп Хочется сделать запрос чтобы нумеровать их по уровню 1 | param1 2 | param1.param2. 3 | par...
Довольно интересный кейс использования кликхауса у Убера. https://eng.uber.com/logging/ Только совершенно не понятно как они использовали merge() и как работает функция. В док...
Помогите пожалуйста с таблицей/запросом CREATE TABLE test.nqi_calc_metrics_test ( mac_address String, batch_datetime DateTime, cmts_name LowCardinality(String), ...
Привет. Сделал kafka engine, читаю данные и в лога переодически мелькает Cannot parse JSON string: expected opening quote{}: (while reading the value of key HttpPlayerPlayba...
Привет. В запросе много расчетов uniq. Эти поля не в ORDER. Как можно оптимизировать выполнение? SELECT uniq(case when SNR_29 > 0 then mac_address end) as DS_SNR, uniq(case...
Привет. Помогите запросом. В MergeTree есть данные примерно такие ('2000-01-01', 1) ('2000-01-01', 1) ('2000-01-01', 1) ('2000-01-01', 2) ('2000-01-01', 3) ('2000-01-01', 3) ...
Подскажите как понять сколько ресурсов потребляет Materialised view?
OPTIMIZE TABLE bla-bla PARTITION bla DEDUPLICATE Received exception from server (version 19.14.6): Code: 209. DB::Exception: Received from localhost:9010. DB::NetException. ...
Хочу убрать один шард из конфгурации. Хочу уточнить процедуру, всё верно, ничего не забыл? 1. установить weight для шарда 0, чтобы остановить вставку 2. скопировать данные с п...
Привет. У нас time series данные лежат в кликхаусе хочу сделать anomaly detection по верх. Подскажите куда копать и что посмотреть? Может у кого то был похожий кейс?
Сталкиваюсь с memory limit exception при копировании таблицы в 55Gb. Как лучше написать insert into select from ___ чтобы избежать exception? На батчи побить?
В system.process для insert запросов memory_usage всегда 0. А как можно посмотреть количество потребляемой памяти для insert в реальном времени?
Там написано что Q1-Q2 / 2018, clickhouse support store data at multiple disk volumes of a single server а как настраивать это?
Использую hdfs enginge, и в адресе HDFS('hdfs://{macro}/tmp/movingToClickHouse.parquet/*', 'Parquet'); похоже не работает макро подстановка. Это у меня так или фича такая?
есть функция cluster() и remote() которые позволяют прочитать на удаленном сервере. я хочу сделать DROP PARTITION на удаленной машине есть вроде eval()?
Это очень долго. Я могу получить список старых партиций из system.parts и сразу грухнуть ALTER TABLE DROP PARTITION. Вопрос как это скреить в один запрос?
Вопрос, если я сделаю 1 KafkaQueueEngine и 2 MV которые читают из этой KafkaQueueEngine. У меня таблицы получат те же данные или это не гарантирутеся?
Вроде это работает только с ReplacingMergeTree?
Туплю с запросом. Хочу дропнуть все партиции у таблицы старше месяца. ALTER WHERE не поддерживает. Как выкрутиться?
Привет. Я посмотрел пулл реквесты и в CH добавлена возможность читать из HDFS, но в доке ни слова. Есть кто пробовал?