при обновлении 19.16.19.85 -> 20.1.8.41 кликхаус не стартует с такой ошибкой: 2020.09.04 18:50:01.543723 [ 1 ] {} <Error> Application: DB::Exception: Cannot parse input: expec...
SELECT * FROM hdfs('hdfs:51310/logs/day=2021-12-01/*', 'ORC', 'segments Array(String)') LIMIT 1 Received exception from server (version 21.1.10): Code: 349. DB::Exception: Re...
Встречался ли кто-то с проблемой потери строк при вставке? Есть самописный сишный демон, который читает сислог, собирает его в батчи (100к), и отправляет в кликхаус по HTTP (I...
Кластер 19.7.3.1, 7 шардов по 2 реплики, всегда использовалось дефолтное сжатие, никогда не было проблем и неожиданных падений. Решил попробовать zstd, создал рядом с нужной т...
Возникла ошибка на всех обеих репликах этого шарда: DB::StorageReplicatedMergeTree::queueTask()::<lambda(DB::StorageReplicatedMergeTree::LogEntryPtr&)>: Code: 49, e.displayTe...
ребята, я хочу немного почистить место, дропнуть в таблице колонку и создать заново, она занимает кучу места. На эту колонку настроена мат.вьюха. План такой, что я стопаю запи...
сорян, такого тега нет. но у вас в replica.xml должны быть оба этих кликхауса прописаны, выше тега <shard> тег с названием кластера. нет такого?
такая ситуация: два дц, в каждом по 2 реплики 2х шардов. Обе реплики в одном дц нужно будет выключить на сутки. На активные реплики другого дц данные писаться продолжаться (за...
заметил такую штуку: если в поля Date или DateTime вставлять unix timestamp, то вставка существенно замедляется. Примерно так: 100к строк вставляется за 0.5 сек, если указаны ...
Кто-нибудь переливал много данных (10T) с одного кластера на другой? Пришли новые железки, старые надо осводить. Что посоветуете? Репл.таблиц примерно 20-30, вьюх навалом. Ест...
Всем привет, сталкивался ли кто-то с подводными камнями при обновлении кластера кх с версии 18.12.17 (или ниже) до 19.6.2.11?
Всё сработало, кстати :) Как его правильно выбирать? То есть этот параметр напрямую влияет, получается, на скорость селектов.
max_network_bandwidth max_network_bandwidth_for_user max_network_bandwidth_for_all_users эти настройки влияют только на query, и с помощью них нельзя ограничить полосу пропус...
а не надо ли перед началом работ сделать так, чтобы на нее не приходили запросы? если например, селектить из Distributed-таблицы, а load_balancing настроена на random, то запр...
И если этот блок вставился в первый раз, то он второй раз отбросится как дубль, главное чтобы пачка была точно такая же, да? А что по поводу либы, например, https://github.com...
у вас там был очень большой поток на запись, может просто репликация не успевает? остановите запись, сравните таблицы на репликах, по count(), например. Ну или сравнить данные...
А селект с FINAL что покажет?
при периодических ошибках ZooKeeper session has expired. Switching to a new session. DB::Exception: Table is in readonly mode куда копать? нагрузка мизерная, зукиперы на тех...
у вас в конфиге, где прописаны реплики, есть тег cluster?
может какой-то параметр выпилили, кх его игнорирует, а скобки эти нет?... поищу