в таблицу с Engine = ReplicatedSummingMergeTree(), в логах пишет
2019.03.13 18:33:08.492824 [ 93 ] {} <Trace> HTTPHandler: Request URI: /?database=meter&output_format_write_statistics=1&query=INSERT+INTO+facts+FORMAT+CSVWithNames
2019.03.13 18:33:08.493055 [ 93 ] {7ca04a36-4d93-4ace-9924-bcbf48d40c1d} <Debug> executeQuery: (from [::ffff:192.168.18.38]:36970, user: external) INSERT INTO facts FORMAT CSVWithNames
2019.03.13 18:33:08.495169 [ 93 ] {7ca04a36-4d93-4ace-9924-bcbf48d40c1d} <Debug> meter.facts (Replicated OutputStream): Wrote block with ID '201901_4647298900027749533_1201448766003505829', 1 rows
2019.03.13 18:33:08.496383 [ 93 ] {7ca04a36-4d93-4ace-9924-bcbf48d40c1d} <Information> meter.facts (Replicated OutputStream): Block with ID 201901_4647298900027749533_1201448766003505829 already exists; ignoring it.
и данные теряются, а когда вставка идет в точно такую же таблицу, но SummingMergeTree(), то всё хорошо
ClickHouse server version 19.1.6
надо посмотреть всякие системные таблицы про репликацию видимо system.replicas там
так работает дедупликация на реплицируемых таблицах, для того чтобы вставки можно было повторять при ошибках, ищите в чатике слово insert_deduplicate
Обсуждают сегодня