ENGINE = ReplicatedSummingMergeTree('/clickhouse/tables/{shard}/requests_shard', '{replica}', (request_count))
Если создать на обеих репликах:
ENGINE = Distributed(ch_shards, ... )
ENGINE = Buffer(ch, requests, 16, 60, 300, 500000, 1000000, 268435456, 536870912)
ENGINE = Kafka('{kafka_brokers}', 'requests_ch', 'prod_requests_ch_queue', 'JSONEachRow')
MATERIALIZED VIEW ...
и такого плана конфиг
<ch_shards>
<shard>
<internal_replication>true</internal_replication>
<replica>
<host>clickhouse-r1-s1</host>
<port>9000</port>
<user>ch</user>
<password>pass</password>
</replica>
<replica>
<host>clickhouse-r2-s1</host>
<port>9000</port>
<user>ch</user>
<password>pass</password>
</replica>
</shard>
<shard>
</ch_shards>
Вопрос, как будет вести себя консюмер ? Не будет ли проблем, что консюмить начнет с обеих реплик ? Дубли ? Траффик ? итд
Спасибо!
а зачем ENGINE = Buffer?
Обсуждают сегодня