хорошо вписывается в модель использования кх и вы сказали, что много кто держит параллельно-реплицируемые кластеры. А как в таком случае обрабатывается выход машины из строя?
я не это сказал (никто особо не экономит и не парится что запрос выполняется на половине(трети) нод, когда запросов одновременно 2, это уже не проблема), но это не важно, в чем вопрос? предположим есть 3 железки с 6(3*2) виртуалками. node1 : shard1_0, shard3_1 node2: shard2_0, shard1_1 node3: shard3_0, shard2_1 селекты идут к трем железкам, т.е. да придется сделать дистрибьютид таблицу чтобы ходила в только в shard0 (для максимальной производительности), и еще одну резервную дистрибьютид чтобы ходила во все, например в другой базе данных, т.е. называться эта дистрибьютид таблица будет также например. умерла node2: shard2_0, shard1_1, есть shard2_1 и shard1_0, делаем фолбек на другое соединение, а там прописана другая бд, и там другая дистрибьютид которая ходит в 6 КХ (в 4 потому что 2 померло).
Обсуждают сегодня