пытается реплицировать 60 гиг данных? Может кто-то может поделиться хорошим конфигом, где все эти memory allocation и garbage collectors хорошо сконфигурированы ?
или может кто-то знает лучшую алтьтернативу zookeeper типа zetcd
на сайте КХ есть https://clickhouse.tech/docs/ru/operations/tips/#zookeeper количество данных не так важно как количество партов
Спасибо, сейчас поковыряем :-)
zookeeper база в памяти, он не может быть 60 ГБ
у меня такой есть 4.7G snapshot.52f4bdd8dd я думаю если в яндексе найдется кх раз так в цать больше... то наверное у них будут эти 60Гб правда у меня нет инсайда не подали бы они в таком случае по зукиперу на шард... ну или как то ещё разбили бы на несколько но вобщем то можно такой зк родить на практике если постараться
4.7G это дохрена. Что-то неправильно, мертвые реплики? я видел макс. размер 1GB до этого. Я думаю в Яндексе меньше чем 1GB. ZK просто не предназначен для такого.
Обсуждают сегодня