(через kubespray) с 3 мастерами (2 VCPU 2 GB RAM 60 GB Storage) и 5 воркерами (4 VCPU 4 GB RAM 120 GB Storage) (Итого 26 VCPUs 26 GB Ram 720 GB Storage)
Мне показалось хорошей идеей залить это на свой новенький 2 Терабайтный жесткий диск
Установка через ansible шла час, столкнувшись с неочевидными для меня тогда, но очевидными после 3-х переустановок и пары часов чтения логов + гитхаб ишок увидел письмо счастья от etcd - "leader failed to send out heartbeat on time; took too long, leader is overloaded likely from slow disk"
решив посмотреть iostat обнаружил утилизацию в 140% на жестком диске и, обрадовавшись, сделал terraform destroy (окрестрирую деплой виртуалок через libvirt модуль)
Вопрос следующий, какими принципами, кроме тыка, можно оперировать чтобы определить возможное количество нодов и места для них?
Мотивация увеличить "объем" кластера была из моей лени (извините) разбираться в бекенд хранилища Jaeger. Он поддерживает использование elasticsearch или cassandra для хранения скальпов, Cassandra упорно не хотела деплоиться на 2/3-х воркер нодах (StatefulSet, он пытался зашедулить под на мастер ноду, но не мог из-за тейнта), а Elasticsearch грустил (честно, не помню почему)
Скорее всего моей ошибкой изначально было то, что я плохо разобрался в хранилище которое использует Jaeger и сразу попер "напролом")
Jaeger хотел использовать вместе с Kiali - для трейсинга
Заранее, спасибо большое за фидбек
PS У меня железки CPU 6 ядер 6 потоков 4.7 ггц, 32 GB 2666 DDR4. До этого кластер ставил рядом с системой - на M.2 SSD 512 Гб, выделял по 10-30 Гб хранилища на ноду, был 1 мастер (он же etcd) и 2 (потом 3) воркера. Жесткий диск и SSD в ext4.
Еще раз, спасибо
Для etcd нужны быстрые диски. Ssd.
Хорошо, попробую вынести их-за предел SSD и уменьшить в целом нагрузку на диск. Спасибо
В целом вынес весь кластер на ssd. С 1 мастером и 5 воркерами все отлично работает, от hdd отказался и смирился с "жертвой") Спасибо
Обсуждают сегодня