используются от 1 до 98 дисков. Серверы давно в проде и мы издревле деплоим на них наше монорепо через rsync и nixpkgs - то есть можем легко запушить идентичные бинарники и конфиги для Цефа. Думаю как бы собрать из этого кластер для внутренних нужд обжект стоража.
Очень хочется задекларировать все UUID ненужных дисков в одном файле, чтоб при деплое для каждого диска спавнился OSD и джойнился в кластер. Так чтоб если этот диск переставить в другую ноду и сделать редеплой (простой скрипт который листает доступные диски и запускает OSD если они не запущены), чтоб OSD заспавнился на новой ноде? Нормальная ли это идея, или помешает какая-то локальная метадата которую OSD создает после запуска?
Не помешает, более того, если просто задеплоить осд на диск через ceph-volume, то потом при перетыкании он сам поднимется
A: У нас есть железо которое непригодно и выкинуть жалко можно на нем поднять цеф? A: да, и хранить на нем данные которые не нужны а удалить жалко.
Ну вы сами подумайте. Вот вещи в доме, уложенные в определённом порядке. Тут носки, тут трусы, там штаны. Приезжает тёща и ящики редеплоит по своему разумению. Нуаче такого? Такая у неё мета. Ага... Это так... Для примитивного примера.
если пойдете через модный цефадм, то он автоматом положит вам осд на все диски на которых не будет разделов. если диск переставить в новую ноду и сделать редеплой или ceph-volume activate, в классическом исполнении, то он вполне нормально поднимится т.е. диск является отчуждаемым вся нужная мета лежит на нем. С у чётом разнобоя по количеству дисков стоит хорошенько посчитать как ресурсы (98 дисков потребуют не мало) так и, например, фактор репликации или уровень ец чтоб ненароком не вырубить 3 однодисковых сервера при трех репликах 🙂
Правильно ли я понимаю, что если у hdd osd вынесен wal на ssd, то перенос на другую ноду только hdd (без переноса ssd) таким образом не получится?
толко wal или db тоже вынесен на ssd?
без разницы
да я просто удивился, что только wal вынесли
Обсуждают сегодня