Здесь есть один момент. Ceph поставленный на один сервер - изначально решение где все по одному. Включая монитор. Если ставить ceph на три сервера - там будет три монитора, ...
Мы про код, или функционал решения? Код может быть прекрасен, но если без кворума кластер не живет - то он не живет без кворума. Увы.
Уважаемые все. Вопрос. Пытаюсь сделать erasure code pool на трех серверах. На каждом сервере живет mds, mgr и по 11 osd. (10 hdd и 1 ssd) Версия - 16.2.10 Делаем профиль: ceph...
Еще вопрос коллеги.. есть команда изменения параметров ceph teel injectargs. А есть ли обратная команда?
То есть у тебя в файле storage прописалось, а в списке хранилищ на нодах не появился пул?
Коллеги, а возможно ли в контейнерной версии 15 сефа, указать ему на каком сервере какой сервис запускать? Напрягает его самодеятельность.
Коллеги! Как узнать список битых файлов,, если есть подозрение, что была повреждена одна pg?
Кластер ceph отдельный, или на тех же серверах?
А добавлял ты обратно пул как? Через вебморду?
Почисть для начала кеш и куки. Авдруг?
А внутри ds-ceph-hdd.keyring что?
Получается что k=2 m=1 и не больше?
И еще вопрос. Есть CephFS, на которой есть битые файлы. Кластер Heаlth OK. Имеет смысл прогонять cephfs scrub с целью восстановления файлов?
Имеется ввиду с обратным действием. То есть отменяющая предидущую. Или для отмены "накрученных" параметров выход только рестарт ОСД?
ds-ceph-hdd?