Привет народ. Вопрос, может кто-то сталкивался. ceph 17.2.5 Перезагрузили ноду

(кластер статус noout. no rebalans), после чего osd перестали поднимать.
Ошибка слудеющая /usr/bin/docker: stderr Running command: /usr/bin/ceph-osd --cluster ceph --osd-objectstore bluestore --mkfs -i 1739 --monmap /var/lib/ceph/osd/ceph-1739/activate.monmap --keyfile - --osdspec-affinity None --osd-data /var/lib/ceph/osd/ceph-1739/ --osd-uuid fcc1e259-f1cc-4b6a-85fd-be35a3dfcd52 --setuser ceph --setgroup ceph
/usr/bin/docker: stderr stderr: 2023-09-14T10:24:56.955+0000 7f2ad87eb3c0 -1 bluestore(/var/lib/ceph/osd/ceph-1739/) _read_fsid unparsable uuid
/usr/bin/docker: stderr stderr: 2023-09-14T10:24:56.959+0000 7f2ad87eb3c0 -1 bluestore(/var/lib/ceph/osd/ceph-1739/) _open_db erroring opening db:
/usr/bin/docker: stderr stderr: 2023-09-14T10:24:57.495+0000 7f2ad87eb3c0 -1 bluestore(/var/lib/ceph/osd/ceph-1739/) mkfs failed, (5) Input/output error
/usr/bin/docker: stderr stderr: 2023-09-14T10:24:57.495+0000 7f2ad87eb3c0 -1 OSD::mkfs: ObjectStore::mkfs failed with error (5) Input/output error
/usr/bin/docker: stderr stderr: 2023-09-14T10:24:57.495+0000 7f2ad87eb3c0 -1 ** ERROR: error creating empty object store in /var/lib/ceph/osd/ceph-1739/: (5) Input/output error
Ноду удалял/добавлял, осд удалял чистил, диски рабочие, можно сделать маунт и записать файл.
Куда еще можно капнуть?

1 ответов

31 просмотр

_read_fsid unparsable uuid

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Карта сайта