Ребят, всем привет! подскажите пожалуйста, как решить проблему. После ребута

системы на нодах, на одной из них упало два osd.

ceph -s

cluster:
id: 2139fd4a-2246-11ee-9c5d-005056b6e3aa
health: HEALTH_WARN
2 failed cephadm daemon(s)
clock skew detected on mon.node3, mon.node2
1 daemons have recently crashed

services:
mon: 3 daemons, quorum node1,node3,node2 (age 4m)
mgr: node2.psowyc(active, since 3m), standbys: node1.oyslys, node3.mzvyup
mds: 1/1 daemons up, 2 standby
osd: 12 osds: 10 up (since 3m), 10 in (since 4m)
rgw: 3 daemons active (3 hosts, 1 zones)

data:
volumes: 1/1 healthy
pools: 7 pools, 177 pgs
objects: 289 objects, 61 MiB
usage: 919 MiB used, 499 GiB / 500 GiB avail
pgs: 177 active+clean

io:
client: 8.5 KiB/s rd, 0 B/s wr, 8 op/s rd, 5 op/s wr

ceph osd tree down

ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
-1 0.58557 root default
-3 0.19519 host node1
0 hdd 0.04880 osd.0 down 0 1.00000
3 hdd 0.04880 osd.3 down 0 1.00000

Вывод ceph orch ps

osd.0 node1 error 5m ago 12d - 4096M <unknown> <unknown> <unknown>
osd.3 node1 error 5m ago 12d - 4096M <unknown> <unknown> <unknown>

Контейнеров их соответственно нет. Подскажите что можно сделать?

Версия 17.2.6

1 ответов

29 просмотров

прочитать логи

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой: user@ceph-node1:~$ sudo...
Vladimir Ivanov
3
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Карта сайта