Привет. Изучаю возможности iscsi gateway и у меня проблема. Я сделал

по ману из оф. доки, но спустя какое-то время кластер начал ругаться след.ошибкой:
user@ceph-node1:~$ sudo ceph health detail
HEALTH_WARN 9 stray daemon(s) not managed by cephadm
[WRN] CEPHADM_STRAY_DAEMON: 9 stray daemon(s) not managed by cephadm
stray daemon tcmu-runner.ceph-node1:rbd/disk_1 on host ceph-node1 not managed by cephadm
stray daemon tcmu-runner.ceph-node1:rbd/disk_2 on host ceph-node1 not managed by cephadm
при этом сам демон tcmu-runner работает и ошибками не плюется

gwli - тоже весь зеленый и счастливый.
user@ceph-node1:~$ sudo gwcli
/> ls
o- / ....................................................................... [...]
o- cluster ....................................................... [Clusters: 1]
| o- ceph ........................................................ [HEALTH_WARN]
| o- pools ........................................................ [Pools: 2]
| | o- device_health_metrics [(x3), Commit: 0.00Y/49151588K (0%), Used: 176302b]
| | o- rbd ........... [(x3), Commit: 18G/49151588K (38%), Used: 32217516655b]
| o- topology .............................................. [OSDs: 6,MONs: 3]
o- disks ....................................................... [18G, Disks: 3]
| o- rbd ........................................................... [rbd (18G)]
| o- disk_1 ........................................ [rbd/disk_1 (Online, 5G)]
| o- disk_2 ........................................ [rbd/disk_2 (Online, 6G)]
| o- disk_3 ........................................ [rbd/disk_3 (Online, 7G)]
o- iscsi-targets ............................. [DiscoveryAuth: None, Targets: 1]
o- iqn.2003-01.com.ceph.iscsi-gw:iscsi-igw ......... [Auth: None, Gateways: 3]
o- disks ........................................................ [Disks: 3]
| o- rbd/disk_1 ................................ [Owner: ceph-node1, Lun: 0]
| o- rbd/disk_2 ................................ [Owner: ceph-node2, Lun: 1]
| o- rbd/disk_3 ................................ [Owner: ceph-node3, Lun: 2]
o- gateways .......................................... [Up: 3/3, Portals: 3]
| o- ceph-node1 ...................................... [192.168.100.11 (UP)]
| o- ceph-node2 ...................................... [192.168.100.12 (UP)]
| o- ceph-node3 ...................................... [192.168.100.13 (UP)]
o- host-groups ................................................ [Groups : 0]
o- hosts ..................................... [Auth: ACL_ENABLED, Hosts: 3]
o- iqn.1994-05.com.ceph:client ................ [Auth: CHAP, Disks: 1(5G)]
| o- lun 0 ........................... [rbd/disk_1(5G), Owner: ceph-node1]
o- iqn.1994-05.com.ceph:client-2 .............. [Auth: CHAP, Disks: 1(6G)]
| o- lun 1 ........................... [rbd/disk_2(6G), Owner: ceph-node2]
o- iqn.1994-05.com.ceph:client-3 .............. [Auth: CHAP, Disks: 1(7G)]
o- lun 2 ........................... [rbd/disk_3(7G), Owner: ceph-node3]

Нашел в сети баг, но я чет не понимаю пофиксили они его в минорном релизе или нет.
Отключение mgr/cephadm/warn_on_stray_hosts не помогло.


cerber@ceph-node1:~$ sudo ceph version
ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable)

собственно вопрос, че я не так делаю? )
Хелб

3 ответов

64 просмотра
Vladimir-Ivanov Автор вопроса

всем спасбо. помогла пересборка tcmu-runner из исходников.

The iSCSI gateway is in maintenance as of November 2022. This means that it is no longer in active development and will not be updated to add new features.

Похожие вопросы

Обсуждают сегодня

Не совсем в тему возможно, но может кто то пробовал поднять цеф на нодах вмвари и с последующим подключением через айскази в саму вмварю?
Alexander Zaitsev
34
Всем добра. продолжаю знакомится с ceph, возник вопрос на который я с ходу найти ответ не могу. Мысль следующая. Возможен ли кластер цеф, когда основная часть нод в одном дат...
mendisobal
28
Подскажите пожалуйста, а вот много вижу что фактор репликации надо ставить 3 и выше, мониторов по больше. Неужели цеф настолько нестабильный? Или просто используется в мощных ...
Тау Фокс
28
Всем здарова. После нештатного отключения электричества не запускаются два из трех OSD кластера Ceph, резвернутого через rook в кубере. Логи expand-bluefs 2023-10-09T09:15:23...
Vlad Trefilov
4
Всем привет, подскажите, пожалуйста, куда копать? *Warning по Ceph* Версия Ceph: ceph -v ceph version 15.2.17 (8a82819d84cf884bd39c17e3236e0632ac146dc4) octopus (stable) На...
Nesterov Ivan
7
Добрый день! Коллеги, подскажите пожалуйста, насколько целесообразно использовать CEPH, в качестве SDS для системы фото видео фиксации в проекте "Безопасный город"? Планируе...
Victor
23
Вот запихали диски в полки. Дальше что? Интерконнект сетевой между серверами какой нужен? Ну чтобы и публичка и бэк CEPH-а за ресурсы сетевые не передрались. А еще по публичк...
Andrey Nemysskiy
7
Есть ли какой-то штатный или известный механизм ограничения количества одновременного запуска осд при старте ноды в container-based кластере с cephadm? Или вариант с кастомиза...
Qntm
17
как понять какие физические диски используются в кластере ?
DimaE
17
Привет, коллеги! Пятница, время охуенных вопросов по RGW. Задача - сделать гранулярный доступ к директориям в бакете. У aws есть пример ну, чтож сделаем по примеру следующую п...
Andrey S
6
Карта сайта