вот такая конфигурация vmservicescrapes:
apiVersion: operator.victoriametrics.com/v1beta1
kind: VMServiceScrape
metadata:
labels:
monitoring: istio-dataplane
name: istio-dataplane
namespace: istio-system
ownerReferences:
- apiVersion: monitoring.coreos.com/v1
blockOwnerDeletion: true
controller: true
kind: ServiceMonitor
name: istio-dataplane
spec:
endpoints:
- interval: 15s
path: /stats/prometheus
targetPort: http-envoy-prom
jobLabel: envoy-stats
namespaceSelector:
any: true
selector:
matchExpressions:
- key: istio-prometheus-ignore
operator: DoesNotExist
k8s кластер, istio в кластере.
есть неймспейс test, который аннотирован, чтобы сайдкар istio-proxy подкидывался.
1) создаю под в неймспейсе test:
kubectl run nginx --image nginx:alpine -n test
2) создаю сервис для пода:
kubectl expose pod nginx -n test --port=80 --target-port=80
при такой конфигурации в таргетах у джобы istio-dataplane на vmagent-е - пусто.
Если создаю под вот так:
kubectl run nginx --image nginx:alpine -n test —port 80
то в джобе появляется таргет и всё начинает работать.
Не могу понять - это нормальное поведение? ведь метрики собираются вообще с другого порта: 15090
@f41gh7 можешь подсказать?
при этом в Prometheus таргеты у джобы появились, когда под был запущен командой: kubectl run nginx --image nginx:alpine -n test
Добрый день, а можно привести пример pod от команды : kubectl run nginx --image nginx:alpine -n test в него происходит inject секции ports ? Насколько я помню, проблема похожая была в vmagent, видимо это его баг - если в секции ports пусто
Обсуждают сегодня