sso --profile one
aws configure sso --profile two
потом пытаюсь залогинится
aws sso login --profile one
прохожу логинку
делаю
$ kubectl get pods
error: You must be logged in to the server (Unauthorized)
И все, че оно от меня хочет? Дайте что почитать плиз
Прочел что надо конфиг мап исправить, но его я тоже не могу исправить
$ kubectl edit -n kube-system configmap/aws-auth
error: You must be logged in to the server (Unauthorized)
чувствую что надо как-то указывать с каким профайлом работать
у тебя должен быть доступ в кластер в aws-auth либо ты должен быть тем кто сетапил кластер в первый раз, дальше должен быть активирован профиль авс в консоле и получен конфиг после чего можно юзать
я и есть кто сетапил кластер потом правда изменили имя аккаунта и теперь не могу управлять кластером, вот пытаюсь починиться, спрашиваю совета что делать, как починиться
ну вернись в тот профиль с которого сетапил кластер, сделай aws eks update-kubeconfig --region region-code --name my-cluster и все ок
Это беда
Ну там есть решение, я как-то писал про свои кривые руки. https://t.me/aws_ru/121174
Сделал и указал еще профайл aws eks update-kubeconfig --region eu-central-1 --name eks_name --profile one $ kubectl edit -n kube-system configmap/aws-auth error: You must be logged in to the server (Unauthorized) все равно все то же ( чего то не так делаю (
почитай мои боли https://t.me/aws_ru/121174 Может сможет помочь в твоём случае.
что значит "изменили имя аккаунта"? твоего?
В афоне с бектиками, как с буквой ё, все сложно
а откуда брать дефолтный конфиг мап?
он по дефолту создается при сетапе кластера, дальше его можно менять
- в интернете - создай новый кластер, скопируй конфигмапу, удали кластер
по дефолту там если что apiVersion: v1 data: mapRoles: | - "groups": - "system:bootstrappers" - "system:nodes" "rolearn": "arn:aws:iam::твой_aws_id:role/role-name-для-нод" "username": "system:node:{{EC2PrivateDNSName}}" mapUsers: | - "groups": - "system:masters" "userarn": "arn:aws:iam::твой_aws_id:root" "username": "root" immutable: false kind: ConfigMap metadata: name: aws-auth namespace: kube-system
где у роли как минимум должны быть приатачены AmazonEKSWorkerNodePolicy, AmazonEKS_CNI_Policy, AmazonEC2ContainerRegistryReadOnly
а я в этом не понял как ты сделал kubectl apply -f default-cm.yaml Если aws-auth дропнут, то по идее нет доступа и нельзя аплайнуть конфигмап
Обсуждают сегодня