Wpis z mikrobloga

Mikri, mam problem z #aws. Próbuje stworzyć sobie przez CloudFormation klaster Kubernetesa no i niby wszystko fajnie działa ale gdy próbuje zrobić cokolwiek przez kubectl dostaje:

Response Body: {"kind":"Status","apiVersion":"v1","metadata":{},"status":"Failure","message":"Unauthorized","reason":"Unauthorized","code":401}


Kubernetesa tworzę tak:

AWSEKSCluster:
Type: AWS::EKS::Cluster
Properties:
Name: 'Kubernetes'
ResourcesVpcConfig:
SecurityGroupIds: !Split [',', !ImportValue 'EKS-VPC-SecurityGroups']
SubnetIds: !Split [',', !ImportValue 'EKS-VPC-SubnetIds']
RoleArn: !ImportValue 'EKS-IAM-RoleArn'

A użytkownik którego skonfugorowałem przez aws configure i na którym zrobiłem aws eks --region eu-west-1 update-kubeconfig --name Kubernetes ma policy z takimi uprawnieniami:

PolicyDocument:
Version: "2012-10-17"
Statement:
- Effect: "Allow"
Action:
- "eks:*"
Resource: "*"

Ktoś, coś?

#programowanie #kubernetes
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

I co ciekawe, jak stworzę klaster z dokładnie takimi samymi ustawieniami przez CLI to działa. Kontekst użytkownika z którego odapalam stack ma znaczenie? Można jakoś wymusić, aby stack odpalał mi się to zawsze z konkretnego użytkownika?
  • Odpowiedz