Wpis z mikrobloga

Projekcik dla klienta skończony. Mega się cieszę, bo to moje pierwsze pełnoprawne wdrożenie K8s z całą tą otoczka (Helm, ArgoCD itp.). Człowiek dopiero przy poznawaniu takiej technologii dowiaduję się jak mało jeszcze wie (Wcześniej głównie ECS). ()

inb4 tak, wszystko zostaje wcześniej sprawdzone pod względem jakości konfiguracji przez starszego kolegę

#aws #devops #programowanie
  • 23
@Wykopek_wykopek: Ja właśnie jestem na etapie ustawiania load balancera i reszty routingu w EKSie, też Helmem.
Nie jest łatwo, średnio wiem co się dzieje, ale jestem jeszcze początkującym studenciakiem xD
Planuję jeszcze dodać całą inną masę syfu, może się uda
@Pit1337: @kiedystobyl0: nie znam argo, ale znam fluxa - z tego co slyszalem to są bardzo podobne. Flux średnio do mnie przemawia, nakłada zbyt wiele abstrakcji i niełatwo się go debuguje. Widzę natomiast pewien urok prostoty w terraformie instalującym helm charty, szczególnie jeśli wszystko jest zamknięte w jakimś CICD.
@malpi: mu korzystamy z fluxa v2 i utrzymujemy z 1000 hełm releasów, flux sam podbija obrazy, ma automatyczny reconciling, eventy itd. Robisz PRke do gitopsowego repo i masz to za 5 minut na klastrze

W przypadku Terraforma instalacja hełm chartów terraformem w dużej skali jest mega problematyczne i samo wykonanie planu trwa wieki
@Klopsztanga To ciekawe co mówisz, czemu tak uważasz? Przecież niczego nie przerabiasz, AWS zarządza w dużej mierze po prostu node'ami i całym control plane. Usuwa cały management overhead. Za 72 dolki miesięcznie myślę że to win-win. Ale nie jestem ekspertem. :)
@malpi: Dokładnie tak tego używam, wpierw jeden Terraform tworzy środowisko a później drugi instaluje charty dla 3rd party apek (faktycznie trochę to toporne) a in house apki nie używają w ogóle chartów tylko są konfigurowane bezpośrednio providerem Kubernetesa. Gdyby kiedyś udało się pozbyć w ogóle z tego obrazka Helma który tylko utrudnienia życie to byłoby idealnie. Jak dla mnie motto jest jedno: #!$%@?ć Helma
@Wykopek_wykopek: kubernetes to platforma kombajn do zarządzania serwerami, by robić z nich cluster. Technologia ma sens w innych chmurach gdzie pakiet usług SAAS jest ograniczony i sporo trzeba hostowac samemu. AWS praktycznie na wszystko ma rozwiązanie, więc budowa kubernetesa tam ma sens gdy nie będzie się korzystało z wszystkich możliwości awsa, lecz jako tylko usługa co udostępnia moc obliczeniowa. Np. Gdy projektujesz produkt w formie multiclouda, lub w obawie przed zależnością
@Klopsztanga o nie, panie. To wchodzisz na grząski grunt mocno. :D Porównywanie ECS do K8s mocno się mija z celem. Zjadłem zęby na tym serwisie, ale z głównych wad z którymi K8s sobie radzi o wiele lepiej to:
- łatwiejszy i stabilniejszy deployment
- deployment kilku serwisów naraz, nie musisz bawić się w skryptowanie tego wszystkiego w CI/CD
- wbudowany DNS w clustrze, w ECS musisz bawić się w service discovery
-
@Klopsztanga lipa straszna, rollback praktycznie nie działa, timeout trwa 1h bez możliwości konfiguracji. W dodatku każda zmiana zwiazana z zasobami sieciowymi, security wymaga zmodyfikowanego appspeca, dużo rzeźbienia. Brak możliwości podpięcia pod ALB większej ilości portów z jednego taska.
@Igbt: To jest bardzo dobre pytanie

Generalnie podejście typu CrossPlane/ConfigConnector stawia mocno na yamle i Kubernetesa, jak korzystacie w firmie mocno z k8sa i pracuje się wam miło w yamlach i macie opracowany dobrze opracowany proces deploymentu (flux, argo) to praca z crossplane to sama przyjemność. Natomiast do tej pory stawiamy tylko elementy aplikacyjne takie jak jakieś bazki, buckety, monitoring, lambdy czy kolejki. Core infrastruktury dalej jest niestety lub stety w