@Gennwat: Ja prowadzę firmę, powiedzmy DevSecOps i layoffy lecą i to grube. ;)

Rezultatem jest to, że dużo firm przechodzi w zarządzaniu infrastrukturą i procesami do minimum, bo mają mniej ludzi. Pojawiło się dużo strzałów, w stylu "o boshe, o #!$%@?, EKS out of support, trzeba się updatować, ostatni commit do helm chartów 2 lata temu i mam niekompatybilne api". Do tego dużo zleceń w stylu, postaw infę i bajo. Potem
@Gennwat: u mnie na razie spokój, zwalniają w innych miejscach (raczej biznes) albo restrukturyzują. Paru znajomych mówi że u nich zwalniają jak leci - z losowych działów losowi ludzie, niezależnie od stażu i stanowiska.

W paru firmach przyśpieszyli outsourcing wsparcia infry i wyrzucili to na zewnątrz (razem z transferem ludzi).

Jak dla mnie to to jest po prostu panika, jak firmy przetrwają to będą ponownie zatrudniać jak #!$%@?.

Powraca też często
Bard się pochwalił wiedzą o Apache Beam. Szukam informacji w Internecie z obrazka (jaka jest relacja pomiędzy Apache Beam a GCP Dataflow) i wydaje mi się, że mało kto potrafi wprost dojść do sedna sprawy, czyli że Google Cloud Platform Dataflow to platforma na której sterownik Apache Beam odpala przetwarzanie. Jest to tak jakby Canva na której wykonywane są zdefiniowane pipeliney w Apache Beam. Sam Apache Beam jako taki prócz modelu programowego
AlekGames - Bard się pochwalił wiedzą o Apache Beam. Szukam informacji w Internecie z...

źródło: Screenshot 2023-07-21 at 23.07.12

Pobierz
Też tak macie, że jak zaczynacie z nową technologią, to wrzuca wam się masę wysokopoziomowych pojęć, które tak naprawdę zasłaniają sedno sprawy?


@AlekGames: Jak nie wiem z czym mam do czynienia to abstract jest przydatny.
Mam projekt, w którym kontenery będą migrowane do GKE (to gdzie i jak działały wcześniej nie ma znaczenia) i pytanie jak najlepiej ugryźć temat security pod kątem trzymania&zaciągania secretów z Secret Managera. To, że secretów nie chcemy trzymać w kubernetesowych secretach to wiemy na pewno, bo jak zapewne każdy wie - są średnio bezpieczne.
Chcemy do tego wykorzystać googlowski Secret Manager i teraz pytanie - jak najlepiej wdrożyć to, aby aplikacje potrafiły
@Gennwat: Z tego co wiem AWS każdy pojedyńczy parametr, sekret, czy sekrety w formie par key-value trzyma jako sekrety w EKS. Nie da się chyba inaczej, bo CSI driver i tak tworzy volume, który wszystko zasysa z Secret Managerów. Jeśli da się inaczej, to chętnie się dowiem.
Kurs "Terraform w godzinę" właśnie trafił do sprzedaży :)

https://terraform.mikr.us

To skondensowany kurs wprowadzający w świat Tewrraforma, czyli jednego z popularniejszych narzędzi do zarządzania infrastrukturą chmurową za pomocą kodu (Infrastructure as Code).

Napodlinkowanej stronie znajdziesz przykładową lekcję, agendę, screenshoty z kursu itp.
Autorem kursu jest Rafał Gołąb, certyfikowany (HCTA0-002) specjalista od Terraforma z kilkunastoletnim stażem w branży IT.

Promocyjna cena (67zł) obowiązuje do najbliższej niedzieli, do północy
imlmpe - Kurs "Terraform w godzinę" właśnie trafił do sprzedaży :)

➤ https://terrafo...

źródło: Terraform_w_godzine_jest_tmp

Pobierz
W jaki sposób korzystacie w pracy z AWS lambda? Jaki jest use case, możecie się pochwalić? Pozwoli mi to bardziej zrozumieć przydatność tego "narzędzia" w stosunku do zwykłej apki wrzuconej do chmury.

Zaczynam się uczyć chmury prywatnie i chciałbym wiedzieć jakie rzeczy są ważne, czego firmy najczęściej używają i potem pytają na rozmowach.
Często w ogłoszeniach widzę S3, SQS/SNS, Lambda, DynamoDB i API Gateway.

#aws #gcp #cloud #programista15k #programowanie
@famir96: Chociażby niski ruch, zamiast uruchamiać kobyłę w postaci aplikacji w jakimkolwiek języku i działania 24h na dobę, to wystarczy przenieść to do lambd. Poza tym lambdy lubią startupy, bo piszę się w nich dosyć szybko ze względu na brak konieczności tworzenia bardziej skomplikowanej infrastruktury i utrzymywania tego (przykładowo w k8s masz dużo większy nakład pracy). Przy lambdach masz wszystko out of the box w chmurze u vendora. Ogólnie lambdy mają
@a5f5c1: Przerobić mnóstwo infrastruktur. Głównie to dostosowanie narzędzie i serwisów do skali przy zachowaniu jednoczesnej jak najlepszej optymalizacji finansowej. Zapewne warto znać możliwości każdego z serwisów, żeby wiedzieć który z czym może się łączyć i który sprawdzi sie w jakich okolicznościach. Według mnie nie ma w tym temacie drogi na skróty.
kto się zna na #gcp?
uruchomiłem vm czyli Compute Engine jak to nazywają
mogę się zalogować przez ssh czyli z linii poleceń wszystko śmiga

chciałbym na tym odpalić jupyter notebook i korzystać przez GUI

wiem że jest coś takiego vertex ai ale nie chcę tworzyć  nowej maszyny,
chcę do tej starej się zalogować przez notatnik - co tam zainstalować, skonfigurować?

#chmura
Potrzebuję na kilka godzin #vps z dużą ilością ramu (128GB), procesor nie jest istotny.
Próbowałem ogarnąć na #gcp, ale z racji, że mam świeże konto i z dupy limity to nie mam możliwości utworzenia instancji takiej maszyny.
Czy jest jakiś inny dostawca gdzie świeżak może dorwać taką maszynkę i nie zapłacić milionów monet?

#cloud
@ARfan Nie miałem, aktywowałeś to z linka którego dostałeś na maila? Ogólnie jak treści na tej platformie są fajne, to samo poruszanie się po niej, losowe błędy i jakaś taka mało praktyczność mnie mocno od niej oddala xD
Aktywowałem i zrobiłem ten pierwszy moduł wprowadzający, a teraz próbuje się dogadać z hindusem z supportu xd
#devops #gcp #googlecloud #sysadmin #cloud
Dostałem sie na darmowe szkolenie od guugla na associate Cloud Enginer
12 wrzesnia będzie pan nawijał przez cały dzień potem tydzień na zrobienie przynajmniej połowe labów a jak nie to kopa i #!$%@? ( ͡° ʖ̯ ͡°)
W mailu pisało żeby sobie przeczytać sylabus do egzaminu przed

https://cloud.google.com/certification/guides/cloud-engineer/

Na pewno 12 sobie bym brał wolne i teraz pytanie jak by usiadł w tym