Wpis z mikrobloga

  • 1
@kuskoman jest cudowny dopóki coś się w nim nie zepsuje na produkcji. Jeśli nie pracujesz przy naprawdę dużym projekcie to jest to zwykle overengineering
  • Odpowiedz
@Drail: wysypujące się sterowniki od PVC, pody systemowe wpadające w CrashLoopBackOff i wymagające ręcznego deleta, wysypujące się sterowniki sieciowe CNI, kubelet przestający pracować bez żadnego powodu w logu i wymagający ręcznego restartu, wysypujący się serwer dns który wysypuje aplikacje, problemy z elekcją mastera, zdychający apiserver z powodu jakiegoś dziwnego throttlingu, 1000 bugów w rancherze który jest strasznym szajsem (ale na public cloud kubernetes się niestety nie kończy), fluentd katujący każdą
  • Odpowiedz
@villager: Czy macie klaster na bare metalach? Bo w sumie u nas wszystko cloud i takich problemów nie ma. Czy klaster tworzycie jakimś narzędziem (na przykład kubespray/kops)?
  • Odpowiedz
@Drail: no właśnie rancher, straszny szajs, myślałem o przejściu na kubespray ale nie ma zbytnio jak tego zrobić na żywo xd na public cloudzie jest lepiej, ale nie zawsze było, i z rok temu jeszcze i na cloudzie można było mase bugów spotkać
  • Odpowiedz
z rok temu jeszcze i na cloudzie można było mase bugów spotkać


@villager: Nie miałem większych problemów, raczej wynikały ze złej konfiguracji. Kops ładnie sobie działa jak się go dobrze skonfiguruje :) Może pociśnij o jakieś srodowisko testowe, piaskownica dla k8s XD
  • Odpowiedz
@Drail: różne środowiska mam pod opieką: google cloud, digitalocean, aws eks, rancher.  śledzę też blisko co się dzieje upstream i ilość bugów jest bardzo duża jak wchodzisz w jakieś lekko bardziej zaawansowane setupy ;D
  • Odpowiedz