@Sibu: Mówi ale musiałam dropnąć 26TB z ec2 na s3 bo dane stremowane a potem na local bo nie wiadomo ile zajmie praca nad projektem i wolę pobrać raz niż wielokrotnie w trakcie pracy. Nie chce bulić co miesiąc. To są drogie rzeczy Panie Paździochu.
Jest turbo loteria. Ja juz kilka razy mialem zawal serca patrzac na to co sie o------o w nocy... Np bazy DynamoDB jest autowyskalowaly pod wlywem ruchu x50 . Myslalem ze n------o kilka k dolcow.... 14 dolcow w 8h...
źródło: comment_1617311067cXqqvMK1mAtG9q7egvNMH1.jpg
PobierzBudzet Alert Panie Ferdku, mowi to Panu cos
@Sibu: Mówi ale musiałam dropnąć 26TB z ec2 na s3 bo dane stremowane a potem na local bo nie wiadomo ile zajmie praca nad projektem i wolę pobrać raz niż wielokrotnie w trakcie pracy. Nie chce bulić co miesiąc. To są drogie rzeczy Panie Paździochu.
Ajjjjjj ( ಠ_ಠ)
Jest turbo loteria. Ja juz kilka razy mialem zawal serca patrzac na to co sie o------o w nocy... Np bazy DynamoDB jest autowyskalowaly pod wlywem ruchu x50 . Myslalem ze n------o kilka k dolcow.... 14 dolcow w 8h...
@villager: no policzone przecież, ostatecznie jeśli projekt będzie 4mc+ to i tak zaoszczędzone. Najdroższe było zrzucanie na lokalny... hajsy x 20
@Sibu: I tak najdrożej było z s3 na lokalny (╥﹏╥)
DDOS ready ( ͡° ͜ʖ ͡°)
Komentarz usunięty przez autora
https://hackernoon.com/how-we-spent-30k-usd-in-firebase-in-less-than-72-hours-307490bd24d
@Benio_Czarodziej: z tutoriali to raczej nie pamiętam nic istotnego, polecam dokumentację dużo mi pomogła.
@hitherto: ogromne ilości zamówień i transakcji w JSON'ach
@januszzbloku: ( ͡º ͜ʖ͡º)