Pewnie mieli tego samego serwisanta co u nas. w macierzy msa1000 padl dysk numer 6. Dyskow w macierzy bylo 14, jeden hotspare na calosci raid5.
Jakims cudem lolek wymienil dysk 9 zamiast 6. Macierz sie wyzbierala ale odbudowa trwala jakies 3 dni. Jak sie juz wyzbierala to padl dysk 12. Lolek znowu go wymienil. Znowu 3 dni odbudowy. No i znowu padl dysk tym razem 10-ka. Ale tym razem macierz sie sypnela.
W dniu 4 czerwca w godzinach porannych, podczas rutynowych testów sprawności systemów zasilających, wystąpiła kilkuminutowa przerwa w zasilaniu jednej z sekcji zasilających serwerowni Beyond.pl.
Katastrofa w Czarnobylu to też skutek rutynowych testów.
Przeraża mnie jak widzę coś takiego w firmach, które stwarzają wokół siebie atmosferę super profesjonalizmu. Takie coś nie miało się prawa zdarzyć w żadnej firmie hostingowej, po to przecież są UPSy, agregaty i na końcu backupy idąc po najprostszej linii oporu, a tutaj firma w której hostują się najbardziej znane marki Polskiego Internetu, chmury, obłoki i taka awaria, jeżeli muszą odzyskiwać dane to znaczy, że jest już tragicznie, a to wszystko tylko
Tier-4 czyli teoretycznie MINIMUM 2 linie zasilania, od siebie niezależne, ale przypuśćmy co POWINNO się stać rano:
Padła jedna linia zasilania > automatycznie przejmują podtrzymywanie upsy, wyłączane są zbędne systemy przez automaty. Zostaje włączona procedura uruchamiania kopii zapasowej na wszystkich serwerach, oczywiście na osobnej macierzy dysku, jest ona odłączana od sieci po wykonaniu kopii dla bezpieczeństwa. Oczywiście najlepiej w pancernej szafie, która przetrwa powódź i pożar :)
Podczas pracy wszystkiego na upsach, następuje próba
@sirkubax: jak mogła paść macierz... prosto - pamięc cache kontrolerów macierzy, ktoś albo nie podłączył do nich BBU (ang. battery backup unit), albo specjalnie BBU ominął - by podnieść wydajność - i tak już zostało, padł prąd - dane z cache poszły w powietrze (a cache w nowych macierzach może mieć i po kilkanaście/dziesiąt GB) i rozsypał się system plików. mystery solved
@dzordzyk: Skoro chmura jest tak OK, to dlaczego mamy fuckup za fuckupem? Amazon, GAE, teraz to. Kolejne awarie które pociągną za sobą całą infrastrukturę to tylko kwestia czasu.
Jak raz technik w OVH wymienił przez pomyłkę nie ten dysk co trzeba to był thread i biadolenie na 4 strony na ich forum. W chmurze jak ktoś coś spierxxli (co chyba właśnie się stało) to 10, 20 albo 100k witryn poleci
Jak ktoś jest głupi i wierzy w zapewnienia marketingowców ... to niestety go szkoda, bo to nie do końca jego wina. Wszystkie "zalety" chmur to wyssane z palca bzdury. To jest po prostu VPS, z zewnętrznym dyskiem i dużym budżetem marketingowym. Bo kosztuje 10-20x więcej niż zwykły serwer to kasa na FUD jest :)
Wy na serio myślicie, że w ogóle możliwy jest backup i HA bazy SQL-owej? Jasne, że nie. Musi być
@slawek22: no kolego drogi, jak nie zgadzamy się w kwestiach politycznych i ekonomicznych, tak tutaj przyznaję Ci całkowitą rację :).
Pracowałem w pewnej firmie mieszczącej się w miejscowości podkrakowskiej, w której są produkowane paluszki i inne słone przekąski. Pewna firma wybudowała tam wy**bane w kosmos (z zewnątrz) datacenter, wpompowała miliony złotych, drugie miliony dał EUrokołchoz. Oferowali (i dalej oferują) rozwiązania "w chmurze". Jak wygląda ta chmura? Zwykłe serwery fizyczne, podłączone
Komentarze (160)
najlepsze
To się zwyczajnie w pale nie mieści. To ja na swoim własnym domowym komputerze robię backup na dodatkowym dysku, który potem chowam w szafie.
Co oni w tej firmie robią aby się zabezpieczyć w razie awarii ? Zdrowaśki odmawiają w intencji zachowania danych ?
Komentarz usunięty przez moderatora
Jakims cudem lolek wymienil dysk 9 zamiast 6. Macierz sie wyzbierala ale odbudowa trwala jakies 3 dni. Jak sie juz wyzbierala to padl dysk 12. Lolek znowu go wymienil. Znowu 3 dni odbudowy. No i znowu padl dysk tym razem 10-ka. Ale tym razem macierz sie sypnela.
HP poglowilo
Komentarz usunięty przez moderatora
Katastrofa w Czarnobylu to też skutek rutynowych testów.
Komentarz usunięty przez moderatora
Komentarz usunięty przez moderatora
Komentarz usunięty przez moderatora
Padła jedna linia zasilania > automatycznie przejmują podtrzymywanie upsy, wyłączane są zbędne systemy przez automaty. Zostaje włączona procedura uruchamiania kopii zapasowej na wszystkich serwerach, oczywiście na osobnej macierzy dysku, jest ona odłączana od sieci po wykonaniu kopii dla bezpieczeństwa. Oczywiście najlepiej w pancernej szafie, która przetrwa powódź i pożar :)
Podczas pracy wszystkiego na upsach, następuje próba
@Wapniak:
Dokładnie. Trier 4, 100% dostępności, kopia
Przynajmniej jak mi coś walnie na moim serwerze, to będę wiedział, że to tylko wyłącznie moja wina.
PS Wiem, że za SpidersWeb nie przepadacie, ale akurat na tę stronę trafiłem.
Jak raz technik w OVH wymienił przez pomyłkę nie ten dysk co trzeba to był thread i biadolenie na 4 strony na ich forum. W chmurze jak ktoś coś spierxxli (co chyba właśnie się stało) to 10, 20 albo 100k witryn poleci
Wy na serio myślicie, że w ogóle możliwy jest backup i HA bazy SQL-owej? Jasne, że nie. Musi być
Pracowałem w pewnej firmie mieszczącej się w miejscowości podkrakowskiej, w której są produkowane paluszki i inne słone przekąski. Pewna firma wybudowała tam wy**bane w kosmos (z zewnątrz) datacenter, wpompowała miliony złotych, drugie miliony dał EUrokołchoz. Oferowali (i dalej oferują) rozwiązania "w chmurze". Jak wygląda ta chmura? Zwykłe serwery fizyczne, podłączone