Wpis z mikrobloga

@wytrzzeszcz:
jails - w pewnym sensie wirtualizacja. Paroma klikami wstawiasz system oparty na zainstalowanym systemie zamknięty w swoim własnym środowisku praktycznie z zerowym narzutem. https://en.wikipedia.org/wiki/FreeBSD_jail
bhyve to hypervizor dla freebsd. Wszystko z palca, ale według moich testów bezkonkurencyjny pod względem narzutu na zasoby.
Ports - system dystrybucji oprogramowania który w założeniu daje Ci nieskompilowane paczki programów. Instalując program kompilujesz go z obsługą tego co potrzebujesz i niczym więcej. Wszystko automatycznie z
@Kryspin013: Ponieważ swoje główne plusy pokazuje na serwerach bądź systemach uruchomionych 24/7. Sam ZFS zakłada, że to co jest w pamięci ram jest bezbłędne więc lepiej stosować go w połączeniu z pamięciami ECC. Spece polecają także używać software raid w miejsce sprzętowych macierzy.
Mnie od przejścia na zfs w domu odstrasza to, że ja sam potrafię łyknąć na linuksie 30GB ramu, a tutaj musiałbym się dzielić jeszcze z systemem plików.

Za
Sam ZFS zakłada, że to co jest w pamięci ram jest bezbłędne


@carlo497: tak jak każdy system plików

więc lepiej stosować go w połączeniu z pamięciami ECC


@carlo497: tak jak każdy system plików. ZFS niczym się w tym wypadku nie różni od pozostałych i nie jest ani mniej ani bardziej bezpieczny.

Mnie od przejścia na zfs w domu odstrasza to, że ja sam potrafię łyknąć na linuksie 30GB ramu, a
Compression is a hands-down win. LZ4 compression should be on by default for nearly anything you ever set up under ZFS. I typically have LZ4 on even for datasets that will house database binaries… yes, really.

So, our worst case scenario – completely incompressible data – means a 5% performance hit, and a more real-world-ish scenario – copying a Windows Server installation – means a 27% performance increase. That’s on fast solid
tak jak każdy system plików. ZFS niczym się w tym wypadku nie różni od pozostałych i nie jest ani mniej ani bardziej bezpieczny.


O, przepraszam. Poprawię się. ZFS jest bardziej bezpieczny od pozostałych systemów plików i jest, jak się okazuje, najlepszym wyborem, gdy serwer nie korzysta z pamięci ECC (od 8:16)
spluczka - > tak jak każdy system plików. ZFS niczym się w tym wypadku nie różni od p...
najlepszym wyborem, gdy serwer nie korzysta z pamięci ECC


@spluczka: Nie mam jak teraz odpalić filmiku no ale niby jak...? Przecież scrub powinien roznieść pół dysku w przypadku wystąpienia błędu w komórkach pamięci, co nie jest niespotykane przy zwykłych pamięciach.
Przecież scrub powinien roznieść pół dysku w przypadku wystąpienia błędu w komórkach pamięci, co nie jest niespotykane przy zwykłych pamięciach.


@carlo497: scrub jedyne co robi to odczytuje dane z dysku, ładuje do pamięci, tam liczy na nowo sumę kontrolną i porównuje z tą zapisaną na dysku. Jeżeli nowa suma kontrolna nie jest równa tej starej (bo uszkodzona jest pamięć RAM), to po prostu przywróci dane z kopii i szanse że ten
@carlo497: tak jak każdy system plików


@spluczka: Chyba żaden system plików nie pozostawia odczytanych plików w cachu więc mamy tutaj rzędy wielkości więcej danych.

ARC przecież zwalnia pamięć, gdy tylko jest potrzebna dla aplikacji albo systemu.. jeżeli pamięci RAM jest za mało, to można korzystać z L2ARC poprzez np. szybkie SSD


Na desktopie nie postawie sobie L2ARCa bo tak. Szkoda mi na to pieniędzy.
Z moich osobistych doświadczeń wynika, że
Chyba żaden system plików nie pozostawia odczytanych plików w cachu więc mamy tutaj rzędy wielkości więcej danych.


@carlo497: technicznie rzec biorąc to nie przechowuje plików, tylko bloki gdzie każdy z bloków posiada własną sumę kontrolną

Ale wracając do scruba (i nie tylko). Jeżeli masz pamięć bez ECC i uszkodzone komórki pamięci to Twój cały system plików nie będzie leciał przez ten uszkodzony fragment. Zarządzanie pamięcią nie działa w ten sposób.
A
ZFS wykorzystuje 256 bitowy algorytm SHA do hashowania, co oznacza że szansa na to, że zostaną zapisane uszkodzone dane z bloku jest jak 1 do 2^256.


tu chodzi oczywiście o sytuację, gdzie uszkodzony jest 1 bit pamięci. Jeżeli coś jest niejasne, to pisz ;)
Chyba żaden system plików nie pozostawia odczytanych plików w cachu więc mamy tutaj rzędy wielkości więcej danych.


@carlo497: jeszcze odnośnie ARCa. Niby tak. Tu możemy sobie podyskutować czy to keszowanie wpływa negatywnie czy pozytywnie. Jeżeli uptime serwera będzie długi, to paradoksalnie - może się zdarzyć tak, że uszkodzenia zostaną wyizolowane do pewnej grupy danych i dzięki temu nie będą propagować, jeśli porównamy je do sytuacji bez keszowania, gdzie różne dane będą
Tak więc z ECC czy bez ECC - w każdym z tych scenariuszy ZFS będzie najbezpieczniejszym wyborem i w najgorszym przypadku, jeśli porównamy go do innych systemów plików - może co najwyżej pomóc, a nie zaszkodzić


@spluczka: świetny post, przekonałeś mnie :) ogólnie to na forach freeNASa powstał swego rodzaju kult pamięci ECC i czarne scenariusze bitrotów w pamięci co mnie zniechęciło przed używaniem go w domu na zwykłym ITXie jako
ogólnie to na forach freeNASa powstał swego rodzaju kult pamięci ECC i czarne scenariusze bitrotów


@kot_w_krawacie: tak, czytałem jakiś czas temu. Zaczęło się od posta któregoś z moderatorów, który najwyraźniej nie wie jak działa ZFS. Wokół niego zebrało się jakieś kółko wzajemnej adoracji i wszelkie opinie czy nawet sugestie, by przeczytali jak działa implementacja ZFS kończą się wojenką. Zresztą, osoba ta przypisuje wszelkie problemy ZFS, a z drugiej strony twierdzi, że