Spoko, każdy kto kupił dopiero co kompa i poznaje jego obsługę od razu poleciał po KS Ekspert. Przyznam się bez bicia - czytałem KS Świat gdy dostałem pierwszego kompa w 2001 roku i dzięki temu jakoś szybciej załapałem o co w tym wszystko chodzi. Wy, jak Lepper - inteligentni się urodziliście.
Defragmentowanie dysku to walka z wiatrakami. P2P, cache przeglądarki,gry i tak dalej - miliony małych pliczków pomiędzy wielkimi. Na dysku zawsze będzie panował chaos :) Nie mam na myśli że nigdy nie należy defragmentować tylko że trzeba podejść do tego z dystansem.
Na przykład taki Diskeeper na bieżąco defragmentuje dyski. Działa w tle, nie zajmuje dużo ramu i włącza się wtedy, gdy komputer nie jest zbytnio obciążony. W sumie można zapomnieć o defragmentacji.
Przystępnie wytłumaczone i zabawne. Dawno nie robiłam defragmentacji, a, że powinnam się pouczyć na jutro to chociaż przestanę w końcu siedzieć na wykopie, bo mi komputer przy tym muli strasznie.
20 godzin czekania żeby w sumie oszczędzić może z 5 minut przy korzystaniu z kompa przez cały żywot dysku
a to i tak optymistycznie patrząc bo jak wiadomo najwęższym gardłem komputera jest reakcja użytkownika
kiedyś defragmentowałem dyski, teraz twierdzę że to strata czasu
jeśli już to najbardziej opłaca się zdefragmentować partycję systemową i pliki gier, ale za parę lat wszyscy i tak przynajmniej system będą trzymali na dysku SSD (którego fragmentacja nic
Standardowy defragmentator z Windowsa jest powolny i faktycznie moze to trwac kilkanascie godzin. Sprobuj uzyc jakiegos zewnetrzengo defragmentatora... na przyklad Auslogics Disk Defrag
Świetny filmik. Spodobał mi się na tyle, że pierwszy raz w życiu z defragmentuje u siebie dysk. Co ciekawe kompa od ponad 10 lat mam i nigdy nie miałem okazji tego zrobić. Zwyczajnie częściej wgrywałem system od nowa.
Dla (ext)FAT(32) zawsze wracasz do tablicy indeksów, niezależnie czy plik jest ciągły czy nie.
Dla ext(2/3/4) nic nie dostajesz, bo strukturę i-noda i tak musi komp zaktualizować - da się to poprawić opcjami przy montowaniu.
Dla NTFS jest zysk, bo dane są pisane w strumieniach. Jednak głowica musi wracać na początek strumienia co ileś tam sektorów, by aktualizować uprawnienia i inne głupoty.
Nie napisałem, że się nie fragmentują, tylko że nie wymagają defragmentacji. Bo co za różnica, czy cały plik jest podzielony, czy nie, jak dostęp do każdej części jest tak samo kosztowny. Możliwe, że w przypadku podzielonym dostęp jest minimalnie dłuższy, ale wątpię, żeby to był widoczny efekt.
Muszę Cię zmartwić, bo na Linuksach jak najbardziej może dojść do fragmentacji danych. Jest ona jednak dużo mniejsza, niż na Windows. Mimo to, trwają prace nad "ext4 on-line defragmentation". ;)
Jeżeli chodzi o Linuksa, xfs to Święty Graal wśród systemów plików. O wiele lat dłużej na rynku od ext4, tak samo wydajny no i ma działający defragmentator :)
Komentarze (110)
najlepsze
a to i tak optymistycznie patrząc bo jak wiadomo najwęższym gardłem komputera jest reakcja użytkownika
kiedyś defragmentowałem dyski, teraz twierdzę że to strata czasu
jeśli już to najbardziej opłaca się zdefragmentować partycję systemową i pliki gier, ale za parę lat wszyscy i tak przynajmniej system będą trzymali na dysku SSD (którego fragmentacja nic
Pozycję musisz i tak obliczać.
Dla (ext)FAT(32) zawsze wracasz do tablicy indeksów, niezależnie czy plik jest ciągły czy nie.
Dla ext(2/3/4) nic nie dostajesz, bo strukturę i-noda i tak musi komp zaktualizować - da się to poprawić opcjami przy montowaniu.
Dla NTFS jest zysk, bo dane są pisane w strumieniach. Jednak głowica musi wracać na początek strumienia co ileś tam sektorów, by aktualizować uprawnienia i inne głupoty.
Z tych trzech to
http://www.ninjadoodle.com/ninja-glove/
Hmm, to chyba jeden z objawów wrodzonej pierwotnej niedoczynności tarczycy, ten no... Kretynizm.
Komentarz usunięty przez moderatora