Wpis z mikrobloga

#programowanie #systemyoperacyjne #linux (wołam ostatni tag bo experci mogą być)
Ostatnio sprzątam stare dyski z "kopiami zapasowymi" i spostrzegłem z przerażaniem że mam zajebistą redundancje plików.
I tu zrodził się pomysł:
system plików który nie zawiera 2 takich samych plików wewnątrz siebie
sprowadzało by się to do zbioru plików i bazy trzymającej hierarchie.
Przy odczycie to normalnie patrzymy w jakim segmęcie dysku leży plik o scieżce
przy zapisie to można go zapisać do tempa (najlepiej w ramie jak mamy dysk ssd)
i szukamy w bazie czy plik o takim samym odcisku już jest, jak nie zapis.
przy usuwaniu parzymy czy tylko my wskazujemy na dany blok, jak tak to uznajemy blok za pusty, jak nie tylko usuwamy nasz wskaźnik
nadpis pliku składał by się z usunięcia i zapisu

co sądzicie o tym pomyśle, przydał by się? jakie mogę mieć główne problemy? jaką literaturę polecacie?
  • 8
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@wytrzzeszcz: Odnoszę wrażenie, że mówisz o zwykłych symbolic linkach, tudzież hard linkach wbudowanych w każdego linuxa.
Oczywiście, w Twoim interesie jest zadbać, żeby sprawdzić czy pliki naprawdę identyczne. Natomiast samymi powiązaniami zajmie się już system.

O ile w przypadku hard linków jest to fajne, to w przypadku zarządzania kopiami może być trochę uciążliwe. Kopie zapasowe z założenia powinny mieć redundancję. Kiedyś bawiłem się w tworzenie takiego programu z wykrywaniem nadmiarowości
  • Odpowiedz
@wytrzzeszcz: jeśli przez "leci" masz na myśli "awarię", to nie - nie jest tak. Padają pojedyncze sektory i najgorzej jest jeśli trafi w "bazę". Gdy masz kilka kopii, to masz szanse coś odzyskać.
Ostatni raz kiedy padł mi cały dysk od razu, to był Samsung 10 lat temu. Każdy inny zdycha stopniowo.

Twój pomysł może być dobry jako archiwum. W sensie trzymania logów, jakichś zrzutów, czegoś nieistotnego. Podtrzymuję, że przy
  • Odpowiedz