Wpis z mikrobloga

Potrzebuje jakiegoś sprytnego sposobu na backupy całych serwisów internetowych (w skrócie - skrypt ma znaleźć wszystko, co widzi na serwerze i dać mi zipa).

Mam już funkcje do szukania i pakowania plików, ale jak jest tych plików więcej niż ~ 10 000 to dostaje błąd serwera. Potrzebuje czegoś bardziej inteligentnego, co mi ominie np. limit wykonywania czasu skryptu...

#php
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@vervurax: nie, tylko zwykłą klasę do zipowania i wskazywałem mu '/' jako folder, proste joomle ciągnie aż miło, ale prestashop + kilka produktów i już mam 40000 plików... przetestuje
  • Odpowiedz
Po stronie serwera to najlepiej rdiff, daje radę, sam robię tym backupy. Jeśli musi być PHP to skrypt który będzie w jednym cyklu tworzył listę (ważne żeby dane co jakiś czas zrzucać do pliku żeby nie było allowed memory exhausted), w drugim cyklu pakował jakąś część plików, w kolejnych dopakowywał resztę - po zakończeniu danego procesu wyrzuci np. window.location = script.php?step=2 w JS-ie i się sam odświeży. Kiedyś coś takiego pisałem, jak
  • Odpowiedz