Szukam pomoc z #linux i #wget albo #curl

Potrzebuje pobrać(wrzucić do txt) z domeny www.domain.com wszystkie url które zawierają słowo kluczowe download ale nie wiem jak do tego się zabrać i jak napisać polecenie w konsoli. Jakieś pomysły?

Link może występować jako np:

www.domain.com/download/file.mp4
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

a czym ogólnie może być spowodowane, że czasami się wykonuje, czasami nie?
bot ogólnie wysyła wpis na pewne forum

i [Dzisiaj 23:19] BOT: test bota 23:19:01
i [Dzisiaj 23:22] BOT: test bota 23:22:01
i [Dzisiaj 23:24] BOT: test bota 23:24:01
  • Odpowiedz
@LepiejWcaleNizPozno: Ewentualnie możesz arp spoofing p--------ć i espoofować mu gatewaya na jakiś MAC z d--y. Bardziej legitne rozwiązanie, jak nie ma jakiś ekstra zabezpieczeń w sieci na ARP spoofing i na końcówce to powinno zadziałać.
  • Odpowiedz
W jaki sposób mogę zmusić wgeta do zapisania wszystkich stron z tematu które jest na forum podczas robienia mirrora? tzn. mam sytuację że chcę zrobić mirror stronki (podaję ogólny adres serwisu w komendzie wgeta), to tematy które mają na przykład po 50 stron nie zapisuje w całości. Pobiera pierwsze 3 strony i ostatnie 2 i to tyle. Chcę żeby też zapisywał strony 4,5,6,7 itd. Natomiast jak chcę zapisać sam temat to wget
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach