Wpis z mikrobloga

Co jakiś czas dostaje pytanie w stylu:
"ej! 6 lat temu opublikowałeś w zestawieniu takiego fajnego linka na temat XYZ. Podałbyś mi go?"

Nie pamiętam wszystkich linków publikowanych w ramach #unknownews (było ich przez te lata ponad 5000), ale zrobiłem właśnie pobieralne archiwum w postaci pliku PDF (560+ stron)

Potrzebujesz czegoś z archiwum? CTRL+F i w drogę! ( ͡º ͜ʖ͡º)

https://unknow.news/pelnearchiwum.php

P.S. Nie gwarantuję, że wszystkie linki działają. Niektóre z nich mają już 6+ lat, a trudno je wszystkie zweryfikować.


Tagi: #ciekawostki #technologia
imlmpe - Co jakiś czas dostaje pytanie w stylu:
"ej! 6 lat temu opublikowałeś w zest...

źródło: comment_16266954889BILk6wf9GejoX4BCTyrHi.jpg

Pobierz
  • 56
polecisz małego emaila który nie należy do wielkiej korporacji i obsługuje mutta?


@bgrzegorz: rzuć okiem np. na https://www.migadu.com/pricing/

Za $19/rok masz najmniejszy pakiet. Nieograniczona liczba kont, aliasów i domen.
Używam ich podczas pentestów u klientów. Działa spoko.

Obsługuje POP3 / IMAP / SMTP / webmail, a obsługiwany jest przez grupę fanatyków, którzy nie lubią dużych korporacji i zezwalają na pentesty i kampanie phishingowe white-hat ;)
@imlmpe: good job - podziekowal

A nie mozesz je uzupelniac na swojej stronie? PDF jest nieporeczny.
Jasne ze pewnie znajde na twojej liscie jakis fajny serwis cloud ( ͡º ͜ʖ͡º), na ktorym bede mogl trzymac tego pdf'a. Wolalbym jednak przeszukiwac twoja strone za pomoca wyszukiwarki.
Nie pamiętam wszystkich linków publikowanych w ramach #unknownews (było ich przez te lata ponad 5000), ale zrobiłem właśnie pobieralne archiwum w postaci pliku PDF (560+ stron)


@imlmpe: Mnie się wydaje, ze bardziej przydatne byłoby CSV.. Mozna by napisać app/web app z np. jQuery/AJAX, która by wyszukiwała/filtrowała po podanym filter-stringu w regex-ie.

P.S. Nie gwarantuję, że wszystkie linki działają. Niektóre z nich mają już 6+ lat, a trudno je wszystkie zweryfikować.


@
@senseiek:

Właśnie można by stworzyć skrypt PHP/Perl/JS który by wczytał je po kolei, i zrobił na nich wget/curl/file get contents(), i zapisał kod błędu HTTP i/lub przeanalizował czy zawierają oczekiwana treść itp.


Nie jest to też takie proste i oczywiste. Musiałbyś do tych linków dorzucać jeszcze ekstra tzw. "oczekiwaną" treść, która byłaby wskaźnikiem czy link wciąż działa prawidłowo. A autor mógł sobie przez 6 lat aktualizować artykuł i usunąć/zmienić akurat część,
To pokazuje, moim zdaniem, że lepiej nie ruszać linka i niech prowadzi, gdzie prowadzi. Jak jest 403, 404 albo jakaś inna treść, niezwiązana (np. przejęcie domeny czy coś), to trudno - mniej z tym problemów niż inne rozwiązania, które mają swoje wady. Na mój gust, to jest prędzej zmartwienie autorów stron, aby utrzymywali je w działaniu.


@devopsiarz: Ja bym przyjął 80/20 rule i te 4xx wyciął skryptem a resztę zostawił jak