Aktywne Wpisy

Kolanka +212
No to ładnie. Rano Biejatowa mówi, że poprze Rafała bo ten mówi, że to koniec z dopłatami, a tymczasem Tusk mówi, że mu smutno, że ten program nie doszedł do skutku xD
#nieruchomosci
#nieruchomosci
źródło: temp_file7174080226549248359
PobierzWizyta u divy zakończona porażką
19 letni prawik here i chcialem w końcu z tym skończyć ( było to tak na siłe, że nawet po 100mg sildenafilu i 60mg dapoksetyny nie miałem erekcji). Ukrainka już miala zakladac gume a ja jak zwykle powiedziałem jak zjeb, że to mój pierwszy raz XD
A ta d----a nagle zaczyna sie ubierać i mowi ,,przepraszam, ale nie" bo nie dojdę po 30 minutach, a ma następnego klienta. Nie
19 letni prawik here i chcialem w końcu z tym skończyć ( było to tak na siłe, że nawet po 100mg sildenafilu i 60mg dapoksetyny nie miałem erekcji). Ukrainka już miala zakladac gume a ja jak zwykle powiedziałem jak zjeb, że to mój pierwszy raz XD
A ta d----a nagle zaczyna sie ubierać i mowi ,,przepraszam, ale nie" bo nie dojdę po 30 minutach, a ma następnego klienta. Nie





Chciałbym za pomocą pythona ukazać w jakim procencie wszystkie polskie s-x portale to scam a w których idzie się umówić na dupcing
Z jednej strony wiem że można odpalić crawlera który będzie chodził po stronie i będzie zbierał wymagane dane ale trochę wydaję mi się to nie efektywne. NIe można by było zrobić np snapshotów określonych sekcji stron które by mnie interesowały i znich lokalnie czyścić te snapshoty?
Głównie chce:
- Ukazać korelacje płci
- Wiek konta
- Średnia aktywnego konta
- Ilość fake accountów (linki w nazwach)
- E-k---y (snap, onlyfans)
itp
Jak byście do tego podeszłi? Dane bym przechowywał w google sheet albo lokalnie i uploadowywał do Google Data Studio / Locker albo do Preset.io (Apache Superset)
Edit: W zależności od tego jak dużo tych danych potrzebujesz - zastanów się, bo prosty crawler możesz nawet w Apps Scripts napisać i będzie Ci zaciągał dane bezpośrednio do Google Sheets.