Wpis z mikrobloga

Siemka, mam taką stronę WWW jak w załączniku. Mam w niej pospisywane ważne dane odnośnie produktów w pewnej firmie. Czasami potrzebowałbym wyszukać po innych unikalntch wartościach we wszystkich produktach (np. przy użyciu Ctrl+F), niestety na jedną stronę przypada jedynie 20 produktów. Czy jest jakiś dodatek / scrapping plugin do przeglądarki, która zbierze mi dane i np. zapisze do Excela? Albo może jest jakiś dodatek do przeglądarki, która wyświetla jakby "strona pod stroną" na jednej długiej stronie ignorując licznik stron po 20 elementów na jednej stronie?

#programowanie #development #stronywww #webdev #webstuff #programista #programista15k #webmastering #internet #chrome #firefox #komputery
MisiekD - Siemka, mam taką stronę WWW jak w załączniku. Mam w niej pospisywane ważne ...

źródło: 7367bdd892

Pobierz
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
@MisiekD otwórz dev toolsy, idź do sieci, zobacz co strona pobiera, jaki link, jakie nagłówki itd.
Przemysł to wszystko w wrzuć w pythona żeby Ci ściągał i parsowal wszystkie te dane i na końcu zrzucił do csv.

Powodzenia.
  • Odpowiedz
@QuaS tera to AI się takie rzeczy niby robi, gdzieś widziałem tiktokowego guru który pokazywał narzędzie któremu się stronę pokazuje i on sam kmini jak to scrapowav i od razu strukturyzować dane. Niestety nie zapamiętałem nazwy narzędzia (bo ostatnio pojawia się ich setki) więc będę mało pomocny, ale może warto poszukać
  • Odpowiedz
  • 5
@Darjo prawdziwy inżynier się odezwał. Semantycznie poprawny komentarz nie wnoszacy nic do tematu - iście po inżyniersku ( ͡º ͜ʖ͡º)
  • Odpowiedz
@MisiekD: Osobiście bym to zrobił skryptem pythonowym, wykorzystując bibliotekę beautifulsoup oraz httpx/requests. Jeżeli strona jest za logowaniem, będziesz musiał też skopiować token z przeglądarki.

Jeżeli jednak nie chcesz nic pisać, nie lepiej będzie poprosić o dostęp do bazy danych, gdzie te dane się znajdują? Zrobisz jedno zapytanie, skopujesz dane do excela i masz gotowe.
  • Odpowiedz
@QuaS: Sądząc po adresie URL, nie jest to SPA, tylko cały html jest wysyłany za każdą zmianą strony. Oczywiście, jeżeli jest to wysyłane przez API, to lepiej z tego skorzystać.
  • Odpowiedz