Cloudflare wypowiada wojnę botom. Wyślą je do labiryntu sztucznej inteligencji

System, określany jako Labirynt Sztucznej Inteligencji, generuje strony internetowe pełne realistycznie wyglądających, ale bezużytecznych informacji, w które boty indeksujące AI się zagłębiają, tracąc czas i zasoby.

- #
- #
- #
- #
- 75
- Odpowiedz
Komentarze (75)
najlepsze
źródło: joshua-wargames
PobierzKiedyś można było prowadzić ciekawą stronę internetową i wynagradzać sobie koszty wyświetlaniem na niej paru reklam.
Teraz na stronę wjeżdża bot AI (i w dupie ma robots.txt) i wysysa cały kontent.
Ludzie
Ludzie skarżą się nawet że przez OpenAI inicjuje ataki DDoS na serwisy, tak intensywnie próbują indeksować dane
@I-____-I: no tak nie do końca. Zależy kto to mówi i w jakim kontekście.
Przez lata np. Microsoft i Adobe twierdzili inaczej jak chodziło o kopiowanie ich produktów. Aż wymyślono model subskrypcji za oprogramowanie i
@Zylet: Opisałeś ogromną część społeczeństwa. Oczywiście że używają, zobacz współczesnych studentów, nastolatków, dzieciaków chwalących się w mediach jak chatgpt rozwiązuje ich zadania, problemy. W USA powszechne jest nagrywanie wykładów, tworzenie streszczeń notatek w AI, dokładanie do tego wiedzy bezpośrednio z AI które lubi fantazjować.
Zapominasz o fakcie że niestety przeciętny użytkownik internetu globalnego myśli że coś jest prawdą ponieważ
@Zylet: masz taką opinię. Ja widzę poważnych i inteligentnych ludzi, którzy po prostu tak robią. Bo ułatwia to pracę (niekoniecznie zawodową).
Jasne, trzeba myśleć krytycznie i sprawdzać. Jednocześnie przyśpiesza bardzo.
Zresztą - korzystasz z Google, Binga? To zwróć uwagę, że już na początku wyników są odpowiedzi generowane przez AI. Ze źródłami, często w złym
@CzasemTuZerkam: Swoją drogą zauważam, że coraz więcej ostatnio takich przemądrzałych i wyzywających jak xxxxyyyy. NPCy przekonane o swojej zajebistości i krytykujący normalną wymianę ciekawych myśli? Negatywna selekcja piszących na wykopie - coraz więcej mających coś ciekawego do powiedzenia widzi, że tu nie ma sensu i odchodzi? A może już po prostu nieudolne
Podobno llmy alibaby nie mają litości i nawet skubane crawlery są zbugowane i ciągną cały czas to samo.
https://github.com/bf/security-advisories/blob/main/2025-01-ChatGPT-Crawler-Reflective-DDOS-Vulnerability.md - tutaj masz jeden z przykładów.
Narzędzie które linkujesz połączone z faktem że OpenAI używa gigantycznej farmy serwerów jest idealną wojną marnowania zasobów obu stron.
@haohao: Ktoś wyżej podał bardzo podobną rzecz, pomijając już że jak wrzucisz to w główną domenę to pewnie dostaniesz bana na wyniki Google za spam ale działa ciekawie. Generuje bezsensowne strony z linkami kierującymi do bezsensowych stron a dodatkowo jeszcze podaje treści wolno jak "kroplówkę" tak żeby roboty nie dostały timeout ale marnowały czas na wczytanie całości.
Jak jakiś robot spróbuje zaindexować każdy link to czeka go długa zabawa
Ale każdego posiadacza strony bardzo interesuje indeksacja i bycie w wynikach wyszukiwania.
Tylko, że oni chcą by wyszukiwarki kierowały do ich treści na stronie autora, a nie wysysały content i pokazywały jako swój.
Goowniane wyniki wyszukiwania od dłuższego czasu są właśnie efektem implementacji botów w wyszukiwarkach.