Wpis z mikrobloga

Mamy nową modę: wykrywanie AI. Nauczyciele tropią plagiaty z ChatGPT, rekruterzy podejrzliwie patrzą na zbyt ładnie napisane CV, redaktorzy patrzą w wykres i mówią: „To brzmi zbyt sensownie, pewnie bot”. A wszystko to dzięki tzw. detektorom AI. Czyli narzędziom, które obiecują, że odróżnią człowieka od maszyny. Niestety – jak większość cudownych obietnic w internecie – to nie działa. I raczej nie zacznie.

Wirtualne Media opublikowały niedawno tekst, który próbuje nas przekonać, że detektory nie są wyrocznią, ale „przydatnym wskaźnikiem ryzyka”. To trochę jakby powiedzieć, że rzut kostką to „pomocne narzędzie decyzyjne”.

Jasne, można, ale może nie wtedy, gdy chodzi o zaliczenie, zatrudnienie albo publikację w prasie. Detektory takie jak GPTZero, Originality.ai czy Smodin działają na zasadzie: „ten tekst jest zbyt gładki, pewnie pisał go algorytm”. Analizują długość zdań, powtarzalność słów i inne magiczne metryki jak „perplexity” czy „burstiness”. Brzmi mądrze?

Super, ale w praktyce to zgadywanie na podstawie stylu pisania. A że dzisiejsze AI (GPT-4, Claude, Gemini) pisze sensowniej i bardziej różnorodnie niż niejeden człowiek po filologii – to detektory zaczynają wariować. A jak ktoś jeszcze kliknie „popraw w Grammarly” albo doda przecinek – to już w ogóle panika.

Możesz zrobić prosty test w domu. Wklej swój własny, uczciwie napisany tekst do GPTZero. Szok i niedowierzanie – uzna go za sztuczną inteligencję. Potem wklej coś z ChatGPT, co zawiera trochę potknięć i kolokwializmów. Voilà – „człowiek”. A teraz wrzuć ten sam tekst do trzech różnych detektorów. Każdy powie coś innego. To nie weryfikacja, to bingo.

A teraz najlepsze: nawet OpenAI, czyli ci od ChatGPT, też próbowali stworzyć własny detektor. Nazywał się „AI classifier”. Długo nie pożył. Sami twórcy powiedzieli, że jest nieprzydatny i że nie należy go używać do podejmowania decyzji. Czyli przetłumaczone z marketingowego: „Dziękujemy za uwagę, to był zły pomysł”. Ale oczywiście są tacy, którzy wciąż tłumaczą: „Przecież to tylko pomoc, taka sugestia, wskazówka”. Tyle że wskazówka, która raz mówi „to AI”, a raz „to człowiek”, to raczej kabaret, nie wsparcie. To jakby ktoś wręczył ci kompas, który czasem pokazuje północ, a czasem ciocię Wiesię.

Tymczasem skutki są poważne. Uczniowie dostają zarzuty plagiatu, bo „coś się nie zgadza z wykresem”. Rekruterzy odrzucają kandydatów, bo „zbyt płynnie napisane”. Redakcje wywalają dobre teksty, bo jakiś pasek pokazał 78%.

Ludzie piszą różnie. AI pisze różnie. I czasem to, co najgłupsze i najbanalniejsze, wyszło spod ręki człowieka. A to, co mądre i błyskotliwe – z maszyny. I odwrotnie. Nie ma reguły. Detektory AI to produkt, który sprzedaje się dlatego, że ludzie bardzo chcą wierzyć, że istnieje sposób na „rozpoznanie ChatGPT”. Ale nie istnieje. To mit. Taki sam jak np. „test na szczerość”.

Zamiast więc klikać w kolejne kolorowe wykresy, lepiej po prostu zapytać autora, jak to napisał. Przeczytać tekst. Zastanowić się, czy ma sens. Czy zawiera bzdury, czy może trzyma się kupy. Bo jeśli coś jest dobrze napisane i powstało w 10 sekund – to może AI. Ale równie dobrze człowiek z talentem, ciśnieniem i deadline’em.

Najlepszy detektor AI? Nazywa się zdrowy rozsądek. I jeszcze długo nie będzie lepszego. Choć oczywiście zawsze możemy wrócić do sprawdzonej technologii rodem z „Love Never Lies”, czyli eye detecta – tego magicznego wynalazku, który na podstawie spojrzenia ocenia, czy ktoś mówi prawdę. Nie wiem, jak to się stało, że FBI jeszcze z tego nie korzysta przy łapaniu morderców. Może po prostu wolą coś mniej absurdalnego. Na przykład wróżenie z fusów lub lanie wosku przez dziurkę w breloczku od klucza.
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Impuls94: myślniki, cudzysłowie, struktura tekstu tak po prostu, słownictwo, używanie znaków które piszący z palca człowiek normalnie by pominął (znaki nie występujące w polskim alfabecie jak à)

Od razu to widać jesli ktos się z tym opatrzył. Bez żadnych narzędzi zaawansowanych
  • Odpowiedz
@ProstoZMainstreamu: @Impuls94
Tekst z uzyciem AI:
-------
Rozważanie filozoficzne: Czy tekst generowany przez AI ma wartość, jeśli oddaje intencję człowieka?

Współczesny świat stawia nas wobec pytań, które jeszcze dekadę temu wydawały się czystą spekulacją science fiction. Jedno z nich brzmi: czy tekst wygenerowany przez sztuczną inteligencję ma autentyczną wartość, jeśli wiernie oddaje to, co człowiek chciał powiedzieć? Albo mocniej: czy to w ogóle jeszcze jest „twórczość człowieka”, czy
  • Odpowiedz