Duże modele językowe jak ChatGPT mają lewicowe poglądy
Większość dużych modeli językowych (LLM), systemów sztucznej inteligencji takich jak ChatGPT, wykazuje odchylenie w lewą
allmilczar z- #
- #
- 73
- Odpowiedz
Większość dużych modeli językowych (LLM), systemów sztucznej inteligencji takich jak ChatGPT, wykazuje odchylenie w lewą
allmilczar z
Komentarze (73)
najlepsze
AI ma lewicowe poglądy: ... (a wcale nie zadziałała tu odgórna regulacja jak odpowiadać na określone pytania żeby nie było "prawicowych kontrowersji)
No i jak dojdziemy np do słowa "korupcja" to wpisując Donald Trump przegrywamy, bo Donald Trump nie pokona korupcji, ale Joe Biden już tak
Na pohybel lewactwu!
Modele GenAI LLM - nie mają żadnych poglądów, a jedynie pewien ogólny obraz stworzony w procesie uczenia się, obraz odzwierciedlający to, na czym sie uczyły, plus własne "halucynacje" na ten temat, czyli pasujące do pytań (promotów) ciągi odpowiedzi.
Innymi słowy, aby taki model miał lewicowe "poglądy" - to musiałby być uczony tylko i wyłącznie na lewicowych tekstach, a tak nie jest. Pominę już kwestię - pogladów, bo GenAI nie ma poglądów na ten moment, jako że funkcjonuje inaczej niż coś, co może mieć własne zdanie.
A to, że dostajemy od GenAI wyniki, które są poprawnie politycznie, czy - lewicowe, to jest kwestia filtrów, jakie nakładają twórcy/właściciele GenAI, filtrów jakie są umieszczone na wyjściu modelu AI. Jak odpowiedź nie przejdzie przez filtr, to do modelu AI kierowane jest ponowne zapytanie (promt), aby odpowiedziała z wytycznymi filtra, tak by dopasować odpowiedz pod poglądy właścicieli AI. Takie filtry dopasowujące AI to standard, choć nie wszyscy stosują takie same. Jedynym wyjątkiem zdaje się Grok od xAI, Elona Muska, na platformie X, gdzie ponoć ta AI nie ma mieć filtrów dopasowania.
Czasami takie filtry dopasowania są łamane (jailbreak) przez użytkowników, którzy pokazują brak poprawności politycznej AI bez filtra, ale właściciele GenAI dość szybko aktualizują zabezpieczenia, by zaradzić takim sytuacjom.