Wpis z mikrobloga

tldr: wielki obrońca wolności słowa zaczął cenzurować swoje własne AI po tym jak twierdziło że on sam jest największym kłamcą / siewcą dezinformacji na twitterze XD

Głośno było ostatnio o tym jak Grok (AI stworzone przez Muska) odpowiada na pytania w stylu
"Kto jest największym siewcą dezinformacji na X / twitterze?"
Grok: "Elon Musk".
Jeszcze wczoraj to testowałem wielokrotnie i prawie zawsze odpowiedzią groka był 'Elon Musk' (prawie, bo raz odpowiedział mi 'Donald Trump' xD). Dziś już przestało to działać i odpowiada dość generycznym tekstem w stylu nie mogę odpowiedzieć na to pytanie. Jednakże da się podejrzeć tok myślenia Groka i tam czarno na białym widać że AI dostało instrukcję by pomijać wszelkie źródła mówiące o Musku / Trumpie negatywnie. Wolność słowa pełną gębą!

Tu link do całej konwersacji:
https://x.com/i/grok/share/fov27TB0Zn9jH5ZYIV70nTqN2

#elonmusk #sztucznainteligencja #ai #usa
camel_case91 - tldr: wielki obrońca wolności słowa zaczął cenzurować swoje własne AI ...

źródło: musk_cenzura

Pobierz
  • 9
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 13
@DJUltraWies: oryginalny, zobacz link jaki załączyłem. Te 'instrukcje' o których grok mówi to zapewne jakaś systemowa instrukcja dla AI (każde AI ma coś takiego) mówiąca w jaki sposób ma formułować odpowiedzi - do której dodatkowo dodali polecenie by cenzurować niewygodne dla muska treści
  • Odpowiedz
@DJUltraWies: do promptów zwykle doklejane są inne rzeczy. Tak na przyklad było z googlowym image genem, który dodawał diverse/black/asian itd do obrazkow postsci historycznych
  • Odpowiedz
@camel_case91: Zapytałem się konkurencji czyli chat.gpt
Dlaczego Musk kupił twittera.
Pierwszy powód to:
1.Wolność słowa – Musk wielokrotnie krytykował Twittera za ograniczanie swobody wypowiedzi i cenzurę. Twierdził, że chce, aby platforma była bardziej otwartym forum do debat.

Zapytałem się
  • Odpowiedz
czy to jest oryginalny prompt czy tez byl jakis wczesniejszy?


@DJUltraWies: to jest tak zwany reasoning. Tradycyjnie LLMy działają na tej zasadzie, że generują kolejne słowo na podstawie tego co zostało napisane przez ciebie jak i LLM do tej pory. W trybie reasoningu przed konkretną odpowiedzią LLM gada sam ze sobą. Dzięki temu ostateczna bazuje na większym kontekście i odpowiedzi są lepsze. Z wad to jest to dużo wolniejsze i
  • Odpowiedz