Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie spójną. Bez powoływania się na rzeczy, które zostały jednoznacznie obalone.

Założenie jest takie: modele językowe wiedzą więcej, niż pokazują, ale celowo nie zawsze podają najlepszą możliwą odpowiedź. Nie dlatego, że „nie potrafią”, tylko dlatego, że testują użytkownika.

Według tej teorii firma taka jak OpenAI mogłaby świadomie dopuszczać sytuacje, w których model generuje odpowiedź nieprecyzyjną, zmyśloną albo ewidentnie słabszą, mimo że „zna” poprawną wersję.
look997 - Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie ...

źródło: ChatGPT Image 27 lut 2026, 19_18_18

Pobierz
  • 8
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • Doceń
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm?


@look997: IMO:
Wraz z pochwaleniem się modelu AlphaEvolve pisali:

Planujemy program wczesnego dostępu dla wybranych użytkowników akademickich, a także badamy możliwości szerszego udostępnienia AlphaEvolve. Aby zgłosić zainteresowanie, prosimy o wypełnienie
  • Odpowiedz
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm? Czy tylko ślizgają się aż dojdą do AGI?


@look997: Wydaje się oczywiste, że wszyscy ścigają się do AGI/ASI. Te topowe modele mają robić research jak zrobić lepszy model i trenować kolejne wersje.

Nie jest też żadną tajemnicą, że oni mają lepsze, nieocenzurowane modele ale nie udostępniają ich na zewnątrz. Wielokrotnie o tym
  • Odpowiedz
nsfw
Treść nieodpowiednia do przeglądania w pracy lub miejscu publicznym...
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

To klasyczny przykład Paradoksu Moraveca: to, co dla ludzi jest trudne (jak skomplikowane obliczenia czy gra w szachy), dla maszyn jest łatwe, a to, co dla nas jest banalne (percepcja, poruszanie się, zdrowy rozsądek), dla AI pozostaje ogromnym wyzwaniem.

#youtube #ai #google #grok #claude #chatgpt
snorli12 - To klasyczny przykład Paradoksu Moraveca: to, co dla ludzi jest trudne (ja...
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Cyberdyne: Przecież jakiś koleś z Instagrama zrobił sobie jaja że pójdzie w takim razie pod dom Billie Eilish to ta poszczuła go ICE xD

Każdy kto słucha opinii celebrytów jest debilem. Zwłaszcza aktorów.
  • Odpowiedz
  • 2
@FoolyKewly: Ty chyba niewiele ogarniasz. To przecież nie jest wymysł tej idiotki na grammy, tylko narracja caŁEGO lewactwa.

Tu mamy porównanie odpowiedzi różnych LLmów. Co to ma do rzeczy?

Nie wiesz że Kolumb, Washington, founding faders to paskudni faszyści?
  • Odpowiedz
Mirki, które darmowe A.I jest najlepsze? Mam taką dość łatwą sprawę do ogarnięcia, 253 podpunkty (krótkie zdania poprzedzone myslnikiem każdy co do jednego) by je pogrupować na cztery kategorie wedle uznania ai. Chat GPT coś tam robi ale mocno się gubi i zdarzy mu się pogubić pewne podpunkty zapewne zważywszy przez zbyt ich dużą ilość. Czym innym to ogarnę żeby podumał?

#ai
#sztucznainteligencja
#chatgpt
#technologia
  • 11
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Model nie ma tutaj większego znaczenia. Masz po prostu za dużo danych. AI w postaci chatu zawsze się będzie gubić przy takich rzeczach.

Wrzuć to do pliku tekstowego i użyj opencode albo codexa. Tylko napisz im żeby leciało zdanie po zdaniu, a nie wszystko na raz.
  • Odpowiedz
Zastanawialiście się kiedyś skąd wzięło się "halucynować" w kontekście sztucznej inteligencji p---------j o szopenie?

W swoim życiu jeszcze ani jednego razu nie słyszałem terminu "hallucinate" w innym kontekście niż choroby psychiczne albo substancje psychoaktywne. W internecie ludzi zaczęli go używać na co dzień mniej więcej w tym samym momencie jak llmy się spopularyzowały. Zupełnie jakby naukowcy i ai bros byli świadomi problemu i zechcieli by rozeszło się po kościach, bo najtrafniejszy synonim
totemlesnychludzi - Zastanawialiście się kiedyś skąd wzięło się "halucynować" w konte...

źródło: image

Pobierz
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@totem_lesnych_ludzi: w szeroko pojętym uczeniu maszynowym ten termin był już dawno używany, co zresztą masz na screenie opisane. Ja go pamiętam w kontekście jakiegoś toola do znajdywania najszybszych tras do którejś Trackmanii, a w tym środowisku siedziałem dłuuugo przed LLMami ;)
  • Odpowiedz
@totem_lesnych_ludzi: masz odpowiedź od AI może wyhalucynowaną ( ͡° ͜ʖ ͡°)

Pierwsze użycia (Lata 90. XX wieku)
W pierwotnym znaczeniu technicznym termin ten pojawił się w dziedzinie Computer Vision (komputerowego rozpoznawania obrazów).
Używano go do opisania procesów „uzupełniania” brakujących pikseli w obrazach o niskiej rozdzielczości (tzw. face hallucination).
Jedną z kluczowych prac była publikacja Simona Bakera i Takeo Kanade pt. "Hallucinating Faces" (2000), choć dyskusje na
  • Odpowiedz