Wpis z mikrobloga

Ciekawy tekst z twittera, ale nie wiem jak to otagować
#ai #chatgpt #ciekawostki #informacje #informatyka

Yann LeCun, jeden z ojców współczesnego AI, właśnie powiedział coś, co stawia pod znakiem zapytania cały obecny kierunek branży:

„LLM-y to ślepa uliczka, jeśli myślimy o prawdziwej inteligencji.”

I trudno to zignorować, bo to człowiek, który od 40 lat konsekwentnie miał rację.

Najważniejszy argument LeCuna jest brutalnie prosty:

LLM-y nie rozumieją świata — przewidują tylko kolejne tokeny. Przez to firmy popełniają trzy kluczowe błędy.

Po pierwsze, utożsamiają skalowanie modeli z rosnącą inteligencją. Dokładamy parametry, GPU, dane… ale nie dokładamy żadnej struktury poznawczej.

Po drugie, branża wierzy w AGI przez „brute-force”: wystarczy większa architektura i więcej energii. LeCun twierdzi wprost: to nie zadziała, bo nie da się wytrenować rozumienia świata na tekście, tak jak nie da się nauczyć kota fizyki, pokazując mu Wikipedia dump.

Po trzecie, firmy ładują dziesiątki miliardów w infrastrukturę, która może dać coraz mniejsze zwroty — efekt plateau. Kolejne generacje LLM będą coraz kosztowniejsze i coraz mniej przełomowe. Fizyki i scaling laws nie oszukasz.

LeCun twierdzi, że jedyną sensowną ścieżką jest tzw. model świata — AI, które uczy się poprzez działanie, interakcję, percepcję i budowanie wewnętrznej reprezentacji rzeczywistości. Nie „język o języku”, lecz „umysł o świecie”. To kompletnie inna filozofia niż obecny wyścig na parametry. I jeśli ma rację, to najbliższe lata mogą przynieść największą korektę założeń w historii AI.

Co to oznacza dla LLM? Przede wszystkim to, że mogą pozostać potężnymi narzędziami, ale przestaną być traktowane jako droga do ogólnej inteligencji. Rozwój spowolni, koszty będą rosły szybciej niż jakość, a firmy przekonają się, że nie da się budować „rozumienia” przez kompresję internetu. Warto więc śledzić nie tylko to, kto ma największy model, ale kto pracuje nad architekturą następnej generacji: agentami, percepcją, uczeniem ze środowiska, pamięcią roboczą i modelami przewidywania świata.

LeCun powtarza dziś to, co mówił lata temu o sieciach neuronowych — wbrew całej branży. I jeśli znowu ma rację, to obecna obsesja na punkcie LLM może okazać się jednym z największych błędnych zakładów technologicznych dekady.
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@stary_grat: IMO:

Yann LeCun to obecnie w świecie AI jest memem. xD Jak powie, że coś jest niemożliwe w AI, to za chwile ktoś udowodni, że jednak jest możliwe...
Tak było kilka miesięcy przed GPT 3-5, gdzie LeCun mówił, że AI jak jej się opisze, że się połozy na stole telefon, i popchnie ten telefon poza krawędź stołu, to AI nie będzie umiała powiedzieć, co się stanie z telefonem, czyli że -
Arkass - @stary_grat: IMO:

Yann LeCun to obecnie w świecie AI jest memem. xD Jak pow...
  • Odpowiedz
nie jest w czołówce stawki granicznych modeli AI


@Arkass: a co to znaczy ze graniczne modele? moge se przeczytac ale fajnie opowiadasz to napisz xd ja ostatnio odkrylem perplexity.ai i stal sie moim 3 modelem z ktorego korzystam obok gpt 5 i claude sonnet 4.5 w pracy, a tak to cos sie probuje tym zainteresowac moze i zawodowo ale nie wiem od jakiej strony do tego podejsc troche
  • Odpowiedz
LLM-y to ślepa uliczka, jeśli myślimy o prawdziwej inteligencji.


@bartiii_: Yann LeCun jest sceptykiem modeli językowych bo promuje swój model świata - JEPA (Joint-Embedding Predictive Architecture). Był szefem AI w Facebooku... ale go zastąpili kimś innym bo nie potrafił zrobić równie dobrze działających modeli co Google czy OpenAI.

Co ciekawe, LeCun w jednym z wywiadów powiedział, że on sam nie ma wewnętrznego narratora (nie rozmawia sam ze sobą w myślach - mniej
  • Odpowiedz
@bartiii_: ChatGPT powiedział:Dobra, biorę to „na ostro”—bez sentymentu, bez fanboystwa, bez politycznej poprawności.
To jest poważny tekst i faktycznie dotyka sedna sporu LeCun vs. cała obecna branża.
Ale prawda jest dużo bardziej skomplikowana niż to, co tu napisano.
Rozbijam to na warstwy, bo inaczej nie da się tego opisać sensownie.

1. LeCun ma rację… ale tylko
  • Odpowiedz