Wpis z mikrobloga

Kiedyś w latach 80-90 lingwistyka obliczeniowa była królem analizy języka. Wszystko musiało być ładnie, systematycznie i zgodnie z teorią językoznawczą. Chcesz parsować zdanie? Musisz mieć gramatykę formalną, reguły składniowe, drzewa parsowania. Chcesz rozpoznać znaczenie? Buduj ontologie, sieci semantyczne, logikę predykatów.

I nagle przyszły lata 2000+ i wszyscy odkryli machine learning. "Po co te wszystkie skomplikowane reguły, jak można po prostu nakarmić algorytm danymi?" - pomyśleli sobie ludzie z computer science.
Efekt?

Lingwiści: "Ale przecież to nie uwzględnia struktury języka!"
ML-owcy: "Mój model ma 95% accuracy, a wasz?"
Lingwiści: "Ale teoretyczna poprawność..."
ML-owcy: "Sorry, nie słyszę przez szum pieniędzy z przemysłu"

Potem przyszły transformery i GPT-y, które nawet nie udają, że rozumieją gramatykę, a robią rzeczy, które lingwiści latami próbowali zakodować ręcznie.

Ironiczne jest to, że teraz jak LLM-y mają problemy z halucynacjami czy brakiem logicznego myślenia, to wszyscy nagle: "Hmm, może jednak potrzebujemy trochę tej lingwistyki?"
Koło się zamyka ( ͡° ͜ʖ ͡°)

TL; DR: Lingwistyka chciała zrozumieć język, NLP chciało go tylko używać. Zgadnijcie kto wygrał? kapitalizm.

#nlp #ai #linguistyka #machinelearning #sztucznainteligencja #programista15k
  • 11
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Ironiczne jest to, że teraz jak LLM-y mają problemy z halucynacjami czy brakiem logicznego myślenia, to wszyscy nagle: "Hmm, może jednak potrzebujemy trochę tej lingwistyki?"

Koło się zamyka ( ͡° ͜ʖ ͡°)


@JamesJoyce: IMO:
1. Rozumujące LLMy z łańcuchem myśli, nie mają już takich problemów logicznych, co obrazują wyniki, gdy się je przetestuje testem na inteligencję. Potrafią one rozumować systemem 2 (Kahneman).
2. Są już naukowcy
Arkass - >Ironiczne jest to, że teraz jak LLM-y mają problemy z halucynacjami czy bra...

źródło: image

Pobierz
Arkass - >Ironiczne jest to, że teraz jak LLM-y mają problemy z halucynacjami czy bra...
  • Odpowiedz
  • 0
1. Rozumujące LLMy z łańcuchem myśli, nie mają już takich problemów logicznych, co obrazują wyniki, gdy się je przetestuje testem na inteligencję. Potrafią one rozumować systemem 2 (Kahneman).


@Arkass: Nie powiedziałbym, żeby llmy "rozumowały". Stan technologii na 03.08.2025 jest taki, że rozumować są w stanie tylko ludzie.

2. Wiem, Wolniewicz kiedyś pisał, że 95% artykułów to makulatura. Przy podejściu, które opisujesz ta liczba zwiększa się do 98%.
  • Odpowiedz
Nie powiedziałbym, żeby llmy "rozumowały". Stan technologii na 03.08.2025 jest taki, że rozumować są w stanie tylko ludzie.


@JamesJoyce: IMO:
To jest mit. Może pomoże rozwiać go u Ciebie wykład eksperta od kogniwistyki i AI, czyli profesor Duch: https://youtu.be/yB1lenu8qyw
Rozumować jak ludzie są w stanie tylko ludzie, a nie rozumować w ogóle. ;)
Za chwilę ASI (ogólna/silna superinteligencja AI) będzie w stanie rozumować lepiej od ludzi. Może do 3 lat.
Arkass - >Nie powiedziałbym, żeby llmy "rozumowały". Stan technologii na 03.08.2025 j...
  • Odpowiedz
@Arkass: widzę nałykałeś się marketingowego bełkotu dla inwestorów żeby wyskakiwali z kasy dla kolejnych magazynów pełnych setek tysięcy chipów żeby finalnie mieć czat bota o IQ 60 kek
  • Odpowiedz
@JamesJoyce: A znasz lingwistę obliczeniowego który nie jest ML-owcem obecnie? Ogólnie zgadzam się z twoimi uwagami ale jednocześnie widać, że pojawia się sporo rozwiązań które czerpią właśnie z lingwistyki obliczeniowej.
  • Odpowiedz
Oj nie. Nie wierz w hajp.


@JamesJoyce: IMO:
Rzeczy, które piszę nie opieram na hype, bo mam naturę dość sceptyczną. Staram się opierać na faktach, trendach, logicznych powiązaniach, prognozach, itp.
Tutaj masz prognozę, którą rok czasu tworzyli badacze AI, a która jest opracowana także na badaniach naukowych, które można znaleźć na stronie ich projektu: https://ai-2027.com/
W prognozie w 2027 powstaje ASI
  • Odpowiedz
@Arkass: tzw. „scenariusz” AI 2027 dość naiwnie zakłada, że trenując modele AI wystarczy dokładać mocy obliczeniowej aby w emergetny sposób wyłoniły się cechy, które pasują do określenia AGI. Obecnie niewiele wskazuje, że tak rzeczywiście będzie to wyglądało.
  • Odpowiedz
tzw. „scenariusz” AI 2027 dość naiwnie zakłada, że trenując modele AI wystarczy dokładać mocy obliczeniowej aby w emergetny sposób wyłoniły się cechy, które pasują do określenia AGI. Obecnie niewiele wskazuje, że tak rzeczywiście będzie to wyglądało.


@Manah: Jesteś pewien, że czytałeś całość:

Marzec 2027: Przełomy algorytmiczne

Trzy ogromne centra danych pełne kopii Agenta-2 pracują dzień i noc, produkując syntetyczne dane treningowe. Kolejne dwa służą do aktualizacji wag. Agent-2 staje się coraz mądrzejszy z
  • Odpowiedz