Kiedyś w latach 80-90 lingwistyka obliczeniowa była królem analizy języka. Wszystko musiało być ładnie, systematycznie i zgodnie z teorią językoznawczą. Chcesz parsować zdanie? Musisz mieć gramatykę formalną, reguły składniowe, drzewa parsowania. Chcesz rozpoznać znaczenie? Buduj ontologie, sieci semantyczne, logikę predykatów.
I nagle przyszły lata 2000+ i wszyscy odkryli machine learning. "Po co te wszystkie skomplikowane reguły, jak można po prostu nakarmić algorytm danymi?" - pomyśleli sobie ludzie z computer science. Efekt?
Lingwiści: "Ale przecież to nie uwzględnia struktury języka!" ML-owcy: "Mój model ma 95% accuracy, a wasz?" Lingwiści: "Ale teoretyczna poprawność..." ML-owcy: "Sorry, nie słyszę przez szum pieniędzy z przemysłu"
Potem przyszły transformery i GPT-y, które nawet nie udają, że rozumieją gramatykę, a robią rzeczy, które lingwiści latami próbowali zakodować ręcznie.
Ironiczne jest to, że teraz jak LLM-y mają problemy z halucynacjami czy brakiem logicznego myślenia, to wszyscy nagle: "Hmm, może jednak potrzebujemy trochę tej lingwistyki?" Koło się zamyka ( ͡°͜ʖ͡°)
TL; DR: Lingwistyka chciała zrozumieć język, NLP chciało go tylko używać. Zgadnijcie kto wygrał? kapitalizm.
Ironiczne jest to, że teraz jak LLM-y mają problemy z halucynacjami czy brakiem logicznego myślenia, to wszyscy nagle: "Hmm, może jednak potrzebujemy trochę tej lingwistyki?"
Koło się zamyka ( ͡°͜ʖ͡°)
@JamesJoyce: IMO: 1. Rozumujące LLMy z łańcuchem myśli, nie mają już takich problemów logicznych, co obrazują wyniki, gdy się je przetestuje testem na inteligencję. Potrafią one rozumować systemem 2 (Kahneman). 2. Są już naukowcy
1. Rozumujące LLMy z łańcuchem myśli, nie mają już takich problemów logicznych, co obrazują wyniki, gdy się je przetestuje testem na inteligencję. Potrafią one rozumować systemem 2 (Kahneman).
@Arkass: Nie powiedziałbym, żeby llmy "rozumowały". Stan technologii na 03.08.2025 jest taki, że rozumować są w stanie tylko ludzie.
2. Wiem, Wolniewicz kiedyś pisał, że 95% artykułów to makulatura. Przy podejściu, które opisujesz ta liczba zwiększa się do 98%.
Nie powiedziałbym, żeby llmy "rozumowały". Stan technologii na 03.08.2025 jest taki, że rozumować są w stanie tylko ludzie.
@JamesJoyce: IMO: To jest mit. Może pomoże rozwiać go u Ciebie wykład eksperta od kogniwistyki i AI, czyli profesor Duch: https://youtu.be/yB1lenu8qyw Rozumować jak ludzie są w stanie tylko ludzie, a nie rozumować w ogóle. ;) Za chwilę ASI (ogólna/silna superinteligencja AI) będzie w stanie rozumować lepiej od ludzi. Może do 3 lat.
@Arkass: widzę nałykałeś się marketingowego bełkotu dla inwestorów żeby wyskakiwali z kasy dla kolejnych magazynów pełnych setek tysięcy chipów żeby finalnie mieć czat bota o IQ 60 kek
@JamesJoyce: A znasz lingwistę obliczeniowego który nie jest ML-owcem obecnie? Ogólnie zgadzam się z twoimi uwagami ale jednocześnie widać, że pojawia się sporo rozwiązań które czerpią właśnie z lingwistyki obliczeniowej.
@JamesJoyce: IMO: Rzeczy, które piszę nie opieram na hype, bo mam naturę dość sceptyczną. Staram się opierać na faktach, trendach, logicznych powiązaniach, prognozach, itp. Tutaj masz prognozę, którą rok czasu tworzyli badacze AI, a która jest opracowana także na badaniach naukowych, które można znaleźć na stronie ich projektu: https://ai-2027.com/ W prognozie w 2027 powstaje ASI
@Arkass: tzw. „scenariusz” AI 2027 dość naiwnie zakłada, że trenując modele AI wystarczy dokładać mocy obliczeniowej aby w emergetny sposób wyłoniły się cechy, które pasują do określenia AGI. Obecnie niewiele wskazuje, że tak rzeczywiście będzie to wyglądało.
tzw. „scenariusz” AI 2027 dość naiwnie zakłada, że trenując modele AI wystarczy dokładać mocy obliczeniowej aby w emergetny sposób wyłoniły się cechy, które pasują do określenia AGI. Obecnie niewiele wskazuje, że tak rzeczywiście będzie to wyglądało.
Trzy ogromne centra danych pełne kopii Agenta-2 pracują dzień i noc, produkując syntetyczne dane treningowe. Kolejne dwa służą do aktualizacji wag. Agent-2 staje się coraz mądrzejszy z
#wykopaka Czy wypada parze która chce jeść zdrowo i zrzucić kilka kg zrobić trolllowo pieroga z filcu? ( ͡º͜ʖ͡º) Kuwa, obiecałam że będzie moje rękodzieło w paczce i będzie (╯°□°)╯︵┻━┻
I nagle przyszły lata 2000+ i wszyscy odkryli machine learning. "Po co te wszystkie skomplikowane reguły, jak można po prostu nakarmić algorytm danymi?" - pomyśleli sobie ludzie z computer science.
Efekt?
Lingwiści: "Ale przecież to nie uwzględnia struktury języka!"
ML-owcy: "Mój model ma 95% accuracy, a wasz?"
Lingwiści: "Ale teoretyczna poprawność..."
ML-owcy: "Sorry, nie słyszę przez szum pieniędzy z przemysłu"
Potem przyszły transformery i GPT-y, które nawet nie udają, że rozumieją gramatykę, a robią rzeczy, które lingwiści latami próbowali zakodować ręcznie.
Ironiczne jest to, że teraz jak LLM-y mają problemy z halucynacjami czy brakiem logicznego myślenia, to wszyscy nagle: "Hmm, może jednak potrzebujemy trochę tej lingwistyki?"
Koło się zamyka ( ͡° ͜ʖ ͡°)
TL; DR: Lingwistyka chciała zrozumieć język, NLP chciało go tylko używać. Zgadnijcie kto wygrał? kapitalizm.
#nlp #ai #linguistyka #machinelearning #sztucznainteligencja #programista15k
@JamesJoyce: IMO:
1. Rozumujące LLMy z łańcuchem myśli, nie mają już takich problemów logicznych, co obrazują wyniki, gdy się je przetestuje testem na inteligencję. Potrafią one rozumować systemem 2 (Kahneman).
2. Są już naukowcy
źródło: image
Pobierz@Arkass: Nie powiedziałbym, żeby llmy "rozumowały". Stan technologii na 03.08.2025 jest taki, że rozumować są w stanie tylko ludzie.
2. Wiem, Wolniewicz kiedyś pisał, że 95% artykułów to makulatura. Przy podejściu, które opisujesz ta liczba zwiększa się do 98%.
@JamesJoyce: IMO:
To jest mit. Może pomoże rozwiać go u Ciebie wykład eksperta od kogniwistyki i AI, czyli profesor Duch: https://youtu.be/yB1lenu8qyw
Rozumować jak ludzie są w stanie tylko ludzie, a nie rozumować w ogóle. ;)
Za chwilę ASI (ogólna/silna superinteligencja AI) będzie w stanie rozumować lepiej od ludzi. Może do 3 lat.
@Arkass: Oj nie. Nie wierz w hajp.
@JamesJoyce: IMO:
Rzeczy, które piszę nie opieram na hype, bo mam naturę dość sceptyczną. Staram się opierać na faktach, trendach, logicznych powiązaniach, prognozach, itp.
Tutaj masz prognozę, którą rok czasu tworzyli badacze AI, a która jest opracowana także na badaniach naukowych, które można znaleźć na stronie ich projektu: https://ai-2027.com/
W prognozie w 2027 powstaje ASI
@Manah: Jesteś pewien, że czytałeś całość: