Wpis z mikrobloga

#sztucznainteligencja #programista15k #programowanie #filozofia

Połowa ludzi, którzy dziś mają "AI" w tytule na LinkedIn, nie przeczytała w życiu jednej książki o tym, jak działa umysł, poznanie, język, logika. Filozofia? Śmieszna i niepraktyczna. Epistemologia? Co to w ogóle jest. Turing? Kojarzą, że był taki test, ale nie wiedzą, że pisał o świadomości maszyn 75 lat temu z większą precyzją niż oni potrafią dziś sklecić posta na wykopie o AGI.

Ale za to wiedzą, jak wyklikać deployment w Azure. Wiedzą, jaki model wybrać w dropdownie. Potrafią skopiować prompt z dokumentacji. I na tej podstawie występują na konferencjach, piszą "strategie AI" dla firm, wypowiadają się o AGI i końcu ludzkości.

A jak zapytasz o cokolwiek głębszego — czym jest rozumienie, czy LLM "wie" co mówi, dlaczego halucynacje są problemem filozoficznym a nie tylko technicznym — to cisza. Albo jakieś bełkotliwe "no bo statystyka następnego tokena" powtórzone z podcastu, którego też nie zrozumieli.
Porównaj to z ludźmi, którzy faktycznie coś wnieśli. Hinton mówi o świadomości i przyznaje, że nie wie. Sutskever czyta fizykę, biologię, szuka analogii poza informatyką. Karpathy tłumaczy sieci neuronowe od zera, bo rozumie je od zera — i widać, że ma za sobą lata myślenia, nie tylko klikania.

Problem nie w tym, że ktoś jest praktykiem. Problem w tym, że praktyk, który nie rozumie fundamentów, nie wie czego nie wie. I potem mamy dyskusje o "superinteligencji" prowadzone przez ludzi, którzy nie potrafią zdefiniować zwykłej inteligencji.

Turing, Searle, Dennett, Minsky, Hofstadter — to ludzie, którzy dekady temu przemyśleli rzeczy, które dziś odkrywamy na nowo, tylko gorzej. Chiński pokój Searle'a z 1980 roku to lepsza krytyka LLM-ów niż większość współczesnych bzdur, ktore pojawiaja sie tez tutaj. Serio, warto czytac ksiazki.
  • 11
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 2
@JamesJoyce: beka, jaki chinski pokoj, co ty mowisz? Otoz byku, specjalista od ai po 15 latach pracy pisze na linkedinie, ze odkryl, ze LLM nie "halucynuje" w ludzkim sensie — nie myli się, nie konfabuluje, nie ma złudzeń. On w ogóle nie wie że mówi o czymś. Produkuje sekwencje tokenów które są statystycznie prawdopodobne w danym kontekście. Że akurat trafiają w fakty albo nie — to z jego perspektywy (gdyby
  • Odpowiedz
@JamesJoyce: Ale to jest fałszywa dychotomia - albo jesteś "klikaczem" albo "filozofem". Skoro tak chętnie odwołujesz się do argumentu z autorytetu, to doczytaj jeszcze (króciutkie) "Bitter Truth" Suttona. Tę dziedzinę spokojnie można rozwijać bez znajomości kogni; ba, może nawet byłoby szybciej ( ͡° ͜ʖ ͡°)

Co do jednego się zgodzę, babki z marketingu od kilku lat zaczęły się przedstawiać jako "pracujące w AI" xD

BTW za
  • Odpowiedz
@JamesJoyce najśmieszniejsze jak ludzie mówią, że teraz AI to (tu wstaw dowolne: zabierze pracę, powstanie AGI, zawładnie światem), bo myślą, że AI powstało 3 lata temu jak wypuścili ChatGPT. Nie mają pojęcia, że GPT-1 był w 2018, nie słyszeli o AI z lat 80 ani tym bardziej lat 60 i że wtedy mówiono to samo co teraz ("AI jest już prawie jak człowiek, więc zaraz go prześcignie").
  • Odpowiedz
  • 1
@konto_plusujace: Zgadzam sie. Ja nie mowie, ze ktos musi byc "filozofem". Chce, zeby nie byl ignorantem. I to przenosi sie na projekty. Teraz, gdy powszechne sa modele do programowania nie chcesz juz do projektu kogos, kto napisze ciag fibonacciego w pythonie. Tylko kogos, kto umie myslec. Kto sam probuje rozwiazywac problemy, proponuje rozwiazania. Serio wole 100 blednych propozycji niz pytania "co mam robic?" Czytanie i szerokie zainteresowania daja mi pewnosc,
  • Odpowiedz
@JamesJoyce
- To nie jest prawdziwe AI, bo nie przeszło testu Turinga.
- W 2011 CleverBot przeszedł test Turinga.
- yyy ale to za mało procent, musi być jeszcze więcej.
- Jest więcej procent.
- yyy test Turinga nic nie znaczy, to nadal nie jest prawdziwe AI.
  • Odpowiedz
@JamesJoyce:
Problem z wiedzą u podstaw to w sumie występuje wszędzie, ilu ludzi się zatrzymuje żeby zrozumieć coś lub przemyśleć.
Nie jest to ani do życia potrzebne, a w większości nawet utrudniające, bo musisz się zatrzymać, gdy inni pozornie robią większy progres.

Zabrzmi to jak boomerskie p--------o, ale naprawdę ludzie się naprawdę nie interesują.
  • Odpowiedz
@JamesJoyce: to co mnie dziwi w AI to ze generator tokenow z biasem opartym na setkach terabajtow tekstow pozwala ze soba rozmawiac jak z czlowiekiem.

Rozkmina jaka mnie wtedy nachodzi, to czym my w zasadzie jestesmy wtedy? Czym jest nasze rozumowanie - na ile to nasza swiadomosc a na ile po prostu wytrenowany generator slow, mysli, gestow, zachowan i emocji?
  • Odpowiedz