Wpis z mikrobloga

#sztucznainteligencja #programista15k #programowanie #filozofia

Połowa ludzi, którzy dziś mają "AI" w tytule na LinkedIn, nie przeczytała w życiu jednej książki o tym, jak działa umysł, poznanie, język, logika. Filozofia? Śmieszna i niepraktyczna. Epistemologia? Co to w ogóle jest. Turing? Kojarzą, że był taki test, ale nie wiedzą, że pisał o świadomości maszyn 75 lat temu z większą precyzją niż oni potrafią dziś sklecić posta na wykopie o AGI.

Ale za to wiedzą, jak wyklikać deployment w Azure. Wiedzą, jaki model wybrać w dropdownie. Potrafią skopiować prompt z dokumentacji. I na tej podstawie występują na konferencjach, piszą "strategie AI" dla firm, wypowiadają się o AGI i końcu ludzkości.

A jak zapytasz o cokolwiek głębszego — czym jest rozumienie, czy LLM "wie" co mówi, dlaczego halucynacje są problemem filozoficznym a nie tylko technicznym — to cisza. Albo jakieś bełkotliwe "no bo statystyka następnego tokena" powtórzone z podcastu, którego też nie zrozumieli.
Porównaj to z ludźmi, którzy faktycznie coś wnieśli. Hinton mówi o świadomości i przyznaje, że nie wie. Sutskever czyta fizykę, biologię, szuka analogii poza informatyką. Karpathy tłumaczy sieci neuronowe od zera, bo rozumie je od zera — i widać, że ma za sobą lata myślenia, nie tylko klikania.

Problem nie w tym, że ktoś jest praktykiem. Problem w tym, że praktyk, który nie rozumie fundamentów, nie wie czego nie wie. I potem mamy dyskusje o "superinteligencji" prowadzone przez ludzi, którzy nie potrafią zdefiniować zwykłej inteligencji.

Turing, Searle, Dennett, Minsky, Hofstadter — to ludzie, którzy dekady temu przemyśleli rzeczy, które dziś odkrywamy na nowo, tylko gorzej. Chiński pokój Searle'a z 1980 roku to lepsza krytyka LLM-ów niż większość współczesnych bzdur, ktore pojawiaja sie tez tutaj. Serio, warto czytac ksiazki.
  • 56
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 3
@JamesJoyce: beka, jaki chinski pokoj, co ty mowisz? Otoz byku, specjalista od ai po 15 latach pracy pisze na linkedinie, ze odkryl, ze LLM nie "halucynuje" w ludzkim sensie — nie myli się, nie konfabuluje, nie ma złudzeń. On w ogóle nie wie że mówi o czymś. Produkuje sekwencje tokenów które są statystycznie prawdopodobne w danym kontekście. Że akurat trafiają w fakty albo nie — to z jego perspektywy (gdyby
  • Odpowiedz
@JamesJoyce: Ale to jest fałszywa dychotomia - albo jesteś "klikaczem" albo "filozofem". Skoro tak chętnie odwołujesz się do argumentu z autorytetu, to doczytaj jeszcze (króciutkie) "Bitter Truth" Suttona. Tę dziedzinę spokojnie można rozwijać bez znajomości kogni; ba, może nawet byłoby szybciej ( ͡° ͜ʖ ͡°)

Co do jednego się zgodzę, babki z marketingu od kilku lat zaczęły się przedstawiać jako "pracujące w AI" xD

BTW za
  • Odpowiedz
@JamesJoyce najśmieszniejsze jak ludzie mówią, że teraz AI to (tu wstaw dowolne: zabierze pracę, powstanie AGI, zawładnie światem), bo myślą, że AI powstało 3 lata temu jak wypuścili ChatGPT. Nie mają pojęcia, że GPT-1 był w 2018, nie słyszeli o AI z lat 80 ani tym bardziej lat 60 i że wtedy mówiono to samo co teraz ("AI jest już prawie jak człowiek, więc zaraz go prześcignie").
  • Odpowiedz
  • 2
@konto_plusujace: Zgadzam sie. Ja nie mowie, ze ktos musi byc "filozofem". Chce, zeby nie byl ignorantem. I to przenosi sie na projekty. Teraz, gdy powszechne sa modele do programowania nie chcesz juz do projektu kogos, kto napisze ciag fibonacciego w pythonie. Tylko kogos, kto umie myslec. Kto sam probuje rozwiazywac problemy, proponuje rozwiazania. Serio wole 100 blednych propozycji niz pytania "co mam robic?" Czytanie i szerokie zainteresowania daja mi pewnosc,
  • Odpowiedz
@JamesJoyce
- To nie jest prawdziwe AI, bo nie przeszło testu Turinga.
- W 2011 CleverBot przeszedł test Turinga.
- yyy ale to za mało procent, musi być jeszcze więcej.
- Jest więcej procent.
- yyy test Turinga nic nie znaczy, to nadal nie jest prawdziwe AI.
  • Odpowiedz
@JamesJoyce:
Problem z wiedzą u podstaw to w sumie występuje wszędzie, ilu ludzi się zatrzymuje żeby zrozumieć coś lub przemyśleć.
Nie jest to ani do życia potrzebne, a w większości nawet utrudniające, bo musisz się zatrzymać, gdy inni pozornie robią większy progres.

Zabrzmi to jak boomerskie p--------o, ale naprawdę ludzie się naprawdę nie interesują.
  • Odpowiedz
@JamesJoyce: to co mnie dziwi w AI to ze generator tokenow z biasem opartym na setkach terabajtow tekstow pozwala ze soba rozmawiac jak z czlowiekiem.

Rozkmina jaka mnie wtedy nachodzi, to czym my w zasadzie jestesmy wtedy? Czym jest nasze rozumowanie - na ile to nasza swiadomosc a na ile po prostu wytrenowany generator slow, mysli, gestow, zachowan i emocji?
  • Odpowiedz
@JamesJoyce: Taki mądry, oczytany a nie dostrzega fundamentu robienia kariery.

Darcie p---y, kłamstwa, niedomówienia i ślizganie się.

Gdzieś tam na samym szarym dole koło umiejętności srania są tech skille.
  • Odpowiedz
@JamesJoyce: Większości osób, które używają AI wiedza teoretyczna z kognitywistyki nie jest do niczego potrzebna. Tak jak większości programistów do niczego w pracy nie jest potrzebna matematyka akademicka, teoria automatów, języków i obliczeń, teoria kompilacji, elektronika, technika cyfrowa i tak dalej.

Porównaj to z ludźmi, którzy faktycznie coś wnieśli. Hinton mówi o świadomości i przyznaje, że nie wie. Sutskever czyta fizykę, biologię, szuka analogii poza informatyką. Karpathy tłumaczy sieci neuronowe
  • Odpowiedz
  • 0
@Dragonan:

Tak, większości ludzi używających AI nie jest potrzebna kognitywistyka. Zgoda. Tak jak większości kierowców nie jest potrzebna wiedza o spalaniu wewnętrznym. Ale mój post nie był o ludziach którzy używają AI. Był o ludziach którzy wypowiadają się autorytatywnie o naturze inteligencji, świadomości, AGI nie mając pojęcia o podstawach. To jest różnica między używaniem narzędzia a udawaniem eksperta od narzędzia.
Co do Hintona, Sutskevera, Karpathy'ego to że mają różne zdania nie
  • Odpowiedz
prowadzone przez ludzi, którzy nie potrafią zdefiniować zwykłej inteligencji.


@JamesJoyce: Trochę się czepnę ale do teraz jest problem z definicją inteligencji. To jest mglisty termin. W dodatku teraz się namnożyło dużo poptypów jak inteligencja emocjonalna, kognitywna i tak dalej. To trochę buzzword, bo nie da się udowodnić że drugi byt jest inteligenty. Możesz przeprowadzać tylko jakieś założenia bądź testy ale nie będziesz wstanie odróżnić czy dany byt udaje inteligencję czy jest
  • Odpowiedz
I na tej podstawie występują na konferencjach, piszą "strategie AI" dla firm, wypowiadają się o AGI i końcu ludzkości.


@JamesJoyce: Czego najlepszym przykładem jest Dragan, a ludzie nie widzą zgrzytu, że fizyk jest ekspertem od AI i pisze o tym książki xD Bo przecież on jest fizykiem naukowcem to musi wiedzieć co mówi co nie? xD
  • Odpowiedz
"Halucynacja" sugeruje że model wie co jest prawdą i czasem się myli


@JamesJoyce: To jest termin marketingowy. Tak samo jak chumura czy nawet AI, AGI. Używa się uproszczeń żeby ludzie intuicyjnie kumali o co chodzi, to są jednak uproszczenia. Czasami sam tak robię świadomie albo nie. Jakbyś zaczął gadać o chińskim pokoju normalnym ludziom to by nic z tego nie zrozumieli a halucynację +- kumają
  • Odpowiedz
@JamesJoyce: W dodatku ludzie też raczej nie mają wolnej woli, też nasz mózg nas oszukuje, sami nie wiemy jak działamy dokładnie. Lubię pokazywać ten film bo pokazuje jak ludzkie myślenie też jest oparte na oszustwach. Ludzie w to nie wierzą, ale to jest +- prawda.
tubkas12 - @JamesJoyce: W dodatku ludzie też raczej nie mają wolnej woli, też nasz mó...
  • Odpowiedz