Wpis z mikrobloga

#programowanie #it #programista15k #sztucznainteligencja

Apple wydało niezwykle ważny artykuł, w którym dowodzi, że nie ma żadnych dowodów na to, by llmy korzystały z wnioskowania.

Co więcej, paper podaje, że : „we found no evidence of formal reasoning in language models . Their behavior is better explained by sophisticated pattern matching—so fragile, in fact, that changing names can alter results by ~10%!”

Gary Marcus wręcz stwierdza, że ogrom inwestorów straci wielkie pieniądze zainwestowane w obecne modele, ponieważ:

„Po prostu nie ma sposobu, w jaki możesz zbudować wiarygodnych agentów na tym fundamencie, gdzie zmiana słowa lub dwóch w nieistotny sposób może dać ci inną odpowiedź”

Polecam i artykuł i komentarze Marcusa i innych na Twitterze.

https://arxiv.org/pdf/2410.05229

https://x.com/garymarcus/status/1844794070092091597?s=46&t=m4xgLKFgqFafJXbRTotN1Q
  • 40
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

A wy nie widzicie, że sprzeczka jest tutaj tak naprawdę o semantykę i różnice w tym jak pojmujemy definicje? Bo to jest tak, że próbujemy na siłę dopasować świat do słów, którymi mówimy i którymi też (to istotne) myślimy. A nasze słowa i definicje nie kształtują zjawisk tylko nasze ich pojmowanie. Dlatego to k---a nigdy nie działa. A nasz język nie pokrywa wszystkiego. Mamy określone słowa i definicje, ale świat ma je
  • Odpowiedz
Masz do napisania jakiś tekst w stylu, rozprawkę do szkoły albo raport dla biznesu. Piszesz kilka zdań w podpunktach i jak trzeba to jakoś ładnie ubrać w słowa to 2 minuty na prompta, dodajesz materiał źródłowy i problem z głowy.


@matt-pitt: Jeśli ktoś używał kiedyś LLMów, to po każdym takim tekście ewidentnie widać, że został wygenerowany przez AI, o ile później mocno nie obrobi go człowiek. Nie powiedziałbym więc, że
  • Odpowiedz
  • 0
A wy nie widzicie, że sprzeczka jest tutaj tak naprawdę o semantykę i różnice w tym jak pojmujemy definicje


@Z151: cała historia rozwoju AI od lat 60 to spór o definicję AI. Był nawet taki żart z tamtych lat, że jak jakieś rozwiązanie zaczyna spełniać aktualną definicję, to od razu tworzymy kolejną, której nie spełnia :)

Nie no, akurat kwestia bycia lub nie AI jest istotna pod każdym względem. Prawnym,
  • Odpowiedz
@JamesJoyce:

Patrz Pan, a dla topowych naukowców z Apple nie było.


To, że naukowiec coś bada i udowadnia nie znaczy, że tego nie wiedział. Podstawą każdej teorii i hipotezy jest jej obalalność i to stanowi podstawę współczesnej
hoodoovoodoo - @JamesJoyce:
 Patrz Pan, a dla topowych naukowców z Apple nie było.

T...

źródło: obraz

Pobierz
  • Odpowiedz
  • 0
@fujiyama: A czytałeś artykuł? Nie dotyczy on wyjaśnialności w rozumieniu XAI i czarnych skrzynek. Dotyczy tylko (i aż) pomiarów wykonywania prostych zadań wnioskowania, które są powtarzane w różny sposób.

Najprościej mówiąc: to samo pytanie, ale inaczej zadane, często zmniejsza jakość odpowiedzi o nawet 20%. To pokazuje znaczną chwiejność generowanych wyników, a przez co także:
- brak wnioskowania (bo gdyby było, parafraza nie miałaby znaczenia, tak jak nie ma znaczenia np.
  • Odpowiedz
  • 0
@hoodoovoodoo: są. Ale nie z powodu szczególnie odkrywczych wniosków, ale z powodu udowodnienia wprost czegoś, o czym dyskutowało się od około roku, wraz z zapewnieniem benchmarku, którym można to mierzyć.

Co do cytatu, to oczywiście, każdy chce dodać wnioskowanie do llmów. Tylko nikt nie wie jak. Obecnie mówi się np. o destylacji do jak najmniejszych rozmiarów i próbach wdrożenia rozumowania jako np. formy finetuningu, ale to nie działa, bo gdyby
  • Odpowiedz
@JamesJoyce: ja rozumiem o co Ci chodzi i się zgadzam w zupełności, ale trochę nie do końca o to chodziło. To czy AI jest AI czy nie to jest ważne, ale to nie słownik czy potoczne definicje słów o tym decydują tylko technologia, nauka itd. Inaczej mówiąc fakty i rzeczy realne, które mają kompletnie wywalone na to czy potrafimy to nazwać czy nie.

Bo te kłótnie, poza nielicznymi wyjątkami, wcale
  • Odpowiedz
  • 0
@Z151: Zgoda. To wszystko zaczęło się znacznie komplikować wraz z popularnością ChatuGPT. Problemy definicyjne występują również na poziomie korporacyjnym czy firmowym, kiedy np. kontraktownia dostaje zlecenie na zrobienie czegoś, ale zastrzega sobie, że nie może to być zrobione przy pomocy metod AI, jednocześnie wpisując, np. że chcą Deep Learning. I teraz pytanie, czym są metody AI? Bo sporo osób stwierdziłoby, że Deep Learning do nich należy. I robi się zamieszanie.
  • Odpowiedz
@JamesJoyce: troche mnie rozwala jak słyszę (i to dość często) że to są przecież tylko proste algorytmy xD No i tutaj ewidentnie moje a czyjeś rozumienie słowa proste jest praktycznie przeciwne. Ja na pewno Ci nie powiem co jest AI co nie jest, bo ja tego po prostu nie wiem. I teraz znowu większość pomyśli, że po co się udziałem skoro nie wiem co to jest AI. A ja tylko
  • Odpowiedz
@JamesJoyce: rozbieżność wyników jest rezultatem niedotrenowania sieci, a nie błędnych założeń modelu.
Potrzeba ogromnych ilości przygotowanych danych treningowych, GPU i prądu, żeby uzyskać zadowalające rezultaty.
To czy sieć "rozumie" pytanie jest wtórne jeśli jej odpowiedzi będą kiedyś w 100% prawidłowe.
  • Odpowiedz
@JamesJoyce: dragan niech wypyerdala do tej swojej optyki kwantowej, bo to, że transformery nie umieją w abdukcje (co wprost wynika z ich architekurvatury) było oczywiste dla czwórkowego ml inżyniera-śmiecia po agh

taki obraz polskiej nauki ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)

ale curva midwity spod znaku klepania CRUDów w springu będą walić konia
  • Odpowiedz