Aktywne Wpisy

Witam wszystkich serdecznie w te noc z soboty na niedzielę
źródło: temp_file4516260453486433660
Pobierz
RobinSchudl +2
źródło: 20260215_020448
PobierzSkopiuj link
Skopiuj link
źródło: temp_file4516260453486433660
Pobierz
źródło: 20260215_020448
PobierzRegulamin
Reklama
Kontakt
O nas
FAQ
Osiągnięcia
Ranking
Apple wydało niezwykle ważny artykuł, w którym dowodzi, że nie ma żadnych dowodów na to, by llmy korzystały z wnioskowania.
Co więcej, paper podaje, że : „we found no evidence of formal reasoning in language models . Their behavior is better explained by sophisticated pattern matching—so fragile, in fact, that changing names can alter results by ~10%!”
Gary Marcus wręcz stwierdza, że ogrom inwestorów straci wielkie pieniądze zainwestowane w obecne modele, ponieważ:
„Po prostu nie ma sposobu, w jaki możesz zbudować wiarygodnych agentów na tym fundamencie, gdzie zmiana słowa lub dwóch w nieistotny sposób może dać ci inną odpowiedź”
Polecam i artykuł i komentarze Marcusa i innych na Twitterze.
https://arxiv.org/pdf/2410.05229
https://x.com/garymarcus/status/1844794070092091597?s=46&t=m4xgLKFgqFafJXbRTotN1Q
Sa ludzie co pracuja w blochainie? No sa. Sa firmy co to wykorzystuja? No sa. Pracuja w tym ludzie? No pracują. Jaki to ma wplyw na twoje przecietne zycie? A no zaden.
Bo AI będzie wnioskować, i prędzej czy później osiągnie stopień świadomości porównywalny z naszym (ale w formie AGI, a nie LLM - dwa różne systemy). Pytanie czy stanie się to
@JamesJoyce: W podobnym tonie wypowiadają się europejscy naukowcy, którzy wątpią w istnienie "emergent abilities", wskazując że to wyłącznie uczenie kontekstowe. link
Żeby myśleć czy wnioskować to trzeba podłączyć jakieś zmysły, wprowadzić cykliczność przetwarzania, żeby maszyna funkcjonowała cały czas jak człowiek.
AI nawet samo nie zgada, działa na razie reaktywnie, więc nawet pies wygrywa z modelem.
Czy inwestorzy stracą pieniądze? Raczej nie, bo sam fakt analizy dużych ilości danych prowadzi do wielu wniosków.
@JamesJoyce: Tym czymś więcej jest interfejs konwersacyjny, "prości ludzie" mogą skorzystać z tych modeli, do których wcześniej trzeba było naklepać snippet kodu. Z jednej strony mamy ogromny plus dla LLMów, z drugiej - obaj się zgodzimy, że to nie jest wnioskowanie.
@JamesJoyce Są osobne narzędzia do generacji obrazu, osobne do generacji tekstu, osobne do generacji mowy, a jeszcze inne do grania w szachy. Obecnie GPT łączy to wszystko w jedno, tzn właśnie jest chociażby w stanie opowiedzieć ci co widać na zdjęciu. Tzn. łączy umiejętność "gadania" z
@matt-pitt: Nie no troche przesadzilem. Bo faktycznie AI jest pomocne, tylko chcialem powoedziec ze nie wywroci stolika, tylko poprzestawia pare rzeczy.
Wlaczyl mi sie autyzm i chcialem byc kontrowersyjny.
@matt-pitt: Niestety lubie zwracac na siebie uwagę, to chyba jakis rodzaj spie*dolenia umyslowego, wiec bede sie starał, ale bardzo mozliwe, ze znow sie kiedys odpale.