Aktywne Wpisy
kryspin_69 +104
Równy rok po przeszczepie włosów u Pana dr Serkana, koszt 3350Euro metodą DHI #zakola #finasteryd #lysienie #przeszczepwlosow
źródło: Zdjęcie z biblioteki
Pobierz
Larsberg +112
Jak tam wyhodki? Macie już przygotowane konserwy, energetyki, śruby, lornetki, latarki czołowe, liczniki geigera, detektory anomalii, maski gazowe, bandaże, apteczki, leki przeciwpromienne, zapas amunicji i wóde? Bo już za parę dni wchodzimy do Zony więc pakować plecaki ( ͡° ͜ʖ ͡°)
#stalker #stalker2 #gry
#stalker #stalker2 #gry
źródło: 2h9ucgg8FrwaQa6hvAzEKF
Pobierz




Apple wydało niezwykle ważny artykuł, w którym dowodzi, że nie ma żadnych dowodów na to, by llmy korzystały z wnioskowania.
Co więcej, paper podaje, że : „we found no evidence of formal reasoning in language models . Their behavior is better explained by sophisticated pattern matching—so fragile, in fact, that changing names can alter results by ~10%!”
Gary Marcus wręcz stwierdza, że ogrom inwestorów straci wielkie pieniądze zainwestowane w obecne modele, ponieważ:
„Po prostu nie ma sposobu, w jaki możesz zbudować wiarygodnych agentów na tym fundamencie, gdzie zmiana słowa lub dwóch w nieistotny sposób może dać ci inną odpowiedź”
Polecam i artykuł i komentarze Marcusa i innych na Twitterze.
https://arxiv.org/pdf/2410.05229
https://x.com/garymarcus/status/1844794070092091597?s=46&t=m4xgLKFgqFafJXbRTotN1Q
@matt-pitt: Jeśli ktoś używał kiedyś LLMów, to po każdym takim tekście ewidentnie widać, że został wygenerowany przez AI, o ile później mocno nie obrobi go człowiek. Nie powiedziałbym więc, że
@Z151: cała historia rozwoju AI od lat 60 to spór o definicję AI. Był nawet taki żart z tamtych lat, że jak jakieś rozwiązanie zaczyna spełniać aktualną definicję, to od razu tworzymy kolejną, której nie spełnia :)
Nie no, akurat kwestia bycia lub nie AI jest istotna pod każdym względem. Prawnym,
To, że naukowiec coś bada i udowadnia nie znaczy, że tego nie wiedział. Podstawą każdej teorii i hipotezy jest jej obalalność i to stanowi podstawę współczesnej
źródło: obraz
PobierzNajprościej mówiąc: to samo pytanie, ale inaczej zadane, często zmniejsza jakość odpowiedzi o nawet 20%. To pokazuje znaczną chwiejność generowanych wyników, a przez co także:
- brak wnioskowania (bo gdyby było, parafraza nie miałaby znaczenia, tak jak nie ma znaczenia np.
Co do cytatu, to oczywiście, każdy chce dodać wnioskowanie do llmów. Tylko nikt nie wie jak. Obecnie mówi się np. o destylacji do jak najmniejszych rozmiarów i próbach wdrożenia rozumowania jako np. formy finetuningu, ale to nie działa, bo gdyby
Bo te kłótnie, poza nielicznymi wyjątkami, wcale
Potrzeba ogromnych ilości przygotowanych danych treningowych, GPU i prądu, żeby uzyskać zadowalające rezultaty.
To czy sieć "rozumie" pytanie jest wtórne jeśli jej odpowiedzi będą kiedyś w 100% prawidłowe.
źródło: Zdjęcie z biblioteki
Pobierztaki obraz polskiej nauki ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)
ale curva midwity spod znaku klepania CRUDów w springu będą walić konia