Wpis z mikrobloga

#programowanie #programista15k #sztucznainteligencja #chat #pracait

Behind the scenes, researchers at major AI labs have been running into delays and disappointing outcomes in the race to release a large language model that outperforms OpenAI’s GPT-4 model, which is nearly two years old, according to three sources familiar with private matters.

https://www.reuters.com/technology/artificial-intelligence/openai-rivals-seek-new-path-smarter-ai-current-methods-hit-limitations-2024-11-11/

Fajny art.

https://x.com/ylecun/status/1856612196437930332?s=46&t=m4xgLKFgqFafJXbRTotN1Q

I thread Lecuna

Ale jak to!!!!! Prof. Dragan mówił że postęp jest wykładniczy!!!!!
  • 16
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 0
@katopa: byku, ale to wiadomo od dawna. Mieliśmy nadzieję w syntetycznych danych, ale ona zgasła już w momencie publikacji tego https://www.nature.com/articles/s41586-024-07566-y

Później były follow-up do tego itd. Ale no, to prawda. Nie ma pomysłu. Jak do warstwy encyklopedycznej, dodać warstwę powiedzmy semantyczną. Czy regułową czy jakąkolwiek inną, która rozwijałaby LLMY.

Są różne inne sposoby niż syntetyczne dane. Np dodanie warstw grafowych, tzw liquid itd. Ale żadna nie daje większej nadziei.
  • Odpowiedz
@JamesJoyce: drama queen LeCun już przeprosił się z iksem? Szybko poszło. Dopiero co porzucił tę platformę i zarzekał się, że będzie już tylko na musk-free fb i threads. Choć i tam wypowiadał się głównie w tematach okołomuskowych.
Ach, teraz "tylko" linki to threadsa daje ;-)))
  • Odpowiedz
Ale żadna nie daje większej nadziei.


@JamesJoyce: Spokojnie, to dziedzina SI. Znana z tego, że pełno w niej było iluzji co do faktycznego w niej postępu. Więc tak: według mnie ta bariera rozwoju (trudności w postępie wobec GPT-4) jest do pokonania, bo spójrzmy na ludzki mózg. Neurony w ludzkim mózgu działają trochę inaczej niż neurony w sztucznej sieci neuronowej, ale w każdym razie można powiedzieć, że sieć neuronowa działa. Tylko
  • Odpowiedz
@JamesJoyce: Ciekawe jak to potoczy się dalej z tymi limitami rozwoju - o ile doniesienia są prawdziwe, bo pewien fizyk (wiadomo fizyk = w zasadzie informatyk = w zasadzie spec od ML). Marzenie raczej ściętej głowy, optymistyczne i z realnością mające niewiele wspólnego - ale jednak chciałbym, żeby teraz firmy zajmujące się tworzeniem AI poszły, zamiast w coraz to lepsze modele, na coraz to mniej wymagające modele. Nie mówię nawet,
  • Odpowiedz
@maxiek Karpathy z rok temu mówił o tym, że wyobraża sobie, że za pewien czas llm będzie systemem operacyjnym, który zarządza innymi zarządami jak np ludzie czy inne llmy. Więc no myślę że tak. Tzw bade model zarządza mniejszymi.
  • Odpowiedz
@JamesJoyce ej ale to zabrzmiało zimno, nie?

4. If he does not publicly apologize for this repeated pattern of misbehavior, I have no choice but to file an academic misconduct charge with his university and perhaps the ACM.

Przeproś bo cię podpierdiolę.
  • Odpowiedz
Behind the scenes, researchers at major AI labs have been running into delays and disappointing outcomes in the race to release a large language model that outperforms OpenAI’s GPT-4 model


@JamesJoyce: Naciągana konkluzja. To OpenAI to ma teraz problem aby przegonić konkurencję. Tak uderzyliśmy trochę w ścianę ale zaraz pewnie będą kolejne deploye. W tym momencie mamy 3 firmy z modelami obiektywnie lepszymi od GPT-4, oraz 17 modeli lepszych w
  • Odpowiedz