Aktywne Wpisy
ArthurFleck +187
Poprzedni wpis wywołał wielki ból czterech liter i spadł z rowerka, więc powtórzę jeszcze raz. Chłop pójdzie głosować żeby Julki, oskarki, humanoidy z HR-u, #p0lka, madki 500+ z mokebe, tinderówki,vifony z siłowni, hipsterzy z Warszawki, feministki, gonciarz, wojewódzki, masny, maja staśko, tusk, gazeta polska, gazeta wyborcza, ofeminin, p0lki.pl, wysokie obcasy,onet, wp.pl, Newsweek, taco lemingway, Tomasz lis, dziewuchy dziewuchom, ośrodek monitorowania zachowań rasistowskich i ksenofobicznych, kaczyński, antifa, lempart, LGBT, łosie, kuny i
JamesJoyce +29
Hej, jeśli śledzicie informacje o kolejnych lmm, to pewnie was to zainteresuje.
Otóż kolejne źródło podaje, że OpenAI mogło testować GPT-4 na danych treningowych, zwłaszcza w aspekcie problemów programistycznych.
Temat ten podejmował wcześniej Horace He, który po wstępnym testowaniu GPT4 odkrył, że model rozwiązuje 10/10 problemów Codeforces sprzed 2021 roku i 0/10 najnowszych problemów (których nigdy wcześniej nie widział).
Tutaj link do threada:
https://twitter.com/cHHillee/status/1635790335535374336
Nowe badania Narayana z Princeton to potwierdzają. Jak
Otóż kolejne źródło podaje, że OpenAI mogło testować GPT-4 na danych treningowych, zwłaszcza w aspekcie problemów programistycznych.
Temat ten podejmował wcześniej Horace He, który po wstępnym testowaniu GPT4 odkrył, że model rozwiązuje 10/10 problemów Codeforces sprzed 2021 roku i 0/10 najnowszych problemów (których nigdy wcześniej nie widział).
Tutaj link do threada:
https://twitter.com/cHHillee/status/1635790335535374336
Nowe badania Narayana z Princeton to potwierdzają. Jak
Wpis z mikrobloga
Skopiuj link
Skopiuj link