OpenAI wykorzystało transkrypcje miliona godzin filmów z YouTube do treningu AI
Według The New York Times, OpenAI, borykając się z niedoborem danych treningowych, wykorzystało transkrypcje z ponad miliona godzin filmów YouTube do trenowania modelu GPT-4 po wyczerpaniu innych zasobów, w tym kodu z GitHub i treści edukacyjnych z Quizlet.
51431e5c08c95238 z- #
- #
- #
- #
- #
- 156
- Odpowiedz
Komentarze (156)
najlepsze
Naprawdę nie widzisz problemu w nieautoryzowanym użyciu materiałów w celach komercyjnych? Kiedy ktoś to zrobi na YT jest automatycznie to wyłapywane przez algorytm czesto albo możesz zgłosić roszczenie a taki model powie że nic nie widział i elo. Rak naszych czasów. Ide o zakład
no to teraz openAI ma wyjeb*ne na własność googla i sobie wzięli co potrzebowali XD
AI zmieni świat a ta zmiana będzie odczuwalna dla wszystkich za kilka lat, za 10-20 będzie krok milowy
https://youtu.be/pU9sHwNKc2c
@Marek_B: moment ale robiłeś kiedyś transkrypcje? Te szybkie, małe modele może i tak, ale te większe to już praktycznie są na poziomie 99.5%. Kiedyś bawiłem się w transkrypcje + podsumowanie posiedzen sejmowych i na pewno nie było błędów na poziomie 50% lol
Jechałem whisperem large v2, od tego czasu na pewno juz wyszło coś lepszego + openAI może mieć internalowe modele których