Stephen Wolfram wyjaśnia działanie chatu GPT-3 [EN]
![Stephen Wolfram wyjaśnia działanie chatu GPT-3 [EN]](https://wykop.pl/cdn/c3397993/55cd68ac2e1580578d950e6dff119d8ce88b10965f849f59b6fa54fed819ecee,w300h194.png)
W skrócie 175 miliardów połączeń neuronowych za każdym razem decyduje co z 40 tysięcy słów języka angielskiego dodać na koniec zdania aby "pasowało" w kontekście przeanalizowanych miliardów słów ze stron internetowych i książek na których trenował model GPT-3.

- #
- #
- #
- #
- #
- 128
- Odpowiedz






Komentarze (128)
najlepsze
Kenijczyków za średnio mniej niż dwa dolary i urządzali im festiwal jak "Rumun" na Wykopie, ale cudowna i przełomowa nowa technologia, niemal z duszą. ( ͡° ͜ʖ ͡°)
źródło: 28
Pobierzźródło: Screenshot 2023-02-16 224347
PobierzTo nie jest do końca prawdą. Transformers był oczywiście rewolucją i chyba wszystkie obecne modele językowe stosują tą architekturę. Ale też idea jest tam całkiem sporo innych ważnych osiągnięć. Dla przykładu, jeszcze przed transformersem przełomowe było wymyślenie "zanurzeń" (embedings) z którego transformersy oczywiście
To naprawdę niezwykłe że może zrozumieć co dla człowieka jest śmieszne. Na filmie macie przykłady. Szczena opada...
Z drugiej strony, czy nasze mózgi nie robią tego samego? Mamy obszary w mózgu od posługiwania się mową, od widzenia, od pamięci, od obsługi ciala, od zarządzania
@CXLV: Gdy pomyślałem właśnie o tym kilka miesięcy temu najpierw ogarnęło mnie przerażenie. Teraz jestem na etapie smutnej akceptacji.
@CXLV: Nie do końca wiemy. Stąd stosunkowo wolny postęp w dziedzinie przetwarzania i wytwarzania języka naturalnego.
https://raw.githubusercontent.com/gayolGate/gayolGate/index/ChatGPTJailbreak
chyba już nie działa
źródło: 41037_1.11
Pobierzźródło: temp_file.png4020369994653110631
PobierzProfesor potem powiedział, że w tym algorytmie właśnie taką wartość parametru się przyjmuje (bez tych całych testów itd). My to mieliśmy zrobić, żeby przekonać się dlaczego akurat taka wartość, a nie, że "bo tak".
Teraz tak sobie myślę, że te 0.8 (z zakresu 0, 1) to taka trochę magiczna wartość. Tak jak
Potem wystarczy na wejście podać dowolne zdanie a sieć próbuje je dokończyć. Kilka przykładów:
INPUT: To mówiąc skoczył, chwycił Telimeny rękę,
OUTPUT: I szerokim czarnej, zbliża się, dmuchnie bierze.
Więc był przed Bogimi szarojek uczy cały,
@janek_: Robiłem to w ramach zajęć z ML. Firma wykupiła nam semestr zajęć z wykładowcami z AGH. Nawet jest wywiad w necie ze mną o tym kursie.