Tutorial GPT-3 - podstawy w 20 minut
Generowanie tekstów, tworzenie kodów źródłowych i streszczanie artykułów z użyciem sztucznej inteligencji od OpenAI (GPT-3). Absolutne podstawy wyjaśnione w niespełna 20 minut.

- #
- #
- #
- #
- #
- #
- 108
- Odpowiedz
Generowanie tekstów, tworzenie kodów źródłowych i streszczanie artykułów z użyciem sztucznej inteligencji od OpenAI (GPT-3). Absolutne podstawy wyjaśnione w niespełna 20 minut.

Komentarze (108)
najlepsze
AI wypluje kod gotowy do działania bez błędów ze wszystkimi instancjami i zmiennymi + komentarze.
Tak samo za parę lat pisanie prac zaliczeniowych na uczelniach straci sens. AI w parę minut wypluje pracę w pełni dostosowaną do wymogów tematu wraz z formatowaniem.
The future is now.
Szybszy programista (niech i sztuczny) nie rozwiąże tych problemów.
Pomoże, przyspieszy, ale na razie nie zastąpi.
A co dopiero z utrzymywaniem setek milionów linijek kodu który
Kolega został poproszony o naprawienie tagów
---
Kolega wróci z wynikami pracy
---
Tagi działają wyśmienicie
@zigibombes: zrozumienia tam wiele nie ma. Poza tym GPT-3 w najmocniejszym modelu ma tylko max. 4000 tokenów pamięci. Oznacza to, że takie AI nie mogłoby napisać książki i utrzymywać fabuły, bo po prostu nie pamiętałoby, co działo się w poprzednim rozdziale.
Generowane teksty są (zazwyczaj) sensowne, ale czegoś takiego jak zrozumienie przez AI generowanego tekstu tam nie ma. To
@imlmpe: dzięki za info, to jeszcze poczekamy na T800 trochę ;)
Niektórzy piszą ClosedAI albo WaterClosedAI
Ta organizacja podsłuchuje i cenzuruje wszystko co piszecie! Była afera ze skompromitowanym, kilkukrotnie zhakowanym aidungeon, gdzie ludzie dostawali bany za "pedofilię" w sytuacji kiedy pisali np. "fuck, this laptop is nine years old".
Niekompetentne AID było zmuszane do cenzury przez OpenAI, które odpowiadało za faktyczne obliczenia (u nich były serwery). Outsource'owano gdzieś w Azji grupy cenzorów, którzy siedzieli przy tekstach użytkowników i czytali.
Co, jeśli w tym momencie davinci zacznę karmić fałszywymi informacjami (bo zakładam, że uczy się na wszystkim) ?
Co jeśli wykorzystam bota z innym AI, ale o sprzecznych informacjach i zaleję davinci takimi zapytaniami?
Istnieje coś takiego jak "Fine-tuned models", czyli modele ulepszone wiedzą pochodzącą od użytkownika, ale:
1) to jest dodatkowo płatne i w podstawowej wersji narzędzia tego nie ma
2) każda instancja 'Fine-tuned models' jest per user, czyli co najwyżej zatrujesz błędnymi danymi swoją kopię modelu.
źródło: comment_1667453794TGqTjCb3p9FvIukugmEQZO.jpg
PobierzOczywiście GPT-3 nie zapamiętuje idealnej odpowiedzi, a wnioskuje, jaka powinna być. To trochę działa tak, jak mój przykład z SQL na filmie. Różnica jest taka, że moje przykłady z zapytania działają tylko w chwili wykonywania zapytania, a przy modelach fine tuned zapisałyby się na stałe w pamięci GPT-3.
Więcej info:
https://beta.openai.com/docs/guides/fine-tuning
No chyba jednak nie: https://help.openai.com/en/articles/5072263-how-do-i-use-stop-sequences