https://openai.com/blog/openai-codex/
Ktoś się dostał już do bety? Używacie? Zamierzacie?
#ai #gpt3 #programowanie #openai #codex
Ktoś się dostał już do bety? Używacie? Zamierzacie?
#ai #gpt3 #programowanie #openai #codex
Wszystko
Najnowsze
Archiwum
Our training dataset was collected in May 2020 from 54 million public software repositories hosted on GitHub, containing 179 GB of unique Python files under 1 MB. We filtered out files which were likely auto-generated, had average line length greater than 100, had maximum line length greater than 1000, or contained a small percentage of alphanumeric characters. After filtering, our final dataset totaled 159 GB.

Komentarz usunięty przez autora
źródło: comment_1628411630rrEHtBy0n1FyOqyfEDshA4.jpg
Pobierz
źródło: comment_1620795678rqgSZ2xOx6sU7HNkPohxNq.jpg
Pobierz
Komentarz usunięty przez moderatora
Komentarz usunięty przez moderatora

źródło: comment_1603969102uQVFrHoCXtw0RBVwe9GEnN.jpg
Pobierzz tym stwierdzeniem to tez bym nie przesadzal. W kodzie pewnie 100k ifow
38

...i uczy się wykorzystywać luki w systemie
zPełne to ze dwa. W końcu na krzywej obciążenia są dwie doliny i dwa szczyty.
Komentarz usunięty przez moderatora

Regulamin
Reklama
Kontakt
O nas
FAQ
Osiągnięcia
Ranking
whats up?**
**Hi.**
**I'm not doing anything.**
**Oh, I'm sorry to bother you.**