Zalajkuj ten wpis, jeśli chcesz być wołany do kolejnych wpisów, aleee... nie gwarantuję, że Cię zawołam, bo nowy Wykop jest na tyle zepsuty, że nie pokazuje mi kto zalajkował moje komentarze na mirko (╥﹏╥)
Ten newsletter to przegląd tego, na co napotykam w sieci. Jednego tygodnia jest super wydanie, a innego np. 90% serwisów pisze o Elonie, albo o ChatGPT i nie za bardzo idzie znaleźć super treści. Nie mam na to wpływu. Każdego tygodnia staram się dokładnie tak samo.
maszynówka polega dokładnie na tym, o czym napisałeś sam - jednego tygodnia jest super wydanie, innego już nie bardzo - a newsletter i tak wychodzi.
@the_me_: szczerze mówiąc, to trudno mi ocenić jakość tego, co znalazłem w konkretnym tygodniu.
Czasami jestem dumny ze znalezionych perełek i sam dodaję je sobie do ulubionych i wiele razy do nich wracam. Niekiedy mówię sobie "no OK wyszło dzisiaj, ale tydzień temu było ZNACZNIE
siedzę na subredicie Hubermana i nie spotkałem się z jakąś ciężka krytyka. Na czym bazujesz swoją opinię? Chętnie się zapoznam
@TheHamlet: Ciężkiej krytyki nie ma. Czasami napotykam gdzieś w sieci krytykę i znajduję oskarżenia o cherry-picking badań (ponoć wybiera to, co mu pasuje do jego wizji świata).
Ja tam nic do niego nie mam. Słucham z przyjemnością
Siemka czy jestes w stanie wyciagnac wszystkie urle ktore dotychczas wstawiales?
@Strzalka: tak. Dostęp do pełnego archiwum to jeden z benefitów bycia patronem. Patroni mają dostęp do API zwracającego dane w TXT/CSV/JSON/HTML. Dane aktualizują się automatycznie.
Generowanie tekstów, tworzenie kodów źródłowych i streszczanie artykułów z użyciem sztucznej inteligencji od OpenAI (GPT-3). Absolutne podstawy wyjaśnione w niespełna 20 minut.
@Rogovic: Płaci się za liczbę wygenerowanych tokenów (jak się liczy tokeny, wyjaśnia link w powiązanych). Za 1000 tokenów na najmocniejszym modelu (Davinci) płacisz 2 centy. Nagranie tego filmu (wraz z dziesiątkami eksperymentów, których nie widać na ekranie) kosztowało mnie nieco ponad 3zł.
@grabowski_f: Jasper jest genialny. Bawiłem się nim długo i daje naprawdę świetne efekty, ale jakby nie patrzeć... wszystkie z wymienionych rozwiązań pod spodem używają GPT-3, więc w praktyce bawiąc się odpowiednimi zapytaniami wprost do modelu np. Davinci powinniśmy osiągnąć dokładnie te same efekty co w powyższych narzędziach, ale dziesiątki razy taniej.
Nie da się jednak ukryć, że interfejs jaki oferuje np. Jasper potrafi po pierwsze przyspieszyć drastycznie tworzenie tekstów, a
@MrShaman: udawanie, że jakieś narzędzie nie istnieje, nie ochroni świata przed nim ;) Biorąc pod uwagę bardzo szybki rozwój branży AI, lepiej ludzi szkolić w obsłudze tego rodzaju aplikacji niż ograniczać im do nich dostęp. Wiem, że przez takie rozwiązania powstaje mnóstwo tekstów na tragicznym poziomie, ale na szczęście ludzie nie tylko do tego używają GPT-3.
Dla mnie jest to np. dobry generator pomysłów na teksty, filmy itp.
@ECMAlover: GPT-3 nie wchłania wiedzy od użytkowników w sposób bezpośredni. Nie ma więc możliwości, aby użytkownik (na stałe) wprowadził mu błędne dane.
Istnieje coś takiego jak "Fine-tuned models", czyli modele ulepszone wiedzą pochodzącą od użytkownika, ale: 1) to jest dodatkowo płatne i w podstawowej wersji narzędzia tego nie ma 2) każda instancja 'Fine-tuned models' jest per user, czyli co najwyżej zatrujesz błędnymi danymi swoją kopię modelu.
@Viters: tak, to prawda. Powinienem poprawić zapytanie, a przeczytałem tylko pierwsze zdanie odpowiedzi, które wyglądało OK. Model nie zrozumiał, o co poprosiłem i powinienem o to poprosić po prostu innymi słowami.
@milo1000: uczenie jest bardzo proste. Podajesz zapytanie i odpowiedź, jakiej się spodziewasz. Oczywiście GPT-3 nie zapamiętuje idealnej odpowiedzi, a wnioskuje, jaka powinna być. To trochę działa tak, jak mój przykład z SQL na filmie. Różnica jest taka, że moje przykłady z zapytania działają tylko w chwili wykonywania zapytania, a przy modelach fine tuned zapisałyby się na stałe w pamięci GPT-3.
@ni0bi: sugerujesz, że samodzielnie, na Kerasie wygenerujesz model większy od Davinci, który ma ponad 175 miliardów parametrów i został wytrenowany na 45TB danych tekstowych z całego netu?
OpenAI kiedyś pochwaliło się statsami trenowania modelu Davinci. Zajęło to 3640 dni (prawie 10 lat) w przeliczeniu na pojedynczy GPU. Oczywiście oni używali setek takich GPU.
AI potrafi wygenerować prawidłową odpowiedź, ale czy rozumie to co generuje?
@zigibombes: zrozumienia tam wiele nie ma. Poza tym GPT-3 w najmocniejszym modelu ma tylko max. 4000 tokenów pamięci. Oznacza to, że takie AI nie mogłoby napisać książki i utrzymywać fabuły, bo po prostu nie pamiętałoby, co działo się w poprzednim rozdziale.
Generowane teksty są (zazwyczaj) sensowne, ale czegoś takiego jak zrozumienie przez AI generowanego tekstu tam nie ma. To
@urzad_kontroli_skarbowej: o! faktycznie :o Ale DALL-E poprawia błędy w pisowni. Słowo 'gril' nie istnieje w języku angielskim, a najbliższe istniejące w słowniku to girl :)
@szumowina_wadowicka: mam postawiony Stable Diffusiton, ale: 1) Obsługa podstawowego interfejsu CLI nie jest user friendly (ale istnieją nakładki) 2) Wymaga to DUŻEJ mocy obliczeniowej (mocne GPU). Bez drogiego hardware się nie pobawimy. 3) Czas generowania obrazów... zależnie od posiadanego sprzętu i zadanych parametrów, ale jednak jest to w minutach, a nie sekundach.
Poza tymi niedogodnościami to działa super. Załączony output to "fotorealistyczny kangur w pomarańczowej bluzie i okularach przeciwsłonecznych, stojący
@Wujo_Stachu: ale trzeba być pewnym swoich racji, aby ponownie wrzucać najbardziej zaminusowany komentarz pod tym znaleziskiem, tylko po to, aby mieć zero minusów :D
@brodatykarzel: no tak... a IKEA zrobiła meble dla ludzi nieumiejących budować mebli, a Berlinki wyprodukowały parówki dla ludzi nieumiejących nawet zabić świni... ten świat zmierza ku upadkowi :D
Wake up! mamy XXI wiek. Człowiek posługuje się narzędziami :)
@onebyone: polega na tym samym, co nauka dziecka. Pokazujesz dziecku, które w życiu nie widziało kangura np 100 zdjęć kangurów i po godzinie prosisz o namalowanie kangura. Masz pewność, że będzie się inspirować tym, co widziało. Dziecko w tym momencie staje się złodziejem?
Generatory grafiki bazujące na AI nie wycinają fragmentów innych grafik, tylko uczą się z nich.
Cała baza danych np Stable Diffusion ma około 4GB i została nauczona
@Strzalka: co też napisałem w opisie do linka :) Niestety nie mam na to wpływu. Autor tego serwisu udostępnia 100% artykułów tylko dla osób zalogowanych.
Jakub 'unknow' Mrugalski
Człowiek żyjący i publikujący w Internecie. Naucza na temat Linuksa, administracji serwerami, programowania w PHP, a czasami nawet mówi jak żyć.
➤ https://mrugalski.pl/nl/wu/XB892M7NU1v892763lFdcQcliDsw
Tagi: #technologia #informatyka #ciekawostki #programowanie #webdev #linux #security #chatgpt #cybersecurity
źródło: okladka_dnia
Pobierzźródło: wołaj
Pobierz@jjczopek: uroki nowego Wykopu.
Spróbuj z komentarza:
https://mrugalski.pl/nl/wu/XB892M7NU1v892763lFdcQcliDsw