Aktywne Wpisy
Tywin_Lannister +383
rzygać się chce
A jeszcze bardziej chce się rzygać, że pomimo tego, iż istnieje szansa, aby ugasić ten pożar w burdelu, głosując przeciwko pisowi w październiku, to zasrane śmieszki wolą się bawić w jakieś konfederackie eksperymenty, co skończy się trzecią kadencją kaczystów.
Tfu na was jak i na Glapę - za ten cynizm i niedojrzałość. W końcu najważniejsze, żeby lewaków dupa bolała.
#nieruchomosci #bekazpisu #gielda #polityka
A jeszcze bardziej chce się rzygać, że pomimo tego, iż istnieje szansa, aby ugasić ten pożar w burdelu, głosując przeciwko pisowi w październiku, to zasrane śmieszki wolą się bawić w jakieś konfederackie eksperymenty, co skończy się trzecią kadencją kaczystów.
Tfu na was jak i na Glapę - za ten cynizm i niedojrzałość. W końcu najważniejsze, żeby lewaków dupa bolała.
#nieruchomosci #bekazpisu #gielda #polityka
Zawiera treści 18+
Ta treść została oznaczona jako materiał kontrowersyjny lub dla dorosłych.
Jako kogoś zajmującego się AI na co dzień strasznie wkuriwa mnie ten cały sztuczny hype i rzesze pseudoeksperów, którzy obejrzeli 10 minutowy filmik o ChatGPT od "entuzjasty technologii" i już wszystko rozumieją.
Modele bazujące na tej architekturze co GPT4, czyli na Transformerach nie są stanie osiągnąć poziomu AGI i zyskać świadomości. W zasadzie to co odróżnia GPT4 od modelu który można sobie wytrenować w domu to rozmiar sieci oraz przede wszystkim liość danych na których został wytrenowany. GPT nie jest w stanie uczyć się nowych rzeczy po zakończeniu trenowania. Wiem, że jak podacie mu coś na wejście jako kontekst to będzie to pamiętał, jednak kontekst ten ma ograniczoną wielkość i po zakończeniu sesji generacyjnej jest resetowany. Nie zmienia on wag sieci (czyli takiego w pewnym sensie mózgu), a co za tym idzie sieć się nie uczy. Przykładem jest choćby to, że świetnie radzi sobie z zadaniami algorytmicznymi które zostały zamieszczone przez zakończeniem treningu. Jednak nowe zadania, które wymagają analogicznych umiejętności są dla niego nierozwiązywalne. Powód jest prosty: w danych treningowych znalazły się gotowe rozwiązania. Ten sam efekt uzyskacie wpisując treść polecenia w google.
Ponadto jako model językowy kompletnie nie rozumie o czym pisze. Podczas generacji w każdej iteracji bazując na aktualnym kontekście zwraca prawdopodobieństwa wystąpienia następnych tokenów (subwordów), a potem losuje (pewnie jest tam jakiś bardziej zaawansywany algorytm przeszukiwania, ale i tak te z najwiąkszym prawdopodobieństwem będą najczęściej wybierane). Następnie wybrany token zostaje dodany do kontekstu. Zauważyliście pewnie, że ChatGPT nigdy nie powie, że czegoś nie wie, tylko będzie zmyślał jak podczas matury z polskiego.
GPT4 to nie żaden przełom tylko po prostu brute force pod względem wielkości danych treningowych wsparty miliardami dolarów. Skoro już wytrenowali go na większości internetu, to co dalej? Moim zdaniem, by uzyskać AGI potrzebne będzie zupełnie nowe podejście do uczenia sieci. Przypominam, że parę lat temu był hype na samojeżdżące samochody i Tesle miały być autonomiczne już dawno temu. Tymczasem autopilot osiągnął swój peak i hype wygasł. Zaraz pewnie jakiś ekspert od AI, który jeszcze niedawno był specjalistą blockchaina się ze mną nie zgodzi no ale cóż.
#programista15k #programowanie #it #ai #sztucznainteligencja #chatgpt
─────────────────────
· Akcje: Odpowiedz anonimowo · Wyślij anonimową PW do autora (niebawem) · Więcej szczegółów
· Zaakceptował: Jailer
· Autor wpisu pozostał anonimowy dzięki Mirko Anonim
· Tag #biedanonim to wpisy z niską potrzebą anonimowości.
Gość nie jest żadnym SEO (wygooglaj co to jest) tylko CEO. Nie nazywa się Sam Altcoin tylko Sam Altman, firma nie nazywa się openia tylko OpenAI, a cały twój wpis to jakiś idiotyzm xd
Przecież to jest troll i celowo nazwisko zmienił XD
@Saly: AI też myśli bardziej abstrakcyjnie niż zapamiętywanie tekstu. Jego sposób formułowania zdań to właśnie przeniesienie abstrakcyjnych pojęć w gramatycznie poprawną formułę. To samo z obrazami - AI generuje najpierw zbiór abstrakcyjnych modeli na płaszczyźnie, a
Ponadto, ChatGPT nie został stworzony z myślą o osiągnięciu AGI, lecz
@look997: Bing Chat odpowiada jak najbardziej, że nie wie. Gdy zapytałem go, czy jego silnik działa na ChatGPT-4 to odpowiedział, że nie wie ( ͡° ͜ʖ ͡°)
Właśnie potwierdziłeś to co napisałem. Trochę bardziej zaawansowane google, które zamiast podawać strony z informacjami, wypisuje od razu informacje.
ogólnie teza jest taka, że komputer taki jaki mamy obecnie, tj. operujący na cyfrach, nie będzie w stanie nigdy wykształcić świadomości, która jest potrzebna do rozumienia zagadnień które procesuje. Oczywiście za x lat może się to zmienić, może zostać stworzony nowy rodzaj komputera.
jakaś definicja z netu:
Świadomość (ang. consciousness) to stan psychiczny, w którym jednostka zdaje sobie sprawę z oddziałujących na nią bodźców wewnętrznych i zewnętrznych. Bodźce wewnętrzne to np. ból, głód, pragnienie, senność, a także myśli i emocje.
Co do postępu teoretycznego to pełna zgoda ale:
1. To prawda, że modele językowe nie mogą stać się AGI ale kto powiedział, że trening ma się kiedykolwiek skończyć?
2. Jeśli coś jest nieodróżnialne dla ludzi od człowieka, to w praktyce jest AGI.
3. Obecne modele językowe już są olbrzymią zmianą społeczno-gospodarczo-socjologiczną. Nawet jeśli nastąpi AI Winter, i nie będzie jakiegokolwiek postępu przez kolejne dziesięciolecia to sama ilość "bruteforce" przechodzi
@geralt101: teza jest bezsensowna. Czysto teoretycznie można cyfrowo symulować działanie ludzkiego mózgu przez symulację działania poszczególnych neuronów na poziomie fizycznym. Oczywiście, jest to rozwiązanie niepraktyczne, ale nie można