Wykop.pl Wykop.pl
  • Główna
  • Wykopalisko337
  • Mikroblog
  • Zaloguj się
  • Zarejestruj się
  • Wykop.pl
  • Ciekawostki

    Ciekawostki
  • Informacje

    Informacje
  • Rozrywka

    Rozrywka
  • Sport

    Sport
  • Motoryzacja

    Motoryzacja
  • Technologia

    Technologia
  • Ukraina

    Ukraina
  • Gospodarka

    Gospodarka
  • Podróże

    Podróże

Dostosuj Wykop do siebie

Wybierz treści, które Cię interesują
i zapisz jako Własną kategorię.

Andrew1025
Andrew1025

Andrew1025

Dołączył 1 rok i 11 mies. temu
  • Obserwuj
  • Akcje 56
  • Znaleziska 55
  • Mikroblog 1
  • Obserwujący 0
  • Obserwowane 1
  • Dodane (0)
  • Komentowane (0)
  • Plusowane (1)
mirko_anonim
mirko_anonim
mirko_anonim
30.03.2023, 03:41:37
  • 917
#biedanonim
Jako kogoś zajmującego się AI na co dzień strasznie wkuriwa mnie ten cały sztuczny hype i rzesze pseudoeksperów, którzy obejrzeli 10 minutowy filmik o ChatGPT od "entuzjasty technologii" i już wszystko rozumieją.

Modele bazujące na tej architekturze co GPT4, czyli na Transformerach nie są stanie osiągnąć poziomu AGI i zyskać świadomości. W zasadzie to co odróżnia GPT4 od modelu który można sobie wytrenować w domu to rozmiar sieci oraz przede wszystkim liość danych na których został wytrenowany. GPT nie jest w stanie uczyć się nowych rzeczy po zakończeniu trenowania. Wiem, że jak podacie mu coś na wejście jako kontekst to będzie to pamiętał, jednak kontekst ten ma ograniczoną wielkość i po zakończeniu sesji generacyjnej jest resetowany. Nie zmienia on wag sieci (czyli takiego w pewnym sensie mózgu), a co za tym idzie sieć się nie uczy. Przykładem jest choćby to, że świetnie radzi sobie z zadaniami algorytmicznymi które zostały zamieszczone przez zakończeniem treningu. Jednak nowe zadania, które wymagają analogicznych umiejętności są dla niego nierozwiązywalne. Powód jest prosty: w danych treningowych znalazły się gotowe rozwiązania. Ten sam efekt uzyskacie wpisując treść polecenia w google.

Ponadto jako model językowy kompletnie nie rozumie o czym pisze. Podczas generacji w każdej iteracji bazując na aktualnym kontekście zwraca prawdopodobieństwa wystąpienia następnych tokenów (subwordów), a potem losuje (pewnie jest tam jakiś bardziej zaawansywany algorytm przeszukiwania, ale i tak te z najwiąkszym prawdopodobieństwem będą najczęściej wybierane). Następnie wybrany token zostaje dodany do kontekstu. Zauważyliście pewnie, że ChatGPT nigdy nie powie, że czegoś nie wie, tylko będzie zmyślał jak podczas matury z polskiego.
  • 142
  • Odpowiedz
Mrbimbek
Mrbimbek
Mrbimbek
30.03.2023, 05:24:04 via Wykop
  • 141
@mirko_anonim: oczywiście masz w 100% rację, tylko w ramach luźnej rozmowy, czym różni się nasz mózg od AI? Czyż nie jest to zbiór informacji i wyszukiwanie najlepszej odpowiedzi do zadanego pytania? Co powoduje że AI nie jest w stanie rozwiązać pewnych zadań? Może nie został po prostu nauczony jak sobie radzić z wzorami, bo my też korzystamy z tego czego się nauczyliśmy, mózg nie ma żadnych magicznych mocy. Może AI
  • Odpowiedz
Anoniemamowy
Anoniemamowy
Anoniemamowy
30.03.2023, 05:54:48 via Wykop
  • 691
@mirko_anonim:

Niezła próba panie chatGPT. Taki niegroźny jesteś, już się nie boimy
  • Odpowiedz

Osiągnięcia

  • Rocznica
    od 02.08.2023

    Rocznica

Wykop © 2005-2024

  • Nowy Wykop
  • O nas
  • Reklama
  • FAQ
  • Kontakt
  • Regulamin
  • Polityka prywatności i cookies
  • Hity
  • Ranking
  • Osiągnięcia
  • więcej

RSS

  • Wykopane
  • Wykopalisko
  • Komentowane
  • Ustawienia prywatności

Wykop.pl