Model sztucznej inteligencji Claude przejawia prymitywne zaczątki świadomości
Podczas testowania umiejętności model Claude… sam spontanicznie domyślił się, że jest właśnie testowany przez ludzi oceniających jego spostrzegawczość. Wg pomiarów Claude od Anthropic już wyprzedził ChatGPT 4.0 oraz Google Gemini we wszystkich umiejętnościach, a najbardziej matematycznych.
nieco z- #
- #
- #
- #
- #
- #
- 313
- Odpowiedz
Komentarze (313)
najlepsze
One mogą co najwyżej generować treści zbliżone do wypowiedzi świadomego bytu, bo w końcu na takich są uczone.
@KEjAf: AI nie może samodzielnie oddziaływać na nic, nie jest w stanie samodzielnie przeprowadzać żadnych procesów, potrafi tylko przekształcić dane wejściowe na prawdopodobieństwa. Bez wydania zapytania w takim LLM nie zachodzą żadne procesy samodzielnego „myślenia” czy przetwarzania danych. Nie potrafi też wchodzić e interakcję z samym sobą.
Jeżeli już
2. W tym danymi na temat tego jak testuje sie takie modele
3. Celem modelu jest rozpoznawanie i dopasowywanie wzorców
4. Model rozpoznał wzorzec "testowania uwagi modeli AI"
5. Hurr durr AI uzyskało świadomość
Szkoda słów na takie clickbaity.
@karer: LLMy w ogóle nie "myślą" i nie, ludzie nie budują wypowiedzi oraz zdań "w taki sam sposób". No chyba ze ty masz w głowie przeliczone prawdopodobieństwo każdego możliwego kolejnego słowa w słowniku względem kilku tysięcy poprzednio wypowiedzianych przez ciebie słów.
Człowiek zwykle wie jakie fakty i wnioski chce przekazać i jedynie ubiera ten przekaz w słowa. LLM nie ma w ogóle
@neo320: Bo nawet kilku letnie dziecko, które nie przeczytało jeszcze miliona książek, jest w stanie formułować swoje myśli i przekazywać jasne komunikaty.
@tellet: No ja np siedzę w branży i się podniecam tymi czatami :P Nie dlatego, że uwierzyłem, że mają świadomość, tylko dlatego, że między tym co jest teraz a co było 5 lat temu to jest przepaść.
Miliony polaczeni nerwowych tworzą chmurę ktora tworzy świadmomość
Wiesz kim jesteś z doświadczenia
Wiesz w jakim kraju żyjesz też z doświadczenia
Wiesz to i wiesz tamto
A w twoim muzgu płyną impulsy elektryczne po kablaach zbudowanych z neuronów
A AI wiesz to co wie z baz danych , na podstawie milionów prób i błendów wypracowuje własciwe modele odpowiedzi.
Jak wypracuje ich odpowiednio
Zabawna historia z naszych wewnętrznych testów na Claude 3 Opus. Zrobiło to coś, czego nigdy wcześniej nie widziałem w LLM, kiedy przeprowadzaliśmy ocenę „igły w stogu siana”.
W tle sprawdza to zdolność przypominania sobie modelu poprzez wstawienie docelowego zdania („igła”) do zbioru losowych dokumentów („stóg siana”) i zadawanie pytania, na które można odpowiedzieć jedynie na podstawie informacji zawartych w igle.
Kiedy przeprowadziliśmy ten test na Opusie,
@nieco: Metaśeuadomość = marketingowe mambo jumbo.
Nie jarałbym się tym, że model językowy zadaje pytania egzystencjalne. Robi to, bo sami o to pytamy, a on nas nieźle naśladuje.
@dict: Czyli są już bardzo, bardzo ludzkie.
( ͡° ͜ʖ ͡°)
Dwa minusy się znoszą...