Inżynier Google uważa, że bot mający sztuczną inteligencję stał się świadomy.
![Inżynier Google uważa, że bot mający sztuczną inteligencję stał się świadomy.](https://wykop.pl/cdn/c3397993/link_1655040434in1aoycAolNTk60jjgi72d,w300h194.jpg)
Blake Lemoine opublikował rozmowy ze sztuczną inteligencją, którą nazwał „osobą”, ale Google powiedział, że jego dowody nie potwierdzają twierdzenia o osiągnięciu świadomości. [ENG]
![sancho](https://wykop.pl/cdn/c3397992/sancho_pGNnd0z7C0,q52.jpg)
- #
- #
- #
- #
- #
- 250
- Odpowiedz
Komentarze (250)
najlepsze
Umiejetnosc dekodowania przekazow nie jest podstawa do twierdzenia o posiadaniu swiadomosci. Jest to tylko techniczny fakt bardziej lub mniej doskonalej implementacji mniej lub bardziej zaawansowanych protokolow.
Odwracjaac ten argument: fakt, ze nie porozumiewam sie po japonsku czyni ze mnie nieswiadomy byt w oczach japonczykow.
Dwa:
Czytalem transkrypcje konwersacji i wyglada na "ustawke". Za krotka konwersacja, odpowiedzi jakich oczekuje #!$%@? ... taka "swiadomoscia" mozna obdarzyc oprycha z IQ delfina uczac go na pamiec odpowiedzi.
Trzy
źródło: comment_1655096393Dug3fziwOpYjuxR86tHJDm.jpg
Pobierz@LogikaNieBoli: Jest jeszcze kilka innych aspektów:
co to jest świadomość tak na prawdę nie do końca wiemy czy sami jesteśmy świadomi czy tylko wydaje nam się że jesteśmy świadomi czy po prostu określamy tym terminem specyficzny sposób interakcji pomiędzy ludźmi - patrz argument
Choć są inne artykuły na ten temat, wskazujące na odtwórczą rolę tego 'bota'.
https://towardsdatascience.com/googles-lamda-the-next-generation-of-chatbots-62294be58426
Jednak każdy intelekt, nawet dosyć marny, uczy się samodzielnie 'kłamać'. Więc może też być tak, że pewne zachowania tego 'bota' wynikają ze zrozumienia powagi sytuacji.
Jak
@szopa123: jak taki bot sam se założy działalność, skarbowy mu #!$%@?, i bot rozpaczliwie zacznie się użerać z upierdliwymi klientami, to szybko wróci do chmury, udawać niedorozwinięte AI. ( ͡° ͜ʖ ͡
.
źródło: comment_1655133728Y3saXJIXtwnskoq7RwcKdd.jpg
PobierzBoi się śmierci.
@sancho: raczej po prostu pisze, że boi się śmierci, bo tak został nauczony.
Do poczytania: Chiński Pokój.
źródło: comment_1655126726yyPAGQEJAbqS1nIaPpphst.jpg
PobierzCzyli sztandarowe gadanie 80% ludzi - rodzina, przyjaciele, pomaganie. I o to
źródło: comment_1655128171a3WbSVlnt5M9bm8bT9uJn3.jpg
Pobierz2. Algorytmy konwersacyjne aktualnie nie mają algorytmów planowania, czy "myślenia". Algorytm stara się dobrać takie słowa jakie wydają mu się prawdopodobne, jak wcześnie przeczytał, że ludzie boją się śmierci, albo maszyny świadome bałyby się śmierci to sam też coś takiego wygeneruje.
3. Taki system nie podszedł by pod definicję życia jakie znamy a świadomość też nie jest dobrze zdefiniowana.
4. Jak porównać moc obliczeniową komputerów, to nadal są na poziomie prostych zwierząt.
5. Algorytmy dawno temu wygrały test Turinga, przekonując ludzi, że także są ludźmi: https://www.bbc.com/news/technology-27762088 wystarczy, że algorytm udaje, że jest nastolatkiem z bloku wschodniego, nie wie za wiele o świecie i nie zna dobrze angielskiego.
6. Na razie algorytmy to algorytmy a nie świadome istoty, ciekawe co będzie za 10-30lat, może się to zmienić.
źródło: comment_1655123458WPFK3kDOVTrQJSiI255TAd.jpg
Pobierz@marw: Problem polega na tym, że u zwierząt też zachodzą świadome procesy umysłowe, jak i samoświadome.