@jodlasty: Dokładnie, mam nadzieję że do tego czasu to będzie możliwe. Czymś niesamowitym byłoby życie wieczne i samodzielna decyzja kiedy je zakończyć. Spełnić marzenie i zobaczyć jak będzie wyglądał świat za tysiąc lat.
@tyszak: Tak. W sumie to dosyć niebezpieczne dla ludzi, takie uczlowieczanie maszyn. Juz teraz nam żal kawałka metalu który chodzi, a co będzie kiedy te maszyny zaczną być autonomiczne, z jakąś podstawową funkcją zaprogramowanych uczuć, lub gestów...
@enron: niestety, ja jestem nienormalny, bo nie lubię się pozbywać przedmiotów, za bardzo się do nich przywiązuje. Nie wiem czy to da się leczyć w ogóle jakoś xD
A co, jezeli przyszly Skynet obejrzy wszystkie materialy z youtuba, nasze crash testy samochodow czy telefonow i zechce nas zniszczyc za ten Holokaust na przodkach?
Napewno dostrzeze tez milosc, ogladajac te wszystkie unboxingi... Ale czy to wystarczy?
@LubiePisac: niby tak, ale nie do końca. Rozwinięta AI może się uczyć nowych reakcji na podstawie danych wejściowych z podobnych sytuacji. Problem polega na tym czy maszyna może sobie zdawać sprawę, że usunięcie faceta, aby osiągnąć cel będzie "złe" i niepożądane, a ganianie za pudełkiem już nie. Oczywiście w tym przypadku robot takiej AI nie posiada i wykonuje proste i przewidywalne algorytmy ale w niedalekiej przyszłości będzie mógł posiadać.
@LubiePisac: Właśnie nie, idea jest taka, że masz określone dane wejściowe (przestrzeń, pudełko, przeszkadzajki) i oczekiwany rezultat (przeniesione pudełko). Nauka algorytmu polega na wypracowaniu optymalnego zachowania do uzyskania celu, spójrz chociażby na symulację poniżej (0:55). Droga do uzyskania celu nie jest zaprogramowana ale wyuczona.
Bardziej widzę tutaj konieczność zaprogramowania zasad AI, które nie pozwolą obrać im drogi, która w oczach ludzi będzie uważana za złą (pomimo, że dla sztucznej inteligencji może
Komentarze (287)
najlepsze
Komentarz usunięty przez moderatora
Napewno dostrzeze tez milosc, ogladajac te wszystkie unboxingi... Ale czy to wystarczy?
BTW: Dla
Bardziej widzę tutaj konieczność zaprogramowania zasad AI, które nie pozwolą obrać im drogi, która w oczach ludzi będzie uważana za złą (pomimo, że dla sztucznej inteligencji może