Naukowcy o AI: Nie będziemy w stanie kontrolować super inteligentnych maszyn.
Korzystając z teoretycznych obliczeń, międzynarodowy zespół naukowców z Center for Humans and Machines at the Max Planck Institute pokazuje, że prawdopodobnie nie byłoby możliwe kontrolowanie superinteligentnej SI. Publikacja na łamach czasopisma Journal of Artificial Intelligence Research. ENG+TLDR
RFpNeFeFiFcL z- #
- #
- #
- #
- #
- #
- 308
Komentarze (308)
najlepsze
Otworzyłem pdf
https://jair.org/index.php/jair/article/view/12202/26642
I tak - to jest po prostu opisany problem stopu.
Swoją drogą - polecam pdf, bardzo przystępny.
Dzięki :)
1. czy algorytm który będzie w stanie zasymulować efekt działania AI aby ocenić "szkodliwość" nie będzie de facto potężniejszy niż sama AI?
2. Jak określić kryteria szkodliwości? Już sam aisimov doszedl do wniosku że trzy zasady robotyki nic nie znaczą w obliczu inteligentnego realizatora tych zasad.
3. Dla ludzkości zagrożniem nie musi byc SUPER inteligencja. Absolutnie głupi algorytm może nas zabić jeśli dostanie kontrole nad
Komentarz usunięty przez moderatora
Wtedy wiesz, dostęp do Internetu = dostęp do wszystkiego co się łączy z Internetem.
Każde szyfrowanie będzie pestką, bo moc obliczeniowa wszystkich komputerów połączonych pod Internet, jest całkiem spora. Zakładając, że AI usiłuje łamać szyfr a nie znajdzie obejścia.
Od razu posiądzie całą wiedzę na każdy temat, będzie we wszystkim nieskończenie mądre.
Jedynym celem byłoby zwiększanie
artykuł bez wartości naukowej moim zdaniem i nic nie wnoszący do tematu.
bedziemy sie dopiero wtedy martwic, jak rzeczywiscie to wszystko #!$%@? xD narazie nie ma co sie nakrecac.
jedno jest pewne, zmiecie nas z planszy.
Zawiera treści 18+
Ta treść została oznaczona jako materiał kontrowersyjny lub dla dorosłych.
Przykład?
Komentarz usunięty przez moderatora
Alternatywna droga, to wirtualizowanie bytu człowieka, najpierw mózg w słoiku, później już bez nawet mózgu, wszystko wirtualne, później pozostaje tylko optymalizacja, no bo po co wykorzystywać potężny
Jedyne co ten artykuł pokazuje, to że nie da się kontrolować omnipotentej super-inteligencji, która może symulować wszystkie możliwe inteligencje i i może być programem o nieograniczonej wielkości, bo takich maszyn dotyczy problem stopu na który się powołują.
Uff
Odizolowana sieć, poza zasięgiem systemów monitoringowych, zaszyfrowans niemozliwymi do złamania protokołami szyfrującymi.
Do tego sama monitoruje co się dzieje w sieciach publicznych, ilość urządzeń podpiętych do sieci + dane, które może analizować daje całkiem niezłe pole do manewru i planowania
W sumie to jeszcze dorzuciłbym temat własnego języka programowania, który taki AI by sobie opracował. Oczywiście z kompatybilnością na wszystkie znane dotychczas języki.
Poza tym mocy obliczeniowej tak się nie liczy, że dodajesz sobie MHz z procesorów milionów urządzeń.
To tak jakbyś pisał, że miliardy myszy przejmą w końcu władzę nad światem, jjeśli zaczną się mnożyć, bo łącznie będą miały dużo tkanki mózgowej.
Miliardy myszy co najwyżej nadają się do znalezienia miliardów nasionek, ale nie zbudują sobie kombaju i nie zaczną swoich upraw
komputer ( ͡° ʖ̯ ͡°)
I fakt, ktoś powie, że za mediami stoją ludzie. Ale tych ludzi też coś napędza. Zyski? Władza? Może. Tak czy inaczej dążą do jeszcze większej cyfryzacji społeczeństwa. Może zbiorowa "świadomość" Internetu zauważyła, że wygodnym sposobem na poszerzanie swoich "macek" jest dawanie ludziom złudzenia kontroli.
Za tym wszystkim stoją ludzie i ich napędzają odwieczne motywacje.
Im wyżej stoją, tym bardziej widzą, że tylko pełna kontrola podległych ludzików da im szansę na to, że wszystko co podległe będzie im "robiło dobrze". Bo biedak liczy, że dobrze zrobi mu żona z wzajemnością, potem dzieci, wnuki, ksiądz w mowie pogrzebowej. A wyznawcy zła wiedzą, że jeśli sami nie zadbają, by zrobić se dobrze, to podległe ludziki mogą się
@essik o to to. Koniec ludzkości to nie będzie wybicie nas, tylko moment, kiedy roboty będą za nas pracować i tworzyć (w sensie dóbr intelektualnych), bo nie będzie po co się uczyć i rozwijać