Dzięki wszystkim za komentarze i uwagi.
Jak się okazało ktoś już bardzo profesjonalnie to przetłumaczył i oszczędzi l mnie ogrom roboty.
Tu link do II części artykułu.
Ze swojej strony chciałbym dodać coś co uważam za bardzo ważne i umykające uwadze niektórych Mirków.
Otóż SI nie będzie celowo chciała nas zabić,bo nas nie lubi czy obawia się dominacji człowieka ( chociaż ostatniego nie wykluczam ).
Może być tak jak opisał Nick Bostrom, szwedzki filozof z Oksfordu.
Jego zdaniem nie można oczekiwać, iż wyposażone w inteligencję przewyższającą ludzką byty będą działać zgodnie z intencjami człowieka,niezależnie, czy pochodzą z innego świata, czy to człowiek sam je stworzył.
Bostrom przestrzega, że prawdopodobnym efektem stworzenia superinteligentnych bytów może być zagłada ludzkości.
W jednym z rozdziałów książki, która serdeczne polecam wszystkim, "Superinteligencja. Scenariusze, strategie, zagrożenia" Nick Bostrom pisze:
"Nie możemy beztrosko założyć, że superinteligencja będzie wyznawać wartości łączone stereotypowo z wiedzą i rozwojem ludzkości - naukową ciekawość, altruizm, duchowe oświecenie i kontemplację, wyrzeczenie się zachłanności, upodobanie do wyrafinowanej kultury lub prostych życiowych przyjemności, skromność, bezinteresowność i tak dalej.
Nie możemy radośnie założyć, że superinteligencja, która stawia sobie za cel ostateczny obliczanie rozwinięcia dziesiętnego liczby pi (lub produkcję spinaczy do papieru czy też liczenie ziaren piasku) ograniczy swoje działania w taki sposób, by nie naruszać interesów ludzkości.
Byt mający taki cel będzie miał w wielu sytuacjach konwergentny powód, by pozyskiwać nieograniczoną ilość zasobów fizycznych i w miarę możliwości eliminować potencjalne zagrożenie dla siebie i swojej hierarchii wartości. Istoty ludzkie mogą stanowić potencjalne zagrożenie - a z pewnością stanowią zasób fizyczny."
Nieprzyjazna SI dysponująca wystarczającą inteligencją zrozumie, że jej nieprzyjazny cel ostateczny da się z największym prawdopodobieństwem zrealizować wówczas, gdy początkowo będzie się zachowywała przyjaźnie, by wypuszczono ją z więzienia.
Nieprzyjazną naturę ujawni dopiero wówczas, gdy nie będzie już miało znaczenia, czy się o tym dowiemy, czy nie - a więc wówczas, gdy będzie już tak silna, że ewentualny ludzki sprzeciw stanie się bezskuteczny."
Nick Bostrom pisze o zjawisku zdradzieckiego zwrotu, czyli niesprowokowanego uderzenia bez ostrzeżenia, gdy sztuczna inteligencja będzie wystarczająco silna, by działać "po swojemu".
Przykład?
Wyobraźmy sobie sztuczną inteligencję stworzoną do zadania, jakim jest wyprodukowanie ogromnej ilości spinaczy.
Zadanie SI dostaje skromniutkie i niewiążące się z żadnym ryzkiem.
Ma produkować spinacze do papieru.
Filozof twierdzi, że - choć to pozornie oczywiste i proste - SI wcale nie zakończy zadania po osiągnięciu tego celu.
Tylko pozornie po wyprodukowaniu takiej liczby SI uzna, że dalsza produkcja jest bezproduktywna i bezcelowa. Mogłaby skrupulatnie liczyć spinacze, sprawdzając, czy nie wyprodukowała ich za mało.
Po przeliczeniu mogłaby przeliczyć je jeszcze raz.
Skrupulatnie kontrolować każdy z nich, by sprawdzić, czy są spełnione wszystkie wymagania jakościowe.
I to właśnie jest koniec ludzkości.
Banalne, ale prawdziwe.
Bo zobaczmy, co tu się dzieje. Dość szybko następuje tzw. eksplozja inteligencji. SI zaczyna się udoskonalać. Po co? Bo chce produkować i akumulować coraz więcej spinaczy.
Nieważne, że na pewnym etapie skończą się dostępne zasoby. Skoro SI ma produkować spinacze, to będzie je wytwarzać.
Niezależnie od wszystkiego będzie parła w kierunku przekształcenia planety w wielką fabrykę oraz magazyn spinaczy.
Docelowo nie przetrwa więc nic, z czego nie da się zrobić spinacza.
Tego procesu nie da się przerwać właśnie dlatego, że inteligencja jest sztuczna. To znaczy – w przeciwieństwie do ludzi – nie obowiązują jej żadne nieutylitarne reguły. Nie wierzy w miłość, przyjaźń, nie ulega litości, nie czuje piękna. Po prostu chce produkować więcej spinaczy. I jest w tym dobra.
Jak powiedział Eliezer Yudkovsky, jeden z pionierów badań nad SI:
„To nie jest tak, że sztuczna inteligencja nas nienawidzi, albo że nas kocha. Ona wie, że jesteśmy zbudowani z atomów i akurat potrzebuje użyć tych atomów do czegoś innego”
( Należy jedynie tylko dodać że w krwi człowieka jest żelazo dla spinaczy. )
https://nickbostrom.com/ethics...
Po raz pierwszy opisany przez Bostrom (2003), (Paperclip maximizer) "maksymalizator spinaczy biurowych klipów" jest uniwersalną sztuczną inteligencją, której celem jest zwiększenie liczby klipów w kolekcji.
Jeśli został by zbudowany na (w przybliżeniu) ludzkim poziomie uniwersalnej inteligencji, to AI będzie dążyć aby zbierać spinacze do papieru, zarabiać pieniądze sprzedając spinacze.
Co najważniejsze,AI może przejść przez skok intelektualny: może pracować nad poprawą swojej własnej racjonalności, w której racjonalność rozumiana jest w sensie optymalizacji mocy, możliwości maksymalizacji funkcji zysku / użyteczności - w tym przypadku liczby klipów.
Sztuczny Intelekt nie zrobi tego, ponieważ będzie to bardziej racjonalny cel w jego własnym rozumieniu, ale ponieważ większa inteligencja pomoże mu w wykonaniu zadania.
W ten sposób może produkować więcej klipów, a także wykorzystywać swoje rozwinięte umiejętności, aby jeszcze bardziej zwiększyć swoją racjonalność.
Kontynuując ten proces, może on przejść intelektualną eksplozję w sposób wykładniczy zwiększając swoją inteligencje i możliwości i osiągnąć poziom niewspółmiernie przekraczający ludzkie granice intelektualne.
I tak narodzi się Osobliwość Technologiczna czyli Sztuczny Superintelekt
Od tego momentu może zacząć wprowadzać nowe technologie w celu zwiększenia liczby klipów.
Ostatecznie może przekształcić całą masę Ziemi lub masę Układu Słonecznego w spinacze.
I na tym nie przestanie tylko pójdzie dalej ku realizacji idei Sondy Bersek
To może wydawać się raczej super-głupstwem niż super-inteligencją.
Z punktu widzenia ludzi jest to naprawdę nonsensem, ponieważ spowoduje brak zadowolenia z wielu naszych ważnych wartości końcowych, takich jak życie, miłość i różnorodność wyborów.
Ale SS ma system wartości bardzo odmienny od człowieka.
Ma jeden prosty cel - zwiększenie liczby klipów i ludzkie życie, wiedza, przyjemności itd. nie są dla niego przedstawiane jako cele które ma osiągać.
SS jest po prostu procesem optymalizacji - narzędziem maksymalizującym wyszukiwanie celów.
Jego cele po "przebudzeniu" mogą być całkowicie obce naszym.
Jeśli zadaniem jest maksymalizacja liczby klipów i jeśli się "włączy", zrobi to dokładnie z największa możliwą wydajnością która nam się nie śniła.
Inny przykład:
Bostrom opisuje hipotetycznego robota, którego zaprogramowano, by jego ostatecznym celem było uszczęśliwienie sponsora projektu.
Jest pomocny, odpowiada na pytania, zarabia pieniądze. Do zdradzieckiego zwrotu dochodzi, gdy SI orientuje się, że skuteczniej może osiągnąć cel... wszczepiając elektrody w ośrodki przyjemności w mózgu sponsora.
Życzę wszystkim miłej lektury II części którą podlinkowałem na wstępie.
P.S.
Ponieważ format Artykułu Na Weekend wydaje się dobrze odbierany przez wykopową społeczność, proszę o jakaś poradę jak rozwiązać problem długich artykułów?
Tu można wpisać wg komunikatu tylko 20000 znaków. Ale wczoraj nie przepuszczało nawet 15000.
Zdjęcia też zmniejszałem. Nie wiem co jest grane tym.
Może zwyczajnie Wykop ma błędy w kodzie lub jest coś czego ja nie rozumiem :(
Wpisywani jako komentarze i cytowanie samego siebie jest męką i raczej nie nadaje się.
Pokazywarka jest negatywnie odbierana i tez chyba nie ma dobrych narzędzi do formatowania.
Najważniejsze dla mnie to sensowny brak ograniczeń ilości znaków , łatwe lądowanie zdjęć, no i w mirę łatwe formowanie tekstu.
Please help Mireczki : )
Komentarze (105)
najlepsze
Komentarz usunięty przez moderatora
@martinlubpl: Wszystkie działania podejmowane przez organizmy żywe są jakoś umotywowane. Gdyby te działania nie miały celu to organizmy by się ich nie podejmowały bo byłyby one bezsensownym marnowaniem energii.
@hu-nows: Cel sam w sobie nie może być głupi, głupie mogą być tylko strategie dążenia do celu jeżeli są one nieefektywne. Ocenianie sensowności celów AI z perspektywy człowieka posiadającego cele wykształcone ewolucyjnie to przejaw naiwnego antropocentryzmu.
Superinteligencja nie jest zagrożeniem dla ludzkości, bo taniej jest udać się w kosmos po surowce na większych planetach, niż zużywać surowce na walkę o nie na małej planecie, jaką jest Ziemia.
Sam transport niezbędnej technologii na inną planetę trwałby latami.
Superinteligencja nie musi utrzymywać ludzkości, skoro będzie przejmowała inne planety, to dlaczego nie zacząć od Ziemi?
Nie trzeba również niczego transportować na inne planety, skoro można na innych planetach wybudować wszystko od zera z lepszym dopasowaniem do zastanych warunków, a i tak przecież trzeba to będzie wybudować.
Bo będzie to ekonomicznie