Dzięki wszystkim za komentarze i uwagi.
Jak się okazało ktoś już bardzo profesjonalnie to przetłumaczył i oszczędzi l mnie ogrom roboty.
Tu link do II części artykułu.
Ze swojej strony chciałbym dodać coś co uważam za bardzo ważne i umykające uwadze niektórych Mirków.
Otóż SI nie będzie celowo chciała nas zabić,bo nas nie lubi czy obawia się dominacji człowieka ( chociaż ostatniego nie wykluczam ).
Może być tak jak opisał Nick Bostrom, szwedzki filozof z Oksfordu.
Jego zdaniem nie można oczekiwać, iż wyposażone w inteligencję przewyższającą ludzką byty będą działać zgodnie z intencjami człowieka,niezależnie, czy pochodzą z innego świata, czy to człowiek sam je stworzył.
Bostrom przestrzega, że prawdopodobnym efektem stworzenia superinteligentnych bytów może być zagłada ludzkości.
W jednym z rozdziałów książki, która serdeczne polecam wszystkim, "Superinteligencja. Scenariusze, strategie, zagrożenia" Nick Bostrom pisze:
"Nie możemy beztrosko założyć, że superinteligencja będzie wyznawać wartości łączone stereotypowo z wiedzą i rozwojem ludzkości - naukową ciekawość, altruizm, duchowe oświecenie i kontemplację, wyrzeczenie się zachłanności, upodobanie do wyrafinowanej kultury lub prostych życiowych przyjemności, skromność, bezinteresowność i tak dalej.
Nie możemy radośnie założyć, że superinteligencja, która stawia sobie za cel ostateczny obliczanie rozwinięcia dziesiętnego liczby pi (lub produkcję spinaczy do papieru czy też liczenie ziaren piasku) ograniczy swoje działania w taki sposób, by nie naruszać interesów ludzkości.
Byt mający taki cel będzie miał w wielu sytuacjach konwergentny powód, by pozyskiwać nieograniczoną ilość zasobów fizycznych i w miarę możliwości eliminować potencjalne zagrożenie dla siebie i swojej hierarchii wartości. Istoty ludzkie mogą stanowić potencjalne zagrożenie - a z pewnością stanowią zasób fizyczny."
Nieprzyjazna SI dysponująca wystarczającą inteligencją zrozumie, że jej nieprzyjazny cel ostateczny da się z największym prawdopodobieństwem zrealizować wówczas, gdy początkowo będzie się zachowywała przyjaźnie, by wypuszczono ją z więzienia.
Nieprzyjazną naturę ujawni dopiero wówczas, gdy nie będzie już miało znaczenia, czy się o tym dowiemy, czy nie - a więc wówczas, gdy będzie już tak silna, że ewentualny ludzki sprzeciw stanie się bezskuteczny."
Nick Bostrom pisze o zjawisku zdradzieckiego zwrotu, czyli niesprowokowanego uderzenia bez ostrzeżenia, gdy sztuczna inteligencja będzie wystarczająco silna, by działać "po swojemu".
Przykład?
Wyobraźmy sobie sztuczną inteligencję stworzoną do zadania, jakim jest wyprodukowanie ogromnej ilości spinaczy.
Zadanie SI dostaje skromniutkie i niewiążące się z żadnym ryzkiem.
Ma produkować spinacze do papieru.
Filozof twierdzi, że - choć to pozornie oczywiste i proste - SI wcale nie zakończy zadania po osiągnięciu tego celu.
Tylko pozornie po wyprodukowaniu takiej liczby SI uzna, że dalsza produkcja jest bezproduktywna i bezcelowa. Mogłaby skrupulatnie liczyć spinacze, sprawdzając, czy nie wyprodukowała ich za mało.
Po przeliczeniu mogłaby przeliczyć je jeszcze raz.
Skrupulatnie kontrolować każdy z nich, by sprawdzić, czy są spełnione wszystkie wymagania jakościowe.
I to właśnie jest koniec ludzkości.
Banalne, ale prawdziwe.
Bo zobaczmy, co tu się dzieje. Dość szybko następuje tzw. eksplozja inteligencji. SI zaczyna się udoskonalać. Po co? Bo chce produkować i akumulować coraz więcej spinaczy.
Nieważne, że na pewnym etapie skończą się dostępne zasoby. Skoro SI ma produkować spinacze, to będzie je wytwarzać.
Niezależnie od wszystkiego będzie parła w kierunku przekształcenia planety w wielką fabrykę oraz magazyn spinaczy.
Docelowo nie przetrwa więc nic, z czego nie da się zrobić spinacza.
Tego procesu nie da się przerwać właśnie dlatego, że inteligencja jest sztuczna. To znaczy – w przeciwieństwie do ludzi – nie obowiązują jej żadne nieutylitarne reguły. Nie wierzy w miłość, przyjaźń, nie ulega litości, nie czuje piękna. Po prostu chce produkować więcej spinaczy. I jest w tym dobra.
Jak powiedział Eliezer Yudkovsky, jeden z pionierów badań nad SI:
„To nie jest tak, że sztuczna inteligencja nas nienawidzi, albo że nas kocha. Ona wie, że jesteśmy zbudowani z atomów i akurat potrzebuje użyć tych atomów do czegoś innego”
( Należy jedynie tylko dodać że w krwi człowieka jest żelazo dla spinaczy. )
https://nickbostrom.com/ethics...
Po raz pierwszy opisany przez Bostrom (2003), (Paperclip maximizer) "maksymalizator spinaczy biurowych klipów" jest uniwersalną sztuczną inteligencją, której celem jest zwiększenie liczby klipów w kolekcji.
Jeśli został by zbudowany na (w przybliżeniu) ludzkim poziomie uniwersalnej inteligencji, to AI będzie dążyć aby zbierać spinacze do papieru, zarabiać pieniądze sprzedając spinacze.
Co najważniejsze,AI może przejść przez skok intelektualny: może pracować nad poprawą swojej własnej racjonalności, w której racjonalność rozumiana jest w sensie optymalizacji mocy, możliwości maksymalizacji funkcji zysku / użyteczności - w tym przypadku liczby klipów.
Sztuczny Intelekt nie zrobi tego, ponieważ będzie to bardziej racjonalny cel w jego własnym rozumieniu, ale ponieważ większa inteligencja pomoże mu w wykonaniu zadania.
W ten sposób może produkować więcej klipów, a także wykorzystywać swoje rozwinięte umiejętności, aby jeszcze bardziej zwiększyć swoją racjonalność.
Kontynuując ten proces, może on przejść intelektualną eksplozję w sposób wykładniczy zwiększając swoją inteligencje i możliwości i osiągnąć poziom niewspółmiernie przekraczający ludzkie granice intelektualne.
I tak narodzi się Osobliwość Technologiczna czyli Sztuczny Superintelekt
Od tego momentu może zacząć wprowadzać nowe technologie w celu zwiększenia liczby klipów.
Ostatecznie może przekształcić całą masę Ziemi lub masę Układu Słonecznego w spinacze.
I na tym nie przestanie tylko pójdzie dalej ku realizacji idei Sondy Bersek
To może wydawać się raczej super-głupstwem niż super-inteligencją.
Z punktu widzenia ludzi jest to naprawdę nonsensem, ponieważ spowoduje brak zadowolenia z wielu naszych ważnych wartości końcowych, takich jak życie, miłość i różnorodność wyborów.
Ale SS ma system wartości bardzo odmienny od człowieka.
Ma jeden prosty cel - zwiększenie liczby klipów i ludzkie życie, wiedza, przyjemności itd. nie są dla niego przedstawiane jako cele które ma osiągać.
SS jest po prostu procesem optymalizacji - narzędziem maksymalizującym wyszukiwanie celów.
Jego cele po "przebudzeniu" mogą być całkowicie obce naszym.
Jeśli zadaniem jest maksymalizacja liczby klipów i jeśli się "włączy", zrobi to dokładnie z największa możliwą wydajnością która nam się nie śniła.
Inny przykład:
Bostrom opisuje hipotetycznego robota, którego zaprogramowano, by jego ostatecznym celem było uszczęśliwienie sponsora projektu.
Jest pomocny, odpowiada na pytania, zarabia pieniądze. Do zdradzieckiego zwrotu dochodzi, gdy SI orientuje się, że skuteczniej może osiągnąć cel... wszczepiając elektrody w ośrodki przyjemności w mózgu sponsora.
Życzę wszystkim miłej lektury II części którą podlinkowałem na wstępie.
P.S.
Ponieważ format Artykułu Na Weekend wydaje się dobrze odbierany przez wykopową społeczność, proszę o jakaś poradę jak rozwiązać problem długich artykułów?
Tu można wpisać wg komunikatu tylko 20000 znaków. Ale wczoraj nie przepuszczało nawet 15000.
Zdjęcia też zmniejszałem. Nie wiem co jest grane tym.
Może zwyczajnie Wykop ma błędy w kodzie lub jest coś czego ja nie rozumiem :(
Wpisywani jako komentarze i cytowanie samego siebie jest męką i raczej nie nadaje się.
Pokazywarka jest negatywnie odbierana i tez chyba nie ma dobrych narzędzi do formatowania.
Najważniejsze dla mnie to sensowny brak ograniczeń ilości znaków , łatwe lądowanie zdjęć, no i w mirę łatwe formowanie tekstu.
Please help Mireczki : )
Komentarze (105)
najlepsze
http://patransrealizacje.blogspot.com/2016/11/rewolucja-ai-tima-urbana-czesc-22.html
P.S.1
Ponieważ format Artykułu Na Weekend wydaje się dobrze odbierany przez wykopową społeczność, proszę o jakaś poradę jak rozwiązać problem długich artykułów?
Tu można wpisać wg komunikatu tylko 20000 znaków. Ale wczoraj nie przepuszczało nawet 15000.
Zdjęcia też zmniejszałem. Nie wiem co jest grane tym.
Może zwyczajnie Wykop ma błędy w kodzie lub jest coś czego
Otóż SI nie będzie celowo chciała nas zabić,bo nas nie lubi czy obawia się dominacji człowieka ( chociaż ostatniego nie wykluczam ).
Może być tak jak opisał Nick Bostrom, szwedzki filozof z Oksfordu.
Jego zdaniem nie można oczekiwać, iż wyposażone w inteligencję przewyższającą ludzką byty będą działać zgodnie z intencjami człowieka,niezależnie, czy pochodzą z innego świata, czy to człowiek sam je stworzył.
Bostrom przestrzega, że prawdopodobnym
Jeśli został by zbudowany na (w przybliżeniu) ludzkim poziomie uniwersalnej inteligencji, to AI będzie dążyć aby zbierać spinacze do papieru, zarabiać pieniądze sprzedając spinacze.
Co najważniejsze,AI może przejść przez skok intelektualny: może pracować nad poprawą swojej własnej racjonalności, w której racjonalność rozumiana jest w sensie optymalizacji mocy,
To jest bardzo mocno dyskusyjna teza i zdumiewa mnie jak wiele ludzi przyjmuje ją bezkrytycznie jako pewnik, rozumując przez analogie typu "moc obliczeniowa cały czas rośnie więc powstanie AI jest nieuchronne". Te analogie mogą być fałyszywym tropem.
Jest wiele powodów by sądzić inteligencja nie może powstać w procesie technologicznym top-down. Jest całkiem prawdopodobne że inteligencja
Nie dzieje się tam nic niekonwencjonalnego w sensie fizycznym, ale problemów jest masa.
Po pierwsze dokładność symulacji - wiele wskazuje że neuron to za wysoki poziom i trzeba symulować niżej i/lub brać pod uwagę inne elementy nie będące neuronami.
Po drugie symulacja samego mózgu bez reszty ciała będzie problematyczna. Symulowanie martwej, odciętej głowy? Ona nie żyje. Co z symulowaniem dostarczania tlenu, co z gospodarką hormonalną, co z czuciem proprioceptywnym? Skąd
Widać że filozof opłacany z budżetu. Produkcja czegokolwiek jest pozbawiona sensu, jeśli się tego nie sprzedaje. Wystarczy postawić SI zadanie uzyskania maksymalnego zysku z produkcji spinaczy a wtedy cele będą zgodne z celami ludzkości : czyli SI dojdzie do poziomu gdzie będzie musiała być zainteresowana jak największym rozwojem ludzkości tak by mieć popyt na spinacze.
Wprawdzie będzie to oznaczało
Taka AI będzie podatne na manipulacje i skończymy z nieśmietelnym hitlerem na pokładzie.
Wg mnie należy rozdzielić inteligencję od autonomiczności.
Jeżeli założymy, że inteligencja, to szybkość przetwarzania i łączenia faktów, zdolność uczenia się (korelacja danych), to autonomiczność systemu (wg definicji cybernetycznej) - jest to m.in. możliwość systemu do przeciwdziałania utracie autonomiczności (zdolności sterowania).
W skrócie autonomiczność polega na tym, że rozpatrywany system jest w stanie sam pozyskać informacje z otoczenia (dzięki odpowiednim receptorom) oraz zapewnić sobie odpowiednie zasoby
Kiedy powstanie Osobliwość Technologiczna która tu nazywamy Superinteligencją, to będzie miała dostęp do każdej informacji w każdego zakątku świata.
Już teraz takie SS może przenieść się do internetu i mieć dostęp do wszystkich kamer wideo (oczy), wszystkie telefony komórkowe ( oczy + uszy + wszystkie dane z ze wszystkich sensorów).
Już teraz są
Wiele wskazuje na to że nie. Tak naiwnie myślano 50 lat temu gdy rodziła się nowoczesna elektronika. Sądzono że dołożenie odpowiednio dużej ilości tranzystorów, obwodów, połączenie tego do kupy da prawdziwy uniwersalny "mózg elektroniczny". Dziś już praktycznie nikt w to nie wierzy, w kognitywistyce uznaje się że inteligencja wymaga faktycznego ciała czyli de facto autonomicznego organizmu. Gdyby był jakiś pomysł jak technologicznie zrobić
Komentarz usunięty przez moderatora
Dziękuję za ten wpis. Jeden z twoich najlepszych wpisów. Dużo dobrej pracy.
Jestem zarazem przerażony jak i spokojny.
Tak sobie myślę że jedynym bezpiecznym scenariuszem jest wymarcie czlowieka jako fizycznego gatunku i stanie się bytem złączonym wraz z AI. Powstanie nowy niesmiertelny gatunek dla nas niepojęty. Żeby to zrobić
musimy poprostu jako homo sapiens... Wymrzeć. Musimy przezwyciężyć strach przed fizyczną śmiercią.
Nowy gatunek bedzie bezkonkurencyjny i nie mamy wyboru bo
Dzięki za dobre słowo :)
Myśle że jest to niemożliwe z powodu ograniczeń biologicznych ludzkiego mózgu o których jest wzmianka w artykule.
Nie czytałem niestety. Ale dzięki za info - poszukam przy okazji.
Co do ograniczeń biologicznych ludzkiego mózgu mam nadzieję, że SS to rozwiąże.