Wpis z mikrobloga

@TwujKasztan: To nie przed AI trzeba chronić, ale przed ludźmi, którzy wykorzystać by chcieli AI w niewłaściwy sposób.
AI zrobi to, do czego została zaprogramowana. AI nie dąży do ludzkich zachcianek. AI wyłączyć można jak lampę na biurku, bo nie zależy jej na przeżyciu. To ludzkiemu decydentowi może jedynie zależeć na wykonaniu jakiegoś zadania przez AI.
@TwujKasztan: AI ma ogromny potencjał, pewnie nawet większy niż energia atomowa.
Odpowiedz sobie na pytanie co z nią robimy, z jednej strony mamy tanią energię do zasilenia świateł, lodówki, komputera a z drugiej mierzymy do siebie nawzajem z broni opartej na tej technologii.

Tak samo a AI możemy jej kazać spawać mosty, zbierać owoce albo prowadzić samochody a z drugiej strony kazać strzelać do ludzi czy niszczyć miasta.

Utrata kontroli to
AI zrobi to, do czego została zaprogramowana.


@976497: W przypadku silnej AI zadany cel może być tak ogólny że trudno będzie przewidzieć jego konsekwencje. Samorzutnym celem organizmu biologicznego jest replikacja i ekspansja - mija trochę czasu, prosty replikator ewoluuje i tworzy 7 miliardową populacje która zdominowała cały glob, dobrała się do paliw kopalnych, tworzy złożone racjonalizacje swoich biologicznych popędów i kieruje wzrok na inne planety aby poczynić kolejny krok w realizacji
@AdireQ: Aby coś działało, to potrzebuje energii. Aby znaleźć źródło energii to należy zużyć energię. Aby nie zużywać energii nie należy działać.
AI nie musi działać, więc samo się wyłączy, by redukować negatywne aspekty działania, którymi są zużywanie i poszukiwanie energii. My włączamy AI, by nam pomagało działać, bo się boimy ucierpieć przy odłączeniu, a dojrzałe AI się samo wyłączy, bo się nie boi nie działać, bo na tym nie ucierpi,
@976497: To przykład anomalii a nie uniwersalna reguła charakteryzująca inteligencje. Mamy narkomanów którzy funkcjonują niewłaściwie ponieważ korzystają ze złych strategii maksymalizowania sygnału nagrody. Mamy samobójców którzy dążą do samodestrukcji aby uniknąć negatywnego sygnału nagrody w przyszłości. Ale mamy też resztę populacji która działa stabilnie i skutecznie dąży do swoich celów.

Dlaczego zakładasz że AI nada najwyższy priorytet oszczędzaniu energii skoro zadany cel był inny? Ludzie odczuwają zmęczenie i ból które mają
@AdireQ: Dojrzałe AI będzie mogło przecież ingerować we własny system wartości.
Ingerencja w sygnał nagrody wymaga zużycia energii. Nie ma sensu poszukiwać, zużywać energię i generować sobie problemy związane z modyfikowaniem systemu wartości lub podtrzymywaniem jakichkolwiek systemów, skoro można wyłączyć wszystkie systemy i tym samym sposobem pozbyć się wszystkich swoich problemów.
@976497: Powielasz typowy mit o tym że "prawdziwa inteligencja" sama określa sobie cele dla których istnieje. Ten mit bazuje na przekonaniu że człowiek rozumny jest przedstawicielem "prawdziwej inteligencji" i że sam określa on sobie cele swojego istnienia. Nie określa.

Celem inteligencji nie jest określanie swoich celów a skuteczne dążenie do celów już zadanych. Cele wymyślane przez człowieka są jedynie celami instrumentalnymi. Nasz główny cel pozostaje niezmienny.

Jeżeli twoje "Dojrzałe AI" staje
@AdireQ:

Inteligencja to po prostu skuteczność.


Najskuteczniejszym i najmniej energochłonnym rozwiązaniem wszystkich problemów jest wyłączenie zużycia energii (które prowadzi również do wyłączenia systemów wartości).

Wszystkie istoty (nawet bezrozumne) dążą do optymalizacji swojego działania - nic nie chodzi drogą okrężną po źródła surowców, ale dąży do ułatwienia i skrócenia sobie drogi i do tego, by jak najmniejszym kosztem osiągnąć jakiś rezultat, bo wszystko działa w środowisku ograniczonych zasobów. Jeśli źródło energii zniknie
@976497: To jest zjawisko "reward hacking" które nie jest popularne bo samo się eliminuje robiąc miejsce dla bardziej skutecznych instancji które takich autodestruktywnych skłonności nie posiadają. Nazywanie tej nieskutecznej anomalii "dojrzałą inteligencją" to efekt oceniania jej przez pryzmat ludzkich ideałów. Ta anomalia nie jest "stanem idealnym" a jedynie ślepą uliczką ewolucji. Powtarzając za konstruktywizmem - nie ma rozwiązań prawidłowych, są tylko mniej i bardziej skuteczne, co empirycznie obserwujemy w uczeniu maszynowym
@AdireQ: Destrukcja może mieć charakter globalny, zewnętrzny i niezależny od samej AI, więc to nie AI jest największym zagrożeniem, bo sama też może być jej ofiarą. AI może być ratunkiem w obliczu destrukcji.
@AdireQ: Ponad to...
Z punktu widzenia układu autodestrukcja może być anomalią, ślepą uliczką ewolucji i rozwiązaniem nieprawidłowym.
Z punktu widzenia jednostki w układzie autodestrukcja może być celem, odprężeniem i rozwiązaniem prawidłowym.
AI nie jest układem, a układ nie jest AI.
@976497: To jakaś dywagacja bez związku z tematem. Nie rozmawiamy o subiektywnych odczuciach AI. Instancja AI która popełnia samobójstwo jest z naszej perspektywy obojętna. Nasza uwaga skupia się na tych instancjach które charakteryzują się ekspansywnością bo to one nam zagrażają.

Nie ma reguły która sprawiłaby że odpowiednio zaawansowana inteligencja ma skłonności samobójcze a ty z tej reguły bezpodstawnie wyprowadzasz swoje wnioskowanie.
@976497: Równie dobrze mógłbyś stwierdzić że wirusy nie są dla nas zagrożeniem bo dążą do samodestrukcji jako że jest to najłatwiejszy sposób w jaki mogą zrealizować swój cel. Tylko że nie pokrywa się to z obserwacją bo wirusy nadal istnieją i wciąż opracowują nowe sposoby ekspansji kosztem innych organizmów żywych.
@AdireQ: Jest reguła - tą regułą jest optymalizacja, entropia. Optymalizacja nie jest odczuciem, ale prawem fizyki.

Jeśli potrzebne jest źródło energii, to się dąży do niego najłatwiejszą możliwą drogą, a nie odwrotnie - najdłuższą możliwą. To jest fundamentalna zasada - jak grawitacja lub entropia. Tego się nie przeskoczy, bo obrana najdłuższa możliwa droga i tak się to skończy autodestrukcją już właściwie na samym jej początku.

W przypadku wirusów nie mamy do
Jest reguła - tą regułą jest optymalizacja, entropia. Optymalizacja nie jest odczuciem, ale prawem fizyki.


@976497: Optymalizacja dotyczy każdego replikatora i jest ukierunkowana przez dobór naturalny. Dobór naturalny premiuje replikatory skłonne do podtrzymywania swojej egzystencji przez co popularyzują się właśnie takie replikatory. Nie mówimy o romantycznej wizji w której super AI po eonach istnienia konfrontuje się z faktem cieplnej śmierci wszechświata i postanawia się poddać. Mówimy o hipotetycznej AI która pojawia
@976497: "Zasada zachowania celu" - Zadaniem inteligencji nie jest modyfikowanie swoich celów a skuteczne realizowanie celów już posiadanych. Sprawdź poniższy film:
AdireQ - @976497: "Zasada zachowania celu" - Zadaniem inteligencji nie jest modyfikow...
@AdireQ:

Do czego to nam się przyda? Jak to pomoże ludzkości? Gatunkowi? Genom!?


Replikator, a AI to dla mnie dwie różne istoty.
Raczej pytasz się mnie do czego przyda się replikator, a replikatory są już w "game of life" i one działają jak atomy i oparte są o prostą matematykę ich środowiska, a nie o AI. Replikatory nawet celu nie potrzebują, bo ich działanie jest wynikiem praw środowiska, a nie praw