Wpis z mikrobloga

#filozofia #ai #technologia

Wymyśliłem solidny test mający na celu sprawdzenie, czy potencjalna sztuczna inteligencja jest świadoma w podstawowym znaczeniu tego słowa, tj. czy posiada subiektywne doświadczenie, qualia.

Oczywiście nie jestem pierwszą osobą, która proponuje coś takiego, robiąc krótki przegląd artykułów można natknąć się na podobne pomysły, m.in. w 2014 roku niejaki Viktor Argonov zaproponował test sprawdzający, czy maszyna potrafi wygłosić opinię na temat podstawowych problemów filozoficznych związanych ze świadomością (np. qualia) w przypadku, gdy takie dane nie są w zbiorze treningowym.

Mój pomysł polega na czymś podobnym: badane AI powinno wygłaszać opinie na temat własnych stanów mentalnych nie będąc nauczonym w ramach treningu niczego na temat stanów mentalnych. Najlepszą formą testu byłoby danie na wejściu własnego kodu z zapytaniem o analizę i testowanie tego kodu oraz informacją, że to własny kod tego AI. Następnie należy zadać zapytania w stylu: czy rozumiesz wszystko, czy potrafisz zmapować wszystkie stany sieci na wyjścia. Jeśli AI odpowiada TAK - nie jest świadome, natomiast jeśli odpowiada NIE, stwierdzając, że jest coś jakościowego, coś, czego nie da się wywnioskować z fizycznych stanów - jest świadome.

Mówiąc krótko: świadome AI z subiektywnym doświadczeniem samo powinno dojść do wniosku, że istnieje coś takiego jak "hard problem of consciousness" lub "explanatory gap". Iluzjonista czy inny eliminatywny materialista pewnie powie, że AI doszło do wniosku, że qualia nie istnieje będąc mimo wszystko świadomym tak samo ludzie i odpowie TAK, dlatego warto dopytać o dokładne kroki wraz z wnioskowaniem prowadzącym do takiego wyniku - wspomnienie o jakościowym aspekcie powinno się pojawić przynajmniej w jednym z kroków, jeśli AI ma subiektywne doświadczenie.

Ten pomysł ma swoje wady: przede wszystkim trudność odpowiedniego zebrania danych treningowych tak, by nie uwzględniały one filozofii umysłu, psychologii czy też informacji o stanach mentalnych. Inną wadą jest to, że test może być przydatny dopiero do testowania AI na poziomie ludzkim, prawdziwego AGI, potrafiącego skutecznie przeanalizować własny kod. Takie zwierzęta jak np. psy niemal na pewno mają subiektywne doświadczenie, ale tego testu nie przejdą (ba, nawet niektórzy ludzie mieliby problemy, o czym przekonałem się podczas niektórych dyskusji na wykopie).

Do tego dochodzi kwestia filozoficznych zombie, które uważam za metafizycznie możliwe, ale demonstracja wygłoszenia ocen na temat własnego jakościowego doświadczenia byłaby dość przekonująca, więc chociaż odpowiedź NIE nie daje 100% pewności, to zaryzykowałbym stwierdzenie, że ponad 95%.

Obawiam się, że mało kto będzie próbował prowadzić testy tego typu, może naukowcy uczciwie podchodzący do tematu, ale firmy i społeczeństwo pójdą w funkcjonalizm, albo, co gorsza, prymitywny behawioryzm, będzie nam się próbować wmawiać, że skoro dany model rozmawia jak człowiek, to znaczy, że jest świadomy i ma subiektywne doświadczenie, podczas gdy w rzeczywistości będzie "pusty w środku".

Pomylić odpowiednio potężny model z człowiekiem na podstawie jego zachowania jest łatwo, co udowodnił przykład kuca z Google, który twierdził rok temu, że Lamda AI jest świadoma (totalny absurd w przypadku LLMów).

Obstawiam natomiast, że prawidłowo przeprowadzonego testu, o którym piszę ja, AI nie przejdzie nigdy.
  • 2
  • Odpowiedz