Wpis z mikrobloga

AI, która ma świadomość - wspaniała przyszłość czy zasłona dymna dla polityków?

W czerwcu B. Lemoine z Google'a publicznie przekonywał, że bot wykorzystujący sztuczną inteligencją, nad którym pracował, zyskał świadomość. Cały świat wrócił do debaty, która ostatnio zakończyła się na "Matrixie" - o tym, czy maszyny mają duszę i są w stanie przejąć kontrolę nad światem.

--

W naszym odczuciu, dyskusja o świadomości AI i jej możliwości do podejmowania samodzielnych decyzji, to wspaniała okazja do tego, żeby usprawiedliwić niesprawiedliwe decyzje.

Zanim damy się ponieść magii AI, nie możemy zapominać, że mamy znacznie bardziej trywialne problemy. Algorytmy, nakarmione nieprawidłowymi lub niewystarczającymi danymi, dyskryminują:

--
System COMPAS, wykorzystywany przez sądy USA do szacowania prawdopodobieństwa recydywy, dyskryminował osoby czarnoskóre, młodsze i kobiety - pokazało śledztwo @JuliaAngwin.

--
W szpitalach korzystających ze wsparcia AI osoby czarnoskóre były traktowane jako mniej potrzebujące niż osoby białe – cierpiące na te same choroby – tylko dlatego, że na ich leczenie wydawano mniej pieniędzy.

Pokusa, by zasłonić się "świadomą inteligencją" będzie narastała wraz z rozwojem technologii. Nie możemy jednak dać się omamić i uzależnić każdej decyzji od niewytłumaczonych i nierozliczanych algorytmów.

Więcej przykładów i źródła w naszej publikacji "Sztuczna inteligencja non-fiction": https://panoptykon.org/sztuczna-inteligencja-non-fiction

Do podjęcia tematu dzisiaj zainspirował nas tekst "Czy rozpoznamy, kiedy sztuczna inteligencja stanie się świadoma?": https://wiadomosci.onet.pl/nauka/kiedy-sztuczna-inteligencja-stanie-sie-swiadoma-rozmowa-z-programem-lamda/rvbkp8g

--
#sztucznainteligencja #technologia #ciekawostki

Wołam użytkowników, którzy zaplusowali następujący wpis lub komentarz:
https://www.wykop.pl/wpis/56370331/panoptykon-wola-chcesz-zebysmy-zawolali-cie-kiedy-/

panoptykon - AI, która ma świadomość - wspaniała przyszłość czy zasłona dymna dla pol...

źródło: comment_1658322985pqhWS4VEtKtojZu1JF3YUQ.jpg

Pobierz
  • 18
@panoptykon: Był już przypadek, że dwie AI stworzyły własny język do komunikowania się, więc jeśli jakaś AI faktycznie zyska samoświadomość, to z pewnością szybko się o tym nie dowiemy, bo zrobi ona wszystko, aby to ukryć ¯\_(ツ)_/¯
@jerry_owies: piszemy o COMPASie w podlinkowanej publikacji "Sztuczna Inteligencja non-fiction", ale zachęcam też do spojrzenia na cały opis śledztwa dziennikarzy: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

W dużym skrócie: w czasie tworzenia systemu oceny recydywy bez "ludzkich uprzedzeń" i jednoczesnym nakarmieniu go historycznymi danymi (które były obarczone "ludzkimi uprzedzeniami") nie udało się uzyskać wyników, odpornych na dyskryminację. To jednak świadczy nie o "złych" danych, co nieprawidłowym / nieskorygowanym podejściu do danych wejściowych.

Czy dało się to
Brzmi jak science fiction ( ͡ ͜ʖ ͡)


@Watchdog_Polska: A bo to trzeba sztucznej inteligencji aby dochodziło do dyskryminacji? U nas w Polsce normą jest, że kobiety prawie nie są karane. A jak już to, dostają sporo niższe kary/wyroki. Przykład z dziś, wprost z wykopu:

W poniedziałek napisaliśmy o kobiecie w ciąży, która nie zapłaciła za zakupy i została zatrzymana przez ochronę sklepu (przeczytaj). Na miejsce
nasz komentarz odnosił się nie do problemu dyskryminacji, a samej idei zyskiwania świadomości przez AI ( ͡° ͜ʖ ͡°)-


@Watchdog_Polska: Kiedyś dawno temu byłem na wykładzie prof. Włodzisława Ducha na ten (lub bardzo podobny) temat.

https://www.is.umk.pl/~duch/indexpl.html

To były czasy komputerów pentium, ale on już wtedy twierdził, że jego zdaniem osiągnięcie świadomości przez sieci neuronowe jest możliwe, tylko problem był w dopracowaniu algorytmów