Aktywne Wpisy
DrFaithless +39
Od 34 minut 30tka na karku. Boże drogi, kiedy to minęło, przecież jak wczoraj pamiętam, gdy na przerwie w gimbazie paliliśmy szlugi za kioskiem i kombinowaliśmy jak tu ogarnąć alko na weekend xd
phaxi +61
nie reguluj monitora
W czerwcu B. Lemoine z Google'a publicznie przekonywał, że bot wykorzystujący sztuczną inteligencją, nad którym pracował, zyskał świadomość. Cały świat wrócił do debaty, która ostatnio zakończyła się na "Matrixie" - o tym, czy maszyny mają duszę i są w stanie przejąć kontrolę nad światem.
--
W naszym odczuciu, dyskusja o świadomości AI i jej możliwości do podejmowania samodzielnych decyzji, to wspaniała okazja do tego, żeby usprawiedliwić niesprawiedliwe decyzje.
Zanim damy się ponieść magii AI, nie możemy zapominać, że mamy znacznie bardziej trywialne problemy. Algorytmy, nakarmione nieprawidłowymi lub niewystarczającymi danymi, dyskryminują:
--
System COMPAS, wykorzystywany przez sądy USA do szacowania prawdopodobieństwa recydywy, dyskryminował osoby czarnoskóre, młodsze i kobiety - pokazało śledztwo @JuliaAngwin.
--
W szpitalach korzystających ze wsparcia AI osoby czarnoskóre były traktowane jako mniej potrzebujące niż osoby białe – cierpiące na te same choroby – tylko dlatego, że na ich leczenie wydawano mniej pieniędzy.
Pokusa, by zasłonić się "świadomą inteligencją" będzie narastała wraz z rozwojem technologii. Nie możemy jednak dać się omamić i uzależnić każdej decyzji od niewytłumaczonych i nierozliczanych algorytmów.
Więcej przykładów i źródła w naszej publikacji "Sztuczna inteligencja non-fiction": https://panoptykon.org/sztuczna-inteligencja-non-fiction
Do podjęcia tematu dzisiaj zainspirował nas tekst "Czy rozpoznamy, kiedy sztuczna inteligencja stanie się świadoma?": https://wiadomosci.onet.pl/nauka/kiedy-sztuczna-inteligencja-stanie-sie-swiadoma-rozmowa-z-programem-lamda/rvbkp8g
--
#sztucznainteligencja #technologia #ciekawostki
Wołam użytkowników, którzy zaplusowali następujący wpis lub komentarz:
https://www.wykop.pl/wpis/56370331/panoptykon-wola-chcesz-zebysmy-zawolali-cie-kiedy-/
@panoptykon: dane nie mogą być złe ani dobre, dane to po prostu dane
Dobre spostrzeżenie! Lepszym słowem byłoby "nieprawidłowymi" albo "niewystarczającymi". Dzięki!
W dużym skrócie: w czasie tworzenia systemu oceny recydywy bez "ludzkich uprzedzeń" i jednoczesnym nakarmieniu go historycznymi danymi (które były obarczone "ludzkimi uprzedzeniami") nie udało się uzyskać wyników, odpornych na dyskryminację. To jednak świadczy nie o "złych" danych, co nieprawidłowym / nieskorygowanym podejściu do danych wejściowych.
Czy dało się to
@jerry_owies: istnieje coś takiego jak cherry picking
@Watchdog_Polska: A bo to trzeba sztucznej inteligencji aby dochodziło do dyskryminacji? U nas w Polsce normą jest, że kobiety prawie nie są karane. A jak już to, dostają sporo niższe kary/wyroki. Przykład z dziś, wprost z wykopu:
@Watchdog_Polska: Kiedyś dawno temu byłem na wykładzie prof. Włodzisława Ducha na ten (lub bardzo podobny) temat.
https://www.is.umk.pl/~duch/indexpl.html
To były czasy komputerów pentium, ale on już wtedy twierdził, że jego zdaniem osiągnięcie świadomości przez sieci neuronowe jest możliwe, tylko problem był w dopracowaniu algorytmów