Algorytmy stają się rasistami i seksistami
![Algorytmy stają się rasistami i seksistami](https://wykop.pl/cdn/c3397993/link_KNDoVE7WStSsUliRmsXBy2n0jsdhX0Yn,w300h194.jpg)
W Idaho komputery zdecydowały o obniżeniu wysokości wypłacanych zasiłków z systemu Medicaid dla 4 tys. niepełnosprawnych. Algorytmy Amazona z góry uznały, że wdrożenie usługi Prime nie ma sensu w dzielnicach zamieszkanych głównie przez mniejszości rasowe.
![Zawulon](https://wykop.pl/cdn/c3397992/Zawulon_0r9AGeIdhj,q52.jpg)
- #
- #
- #
- #
- #
- #
- 143
- Odpowiedz
Komentarze (143)
najnowsze
@Miszka_Fisznan: a u nas nie? Teoretycznie obowiązuje taki zapis Konstytucji:
Art. 32. Zasada równości obywatela wobec prawa
1. Wszyscy są wobec prawa równi. Wszyscy mają prawo do równego traktowania przez władze publiczne.
2. Nikt nie może być dyskryminowany w życiu politycznym, społecznym lub gospodarczym z jakiejkolwiek przyczyny.
Co
Martwe przepisy. Ponadto łamane przez samo państwo.
Np. wiek emerytalny jest różny dla kobiet i mężczyzn. Ubezpieczenie samochodu jest wyższe dla młodszych itd.
Maja jakolwiek dowod w postaci fragmentu jakiegos kodu, ktory dzili ludzi ze wzgledu na plec czy rase? A moze zeznania jakiegos autora algorytmu?
Chyba jakas feministka lub inny malo myslacy podmiot pisal ten artykul
Może jasno należy powiedzieć co znaczy w tym zdaniu "uprzedzenie na tle rasy". Jestem na 90% pewny, że czytający to sądzi, że algorytm sprawdza czy ktoś jest czarny i na tej podstawie dostaje -100 do expa. Podczas gdy działa to w drugą stronę - systemy sumują różne dane, wskazują osobę X jako nie
@megan_: to powiedz, jakie wyniki osiągnie algorytm, gdy będzie operował na rzeczywistych danych dotyczących przestępczości i rasy/pochodzenia etnicznego w USA? Kogo wytypuje jako podejrzanego, mając do wyboru bialego, czarnego i żółtego?
AI nie wie co to kolor chyba, że w twoim równaniu factorem będzie
W taki żeby kierować się logiką, nie uprzedzeniem czy dystansem "bo czarny", "bo homo" itp.
Dla AI człowiek to zbiór cech, a im więcej niepożądanych zmiennych, tym większa szansa że AI odbierze go jako czynnik wrogi, który w zależności od protokołów trzeba albo wyeliminować, albo izolować lub obserwować z uwagą.
Progresywna lewica dostaje szału, bo myśli emocjami i dla nich emocje są
Różne rzeczy modeluje się w różny sposób i prawdopodobnie używany model po prostu jest nieprawidłowy.
@kurczaczak: tyle że białe dzielnice są faworyzowane, jeśli model ma na celu wyszukać dzielnice