Algorytm przewidując przestępstwa wskazuje głównie czarne i latynoskie dzielnice
Najczęściej unikając białych. Tytuł oryginalny: "Oprogramowanie przewidujące przestępstwa miało być wolne od uprzedzeń. Nowe dane pokazują, że je utrwala". Bez względu na stopień trafności prognoz i odzwierciedlania stanu faktycznego w stronę twórców programu kierowane są oskarżenia o dyskryminację.
KawaJimmiego z- #
- #
- #
- #
- #
- #
- 164
Komentarze (164)
najlepsze
Algorytm został zlikwidowany, bo był zbyt rasistowski ( ͡° ͜ʖ ͡°)
o cie uj xDD
Komentarz usunięty przez moderatora
Komentarz usunięty przez moderatora
@hamuj_sie_hamuj_sie: teraz jest to nazywane rasizmem ( ͡° ͜ʖ ͡°)
jak widać nawet pozbawione emocji komputery, algorytmy i matematyka są już rasistowskie
Statystyki, liczby, dokumenty mogą być w 100% prawidłowe, ale i tak zostaną uznane za rasistowskie xD. Oczywiście zostaną uznane za rasistowskie przez samych rasistów widzących wszędzie rasizm, nawet tam, gdzie go nie ma.
@BDLK_IMPRTR: niby tak, ale nie do końca. Wśród bogatych czarnych wskaźnik przestępstw/zabójstw dalej jest wyższy, niż wśród bogatych białych, wg FBI...
Czego to lewarki nie wymyślą.
A sprawa jest o tyle zabawne, ze metody analizy czynnikowej, które tutaj nazywa się AI tym różnią się od klasycznych procedur badawczych, że z góry niczego nie zakładają, szukają jedynie zależności w zbiorach danych w sposób najbardziej obiektywny z możliwych, więc nie może być mowy o żadnych uprzedzeniach,
A swoją drogą co da przewidzenie, że w danej dzielnicy wydarzy się przestępstwo? Przecież poziom przestępczości w danej okolicy widać bez żadnych algorytmów.
Twórcy programu twierdzą, że nie bierze pod uwagę rasy, a korelacji z rasą dopatrzyli się autorzy artykułu ( ͡° ͜ʖ ͡°)