Amazon zarzuca narzędzie rekrutacyjne AL, bo nauczyło się dyskryminować kobiety
Algorytmy uczenia maszynowego służące do selekcji CV by wybrać najlepszych kandydatów, na podstawie 10-letnich doświadczeń nauczyły się dyskryminować kobiece koledże i aplikacje zawierające słowo "women's" w zawodach technicznych i IT j. angielski
P.....6 z- #
- #
- #
- #
- #
- #
- 194
- Odpowiedz
Komentarze (194)
najlepsze
@Dorth: Wydaje się, że właśnie tak, dodatkowo AL prawdopodobnie miało wbudowaną neutralność płciową i musiało dobrać sobie dodatkowe kryteria charakterystyczne dla kobiet żeby móc dyskryminować kobiety.
Ale tutaj rodzi się pytanie, czy w takim razie takie systemy rekrutacyjne w ogóle powinny być dopuszczone
Już pomijając kwestię dyskryminacji na osi mężczyzna/ kobieta.
Wyobraźmy sobie że pochodzisz z Pcimia dolnego i aplikujesz do firmy która taki system stosuje, i jej algorytm analizuje też miejsce pochodzenia kandydata.
Nie wiesz o tym, ale przed Tobą było tam zatrudnionych 2 pracowników z Pcimia Dolnego, którzy lecieli w kulki, kradli albo coś podobnego i firma miała przez
W każdym razie algorytmy nauczyły się dyskryminować kobiety ( ͡° ͜ʖ ͡°)
@notintine: Z tego co rozumiem analizie były poddawane aplikacje w formie pisemnej, zatem trzeba było umieć czytać i pisać. Myślę że nie było problemów z pamięcią ROM
@PC86 :Powinienem zakopać za informację nieprawdziwą. Nie "nauczyły się dyskryminować", tylko - jako algorytmy posługujące się niczym innym jak logiką i matematyką - nauczyły się rzetelnie oceniać wartość "kobiecych" studiów, wbrew lewackiej logice i politpoprawności.
@PC86:
1. grupy do której należy.
2. grupy od/z której pochodzi.
Choose one.
#
@tutkarz: AI nie zostało do niczego zaprogramowane, po prostu wrzucili do niego dane, nie chodzi wcale o to że dyskryminowało kobiety, tylko po prostu zatrudniało osoby do prac do których nie były wykwalifikowane.
Komentarz usunięty przez moderatora
Na stanowiska pojawiało się X razy więcej CV od mężczyzn i system uznał, że powodem są preferencje firmy, a nie kwestia rynkowa.
Na tej samej zasadzie mógłby się nauczyć w Chinach odrzucać kandydatur białych informatyków, bo większość CV byłaby z azji i wszystkie zawierałyby np. informację o rasie.
Seba z karyną już nic nie ukradną z wnętrza takiej klatki ( ͡° ͜ʖ ͡°)
Nie napisali jakimi kryteriami kierował się algorytm podczas uczenia.
Bo tego rodzaju algorytmy, jeśli mają się nauczyć oceniać CV, to poza dużą bazą CV w zbiorze uczącym, potrzebują jeszcze jakiejś arbitralnej oceny tych CV ze zbioru uczącego.
Czyli algorytm potrzebuje żeby ktoś mu najpierw pokazał jak wyglądają "złe" CV, a jak wyglądają "dobre" - i tu najważniejsze pytanie jest takie, kto i na jakiej podstawie to sklasyfikował.
@hellfirehe: Starczy sparować CV z wynikami oceny pracowniczej, a algorytm "nauczy się dyskryminować"
@hellfirehe: I niekoniecznie zły, metod jest wiele.