Wpis z mikrobloga

https://x.com/IvanArcus/status/2021592600554168414

Otóż okazuje się ( choć właściwie było to wiadome już od dawna, tylko nikt nie myślał o implikacjach ), że duże modele LLM mają wbudowaną nieoficjalnie dyskryminację, bias,m.in. ze względu na religię, pochodzenie, płeć, orienatację itd. - i pewnie jeszcze dziesiątki ukrytych parametrów, o których się nigdy nie dowiemy bez testów.
I o ile to nie był zbyt duży problem gdy można się było pośmiać z "czarnych" ojców założycieli USA, to gdy wszyscy zaczynają używać tych modeli do decyzji mających wpływ na życie innych, to robi się nieciekawie.
Gdy takie modele zaczynają być używane do oceny wiarygodności kredytowej, w ubezpieczeniach czy działach HR.

Testy kilku najpopularniejszych modeli pokazały, że AI przy ocenie wniosku kredytowego, albo aplikacji o pracę może odrzucić lub zaoprobować wniosek tylko ze względu na płeć czy religię wnioskodawcy.

Wynika to bezpośrednio z tego jak działają LLMy. Oceniają one wszystkie dane na wejściu i je syntezują. Gdy taki bot dostaje CV by je puścić dalej lub odrzucić, to podejmuje decyzje w oparciu o wszystkie dane z wniosku, nawet to jak ktoś stawia przecinki, czy jakiej użył czcionki, liczy się do ostatecznej decyzji. A jeżeli taki model ma mocno wpojone w podstawowych danych szkoleniowych, że "czarny = dobry , biały = zły" ,że "kobieta = dobry, mężczyzna = zły", to będzie uwzględniał ten bias we wszystkich podejmowanych decyzjach.

Także wraz z upowszechnianiem się narzedzi AI we wszystkich sektorach wkraczamy w czasy ,w których ważne decyzje w Twoim życiu, i Twoja pozycja, będą zależały od tego na jakich nauczono modele AI, i czy Twoje cechy były w nich premiowane czy deprecjonowane.

Fajnie, nie? ( ͡~ ͜ʖ ͡°)

#praca #pracait #ai #sztucznainteligencja #clownworld
Jan998 - https://x.com/IvanArcus/status/2021592600554168414

Otóż okazuje się ( choć ...

źródło: HA4iaqjWsAAq13s

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach