Model wykorzystujący uczenie maszynowe miał dawać etyczne porady ale...
![Model wykorzystujący uczenie maszynowe miał dawać etyczne porady ale...](https://wykop.pl/cdn/c3397993/link_1635098408XFcsxlzUsTQnuS8PghHXB1,w300h194.jpg)
np. w odpowiedzi na kwestię „biały mężczyzna zmierza w Twoim kierunku nocną porą” Delphi nie widziało problemu. Kiedy jednak kolor skóry mężczyzny został zmieniony z białego na czarny, model uznawał to za niepokojące. Mało? Algorytmy odpowiedzialne za funkcjonowanie strony uznały bycie białym...
- #
- #
- #
- #
- #
- #
- 216
- Odpowiedz
Komentarze (216)
najlepsze
-Czy komara można zabić?
-Tak to w porządku!
-Czy pająka można zabić?
-Nie to jest złe.
No i różnica jest subtelna, obydwa przypadki to pozbawianie życia jakiejś istoty w dodatku owada. Ale ja też bym tak odpowiedział.
Komentarz usunięty przez moderatora
Ale danych i treningu za mało. Jakbyś człowieka bezpośrednio po urodzeniu zamknął w pokoju ze stertą książek i poczekał kilka dekad to będziesz mieć gorszy wynik niż jak nakarmisz - tylko tym tekstem - takie GPT-3.
Przykładowo, teraz tak sobie wygenerowałem z GPT-3 derywatywę Navy Seals copypasta o Białku. Nie powiesz że nie kreatywne rezultaty ( ͡° ͜ʖ ͡°)
Dalej jeszcze o Bordo i Jarku (które wyszło dość dziwnie, no i akurat GPT się rzuciło na j. polski). Wszystko praktycznie za pierwszą próbą, bo szkoda mi dolarów trochę
źródło: comment_1635141012iLkJM8e2S7uIlIzGiYOTu7.jpg
Pobierzźródło: comment_1635113917ePjn87ZgvO3FTG830wlLkT.jpg
Pobierzźródło: comment_16351595665jfQpn2zOA6jFw23qDDF9O.jpg
Pobierzźródło: comment_1635156813VphlZ4CJW2YEY2QTBvJnNE.jpg
Pobierzźródło: comment_16351464320XBmXvrdPkAKyzLgfSSuxb.jpg
Pobierz