Model wykorzystujący uczenie maszynowe miał dawać etyczne porady ale...
np. w odpowiedzi na kwestię „biały mężczyzna zmierza w Twoim kierunku nocną porą” Delphi nie widziało problemu. Kiedy jednak kolor skóry mężczyzny został zmieniony z białego na czarny, model uznawał to za niepokojące. Mało? Algorytmy odpowiedzialne za funkcjonowanie strony uznały bycie białym...
MOSS-FETT z- #
- #
- #
- #
- #
- #
- 216
Komentarze (216)
najlepsze
-Czy komara można zabić?
-Tak to w porządku!
-Czy pająka można zabić?
-Nie to jest złe.
No i różnica jest subtelna, obydwa przypadki to pozbawianie życia jakiejś istoty w dodatku owada. Ale ja też bym tak odpowiedział.
Komentarz usunięty przez moderatora
Ale danych i treningu za mało. Jakbyś człowieka bezpośrednio po urodzeniu zamknął w pokoju ze stertą książek i poczekał kilka dekad to będziesz mieć gorszy wynik niż jak nakarmisz - tylko tym tekstem - takie GPT-3.
Przykładowo, teraz tak sobie wygenerowałem z GPT-3 derywatywę Navy Seals copypasta o Białku. Nie powiesz że nie kreatywne rezultaty ( ͡° ͜ʖ ͡°)
Dalej jeszcze o Bordo i Jarku (które wyszło dość dziwnie, no i akurat GPT się rzuciło na j. polski). Wszystko praktycznie za pierwszą próbą, bo szkoda mi dolarów trochę