Wpis z mikrobloga

@Xing77: bo biała kobieta statystycznie ma białe dziecko a tu mamy czarne, to tak jak bym wpisał para zakochanych osób co statystycznie dałoby parę hetero a wyskoczyłyby mi geje. Wygląda na celowo zrobione.
  • Odpowiedz
dall-e w bing


@vvobniar: ociebaton. mi za pierwszym razem wygenerowało białą, ciemne dziecko i typiarę w burce (dwie kobiety i ciemne dziecko XD) i drugi "normalny" obrazek, teraz mi zablokowało ponowną próbę ze względu na "niebezpieczną zawartość obrazu"
DEVILLIVED - >dall-e w bing

@vvobniar: ociebaton. mi za pierwszym razem wygenerowało...

źródło: niebezpieczna

Pobierz
  • Odpowiedz
@hadrian3: błędne spostrzeżenie. AI oraz wyszukiwarki grafiki działają na podstawie danych z sieci I tego co jest napisane przy obrazku. Nikt nie opisuje zwykłych zdjęć białej kobiety jako "europejska kobieta". W wyniku tego określenia takie jak "biała" albo "europejska" dają zdjęcia z murzynami. Ponieważ tylko gdy w pobliżu są ludzie innej rasy następuje potrzeba użycia słowa "biała" dla kontrastu.

Podobnie jak wpiszesz w wyszukiwarkę Google "samochód" to wyskoczą zdjęcia profesjonalnych
  • Odpowiedz
@hadrian3: Statystyka wskazuje, że powinna być biała kobieta i białe dziecko. Ale to by było rasistowskie rzecz jasna, z powodu niedostatecznej reprezentacji mniejszości etnicznych ( ͡° ͜ʖ ͡°) dlatego na etapie uczenia modelu (najprawdopodobniej, to moja spekulacja ale oparta na odrobinie wiedzy w temacie) wprowadzono korektę polegającą na wymuszeniu generowania również tych sprawiedliwych społecznie obrazów.
Alternatywnie, model użył danych zeskrapowanych z google grafika, gdzie jak wpiszesz
  • Odpowiedz