Wpis z mikrobloga

#sztucznainteligencja

Znaleźli adversarial examples na GPT-2 / GPT-3. Niektóre słowa wyekstrachowane z modelu powodują generowanie dziwnych odpowiedzi. Model zachowuje się tak jakby nie mógł wypowiedzieć złośliwego słowa. Miga się, nie słyszy słowa, obraża rozmówce.

Link
AdireQ - #sztucznainteligencja

Znaleźli adversarial examples na GPT-2 / GPT-3. Niekt...

źródło: n1nnhvvekunbdrjfeu2l

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach