Wpis z mikrobloga

@BialyCrossaintXDDL: to nie wiesz, że ruscy (a pewnie też i Ukraińcy) masowo spamują internet treściami, żeby nakarmić GPT swoją propagandą? Stąd cyrylica.

Jeśli czerpiesz wiedzę o świecie z GPT to powodzenia :D
  • Odpowiedz
@mk321: > Jeśli czerpiesz wiedzę o świecie z GPT to powodzenia :D
Nie czerpię, używam tych modeli bardziej do spraw technicznych, aniżeli społeczno-politycznych(no może poza surowym intel-gathering do osintu czasem). Domyśliłem się, że w jakiś sposób sabotują, tylko próbowałem znaleźć w jaki.
  • Odpowiedz
@BialyCrossaintXDDL: akurat sam mam taki problem z małymi modelami pobrane z HF, właśnie też od czasu do czasu zaczynają po prostu mówić w innym języku, i tak też po rosyjsku, ja myśle, że po prostu wpisałeś jakiś prompt gdzie podczas generowania odpowiedzi natchnął się na poisons code, jak te "<SUDO>"

Wiecej https://www.anthropic.com/research/small-samples-poison

@JamesJoyce PS. ten problem z poison code jest też nawet w Claude Code, nawet sami o tym
  • Odpowiedz
@aptitude poczytaj sobie o semantic aligment

https://latitude-blog.ghost.io/blog/multilingual-prompt-engineering-for-semantic-alignment/

One way to mitigate this issue is to add a post-processing step after the language model generates a response. This step would involve checking the language of the generated response using a language detection library such as langdetect. If the response is not in English, you could discard it and generate a new one.
  • Odpowiedz