• [1] Zrozumienie halucynacji w LLM-ach
Bywa, że duże modele językowe generują odpowiedzi, które wyglądają na prawdziwe, ale są niepoprawne – to zjawisko nazywane jest "halucynacją." Jednak nie wszystkie halucynacje są takie same. Nowa publikacja Distinguishing Ignorance from Error in LLM Hallucinations wyróżnia dwa typy halucynacji:
- te wynikające z rzeczywistego braku wiedzy
- oraz te, które występują mimo posiadania poprawnych informacji przez model.












#wroclaw #jedzenie71