• [1] Zrozumienie halucynacji w LLM-ach
Bywa, że duże modele językowe generują odpowiedzi, które wyglądają na prawdziwe, ale są niepoprawne – to zjawisko nazywane jest "halucynacją." Jednak nie wszystkie halucynacje są takie same. Nowa publikacja Distinguishing Ignorance from Error in LLM Hallucinations wyróżnia dwa typy halucynacji:
- te wynikające z rzeczywistego braku wiedzy
- oraz te, które występują mimo posiadania poprawnych informacji przez model.












https://webzero.pl/koniec-wyszukiwarek-openai-przedstawia-chatgpt-search-ktory-sam-przeszukuje-internet-i-wkracza-na-sciezke-autonomii/
#sztucznainteligencja #chatgpt #technologia #openai #ainews #aiart #artificialintelligence
źródło: OpenAI-przedstawiaw-ChatGPT-Search
Pobierz