Otóż jest coraz więcej nadziei w tym, że wsrazanie ai wszędzie, gdzie się da nie będzie takie proste. Mamy taki przypadek:
Sąd Najwyższy Connecticut zmierzy się po raz pierwszy z problemem, który zalewa sądy w całym kraju - fałszywymi cytatami prawnymi wygenerowanymi przez AI.
Sprawa






















Wskaźniki halucynacji AI i benchmarki modeli w 2026 roku
https://suprmind.ai/hub/ai-hallucination-rates-and-benchmarks/
Szybkie wnioski
Najniższy wskaźnik halucynacji (zadania dotyczące wiedzy): Claude 4.1 Opus - 0% na AA-Omniscience (model odmawia odpowiedzi, gdy nie jest pewien)
Ale wniosek z tego jest taki:
- Albo obydwa testy są do kitu, i nie mierzą poprawnie halucynowania modeli AI, w sensie - nie pokazują, które modele najmniej halucynują.
- Albo tylko jeden z tych testów jest do kitu.
Różne wyniki na tych samych modelach AI nie mogą być poprawne, w sensie wskazujące poprawnie - które modele najmniej halucynują.