Ćwiczenie intelektualne.

AI nie ma problemu z halucynacjami. Ma problem z niekompletnym Gödlem.
Każdy płacze że GPT “halucynuje”. Ale nikt nie pyta DLACZEGO.
Odpowiedź jest piękna i przerażająca: LLM to system, który nauczył się kompresować dystrybucję prawdopodobieństwa nad przestrzenią wszystkich możliwych sekwencji tokenów. Nie “myśli” - interpoluje w manifoldzie.
Kiedy pytasz “kto wygrał mundial 2026”, model nie “kłamie”. On próbuje znaleźć najbardziej prawdopodobną kontynuację w jego reprezentacji świata. A w jego latent space istnieje trajektoria
  • 10
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Dlaczego postrzegamy, tak jak postrzegamy? J. Kevin O'Regan

Dlaczego czerwony nie wygląda jak zielony? Lub dlaczego nie słyszymy go jak dźwięk dzwonu? Dlaczego ból boli? Wykład stanowi próbę podania sposobu, jak tzw. trudne problemy nauk kognitywnych uczynić prostymi. Według Kevina O'Regana świadomość percepcyjna nie jest czymś wyłącznie generowanym przez mózg, lecz jest sposobem interakcji ze światem. W takim podejściu można podać wyjaśnienie, dlaczego nasze wrażenia mają taką a nie inną postać oraz
m.....a - Dlaczego postrzegamy, tak jak postrzegamy? J. Kevin O'Regan

Dlaczego czerw...
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach