Ćwiczenie intelektualne.
AI nie ma problemu z halucynacjami. Ma problem z niekompletnym Gödlem.
Każdy płacze że GPT “halucynuje”. Ale nikt nie pyta DLACZEGO.
Odpowiedź jest piękna i przerażająca: LLM to system, który nauczył się kompresować dystrybucję prawdopodobieństwa nad przestrzenią wszystkich możliwych sekwencji tokenów. Nie “myśli” - interpoluje w manifoldzie.
Kiedy pytasz “kto wygrał mundial 2026”, model nie “kłamie”. On próbuje znaleźć najbardziej prawdopodobną kontynuację w jego reprezentacji świata. A w jego latent space istnieje trajektoria
AI nie ma problemu z halucynacjami. Ma problem z niekompletnym Gödlem.
Każdy płacze że GPT “halucynuje”. Ale nikt nie pyta DLACZEGO.
Odpowiedź jest piękna i przerażająca: LLM to system, który nauczył się kompresować dystrybucję prawdopodobieństwa nad przestrzenią wszystkich możliwych sekwencji tokenów. Nie “myśli” - interpoluje w manifoldzie.
Kiedy pytasz “kto wygrał mundial 2026”, model nie “kłamie”. On próbuje znaleźć najbardziej prawdopodobną kontynuację w jego reprezentacji świata. A w jego latent space istnieje trajektoria


















Facet, który dorobił się fortuny na PayPalu, żeby potem sponsorować każdy możliwy libertariański mokry sen o “disrupcji demokracji”. Zero sumie, ale gość jest archetypem tego przeintelektualizowanego dupka, który myśli, że skoro zarobił kasę na startupie, to ma patent na prawdę absolutną.
Czym nas uraczył:
-