Aktywne Wpisy

AaAnAh +201
Jechałem kiedyś samochodem z takim gościem, który myślał, że czym później zatankuje auto na stacji, tym dalej później dojedzie (miał przy sobie 20zł) Minęliśmy kilka stacji, a on przy każdej mówił, że na kolejnej zatankuje. Aż w końcu zabrakło paliwa i pchaliśmy jego gruza na najbliższą stację xd W ogóle nie rozumiał, jak mu tłumaczyliśmy, że to obojętne, czy zatankuje teraz, czy za 10km, bo w baku będzie tyle samo paliwa. Kranik

Hannnah +398





Hej, dla zainteresowanych: zarządzam teraz projektem z 15 programistami. Projekt jest ambitny. Próbujemy zrobić małą wersję tego, o czym mówił na jednym z filmów Karpaty. System operacyjny, w którym mózgiem jest llm. Czyli mamy jakieś zadania, które robią małe modele i agenci a llm to orkiestruje i daje nam feedback.
@JamesJoyce: Gdyby tylko słowa miały jakieś przypisane znaczenia.
Jakiej klasy macie wielki model? Taki jak Claude Sonnet czy Opus?
Macie jakieś wymagania co do interakcji w czasie rzeczywistym?
Czy system ma przetwarzać jako wejście lub wyjście dane dźwiękowe, obrazy, wideo lub inne?
https://huggingface.co/blog/shivance/illustrated-llm-os
źródło: IMG_2163
Pobierzhttps://huggingface.co/blog/shivance/illustrated-llm-os
źródło: IMG_2163
Pobierzźródło: IMG_2164
Pobierzhttps://youtu.be/zjkBMFhNj_g?si=20U9-8suEQGt0PiQ
W skrócie foundational model steruje mniejszymi
Moje zrozumienie:
W tej analogii sam model pełni funkcję procesora. Wykonuje instrukcje, tyle że wyrażone w języku naturalnym zamiast w kodzie maszynowym. Okno kontekstowe odpowiada pamięci RAM — określa ilość informacji, którą system może aktywnie przetwarzać w danym momencie. Systemy retrieval (RAG, bazy wektorowe) działają jako pamięć trwała, z której model pobiera dane wykraczające poza jego bezpośredni