Wpis z mikrobloga

#ai #llm #sztucznainteligencja
https://github.com/karpathy/llm-council

Idea tego repozytorium polega na tym, że zamiast zadawać pytanie ulubionemu dostawcy oprogramowania LLM (np. OpenAI GPT 5.1, Google Gemini 3.0 Pro, Anthropic Claude Sonnet 4.5, xAI Grok 4, np. c), możesz zgrupować je w swojej „Radzie LLM”. To repozytorium to prosta, lokalna aplikacja internetowa, która zasadniczo przypomina ChatGPT, z tą różnicą, że używa OpenRoutera do wysyłania zapytania do wielu LLM-ów, a następnie prosi ich o wzajemną ocenę i ocenę prac, po czym przewodniczący LLM generuje ostateczną odpowiedź.

Mówiąc bardziej szczegółowo, oto co się dzieje, gdy wysyłasz zapytanie:

Etap 1: Pierwsze opinie . Zapytanie użytkownika jest kierowane indywidualnie do wszystkich LLM-ów, a odpowiedzi są gromadzone. Poszczególne odpowiedzi są wyświetlane w widoku zakładkowym, dzięki czemu użytkownik może je wszystkie przeglądać pojedynczo.
Etap 2: Przegląd . Każdy absolwent studiów magisterskich (LLM) otrzymuje odpowiedzi od pozostałych absolwentów. Tożsamości absolwentów studiów magisterskich (LLM) są anonimowe, aby nie faworyzować nikogo przy ocenie ich wyników. Absolwent studiów magisterskich (LLM) jest proszony o ich uszeregowanie pod względem dokładności i wnikliwości.
Etap 3: Odpowiedź ostateczna . Wyznaczony przewodniczący Rady LLM zbiera wszystkie odpowiedzi modelu i łączy je w jedną, ostateczną odpowiedź, która jest prezentowana użytkownikowi.
makrofag74 - #ai #llm #sztucznainteligencja
https://github.com/karpathy/llm-council

...

źródło: header

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach