Aktywne Wpisy

majnazwyczajna +53
Treść przeznaczona dla osób powyżej 18 roku życia...

Janusz_Lubikwasa +80
#wroclaw
Pozdrawiam kierowców, ja dzisiaj auto zostawiłem w domu.
Byle 10cm śniegu spadło, a miasto sparaliżowane. Drogi nieodśnieżone, to kierowcy jadą 20 km/h i tworza się kilometrowe korki.
Ale wydajmy kolejne 10 mln zł na Śląsk, bo przecież gdybyśmy zrobili to na utrzymanie miasta to byłoby to trwonienie pieniędzy ( ͡° ͜ʖ ͡°)
Pozdrawiam kierowców, ja dzisiaj auto zostawiłem w domu.
Byle 10cm śniegu spadło, a miasto sparaliżowane. Drogi nieodśnieżone, to kierowcy jadą 20 km/h i tworza się kilometrowe korki.
Ale wydajmy kolejne 10 mln zł na Śląsk, bo przecież gdybyśmy zrobili to na utrzymanie miasta to byłoby to trwonienie pieniędzy ( ͡° ͜ʖ ͡°)





https://github.com/karpathy/llm-council
Idea tego repozytorium polega na tym, że zamiast zadawać pytanie ulubionemu dostawcy oprogramowania LLM (np. OpenAI GPT 5.1, Google Gemini 3.0 Pro, Anthropic Claude Sonnet 4.5, xAI Grok 4, np. c), możesz zgrupować je w swojej „Radzie LLM”. To repozytorium to prosta, lokalna aplikacja internetowa, która zasadniczo przypomina ChatGPT, z tą różnicą, że używa OpenRoutera do wysyłania zapytania do wielu LLM-ów, a następnie prosi ich o wzajemną ocenę i ocenę prac, po czym przewodniczący LLM generuje ostateczną odpowiedź.
Mówiąc bardziej szczegółowo, oto co się dzieje, gdy wysyłasz zapytanie:
Etap 1: Pierwsze opinie . Zapytanie użytkownika jest kierowane indywidualnie do wszystkich LLM-ów, a odpowiedzi są gromadzone. Poszczególne odpowiedzi są wyświetlane w widoku zakładkowym, dzięki czemu użytkownik może je wszystkie przeglądać pojedynczo.
Etap 2: Przegląd . Każdy absolwent studiów magisterskich (LLM) otrzymuje odpowiedzi od pozostałych absolwentów. Tożsamości absolwentów studiów magisterskich (LLM) są anonimowe, aby nie faworyzować nikogo przy ocenie ich wyników. Absolwent studiów magisterskich (LLM) jest proszony o ich uszeregowanie pod względem dokładności i wnikliwości.
Etap 3: Odpowiedź ostateczna . Wyznaczony przewodniczący Rady LLM zbiera wszystkie odpowiedzi modelu i łączy je w jedną, ostateczną odpowiedź, która jest prezentowana użytkownikowi.
źródło: header
Pobierz