Wow, nawet ChatGPT 5.2 nie wygrał z Stockfish. WOW. Jak stockfish zrobił, że jest taki dobry w szachy? Nawet RWKV specjalnie wytrenowany do gry w szachy (historie gier najlepszych graczy z lichess) nie wygrał z Stockfish.
@aptitude: No kurła, żodyn się tego nie spodziewał ( ͡°( ͡°͜ʖ( ͡°͜ʖ͡°)ʖ͡°) ͡°) Soft, który zgaduje jaki token jest najbardziej prawdopodobny na podstawie tego jakie tokeny widział wcześniej przegrał z softtem, który jest rozwijany co najmniej od 15 lat i jest mieszanką wszystkiego co tylko przyszło ludzkości do głowy.
Hehe, uczę Claude o samym sobie. Własnie zobaczyłem, że też używają RAG jak ja w swoim lokalnym LLM xD. Czasami aż zapominam, że wie, że jestem programistą xD
Podczas snu mam ciągle ten jedne prompt, który jakby generuje cały świat? Czy manipulacja czasem jest prawdziwa? To nie pierwszy raz jak śniłem o tym. I czuje w śnie, że mogę manipulować czasem :o
Za bardzo nie pamiętam tego kodu, ale syntax przypominał kod pythona. Co jest mega dziwne. Bo ja wole JavaScript/TS...
Chyba zaczynam być "ekspertem" do LLM, tenuje własne modele LLM/RNN, ale dosłownie śnie o promtach czy też raportuje każdy błąd na producer.ai, co ciekawe ja z automatu dziś rano napisałem prompt tak z automatu po angielsku gdzie nawet nie pamiętam już go za bardzo... Ale to była litania dosłownie według mojego stylu gdzie dosłownie trłumaczyłem LLM Opus 4.5 jak ma wyglądać app. zrobiło idealnie! Chyba promtowanie to nowy język programowania? Gdy używacie standardowych
Zdaliście sobie sprawę, że ChatGPT, to jedyny model, o którym nic nie wiemy? Bo nie jets OpenSource? W sumie, ile on może mieć parametrów? z 1T? Jak Kimi czy Claude? Nawet ministral udostępniło włansy model, kimi k2 także, tylko to około ~600GB Q4?/Q8 quantizimired. Ministral za to jest super! maks 32B i dosłownie na swoim PC można uruchomić! + 2 GB VRAM do ścieżka LLM do wiedzy z treningu (pierwszy model który
Troche podkradłem dataset z pierwszego treningu modelu RWKV, ale na gpt-neo nawet lepiej działa. Od czasu do czasu pokazuje "**************", gdzie RWKV nigdy takiego problemu nie miało w sumie... ciekawe.. mój data set: https://gist.github.com/skorotkiewicz/4f1b4dbbde61312423d5710e1314c825 (wygenerujcie za pomocą mojego skryptu) python makedata.py jsonpassword
W sumie aż sam zauważyłem, coś jest nie tak z ChatGPT, za to Claude Opus 4.5 to już dosłownie magia i chyba najlepszy model dostępny obecnie a na drugim miejscu Gemini Pro 3, tylko Gemini bardzo lubi "głośno" myśleć, Czyli dosłownie pisze Ci całą litanię w kodzie jako komentarz xD Claude Opus za to jest idealny!
Dodałem VibeVoice dla swojego LLM Chat :D Microsoft nawet doda kilka nowych głosów, a wiecie co jest ciekawe, jak czyta tekst po angielsku z polskim głosem, to pięknie czyta ale z akcentem, fajne to! tutaj mój prosty api server + react hooks dla prostoty: https://github.com/skorotkiewicz/vibevoice-api-server i oczywiście oficjalny projekt: https://github.com/microsoft/VibeVoice
Jeżeli ktoś przechodzi z cursor na antigravity i chce context7, to musicie zrobić custom zapytanie za pomocą bun: Ciągle LLM nie mógł się połąnczyć, dopiero teraz działa, bo antigravity jeszcze nie ma oficjalnego wsparcia.
Czy jest jakiś limit na Claude Opus 4.5 gdy płace przez Google (Antigravity)? Ja dosłownie teraz rozmawiam z nim zamiast pracować, bo już wszystko co chciałem wykonał. :x W sumie pewnie dla heheszków dodali też model GPT-OSS 120B, tylko dosłownie mamy go za darmo w DDG xD
Dawniej płaciłem $20 za sam głupi ChatGPT, potem za Claude, teraz płace za sam Google AI i mam dostęp do każdego modelu, wraz z Claude
Chyba prawie jestem na celu zbudowania idealnego AI, mój interfejs do AI dosłownie nic nie zapisuje w UI, AI ma być proste, zero historii, tylko otwiera się i się pyta o coś, a AI powinno wiedzieć kim jestem, co lubię etc, dzięki RAG i google/embeddinggemma-300m, mały model ale działa perfekcyjnie, dosłownie zapisuje fakty o mnie w postgres-pgvector i póżniej porównuje, nawet nie liczy się w jakim języku napisany został, ważny aby były
Kurczę, właśnie otworzyły mi się oczy! Cały czas próbowałem finetunnigować JEDEN model, aby robił kilka rzeczy, ale to robi wtedy bardzo ciekawe wyniki. Więc czemu nie zrobić kilka modeli które robią jedną rzecz ale dobrze?
PS. Moim celem jest stworzenie narzędzia gdzie najmniejszy model może robić to samo co największy
Właśnie odpaliłem własny finetunnig model w llama-cpp, teraz to pokazuje dosłownie, czemu to co robie jest lepsze niż jeden model do wszystkiego, czyli trenować jeden model tylko do jednego zadania! W sumie już RWKV lepiej by zrobił to, bez syntax errors. To sprawia, że wtedy mamy serwis AI taki lekki, że nawet na prostym laptopie się odpali.
Kurczę, właśnie otworzyły mi się oczy! Cały czas próbowałem finetunnigować JEDEN model, aby robił kilka rzeczy, ale to robi wtedy bardzo ciekawe wyniki. Więc czemu nie zrobić kilka modeli które robią jedną rzecz ale dobrze?
PS. Moim celem jest stworzenie narzędzia gdzie najmniejszy model może robić to samo co największy
Jak stockfish zrobił, że jest taki dobry w szachy?
Nawet RWKV specjalnie wytrenowany do gry w szachy (historie gier najlepszych graczy z lichess) nie wygrał z Stockfish.
#programowanie