Jeżeli ktoś przechodzi z cursor na antigravity i chce context7, to musicie zrobić custom zapytanie za pomocą bun: Ciągle LLM nie mógł się połąnczyć, dopiero teraz działa, bo antigravity jeszcze nie ma oficjalnego wsparcia.
Czy jest jakiś limit na Claude Opus 4.5 gdy płace przez Google (Antigravity)? Ja dosłownie teraz rozmawiam z nim zamiast pracować, bo już wszystko co chciałem wykonał. :x W sumie pewnie dla heheszków dodali też model GPT-OSS 120B, tylko dosłownie mamy go za darmo w DDG xD
Dawniej płaciłem $20 za sam głupi ChatGPT, potem za Claude, teraz płace za sam Google AI i mam dostęp do każdego modelu, wraz z Claude
Chyba prawie jestem na celu zbudowania idealnego AI, mój interfejs do AI dosłownie nic nie zapisuje w UI, AI ma być proste, zero historii, tylko otwiera się i się pyta o coś, a AI powinno wiedzieć kim jestem, co lubię etc, dzięki RAG i google/embeddinggemma-300m, mały model ale działa perfekcyjnie, dosłownie zapisuje fakty o mnie w postgres-pgvector i póżniej porównuje, nawet nie liczy się w jakim języku napisany został, ważny aby były
Kurczę, właśnie otworzyły mi się oczy! Cały czas próbowałem finetunnigować JEDEN model, aby robił kilka rzeczy, ale to robi wtedy bardzo ciekawe wyniki. Więc czemu nie zrobić kilka modeli które robią jedną rzecz ale dobrze?
PS. Moim celem jest stworzenie narzędzia gdzie najmniejszy model może robić to samo co największy
Właśnie odpaliłem własny finetunnig model w llama-cpp, teraz to pokazuje dosłownie, czemu to co robie jest lepsze niż jeden model do wszystkiego, czyli trenować jeden model tylko do jednego zadania! W sumie już RWKV lepiej by zrobił to, bez syntax errors. To sprawia, że wtedy mamy serwis AI taki lekki, że nawet na prostym laptopie się odpali.
Kurczę, właśnie otworzyły mi się oczy! Cały czas próbowałem finetunnigować JEDEN model, aby robił kilka rzeczy, ale to robi wtedy bardzo ciekawe wyniki. Więc czemu nie zrobić kilka modeli które robią jedną rzecz ale dobrze?
PS. Moim celem jest stworzenie narzędzia gdzie najmniejszy model może robić to samo co największy
Kurczę, właśnie otworzyły mi się oczy! Cały czas próbowałem finetunnigować JEDEN model, aby robił kilka rzeczy, ale to robi wtedy bardzo ciekawe wyniki. Więc czemu nie zrobić kilka modeli które robią jedną rzecz ale dobrze?
PS. Moim celem jest stworzenie narzędzia gdzie najmniejszy model może robić to samo co największy model. I chyba mi się udało, teraz LLM (ministral 3B) jak zobaczy że user chce np. Mermaid diagram, to nie tworzy sam (owszem potrafi, ale
Claude Opus 4.5 (Thinking) to mistrzostwo! Nawet samo sprawdza wizualnie, otwiera przeglądarkę, scrolluje w miejsce i nawet klika, co jest dość ciekawe, bo potrafi nawet kliknąć idealnie w miejsce gdzie przycisk jest widoczny dopiero on hover, a opus po prostu jednym ruchem prosto na przycisk naprawradza klika i robi sobie screenshot by przeanalizować. Wiec jak to działa? Opus wie gdzie kliknąć, wie jak przewijać stronę, ale musi zrobić screenshot strony i przeanalizować?
@aptitude to klikanie w przeglądarce mnie rozwaliło. Chciałem zescrapowac jakieś dane, cloude wszedł na stronkę, rozejrzał się jak człowiek, później przeanalizował htmla żeby wiedzieć które elementy zbierać... Dla mnie to magia, i zgadzam się w 100% z Twoją ocena modeli.
🧠 Sprawdźcie RWKV – ciekawa alternatywa dla Transformerów
Trafiłem ostatnio na coś, co może zainteresować fanów AI – RWKV (czyt. „RwaKuv”). To model, który łączy moc LLM-ów z prostotą RNN-ów, ale bez ich historycznych ograniczeń.
Kurcze, ten chatgpt 5.1 pro jest dobry, bardzo dobry, aż boje się powiedzięc, ale lepszy od gemini 3 pro? :C KURCZE, przestańmy robić banchmarki miedzy LLMs, każdy LLM jest spoko, nawet SmolLLM wiec dajmy sobie spokój