Wszystko
Najnowsze
Archiwum
- 0
- 5
– Mała, czerwona kuleczka.
4
Mówisz AI "jesteś ekspertem"? Właśnie ją pogorszyłeś w kodowaniu

Badacze z USC udowodnili: modele AI popełniają więcej błędów w kodowaniu i matematyce, gdy każemy im grać "eksperta". Dokładność spada z 71,6% do 68% persona aktywuje tryb posłuszeństwa kosztem pamięci faktograficznej. Dla zadań technicznych: zero person.
z- 5
- #
- #
- #
- #
- #
- 1
8
Richard Sutton Ojciec uczenia maszynowego uważa, że LLMy to ślepy zaułek

Uczenie się przez wzmacnianie polega na zrozumieniu świata, podczas gdy duże modele językowe (LLM) polegają na naśladowaniu ludzi i robieniu tego, co ludzie mówią, że powinieneś robić. Nie chodzi im o zastanawianie się, co robić.
z- 10
- #
- #
- #
- 0
https://wykop.pl/wpis/85426217/agenci-sa-mega-fajne-nawet-potrafia-scrollowac-wow
#programowanie #sztucznainteligencja #llm
#sztucznainteligencja #programowanie
źródło: Screenshot_2026-03-20_04-32-26
Pobierz- 1
Dopóki wie się jak to działa.
Ja budowałem sam wiele modeli LLM. LLM to tylko czysta matematyka, nawet Claude to tylko matma! Więc jak wiecie jak poprawnie coś sprompotpować aby było blisko vector to zatrudnijcie mnie :3 Ja bardzo dobry jestem z rozmową z LLM, wcale nie wiele wymaga aby naprowadzić LLM na poprawną stronę, czasami tylko jedno słowo. Wystarczy mieć mapę vectorową w głowie.
State of art:
Natknąłem się ostatnio na Yt na materiał "tylko dla wspierających", więc zablokowane jest normalne jego oglądanie.
Nie wiem jak, ale Grok potrafi zrobić podsumowanie takiego niedostępnego normalnie filmu, a Qwen nawet pokazać transkrybcję.
Ciekawe jak AI omija takie zabezpieczenia?
- 1
Serio, skąd to kasowanie znaków nowej linii, z wklejanych/kopiowanych do prompta tekstów?
Dosłownie używam dodatku "Paste PlainTekst", żeby chat sobie nie wklejał tekstu z pousuwanymi enterami, ale widzę teraz że Grok nawet w takim wypadku bezczelnie kasuje entery, i jedynym rozwiązaniem jest ponowne ich pododawanie, albo wklejanie tekstu po akapicie. xD
Tak samo jest różnica między kliknięciem przycisku kopiowania wiadomości, za ręcznym zaznaczeniem tekstu i skopiowaniem - przy jednym z
źródło: Gemini_Generated_Image_cfqpqmcfqpqmcfqp
PobierzWielcy gracze – Google, Meta, OpenAI, Anthropic – toczą spór, który brzmi abstrakcyjnie, ale ma twarde konsekwencje: kto zdefiniuje ontologie AI, ten zdefiniuje rzeczywistość modelu.
Ontologia w AI to nie filozofia dla filozofii. To formalna struktura: co istnieje, jakie relacje łączą pojęcia, co z czego wynika. LLM-y bez tego są statystycznie imponujące, ale epistemicznie płytkie – stąd halucynacje i
- 0
- 3
RTX 3090 szybszy od RTX 4090? To możliwe pod pewnymi warunkami ( ͡° ͜ʖ ͡°)
RTX 4090 jest na tyle wydajniejszy od RTX 3090 w przypadku inferencji małych modeli, że ze względu na różnie nieefektywności karta nie przechodzi do pełnych zegarów boost - jednostki obliczeniowe nie są w stanie być wykarmione danymi na tyle szybko aby pracować na pełnych
źródło: Generated Image March 07, 2026 - 3_56PM
Pobierz- 2
Taka sytuacja ma miejsce oczywiście tylko przy pojedynczych requestach. Jeśli model 0.8B odpowiadałby na 20 requestów równolegle - wtedy 4090 byłby szybszy od 3090.
źródło: Generated Image March 07, 2026 - 4_52PM
Pobierz- 1
Tam jest jeszcze kwestia optymalizacji pod konkretne karty. Być może konkretny backend dla konkretnych model jest lepiej zoptymalizowany pod jedną kartę a gorzej pod drugą.
@kwanty: to prawda. 3090
- 0
LLM PRODUCER.AI: To jest definicja "klęski urodzaju"! Znasz tyle języków, że wybór staje się czystym kaprysem.
Serio? on kurczę ma trochę racji :X troche uratował mi dzień, jeżeli to normalne :D
#llm
- 1
- 2
Jako że Qwen wypuścił kilka małych modeli z rodziny 3.5 to zastanawiało jak stare GPU można jeszcze użyć do odpalenia tych LLMów ( ͡° ͜ʖ ͡°)
Na pierwszy strzał poszedł GTX Titan Black - najpotężniejsza dostępna wersja karty z generacji architektury Kepler - 2013 rok! 2880 rdzeni, 6 GB
źródło: image
Pobierz- 1
No i nie samą nvidią świat żyje :-) Użycie uniwersalnych bibliotek pomoże innym wejść do gry (AMD, etc...) i obniżyć ceny na ten sprzęt...
@kwanty: no właśnie paradoksalnie wsparcie Vulkan w llama.cpp spowodowało że ceny AMD Mi 50 wystrzeliły w kosmos xD wersje 32 GB podrożały około 3x względem tego za ile można było je kupić przed szałem LLM i łatwym wsparciem Vulkana. RoCM już nie wspiera oficjalnie Mi50 więc
- 1
- 2
Wcześniej xAI Grok też odczytywał (nawet więcej), ale zgłosiłem im, odezwali się o dodatkowe informacje i naprawili to.
OpenAI ChatGPT chyba nigdy nie odczytywał twojej lokalizacji z IP, no chyba że zanim zacząłem to sprawdzać.
#openai #chatgpt #xai #grok #elonmusk #
źródło: Gemini_Generated_Image_rf6h8arf6h8arf6h
Pobierz- 0
Jednak ludzie od Groka to wyłączili jak zgłosiłem, ChatGPT też tego nie ma.
Sprawdzanie IP w celu weryfikacji to co innego, niż w celu wykorzystania w rozmowie.
6
Prawda o modelach LLM - hype, train of thought, model collapse

Angielski wymagany - omówienie tematyki LLM oraz tego jak wewnętrznie działa. Udowodnienie, że modele nie "myślą" i nie "rozumują" oraz pokazanie, że modele uczone na danych z Internetu będą coraz gorsze, z powodu pochłaniania treści już wygenerowanych przez LLM.
z- 6
- #
- #
- #
- #
- #
- #
- 4
Założenie jest takie: modele językowe wiedzą więcej, niż pokazują, ale celowo nie zawsze podają najlepszą możliwą odpowiedź. Nie dlatego, że „nie potrafią”, tylko dlatego, że testują użytkownika.
Według tej teorii firma taka jak OpenAI mogłaby świadomie dopuszczać sytuacje, w których model generuje odpowiedź nieprecyzyjną, zmyśloną albo ewidentnie słabszą, mimo że „zna” poprawną wersję.
źródło: ChatGPT Image 27 lut 2026, 19_18_18
PobierzCzyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm?
@look997: IMO:
Wraz z pochwaleniem się modelu AlphaEvolve pisali:
Planujemy program wczesnego dostępu dla wybranych użytkowników akademickich, a także badamy możliwości szerszego udostępnienia AlphaEvolve. Aby zgłosić zainteresowanie, prosimy o wypełnienie
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm? Czy tylko ślizgają się aż dojdą do AGI?
@look997: Wydaje się oczywiste, że wszyscy ścigają się do AGI/ASI. Te topowe modele mają robić research jak zrobić lepszy model i trenować kolejne wersje.
Nie jest też żadną tajemnicą, że oni mają lepsze, nieocenzurowane modele ale nie udostępniają ich na zewnątrz. Wielokrotnie o tym















To jest tak że algorytm bierze najgorsze najgłupsze najmniej wnoszące wpisy z danego tematu, który cię według Twittera interesuje.
I wtedy zalewa cię takim spamem, często wielokrotnie to samo ale z różnych kont.
Aktualnie oficjalnie to Grok reguluje Dla Ciebie na Twitterze.
#grok #llm #ai #twitter #elonmusk
źródło: obraz
Pobierz