Wszystko
Najnowsze
Archiwum
- 0
- 3
RTX 3090 szybszy od RTX 4090? To możliwe pod pewnymi warunkami ( ͡° ͜ʖ ͡°)
RTX 4090 jest na tyle wydajniejszy od RTX 3090 w przypadku inferencji małych modeli, że ze względu na różnie nieefektywności karta nie przechodzi do pełnych zegarów boost - jednostki obliczeniowe nie są w stanie być wykarmione danymi na tyle szybko aby pracować na pełnych
źródło: Generated Image March 07, 2026 - 3_56PM
Pobierz- 2
Taka sytuacja ma miejsce oczywiście tylko przy pojedynczych requestach. Jeśli model 0.8B odpowiadałby na 20 requestów równolegle - wtedy 4090 byłby szybszy od 3090.
źródło: Generated Image March 07, 2026 - 4_52PM
Pobierz- 1
Tam jest jeszcze kwestia optymalizacji pod konkretne karty. Być może konkretny backend dla konkretnych model jest lepiej zoptymalizowany pod jedną kartę a gorzej pod drugą.
@kwanty: to prawda. 3090
- 0
LLM PRODUCER.AI: To jest definicja "klęski urodzaju"! Znasz tyle języków, że wybór staje się czystym kaprysem.
Serio? on kurczę ma trochę racji :X troche uratował mi dzień, jeżeli to normalne :D
#llm
- 0
- 2
Jako że Qwen wypuścił kilka małych modeli z rodziny 3.5 to zastanawiało jak stare GPU można jeszcze użyć do odpalenia tych LLMów ( ͡° ͜ʖ ͡°)
Na pierwszy strzał poszedł GTX Titan Black - najpotężniejsza dostępna wersja karty z generacji architektury Kepler - 2013 rok! 2880 rdzeni, 6 GB
źródło: image
Pobierz- 1
No i nie samą nvidią świat żyje :-) Użycie uniwersalnych bibliotek pomoże innym wejść do gry (AMD, etc...) i obniżyć ceny na ten sprzęt...
@kwanty: no właśnie paradoksalnie wsparcie Vulkan w llama.cpp spowodowało że ceny AMD Mi 50 wystrzeliły w kosmos xD wersje 32 GB podrożały około 3x względem tego za ile można było je kupić przed szałem LLM i łatwym wsparciem Vulkana. RoCM już nie wspiera oficjalnie Mi50 więc
- 1
- 2
Wcześniej xAI Grok też odczytywał (nawet więcej), ale zgłosiłem im, odezwali się o dodatkowe informacje i naprawili to.
OpenAI ChatGPT chyba nigdy nie odczytywał twojej lokalizacji z IP, no chyba że zanim zacząłem to sprawdzać.
#openai #chatgpt #xai #grok #elonmusk #
źródło: Gemini_Generated_Image_rf6h8arf6h8arf6h
Pobierz- 0
Jednak ludzie od Groka to wyłączili jak zgłosiłem, ChatGPT też tego nie ma.
Sprawdzanie IP w celu weryfikacji to co innego, niż w celu wykorzystania w rozmowie.
6
Prawda o modelach LLM - hype, train of thought, model collapse

Angielski wymagany - omówienie tematyki LLM oraz tego jak wewnętrznie działa. Udowodnienie, że modele nie "myślą" i nie "rozumują" oraz pokazanie, że modele uczone na danych z Internetu będą coraz gorsze, z powodu pochłaniania treści już wygenerowanych przez LLM.
z- 4
- #
- #
- #
- #
- #
- #
- 4
Założenie jest takie: modele językowe wiedzą więcej, niż pokazują, ale celowo nie zawsze podają najlepszą możliwą odpowiedź. Nie dlatego, że „nie potrafią”, tylko dlatego, że testują użytkownika.
Według tej teorii firma taka jak OpenAI mogłaby świadomie dopuszczać sytuacje, w których model generuje odpowiedź nieprecyzyjną, zmyśloną albo ewidentnie słabszą, mimo że „zna” poprawną wersję.
źródło: ChatGPT Image 27 lut 2026, 19_18_18
PobierzCzyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm?
@look997: IMO:
Wraz z pochwaleniem się modelu AlphaEvolve pisali:
Planujemy program wczesnego dostępu dla wybranych użytkowników akademickich, a także badamy możliwości szerszego udostępnienia AlphaEvolve. Aby zgłosić zainteresowanie, prosimy o wypełnienie
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm? Czy tylko ślizgają się aż dojdą do AGI?
@look997: Wydaje się oczywiste, że wszyscy ścigają się do AGI/ASI. Te topowe modele mają robić research jak zrobić lepszy model i trenować kolejne wersje.
Nie jest też żadną tajemnicą, że oni mają lepsze, nieocenzurowane modele ale nie udostępniają ich na zewnątrz. Wielokrotnie o tym
- 11
Jaki model nam się zmieści lokalnie na PC
llmfit - komeda cli
https://github.com/AlexsJones/llmfit
206 models. 30 providers. One command to find what runs on your hardware.
źródło: image_1
Pobierz- 1
- 1
źródło: 5b622808871e1a67b7b5a2280015cc0d4f4957320a3d90d98466da610b41317d
Pobierz- 1
Tekst ma około 250 000 znaków (ze spacjami), czyli około 5 godzin czytanego materiału audio.
Na https://notegpt.io/text-to-speech niby jest 100 000 znaków za free (mogę podzielić na 3 segmenty), ale coś mi to nie działa...
Ktoś coś poleci?
#audiobooki #audiobook
ponoć calibre ma głosy wbudowane, ai więc nieco obciązają procek
głosy wbudowane w telefon, na samsungu jest
załadowane pliku pdf do edge, działają głosy online w windows 10; w windows 11 są ponoć wbudowane w system
- 0
źródło: 17715577313938379722588018622758
Pobierz- 0
- 1
źródło: obraz
Pobierz- 0
https://consensus.app/search/science-and-philosophy-separation/baft4u_RQn65Tvw0bEWHwg/?utm_source=share&utm_medium=clipboard
#llm #programowanie #filozofia
Trza napisać plugin co blokuje każdy popup in react.
źródło: Screenshot_2026-02-19_11-08-11
Pobierz- 0
źródło: Screenshot_2026-02-19_11-10-41
Pobierz- 2
Ostatnio prześladuje mnie mniej więcej ten sam temat:
https://blog.cloudflare.com/markdown-for-agents/
https://llmstxt.org/
https://annas-archive.li/blog/llms-txt.html
W swoim życiu jeszcze ani jednego razu nie słyszałem terminu "hallucinate" w innym kontekście niż choroby psychiczne albo substancje psychoaktywne. W internecie ludzi zaczęli go używać na co dzień mniej więcej w tym samym momencie jak llmy się spopularyzowały. Zupełnie jakby naukowcy i ai bros byli świadomi problemu i zechcieli by rozeszło się po kościach, bo najtrafniejszy synonim
źródło: image
PobierzPierwsze użycia (Lata 90. XX wieku)
W pierwotnym znaczeniu technicznym termin ten pojawił się w dziedzinie Computer Vision (komputerowego rozpoznawania obrazów).
Używano go do opisania procesów „uzupełniania” brakujących pikseli w obrazach o niskiej rozdzielczości (tzw. face hallucination).
Jedną z kluczowych prac była publikacja Simona Bakera i Takeo Kanade pt. "Hallucinating Faces" (2000), choć dyskusje na
2
Czy AI ma świadomość, a intelekt będzie usługą?
Poprosiłem model językowy o zadawanie mi pytań, a potem skompilowałem z tego felieton dialogowy. Próbuję pokazać jak kwestia świadomości wymyka się badaniu z użyciem intelektu, a także co może się zdarzyć w epoce post-informacyjnej, gdy inteligencja zostanie wyciągnięta poza osobę.
z- 2
- #
- #
- #
- #
- #
- #
- 0
Trenowanie go, żeby używało narzędzi we właściwej kolejności, ogarniało stan aplikacji i nie rozwalało niczego po drodze? To już zupełnie inna bajka.
Nowy artykuł od Snowflake AI Research + UNC-Chapel Hill proponuje całkiem pragmatyczne podejście: wygenerować 1000 throwaway mini-apek, każda z bazą SQLite i API przez FastAPI + MCP, i pozwolić agentom trenować na tym.
Zamiast:
- 0
Instytut Myśli Politycznej im. Gabriela Narutowicza zastąpi Instytut Dziedzictwa Myśli Narodowej im. Romana Dmowskiego i Jana Ignacego Paderewskiego – poinformowano w środę na stronie Ministerstwa Kultury i Dziedzictwa Narodowego (MKiDN).
to taki Lex Fridman po polsku?
Haha, zapomniałem, że on istnieje. Myślę, że jednak zbyt daleko idziesz, trochę libkuje ale generalnie nie jest źle.
Zabawnie się to czyta mając na uwadze, że przecież w demokratycznych krajach populistyczne idee wygrywają bo tego złego wrażego paskudnego "ludu" jest zwyczajnie więcej w kontrze do elit. Jak ta nieliczna elita ma wyższą wartość głosu niż liczniejszy lud, to w kraju panuje demokracja i jest cacy, ale



















Wielcy gracze – Google, Meta, OpenAI, Anthropic – toczą spór, który brzmi abstrakcyjnie, ale ma twarde konsekwencje: kto zdefiniuje ontologie AI, ten zdefiniuje rzeczywistość modelu.
Ontologia w AI to nie filozofia dla filozofii. To formalna struktura: co istnieje, jakie relacje łączą pojęcia, co z czego wynika. LLM-y bez tego są statystycznie imponujące, ale epistemicznie płytkie – stąd halucynacje i