Wszystko
Najnowsze
Archiwum
- 0
Pytanie czy internet był w rzeczywiści martwy przed llmami.
@CXLV: Nie wiem nad czym ludzie się spuszczają z Moltbookiem, tam są Himalaje generycznego LLMowego slopu.
- 5
Dzwoniłem przed chwilą do ubezpieczyciela żeby umówić wizytę lekarską i jakie moje zdziwienie było gdzie tym razem zamiast rozmawiać z osobą wrzucili sztuczną inteligencję głosową, no to mowie ze chce rozmawiać z prawdziwym człowiekiem, a ten nalega że nie, że będzie szybciej no to sprawdzam!
5 minut się pałowałem bo zadawał dużo zbędnych pytań a potem jeszcze źle zapisał imię i nazwisko, ta lipna AI się do tego nie nadaje bo nie
5 minut się pałowałem bo zadawał dużo zbędnych pytań a potem jeszcze źle zapisał imię i nazwisko, ta lipna AI się do tego nie nadaje bo nie
Najgorsze jak nie ma do wyboru twojego przypadku lub wpadniesz w niekończącą się pętlę. Bez AI, na czacie z ludźmi lub infolinii, czasami też nie jest wcale lepiej. Nie zliczę ile godzin straciłem na gadaniu z ludźmi i na rozwiązywaniu problemów, które można rozwiązać pstryknięciem palca.
Ostatni mój przypadek:
Wysłano mi zahasłowany plik pdf.
Po godzinie (!) wiszenia na czacie okazało się, że plik nie wysłał operator tylko pośrednik (pośrednik w nazwie
Ostatni mój przypadek:
Wysłano mi zahasłowany plik pdf.
Po godzinie (!) wiszenia na czacie okazało się, że plik nie wysłał operator tylko pośrednik (pośrednik w nazwie
@makrofag74: Ten "Firewall automatycznej sekretarki" (a może "Firewall Aitomatycznej sekretarki") powinien mieć swoją odrębną nazwę, to jest wyjątkowy rak.
#ai #llm #claude #sztucznainteligencja #api
"Jeśli to czytasz, prawdopodobnie wiesz, że plany subskrypcji Claude'a są znacznie lepsze niż API. Ale o ile dokładnie lepsze i jakie są faktyczne limity? Wyciągnąłem dokładne wartości z dwóch niezaokrąglonych liczb zmiennoprzecinkowych i znalazłem kilka istotnych rzeczy. Później wyjaśnię, jak to zrobiłem , ale najpierw wyniki."
https://she-llac.com/claude-limits
Wyobraź sobie, że stoisz przed wyborem: czy płacić za każdą pojedynczą wiadomość
"Jeśli to czytasz, prawdopodobnie wiesz, że plany subskrypcji Claude'a są znacznie lepsze niż API. Ale o ile dokładnie lepsze i jakie są faktyczne limity? Wyciągnąłem dokładne wartości z dwóch niezaokrąglonych liczb zmiennoprzecinkowych i znalazłem kilka istotnych rzeczy. Później wyjaśnię, jak to zrobiłem , ale najpierw wyniki."
https://she-llac.com/claude-limits
Wyobraź sobie, że stoisz przed wyborem: czy płacić za każdą pojedynczą wiadomość
źródło: zoomit
Pobierz@makrofag74: nie da się czytać tego gówna z AI
@helghast: widać że op przycebulił i nie korzystał ze sweet spota
- 24
Siema mirasy,
będzie dzisiaj o tym, co już kilka razy przewinęło, co dało mi to inspirację do napisanie tego wpisu, czyli co się dzieje jak się upowszechniają tanie energetycznie na dłuższą metę działania poprawiające możliwości reprodukcyjne - tak, mam na myśli redpill i jego wersję poprzednią PUA.
W erze cyfrowej to, co miało być „supermocą” dla chłopaków, stało się największym przekleństwem. Redpill i PUA obiecywały prosty układ: naucz się „trzymania ramy”, idź na
będzie dzisiaj o tym, co już kilka razy przewinęło, co dało mi to inspirację do napisanie tego wpisu, czyli co się dzieje jak się upowszechniają tanie energetycznie na dłuższą metę działania poprawiające możliwości reprodukcyjne - tak, mam na myśli redpill i jego wersję poprzednią PUA.
W erze cyfrowej to, co miało być „supermocą” dla chłopaków, stało się największym przekleństwem. Redpill i PUA obiecywały prosty układ: naucz się „trzymania ramy”, idź na
źródło: image (2)
Pobierz@Piwnica-wykop: Poczytaj co on pisze, ja to dostrzegam już od 10 lat mniej więcej jako ex skuteczny redpillowiec. Peklowałem jak p------y na proste zasady - dynamiczniak, brak nadwagi, kasa, ciekawe życie, podróże. Dziś to jest level entry panowie i tu jest pies pogrzebany :)
- 8
@ricco7 Dokładnie tak. To, co opisałeś, to tzw. kontrakcja niszy gdzie jeśli koszt wejścia w transakcję z kimś o niskim SMV przewyższa korzyści, racjonalny gracz (organizm) wybiera opcję "brak transakcji". To tylko pokazuje, że "podatek od bycia przeciętnym" stał się tak wysoki, że rynek na tym poziomie po prostu przestał istnieć. System woli się zwijać, niż obniżyć wymagania. Brutalne? Nie, to po prostu matematyka popytu i podaży (⌐ ͡■
3
ChatGPT oraz LLM proste wytłumaczenie działania [EN]
![ChatGPT oraz LLM proste wytłumaczenie działania [EN]](https://wykop.pl/cdn/c3397993/66d4aaf6be5aaaaf88c85f1ffcfe8862840307bfaee3185b0d5c45ea98f0fc75,w220h142.png)
Artykuł Dennisa Yuricheva przedstawiający ideę działania dużych modeli językowych na przykładzie mechanizmu autouzupełniania z wykorzystaniem łańcuchów Markova. Wymagana znajomość angielskiego oraz podstaw programowania
z- 6
- #
- #
- #
- #
- #
- 2
Ostatnio nic mnie tak nie rozjebuje psychicznie i nerwowo, jak LLMy.
To jest nie do opisania pod jak wieloma zaskakujaącymi względami są one upośledzone.
Wysłano
Politycy to są miłe misie, jeśli chodzi o wywoływanie w----u i załamania, w porównaniu do LLMów.
LLMy to jest niewyczerpane źródło niedowierzania, w----u, załamania, czasem wręcz szoku. xD Po prostu nie wiem czasem co zrobić, pod tak wieloma względami s---------e to jest.
To jest nie do opisania pod jak wieloma zaskakujaącymi względami są one upośledzone.
Wysłano
Politycy to są miłe misie, jeśli chodzi o wywoływanie w----u i załamania, w porównaniu do LLMów.
LLMy to jest niewyczerpane źródło niedowierzania, w----u, załamania, czasem wręcz szoku. xD Po prostu nie wiem czasem co zrobić, pod tak wieloma względami s---------e to jest.
#ai #llm #sztucznainteligencja
Lista najlepszych otwartych modeli. Wersje skwantyzowane (okrojone) 4bit można uruchomić na własnym (niedrogim) PC.
Lista najlepszych otwartych modeli. Wersje skwantyzowane (okrojone) 4bit można uruchomić na własnym (niedrogim) PC.
źródło: open models
Pobierz- 0
- 15
Treść przeznaczona dla osób powyżej 18 roku życia...
Treść przeznaczona dla osób powyżej 18 roku życia...
- 2
@Timer_555: Taka jest natura i jej nie zmienimy - możemy ją tylko opisać i zaakceptować jaki jest teren oraz dostosować swoją mapę do terenu, a nie próbować robić na odwrót jak normiki i się wkurzać dlaczego to nie działa ( ͡º ͜ʖ͡º)
#ai #llm #sztucznainteligencja #codewiki
Agent AI wyjaśniający działanie kodu na podstawie dokumentacji z repo.
Na razie działa tylko na popularnych repozytoriach. Planowane jest dodanie grzebania w prywatnych repo.
https://youtu.be/uP3Y5B_zECw
Agent AI wyjaśniający działanie kodu na podstawie dokumentacji z repo.
Na razie działa tylko na popularnych repozytoriach. Planowane jest dodanie grzebania w prywatnych repo.
https://youtu.be/uP3Y5B_zECw

#ai #llm #sztucznainteligencja
https://github.com/karpathy/llm-council
Idea tego repozytorium polega na tym, że zamiast zadawać pytanie ulubionemu dostawcy oprogramowania LLM (np. OpenAI GPT 5.1, Google Gemini 3.0 Pro, Anthropic Claude Sonnet 4.5, xAI Grok 4, np. c), możesz zgrupować je w swojej „Radzie LLM”. To repozytorium to prosta, lokalna aplikacja internetowa, która zasadniczo przypomina ChatGPT, z tą różnicą, że używa OpenRoutera do wysyłania zapytania do wielu LLM-ów, a następnie prosi
https://github.com/karpathy/llm-council
Idea tego repozytorium polega na tym, że zamiast zadawać pytanie ulubionemu dostawcy oprogramowania LLM (np. OpenAI GPT 5.1, Google Gemini 3.0 Pro, Anthropic Claude Sonnet 4.5, xAI Grok 4, np. c), możesz zgrupować je w swojej „Radzie LLM”. To repozytorium to prosta, lokalna aplikacja internetowa, która zasadniczo przypomina ChatGPT, z tą różnicą, że używa OpenRoutera do wysyłania zapytania do wielu LLM-ów, a następnie prosi
źródło: header
Pobierz@makrofag74: czy od opinii Rady LLM można się odwołać do Trybunału LLM?
Treść przeznaczona dla osób powyżej 18 roku życia...
- 24
Treść przeznaczona dla osób powyżej 18 roku życia...
- 3
@ziomik: Małpy nie lubią najbardziej jak się im coś zabiera, w tym u człowieka to również występuje. Gorzej jest stracić niż samo coś zyskać. Moim zdaniem bierze się to z tego, że wcześniej o wiele trudniej było o zasoby więc strata bolała bardziej
@Quashtan: ludzie śmiali się z przegrywowych urojeń dopóki problem nie zaczął dotyczyć ich samych
#ai #sztucznainteligencja #llm
https://blog.comfy.org/p/official-amd-rocm-support-arrives
Oficjalne wsparcie AMD ROCm™ pojawia się w systemie Windows dla pulpitu ComfyUI
Dzięki tej wersji użytkownicy systemu Windows mogą wreszcie wykorzystać pełną moc obsługiwanych kart graficznych AMD Radeon™ i procesorów Ryzen™ AI, co pozwoli im uzyskać szybszą wydajność i płynniejszą pracę w ramach obiegów pracy ComfyUI.
https://blog.comfy.org/p/official-amd-rocm-support-arrives
Oficjalne wsparcie AMD ROCm™ pojawia się w systemie Windows dla pulpitu ComfyUI
Dzięki tej wersji użytkownicy systemu Windows mogą wreszcie wykorzystać pełną moc obsługiwanych kart graficznych AMD Radeon™ i procesorów Ryzen™ AI, co pozwoli im uzyskać szybszą wydajność i płynniejszą pracę w ramach obiegów pracy ComfyUI.
źródło: 13baea85-3203-4740-b165-47e8ce9bb2ad_2022x1324
Pobierz#ai #sztucznainteligencja #llm
Zadając tak pytanie można zmniejszyć HALUCYNACJE modelu AI od 5-15%:
"According to [Wikipedia/WHO/trusted source], explain [your question]. If the source doesn't provide enough detail, say 'I don't know.'"
po
Zadając tak pytanie można zmniejszyć HALUCYNACJE modelu AI od 5-15%:
"According to [Wikipedia/WHO/trusted source], explain [your question]. If the source doesn't provide enough detail, say 'I don't know.'"
po
źródło: ChatGPT lies to you 27% of the time and you hav
Pobierz- 0
- 0
#ai #sztucznainteligencja #llm #audio #meta #samaudio
Meta wydała świetny model do izolowania dźwięku SAM AUDIO.
https://aidemos.meta.com/segment-anything/editor/segment-audio/
Można sobie wyciąć np. wokal z utworu.
Niestety
Meta wydała świetny model do izolowania dźwięku SAM AUDIO.
https://aidemos.meta.com/segment-anything/editor/segment-audio/
Można sobie wyciąć np. wokal z utworu.
Niestety
źródło: zoomit
Pobierz@makrofag74: Pytanie czy efekt jest dużo lepszy niż za pomocą https://ultimatevocalremover.com/ ?
- 0
@MrAndy: UVR nie testowałem. Testowałem mnóstwo modeli dostępnych za free, żaden jakościowo na razie nie dorównał SAM Audio.
#ai #sztucznainteligencja #llm
Poprzednio wrzuciłem metodę na obliczanie wymaganej pamięci VRAM dla modeli w formacie GGUF,
teraz sztuczka na obliczanie dla modeli w formacie Safetensors:
https://github.com/alvarobartt/hf-mem
Poprzednio wrzuciłem metodę na obliczanie wymaganej pamięci VRAM dla modeli w formacie GGUF,
teraz sztuczka na obliczanie dla modeli w formacie Safetensors:
https://github.com/alvarobartt/hf-mem
źródło: hr
Pobierz#ai #sztucznainteligencja #llm
Ciekawy market z ofertami wynajmu mocy obliczeniowej. Taniej niż w AWS czy Google Colab.
https://cloud.vast.ai/
Bywają czasem nawet serwery z Polski.
Ciekawy market z ofertami wynajmu mocy obliczeniowej. Taniej niż w AWS czy Google Colab.
https://cloud.vast.ai/
Bywają czasem nawet serwery z Polski.
źródło: rent
Pobierz- 1
Dostepne modele najmu:
1. Interruptible (Przerywalny)Jest to najtańsza opcja, działająca na zasadzie licytacji (podobnie jak "Spot Instances" w AWS).Jak to działa: Wynajmujesz maszynę po bardzo niskiej cenie, ale ktoś inny może Cię "przebić", oferując wyższą stawkę za tę samą maszynę.Ryzyko: Jeśli inny użytkownik zaoferuje wyższą cenę, Twoja instancja zostanie natychmiast zatrzymana (preempted), a Ty stracisz do niej dostęp.Zastosowanie: Idealne do zadań, które można łatwo wznowić, np. trenowanie modeli z częstym zapisywaniem punktów kontrolnych
1. Interruptible (Przerywalny)Jest to najtańsza opcja, działająca na zasadzie licytacji (podobnie jak "Spot Instances" w AWS).Jak to działa: Wynajmujesz maszynę po bardzo niskiej cenie, ale ktoś inny może Cię "przebić", oferując wyższą stawkę za tę samą maszynę.Ryzyko: Jeśli inny użytkownik zaoferuje wyższą cenę, Twoja instancja zostanie natychmiast zatrzymana (preempted), a Ty stracisz do niej dostęp.Zastosowanie: Idealne do zadań, które można łatwo wznowić, np. trenowanie modeli z częstym zapisywaniem punktów kontrolnych
- 0
@kwanty: Ciekawa opcja.
1
Ranking GenAI: najlepsze modele językowe do tekstu

Aktualny ranking 150 najlepszych dużych modeli językowych (LLM) do pracy z tekstem. Film bazuje na danych z jednego z najbardziej popularnych serwisów porównujących nowoczesne modele GenAI (w tym GPT-5.2, Gemini 3 Pro, Claude Opus 4.5, Grok 4.1, ERNIE 5.0) w rzeczywistych zadaniach tekstowych.
z- 6
- #
- #
- #
- #
- #
- #
#ai #sztucznainteligencja #llm
Free VRAM Calculator: This Tiny Web App Calculates LLM Memory in Seconds!
This video installs and tests GGUF Metadata Reader to calculate VRAM.
https://youtu.be/k1PheZjZHuE
Free VRAM Calculator: This Tiny Web App Calculates LLM Memory in Seconds!
This video installs and tests GGUF Metadata Reader to calculate VRAM.
https://youtu.be/k1PheZjZHuE

- 1
Mogę uzyskać dostęp do maków desktop typu M3 ultra, czy M4 max. Nie wiem dokładnie które bo na Makach się nie znam, ale widzę że dzięki zunifikowanej pamięci można na nich śmiało odpalać #llm .
Jaka jest teraz najlepsza ścieżka żeby na takim sprzęcie odpalić coś w rodzaju "lokalnego" #cursor? Tak żeby działał z agentami do programowania? Słyszałem o opencode i continue.dev w vscode.
Jakie modele są
Jaka jest teraz najlepsza ścieżka żeby na takim sprzęcie odpalić coś w rodzaju "lokalnego" #cursor? Tak żeby działał z agentami do programowania? Słyszałem o opencode i continue.dev w vscode.
Jakie modele są

















Narzędzie CLI, które w ciągu kilku sekund szacuje wymagania pamięciowe modeli Hugging Face, odczytując jedynie 100 KB metadanych, dzięki czemu nie musisz pobierać gigabajtów danych, aby dowiedzieć się, że Twoja karta graficzna nie jest w stanie ich obsłużyć.
Należy pamiętać, że hf-mem nie przechwytuje jeszcze długości kontekstu dla LLM i VLM, którą można pobrać i oszacować z pola maxposition
źródło: image_1
Pobierz