#ai #llm #sztucznainteligencja #huggingface
Narzędzie CLI, które w ciągu kilku sekund szacuje wymagania pamięciowe modeli Hugging Face, odczytując jedynie 100 KB metadanych, dzięki czemu nie musisz pobierać gigabajtów danych, aby dowiedzieć się, że Twoja karta graficzna nie jest w stanie ich obsłużyć.
Należy pamiętać, że hf-mem nie przechwytuje jeszcze długości kontekstu dla LLM i VLM, którą można pobrać i oszacować z pola maxposition
makrofag74 - #ai #llm #sztucznainteligencja #huggingface
Narzędzie CLI, które w ciągu...

źródło: image_1

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Dzwoniłem przed chwilą do ubezpieczyciela żeby umówić wizytę lekarską i jakie moje zdziwienie było gdzie tym razem zamiast rozmawiać z osobą wrzucili sztuczną inteligencję głosową, no to mowie ze chce rozmawiać z prawdziwym człowiekiem, a ten nalega że nie, że będzie szybciej no to sprawdzam!
5 minut się pałowałem bo zadawał dużo zbędnych pytań a potem jeszcze źle zapisał imię i nazwisko, ta lipna AI się do tego nie nadaje bo nie
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Najgorsze jak nie ma do wyboru twojego przypadku lub wpadniesz w niekończącą się pętlę. Bez AI, na czacie z ludźmi lub infolinii, czasami też nie jest wcale lepiej. Nie zliczę ile godzin straciłem na gadaniu z ludźmi i na rozwiązywaniu problemów, które można rozwiązać pstryknięciem palca.
Ostatni mój przypadek:
Wysłano mi zahasłowany plik pdf.
Po godzinie (!) wiszenia na czacie okazało się, że plik nie wysłał operator tylko pośrednik (pośrednik w nazwie
  • Odpowiedz
#ai #llm #claude #sztucznainteligencja #api
"Jeśli to czytasz, prawdopodobnie wiesz, że plany subskrypcji Claude'a są znacznie lepsze niż API. Ale o ile dokładnie lepsze i jakie są faktyczne limity? Wyciągnąłem dokładne wartości z dwóch niezaokrąglonych liczb zmiennoprzecinkowych i znalazłem kilka istotnych rzeczy. Później wyjaśnię, jak to zrobiłem , ale najpierw wyniki."

https://she-llac.com/claude-limits

Wyobraź sobie, że stoisz przed wyborem: czy płacić za każdą pojedynczą wiadomość
makrofag74 - #ai #llm #claude #sztucznainteligencja #api 
"Jeśli to czytasz, prawdopo...

źródło: zoomit

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Siema mirasy,
będzie dzisiaj o tym, co już kilka razy przewinęło, co dało mi to inspirację do napisanie tego wpisu, czyli co się dzieje jak się upowszechniają tanie energetycznie na dłuższą metę działania poprawiające możliwości reprodukcyjne - tak, mam na myśli redpill i jego wersję poprzednią PUA.

W erze cyfrowej to, co miało być „supermocą” dla chłopaków, stało się największym przekleństwem. Redpill i PUA obiecywały prosty układ: naucz się „trzymania ramy”, idź na
Quashtan - Siema mirasy,
będzie dzisiaj o tym, co już kilka razy przewinęło, co dało ...

źródło: image (2)

Pobierz
  • 22
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Piwnica-wykop: Poczytaj co on pisze, ja to dostrzegam już od 10 lat mniej więcej jako ex skuteczny redpillowiec. Peklowałem jak p------y na proste zasady - dynamiczniak, brak nadwagi, kasa, ciekawe życie, podróże. Dziś to jest level entry panowie i tu jest pies pogrzebany :)
  • Odpowiedz
  • 8
@ricco7 Dokładnie tak. To, co opisałeś, to tzw. kontrakcja niszy gdzie jeśli koszt wejścia w transakcję z kimś o niskim SMV przewyższa korzyści, racjonalny gracz (organizm) wybiera opcję "brak transakcji". To tylko pokazuje, że "podatek od bycia przeciętnym" stał się tak wysoki, że rynek na tym poziomie po prostu przestał istnieć. System woli się zwijać, niż obniżyć wymagania. Brutalne? Nie, to po prostu matematyka popytu i podaży ( ͡
  • Odpowiedz
Ostatnio nic mnie tak nie rozjebuje psychicznie i nerwowo, jak LLMy.
To jest nie do opisania pod jak wieloma zaskakujaącymi względami są one upośledzone.
Wysłano
Politycy to są miłe misie, jeśli chodzi o wywoływanie w----u i załamania, w porównaniu do LLMów.

LLMy to jest niewyczerpane źródło niedowierzania, w----u, załamania, czasem wręcz szoku. xD Po prostu nie wiem czasem co zrobić, pod tak wieloma względami s---------e to jest.
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • Doceń
  • 2
@Timer_555: Taka jest natura i jej nie zmienimy - możemy ją tylko opisać i zaakceptować jaki jest teren oraz dostosować swoją mapę do terenu, a nie próbować robić na odwrót jak normiki i się wkurzać dlaczego to nie działa ( ͡º ͜ʖ͡º)
  • Odpowiedz
#ai #llm #sztucznainteligencja
https://github.com/karpathy/llm-council

Idea tego repozytorium polega na tym, że zamiast zadawać pytanie ulubionemu dostawcy oprogramowania LLM (np. OpenAI GPT 5.1, Google Gemini 3.0 Pro, Anthropic Claude Sonnet 4.5, xAI Grok 4, np. c), możesz zgrupować je w swojej „Radzie LLM”. To repozytorium to prosta, lokalna aplikacja internetowa, która zasadniczo przypomina ChatGPT, z tą różnicą, że używa OpenRoutera do wysyłania zapytania do wielu LLM-ów, a następnie prosi
makrofag74 - #ai #llm #sztucznainteligencja
https://github.com/karpathy/llm-council

...

źródło: header

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 3
@ziomik: Małpy nie lubią najbardziej jak się im coś zabiera, w tym u człowieka to również występuje. Gorzej jest stracić niż samo coś zyskać. Moim zdaniem bierze się to z tego, że wcześniej o wiele trudniej było o zasoby więc strata bolała bardziej
  • Odpowiedz
#ai #sztucznainteligencja #llm
https://blog.comfy.org/p/official-amd-rocm-support-arrives

Oficjalne wsparcie AMD ROCm™ pojawia się w systemie Windows dla pulpitu ComfyUI

Dzięki tej wersji użytkownicy systemu Windows mogą wreszcie wykorzystać pełną moc obsługiwanych kart graficznych AMD Radeon™ i procesorów Ryzen™ AI, co pozwoli im uzyskać szybszą wydajność i płynniejszą pracę w ramach obiegów pracy ComfyUI.
makrofag74 - #ai #sztucznainteligencja #llm
https://blog.comfy.org/p/official-amd-roc...

źródło: 13baea85-3203-4740-b165-47e8ce9bb2ad_2022x1324

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
Dostepne modele najmu:

1. Interruptible (Przerywalny)Jest to najtańsza opcja, działająca na zasadzie licytacji (podobnie jak "Spot Instances" w AWS).Jak to działa: Wynajmujesz maszynę po bardzo niskiej cenie, ale ktoś inny może Cię "przebić", oferując wyższą stawkę za tę samą maszynę.Ryzyko: Jeśli inny użytkownik zaoferuje wyższą cenę, Twoja instancja zostanie natychmiast zatrzymana (preempted), a Ty stracisz do niej dostęp.Zastosowanie: Idealne do zadań, które można łatwo wznowić, np. trenowanie modeli z częstym zapisywaniem punktów kontrolnych
  • Odpowiedz
Mogę uzyskać dostęp do maków desktop typu M3 ultra, czy M4 max. Nie wiem dokładnie które bo na Makach się nie znam, ale widzę że dzięki zunifikowanej pamięci można na nich śmiało odpalać #llm .

Jaka jest teraz najlepsza ścieżka żeby na takim sprzęcie odpalić coś w rodzaju "lokalnego" #cursor? Tak żeby działał z agentami do programowania? Słyszałem o opencode i continue.dev w vscode.

Jakie modele są
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach