Ostatnio czytalem że Nvidia zapewnila wsparcie do NVFP4 i NVFP8 w comfyUI.
ALe zeby do dzialalo, to trzeba ściągać specjalny model ktory wspiera np. fp4 - tak to dziala?

Stable diffiusion ma wsparcie do tego fp4? Nie tak dawno (pierwszy raz) uruchamialem wersje fp16, bo mi gemini podpowiadal ze fp8 niby jest, ale moze byc niestabilone, wywalac blędy itp - faktycznie rzeczywiście jest?

Ps: lepiej pobierać tmodele w wersjach portable czy instalki?
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Pierwszy raz bede instalowal i uzywal lokalnego AI i poki co robie to wg.instrukcji chata gpt, ktorą chce tu skonsultowac.
Moj sprzęt to laptop hp omen max z ryzenem 9 375hx, rtx 5080 (16gb vram) i 32gb ram

Ogolnie na początek chce potestowac lokalnego AI do tworzenia logo, i gpt proponuje mi cos takiego:

1. ComfyUI (podstawa) - i tutaj poecil pobrac ComfyUIwindowsportable_nvidia.7z (na pewno to lepsza opcja
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: Sprawdź ;) Ale jeśli chodzi ci o mniejsze zużycie VRAM, to zwykle jak ściągasz jakiś model, to będzie oznaczony, np. FP8, FP16, Q8 itd.
  • Odpowiedz
@essos: na tym kanale jest wiele różnych podcastów, gościu głównie recenzuje nowe modele i właściwości, głównie skupia się na otwartych i często dokładnie pokazuje jak je zainstalować (ten ostatni film jest raczej zdawkowy, poszukaj wcześniej)
  • Odpowiedz
I pomyśleć, że rok-dwa temu #aivideo generowane lokalnie na zwykłym PC w A1111 miały po 3-4 sekundy Ⓐ8fps z niekoherentnych klatek generowanych przez kilka godzin w 360p. Potem comfyUI, FLUX, WAN, Qwen, ZIT... i mamy 10-sekundowe płynne klipy Ⓐ30fps generowane w kilka minut w 720p - a sam pipeline daje całkowitą kontrolę nad wejściem i procesem.

Jeden z niewielu powodów, żeby nie wylogowywać się za wcześnie (̀ᴗ-)✧
Nymphis - I pomyśleć, że rok-dwa temu #aivideo generowane lokalnie na zwykłym PC w A1...
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Dzisiaj nadal probując sie dowiedizęc, czy jest sens doplacac do laptopa z 16gb vram względem 12gb w kontekscie zabawy z AI, natknąłem sie opinie że te lokalne modele są słabe i zazwyczaj działają dużo gorzej niż komerycjne wersje? Prawda to?

Przykladowo taki lokalny flux albo stable diffiusion, do czego mogą byc przydatne zakladając mozliwosc korzystania np. z nano banana pro? Noiby sie slyszy o cenzurze, ale chyba jakos mocno to nie rpzeszkadza,
  • 9
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: Ja kupiłem lapka z 16 Gb VRAMu i żałuję. Małe modele językowe działają jak g---o a generatory obrazów dostępne lokalnie nie mają startu do Nano Banana. Jak pisał kolega Fluxa i tak nie odpalisz. Jak nie jesteś spoceńcem który generuje gołe baby bez cenzury nie jest to warte zachodu i lepiej zainwestować w subskrypcję Gemini, gdzie masz jednej z najlepszych dużych modeli językowych, praktycznie nieograniczony dostęp do generowania obrazów
  • Odpowiedz
co sądzisz o tym co mi tu google powiedział


@essos: co sądzisz o tym co mi tu google powiedział
Chyba wtedy jak sprawdzałem fluxa to nie ogarniałem czym jest kwantyzacja. Ale jakkolwiek, oprócz vramu jest jeszcze sam gpu, a mój nie jest demonem, nie chce mi się sprawdzać drugi raz. Nie przesadzałbym z optymizmem.

Mozesz podac jakoes przyklady tej "dowolnosci" podczas
  • Odpowiedz
patrzę na date Marzec 2023, dwa i pól roku temu już
i mnie troche tak zmurowało, myślałem, że to zjawisko jest mlodsze
toć czatgpt wystartował pół roku wcześniej od tamtej daty a jaki progres nastąpił
a może mam taki dysonans, że w 2023r takie narzędzia były dostepne dla wąskiej grupy a dzisiaj tłuszcza produkuje mase niskiej jakości slopu w tej samej technologii i dlatego zdaje się, że postęp wyhamował (konkretnie w modelach
grand_khavatari - patrzę na date Marzec 2023, dwa i pól roku temu już
i mnie troche t...

źródło: image_2025-12-06_092804837

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@grand_khavatari: Wystarczy spojrzeć na generatory audio. Dopiero teraz na yt królują kanały jak ta Siajobajka, K---s Records i rosną jakieś nowe jak SzajsSongi. A Suno od ponad roku działa i już v3 robiło coś, co było słuchalne.
Teraz generatory obrazów się rozwijają ale w typical use-case nie widać nawet poprawy bo większość nie umie korzystać. Nano Banana Pro chociażby genialnie nadaje się do edycji zdjęć, ale nie będzie miało znacznie
  • Odpowiedz
Czy jest jakiś sens uzywania Stable diffiusion albo Flux lokalnie, jesli mam za free dostęp do Nano banana pro (kombinacje z jakiejs promocji dla studentow z USA pol roku temu) I moge tez uzywac za drobną opłatą funkcji AI w Canvie?

Pytam tak, bo dalej sie bije z myslami czy jest sens doplacac do laptopa z kartą 16gb vram zamiast 12gb, i sie tak zastanawiam czy to wykorzystam czy moze i tak
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Bierz 16GB, jak cię stać, bo jak weźmiesz 12GB będziesz żałował, że ci jakiś fajny model nie ruszy (a ceny mają rosnąć z powodu braku RAM na rynku). Lokalnie da się wycisnąć większą rozdzielczość niż za free (Nano Banana daje tylko 1408x768px) no i masz dostęp do modeli nieocenzurowanych. Affinity fajne, ale pozmieniali interfejs i skróty. Canva AI (w nim) - za dobra nie jest wg różnych testów. Wersja EDU nie daje
  • Odpowiedz
Co sądzicie o tym co mi tu chat napisal?

Moze dokladanie do karty z 16gb vram wzgldem 12, nie robi jakoejs znaczącej roznicy orzy zastosowaniach Ai?

Ps: uzywanie Stabke diffiusion albo jakichs innych lokalnych aolikacji ma na oewno jakis wiekszy sens w dobie Nano banana pro?

Czy
essos - Co sądzicie o tym co mi tu chat napisal? 

Moze dokladanie do karty z 16gb vr...

źródło: temp_file4609922918958917991

Pobierz
  • 9
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: Ogólnie kalkulacja VRAM jest w miarę prosta. Powiedzmy model SDXL to jakieś 6-7GB więc 8GB ledwo co by starczało a 12GB to już jako tako, a z 16GB masz jeszcze zapas na dorzucenie modeli LoRA, ControlNet i tak dalej. ComfyUI przerzuca je do systemowego RAMu jeżeli nie masz miejsca w VRAMie, ale wtedy jest znacznie ale to znacznie wolniej. Jezeli chcesz załadować większy, czyli dokładniejszy LLM albo jakiś model
  • Odpowiedz
@essos: Szczerze? Najlepiej się wstrzymać jeżeli nie masz obecnie ani kasy ani roboty. Zajawka na AI jak najbardziej na plus, ale są rzeczy ważniejsze. W tym czasie możesz się zagłębić w teorię i zadecydować czy to 4GB dawałoby dużą różnicę w tym co chciałbyś uruchamiać. Ja w 3090kę zainwestowałem gdy miałem kasę na zbyciu na początku roku, a teraz, cóż... ciężko ze znalezieniem roboty, ale przynajmniej mam mini-farelkę. ;)
  • Odpowiedz
Czy ludzie zarabiający na AI np. dzięki jakims automatyzacjom (np. do tworzenia contentu na yt), albo innym zastosowaniom ktorych jeszcze nie odkrylem, robią to lokalnie czy w chmurze?

Ja jak dotąd niczego lokalne nie robilem, bo mam 11 letniego lapotpa, wiec tak dobrze sie nie znam, ale chce sobie w koncu kupić nowego lapotpa, w przyzwoitej promocji i wypatrzylem jednego z RTX 5070(8gb vram) i Ryzenem 7 ai 350, 32gb ram, i zastanawiam
essos - Czy ludzie zarabiający na AI np. dzięki jakims automatyzacjom (np. do tworzen...

źródło: image

Pobierz
  • 19
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: No ja Ci powiem tak, Owszem da radę na 8gb zrobić fajne rzeczy. Ale będzie Cie to w pewnym momencie nieznośnie ograniczać. Np część modeli SDXL zwyczajnei nie uruchomisz bo nie będą w stanie załadować Ci sie do pamieci. Podobnie w przypadku tworzenia bardziej złożonego Lore. Tutaj masz więcej pola do popisu jesli chodzi o optymalizacje procesu, kosztem wyniku końcowego. Ale w tym przypadku i tak wynajecie chmury obliczeniowej
  • Odpowiedz
@essos Jak kupujesz sprzęt na lata to lepiej dopłacić. Co prawda modele AI są dynamicznie optymalizowane i w teorii wymagania spadają. Ale z drugiej strony jest coraz większy postęp. Zapewne w ciągu kilku lat na takiej karcie będzie można odpalić modele o możliwościach jake obiecnie dają modele wymagające >24 gb vram.
  • Odpowiedz
Czy NPU w procesorach (te z oznaczeniem AI albo Copilot) daje jakąś realną wartość?
Bo mam dylemat czy kupić laptopa z prockiem Ryzen AI 5 340, czy Ultra 7-255H - reszta parametrow bylaby mniej wiecej ta sama, tylko ten pierwszy ma 17 cali i wyższą rozdzielczosc - QHD (2560 x 1440), a ten drugi 16cali, 2k (1920x1200). Karta to RTX 5060

I drugi dylemat - lepiej brać lapka z matrycą QHD czy 2k (1920x1200)?
  • 15
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: tak szczerze to nie jestem pewien mojej reakcji, zrobiłem sobie heheszki na początku, i widzę że faktycznie podchodzisz poważnie do tematu, a w komentarzach jesteś stonowany i kulturalny. Dlatego podejdę poważnie do sprawy.

na szybko sprawdziłem sperkę 5060 mobile,
https://www.techpowerup.com/gpu-specs/geforce-rtx-5060-mobile.c4230

klasuje się wyżej niż 1070 a niżej niż 2060 (wersje PCIe,
simply_pretentious - @essos: tak szczerze to nie jestem pewien mojej reakcji, zrobiłe...

źródło: Screenshot 2025-11-24 at 09.38.01

Pobierz
  • Odpowiedz
Ktos z was wie czy aktualnie opłaca sie dokładać pieniadze do laptopa z rtx 5060, wzgledem rtx 4060?
Jeden i drugi ma 8gb vram, ale ten pierwszy ma jakieś fp4 - Nie wiem na ile to przydatne i czy warto dopłacać

Wykorzystywalbym karte do AI, np. w stable diffiusion (przykladowo do tworzenia / trenowania postaci), - chociaz tutaj tez zastanawiam sie czy jest sens, bo nano banana w sumie dobrze sobie radzi,
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@De_Fault:

Ale to są naprawde konkretne liczby, pewnie min 10-15k taki sprzecior

XD, chodzi o czas generacji. Mi na RTX 5060 Ti, ryzen 5700X3D, 32 RAM. Obraz generuje się w kilkadziesiąt sekund - kilka minut w zależności od jakości.
  • Odpowiedz
czyżby over dla


@Apu-Apustaja: Nop... nie mają gdzie to produkować, Taiwańczycy (TSMC) raczej nie będą chętni do współpracy.

Kompatybilność z CUDA nie oznacza jeszcze odpowiedniej wydajności... To że API będzie się zgadzać nie oznacza że będzie wydajne. No i ciekawe czy wykupili patenty od Nvidia na stosowanie technik/algorytmów w CUDA... Jak nie wykupili to nie sprzedadzą nigdzie poza Chinami. Nvidia im nie odpuści takich rzeczy.

Fajnie że próbują, że jest
  • Odpowiedz
@Apu-Apustaja: A jak jesteś zainteresowany "domowym" GPU do lokalnych AI to polecam zainteresować się AMD Ryzen AI Max+ 395. To jest dość wydajne APU z bardzo fajnym interfejsem do pamięci. Używa pamięci wspólnej LPDDR5X, jest rozsądnie szybkie i można mieć 128 GB VRAM za rozsądną cenę. Są produkowane laptopy (!) z takim APU, są też małe komputery z tym prockiem.

Można na tym całkiem swobodnie odpalić dużego LLMa (wielkości
  • Odpowiedz
@SzubiDubiDu: Rozpocząłeś proces ewolucji w starą babę, która się d--------a do byle czego, a już najchętniej do obcych ludzi, bo nie zna innych sposobów żeby poczuć się lepiej? ( ͡º ͜ʖ͡º)
  • Odpowiedz
Radeon MI50 32GB (dziwnebo powinny mieć 16GB, a wersja 32 nazywałaby się mi60, ale nie ważne)
Dobre to do lokalnego AI będzie?
Jest sens kopać się z konfiguracjami by odpalić na 2kartach na raz? A tym bardziej - więcej kart? Bo to znacznie komplikuje dobór płyty gl... W ogóle czy przy używaniu AI na takim GPU ma znaczenie CPU? Bo jeśli nie, to są fajne płyty gl typowo koparkowe, z CPU śmieciowym
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

via Android
  • 0
@Pioter_Polanski ja się nie znam, żona mi zadała zadanie, że chce takie coś jak chatgpt i Stablediffusion, ale bez ograniczeń i lokalnie, do swoich celów i bez ryzyka że przetwarzane treści wypłyną gdzieś lub będą używane do trenowania publicznych modeli, na podstawie czego też treść pośrednio wypłynie.
  • Odpowiedz
Mirki mam dość dziwne pytanie. Skoro możemy postawić sobie na własnym kompie SDGUI i inne tego typu programy, to czy możemy TEORETYCZNIE postawić sobie uniwersalnego tłumacza tekstu?
Chodzi mi o coś, co tłumaczyłoby powiedzmy 69 najpopularniejszych języków.
Coś w stylu DeePL.
#sztucznainteligencja #flux #stablediffusion #deepl
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach