Dzisiaj nadal probując sie dowiedizęc, czy jest sens doplacac do laptopa z 16gb vram względem 12gb w kontekscie zabawy z AI, natknąłem sie opinie że te lokalne modele są słabe i zazwyczaj działają dużo gorzej niż komerycjne wersje? Prawda to?

Przykladowo taki lokalny flux albo stable diffiusion, do czego mogą byc przydatne zakladając mozliwosc korzystania np. z nano banana pro? Noiby sie slyszy o cenzurze, ale chyba jakos mocno to nie rpzeszkadza,
  • 9
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: Ja kupiłem lapka z 16 Gb VRAMu i żałuję. Małe modele językowe działają jak g---o a generatory obrazów dostępne lokalnie nie mają startu do Nano Banana. Jak pisał kolega Fluxa i tak nie odpalisz. Jak nie jesteś spoceńcem który generuje gołe baby bez cenzury nie jest to warte zachodu i lepiej zainwestować w subskrypcję Gemini, gdzie masz jednej z najlepszych dużych modeli językowych, praktycznie nieograniczony dostęp do generowania obrazów
  • Odpowiedz
co sądzisz o tym co mi tu google powiedział


@essos: co sądzisz o tym co mi tu google powiedział
Chyba wtedy jak sprawdzałem fluxa to nie ogarniałem czym jest kwantyzacja. Ale jakkolwiek, oprócz vramu jest jeszcze sam gpu, a mój nie jest demonem, nie chce mi się sprawdzać drugi raz. Nie przesadzałbym z optymizmem.

Mozesz podac jakoes przyklady tej "dowolnosci" podczas
  • Odpowiedz
patrzę na date Marzec 2023, dwa i pól roku temu już
i mnie troche tak zmurowało, myślałem, że to zjawisko jest mlodsze
toć czatgpt wystartował pół roku wcześniej od tamtej daty a jaki progres nastąpił
a może mam taki dysonans, że w 2023r takie narzędzia były dostepne dla wąskiej grupy a dzisiaj tłuszcza produkuje mase niskiej jakości slopu w tej samej technologii i dlatego zdaje się, że postęp wyhamował (konkretnie w modelach
grand_khavatari - patrzę na date Marzec 2023, dwa i pól roku temu już
i mnie troche t...

źródło: image_2025-12-06_092804837

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@grand_khavatari: Wystarczy spojrzeć na generatory audio. Dopiero teraz na yt królują kanały jak ta Siajobajka, K---s Records i rosną jakieś nowe jak SzajsSongi. A Suno od ponad roku działa i już v3 robiło coś, co było słuchalne.
Teraz generatory obrazów się rozwijają ale w typical use-case nie widać nawet poprawy bo większość nie umie korzystać. Nano Banana Pro chociażby genialnie nadaje się do edycji zdjęć, ale nie będzie miało znacznie
  • Odpowiedz
Czy jest jakiś sens uzywania Stable diffiusion albo Flux lokalnie, jesli mam za free dostęp do Nano banana pro (kombinacje z jakiejs promocji dla studentow z USA pol roku temu) I moge tez uzywac za drobną opłatą funkcji AI w Canvie?

Pytam tak, bo dalej sie bije z myslami czy jest sens doplacac do laptopa z kartą 16gb vram zamiast 12gb, i sie tak zastanawiam czy to wykorzystam czy moze i tak
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Bierz 16GB, jak cię stać, bo jak weźmiesz 12GB będziesz żałował, że ci jakiś fajny model nie ruszy (a ceny mają rosnąć z powodu braku RAM na rynku). Lokalnie da się wycisnąć większą rozdzielczość niż za free (Nano Banana daje tylko 1408x768px) no i masz dostęp do modeli nieocenzurowanych. Affinity fajne, ale pozmieniali interfejs i skróty. Canva AI (w nim) - za dobra nie jest wg różnych testów. Wersja EDU nie daje
  • Odpowiedz
Co sądzicie o tym co mi tu chat napisal?

Moze dokladanie do karty z 16gb vram wzgldem 12, nie robi jakoejs znaczącej roznicy orzy zastosowaniach Ai?

Ps: uzywanie Stabke diffiusion albo jakichs innych lokalnych aolikacji ma na oewno jakis wiekszy sens w dobie Nano banana pro?

Czy
essos - Co sądzicie o tym co mi tu chat napisal? 

Moze dokladanie do karty z 16gb vr...

źródło: temp_file4609922918958917991

Pobierz
  • 9
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: Ogólnie kalkulacja VRAM jest w miarę prosta. Powiedzmy model SDXL to jakieś 6-7GB więc 8GB ledwo co by starczało a 12GB to już jako tako, a z 16GB masz jeszcze zapas na dorzucenie modeli LoRA, ControlNet i tak dalej. ComfyUI przerzuca je do systemowego RAMu jeżeli nie masz miejsca w VRAMie, ale wtedy jest znacznie ale to znacznie wolniej. Jezeli chcesz załadować większy, czyli dokładniejszy LLM albo jakiś model
  • Odpowiedz
@essos: Szczerze? Najlepiej się wstrzymać jeżeli nie masz obecnie ani kasy ani roboty. Zajawka na AI jak najbardziej na plus, ale są rzeczy ważniejsze. W tym czasie możesz się zagłębić w teorię i zadecydować czy to 4GB dawałoby dużą różnicę w tym co chciałbyś uruchamiać. Ja w 3090kę zainwestowałem gdy miałem kasę na zbyciu na początku roku, a teraz, cóż... ciężko ze znalezieniem roboty, ale przynajmniej mam mini-farelkę. ;)
  • Odpowiedz
Czy ludzie zarabiający na AI np. dzięki jakims automatyzacjom (np. do tworzenia contentu na yt), albo innym zastosowaniom ktorych jeszcze nie odkrylem, robią to lokalnie czy w chmurze?

Ja jak dotąd niczego lokalne nie robilem, bo mam 11 letniego lapotpa, wiec tak dobrze sie nie znam, ale chce sobie w koncu kupić nowego lapotpa, w przyzwoitej promocji i wypatrzylem jednego z RTX 5070(8gb vram) i Ryzenem 7 ai 350, 32gb ram, i zastanawiam
essos - Czy ludzie zarabiający na AI np. dzięki jakims automatyzacjom (np. do tworzen...

źródło: image

Pobierz
  • 19
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: No ja Ci powiem tak, Owszem da radę na 8gb zrobić fajne rzeczy. Ale będzie Cie to w pewnym momencie nieznośnie ograniczać. Np część modeli SDXL zwyczajnei nie uruchomisz bo nie będą w stanie załadować Ci sie do pamieci. Podobnie w przypadku tworzenia bardziej złożonego Lore. Tutaj masz więcej pola do popisu jesli chodzi o optymalizacje procesu, kosztem wyniku końcowego. Ale w tym przypadku i tak wynajecie chmury obliczeniowej
  • Odpowiedz
@essos Jak kupujesz sprzęt na lata to lepiej dopłacić. Co prawda modele AI są dynamicznie optymalizowane i w teorii wymagania spadają. Ale z drugiej strony jest coraz większy postęp. Zapewne w ciągu kilku lat na takiej karcie będzie można odpalić modele o możliwościach jake obiecnie dają modele wymagające >24 gb vram.
  • Odpowiedz
Czy NPU w procesorach (te z oznaczeniem AI albo Copilot) daje jakąś realną wartość?
Bo mam dylemat czy kupić laptopa z prockiem Ryzen AI 5 340, czy Ultra 7-255H - reszta parametrow bylaby mniej wiecej ta sama, tylko ten pierwszy ma 17 cali i wyższą rozdzielczosc - QHD (2560 x 1440), a ten drugi 16cali, 2k (1920x1200). Karta to RTX 5060

I drugi dylemat - lepiej brać lapka z matrycą QHD czy 2k (1920x1200)?
  • 15
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: tak szczerze to nie jestem pewien mojej reakcji, zrobiłem sobie heheszki na początku, i widzę że faktycznie podchodzisz poważnie do tematu, a w komentarzach jesteś stonowany i kulturalny. Dlatego podejdę poważnie do sprawy.

na szybko sprawdziłem sperkę 5060 mobile,
https://www.techpowerup.com/gpu-specs/geforce-rtx-5060-mobile.c4230

klasuje się wyżej niż 1070 a niżej niż 2060 (wersje PCIe,
simply_pretentious - @essos: tak szczerze to nie jestem pewien mojej reakcji, zrobiłe...

źródło: Screenshot 2025-11-24 at 09.38.01

Pobierz
  • Odpowiedz
Ktos z was wie czy aktualnie opłaca sie dokładać pieniadze do laptopa z rtx 5060, wzgledem rtx 4060?
Jeden i drugi ma 8gb vram, ale ten pierwszy ma jakieś fp4 - Nie wiem na ile to przydatne i czy warto dopłacać

Wykorzystywalbym karte do AI, np. w stable diffiusion (przykladowo do tworzenia / trenowania postaci), - chociaz tutaj tez zastanawiam sie czy jest sens, bo nano banana w sumie dobrze sobie radzi,
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@De_Fault:

Ale to są naprawde konkretne liczby, pewnie min 10-15k taki sprzecior

XD, chodzi o czas generacji. Mi na RTX 5060 Ti, ryzen 5700X3D, 32 RAM. Obraz generuje się w kilkadziesiąt sekund - kilka minut w zależności od jakości.
  • Odpowiedz
czyżby over dla


@Apu-Apustaja: Nop... nie mają gdzie to produkować, Taiwańczycy (TSMC) raczej nie będą chętni do współpracy.

Kompatybilność z CUDA nie oznacza jeszcze odpowiedniej wydajności... To że API będzie się zgadzać nie oznacza że będzie wydajne. No i ciekawe czy wykupili patenty od Nvidia na stosowanie technik/algorytmów w CUDA... Jak nie wykupili to nie sprzedadzą nigdzie poza Chinami. Nvidia im nie odpuści takich rzeczy.

Fajnie że próbują, że jest
  • Odpowiedz
@Apu-Apustaja: A jak jesteś zainteresowany "domowym" GPU do lokalnych AI to polecam zainteresować się AMD Ryzen AI Max+ 395. To jest dość wydajne APU z bardzo fajnym interfejsem do pamięci. Używa pamięci wspólnej LPDDR5X, jest rozsądnie szybkie i można mieć 128 GB VRAM za rozsądną cenę. Są produkowane laptopy (!) z takim APU, są też małe komputery z tym prockiem.

Można na tym całkiem swobodnie odpalić dużego LLMa (wielkości
  • Odpowiedz
Tak wygląda twarz przeciętnego zawistnego polaka z "klasy średniej"
-wiek powyżej 30stki, łysienie na poziomie Norwood 3
-pracujący w it na niskim szczeblu na b2b
-kredyt na kurnik deweloperski 36m na 30 lat
-auto typu skoda/dacia w lizing ale narzeka że wolałby dojeżdżać zbiorkomem/hulajnogą elektryczną
-bez baby ale wystarczy 5 minut rozmowy z nim aby wiedzieć czemu jest samotny
SzubiDubiDu - Tak wygląda twarz przeciętnego zawistnego polaka z "klasy średniej"
-wi...

źródło: 00157-2039439773

Pobierz
  • 22
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@SzubiDubiDu: Rozpocząłeś proces ewolucji w starą babę, która się d--------a do byle czego, a już najchętniej do obcych ludzi, bo nie zna innych sposobów żeby poczuć się lepiej? ( ͡º ͜ʖ͡º)
  • Odpowiedz
Radeon MI50 32GB (dziwnebo powinny mieć 16GB, a wersja 32 nazywałaby się mi60, ale nie ważne)
Dobre to do lokalnego AI będzie?
Jest sens kopać się z konfiguracjami by odpalić na 2kartach na raz? A tym bardziej - więcej kart? Bo to znacznie komplikuje dobór płyty gl... W ogóle czy przy używaniu AI na takim GPU ma znaczenie CPU? Bo jeśli nie, to są fajne płyty gl typowo koparkowe, z CPU śmieciowym
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

via Android
  • 0
@Pioter_Polanski ja się nie znam, żona mi zadała zadanie, że chce takie coś jak chatgpt i Stablediffusion, ale bez ograniczeń i lokalnie, do swoich celów i bez ryzyka że przetwarzane treści wypłyną gdzieś lub będą używane do trenowania publicznych modeli, na podstawie czego też treść pośrednio wypłynie.
  • Odpowiedz
Mirki mam dość dziwne pytanie. Skoro możemy postawić sobie na własnym kompie SDGUI i inne tego typu programy, to czy możemy TEORETYCZNIE postawić sobie uniwersalnego tłumacza tekstu?
Chodzi mi o coś, co tłumaczyłoby powiedzmy 69 najpopularniejszych języków.
Coś w stylu DeePL.
#sztucznainteligencja #flux #stablediffusion #deepl
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach