Siema chuopy!
Mój stary (szef w sensie) powiedział, że mogę sobie w ramach premii nowego lapka kupić do roboty i gierek przy okazji (jego wysokość jest zbyt łaskawa).
Budżet mam 10klocków.
Wiem że ma być 17 cali, procek RYZEN 9 i grafa RTX jakaś tam wysoka. Ramu mam brać 16 czy 32 giga? Na coś jeszcze zwrócić uwagę? Trochę wypadłem z obiegu...
Myślałem takiego:
https://allegro.pl/oferta/laptop-msi-alpha-17-c7v-17-3-qhd-240hz-ryzen-9-7945hx-32gb-ssd1tb-rtx4060-15383467829
  • 15
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

cześć,

potrzebuję karty graficznej do modelowania i renderowania ujęć w programach D5 render i Lumion. Szukam u----i w okolicach 1000 zł.

Musi wspierać ray tracking.

Przeglądnąłem
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Ciekawe, czy RTX 5090 będzie kartą, która pozwoli na płynną rozgrywkę w 4K z włączonym RT/PT we wszystkich grach do 2030 roku, bo RTX 4090 w niektórych tytułach nie osiąga 60 FPS. Trochę drogi sprzęt, ale fajnie byłoby go mieć. Oczywiście, lepiej mieć niż nie mieć, choć decyzja zależy od wielu indywidualnych czynników

#komputery #rtx #gry
  • 17
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

3D jest z grafą więc po co ci jak kupujesz zewnętrzną, lepiej już uderzać - chyba w i7 14k, ale byle by dużo ghz bo te grafy to lubią, a ryśki są pewnie że cacy, ale jak ty chcesz grać jeszcze 5 lat xd


@OscarGoldman:
10129 - >3D jest z grafą więc po co ci jak kupujesz zewnętrzną, lepiej już uderzać - ...

źródło: images

Pobierz
  • Odpowiedz
@N331: ja miałem kiedyś o połowe mniej napuchniętą, to od razu ją wyjąłem i dałem na balkon dla bezpieczeństwa xd później nowa bateria a stara utylizacja.
  • Odpowiedz
Szef zawsze jeździ na tylnej kanapie a nie obok szofera.


@smk666: ale szef nie ma tuneli w uszach i za dużych okularów (z nadzieją żę dodadzą intelektu, przynajmniej wizualnie)...
  • Odpowiedz
Cześć mam taką zagwozdkę.

Dużo robię w renderingu, ale większość czasu to też edycja i konwersja wszelakiej maści materiałów wideo z kamer i aparatów. Coraz częściej dostaję materiały 8k i postanowiłem zainwestować w lepszy sprzęt.

Przesiadłem się z GTX 1080 na RTX 4070 Ti SUPER.

I
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#komputery #skladamkomputer #rtx #pc

Siema mirki, głupia sprawa ale moze ktos pomoże
Kupiłem RTX 4080 , zasilacz mam coolermastera 650W , ten rtx 4080 jest rozgałęziony z adaptera na 3x8 pin, czy musze tu dokupić dwa kable (jeśli tak to ktoś podrzuci linka? ) żeby to zasilić? Czy ew nowy zasilacz, ale myśle że ten też uciągnie , 648 wat na +12v wiec powinien
Ifter - #komputery #skladamkomputer #rtx #pc

Siema mirki, głupia sprawa ale moze kto...

źródło: mamale

Pobierz
  • 12
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Ifter: więc masz odpowiednią ilość wyjść skoro karta potrzebuje 3x8P a w zasilaczu masz 4x8P z czego jedno zajmuje CPU xD
Do zasilacza powinieneś mieć te przewody żeby podłączyć kartę. Nie rozumiem jakich dwóch byś jeszcze potrzebował
  • Odpowiedz
@Ifter: Witam serdecznie, na szczęcie udało ci się zrobić zdjęcie w taki sposób, że widać dokładny model zasilacza, bo nazwa producenta i moc danego zasilacza niewiele podpowiada.

Masz zasilacz producenta Cooler Master, model: MWE Gold 650 - V2 Full Modular

A dzięki temu wiemy jakie przewody są dołączone do tego zasilacza:
Specyfikacja zasilacza
maniek50005 - @Ifter: Witam serdecznie, na szczęcie udało ci się zrobić zdjęcie w tak...

źródło: image

Pobierz
  • Odpowiedz
Jak oni robią te karty że 4090 przy undervoltingu z power targetem na poziomie 65% i wyprowadzoną krzywą zegarów wyżej wydajność spadła mi o około 6% w grach ale pobór z 427W na 287W. I nagle okazuje się że karta jest cicha a chłodzenie jest aż zbytnio sprawne. Nagle nie ma piekarnika. Widzę że większość tych kart (nie tylko FE) jest tak przygotowana dla kilku FPS więcej ją prądowo do limitu obciążyć
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@janeknocny:
niski pobór prądu się nie sprzedaje, wysoka wydajność już tak. po pewnym poziomie skalowanie z watami jest słabe, musisz dużo watów wiećej pobrać aby nieco wydajność zwiększyć. z procesorami jest tak samo w zasadzie

zobacz sobie z reszta stosunek wydajności do watów na intelu 14900k z różnymi power limitami

dwa, upewnij się, że jak to testujesz to klatki nie mają bottlenecka z strony procesora. raczej to sprawdzaj w jakiejś
10129 - @janeknocny: 
niski pobór prądu się nie sprzedaje, wysoka wydajność już tak. ...

źródło: efficiency-gaming

Pobierz
  • Odpowiedz
  • 1
@arasxdd a czemu mają nie grać.
Wąskie gardło oznacza, że jakiś komponent jest ogranicznikiem wydajności, to jest zmniejsza możliwy do osiągnięcia poziom wydajnosci, a nie ze nie działa.

Porównaj sobie wyniki z testów - 12600 będzie nieco szybszy, wiadomo, ale może służyć jako punkt odniesienia:
  • Odpowiedz
Ale oczywiście wszystko zależy od rozdzielczości - op wyraźnie mówił o 1080p, więc akurat do takiej rozdzielczości lepiej mieć jak najmocniejszy proc.


@majk3l: a tu nie zgodzę się, jeżeli to ma być komp do grania to myślę, że zamiast wymieniać spoko procka, znacznie lepiej zainwestować w GPU. Spójrz na ten film który wysłałeś, między jego i5 12gen. a i5 14gen w CP77 jest średnio 27 klatek różnicy w FHD (133
  • Odpowiedz
Zapraszam na streamy bez PATOLI
Tym razem sam o sobie... Aby nie pisać w trzeciej osobie
Mam ponad 30 lat i chciałbym stworzyć fajne COMMUNITY
Dołącz do mnie i zagrajmy w parę gierek 👾
Trochę na poważnie, trochę heheszki...
Zapraszam serdecznie :) na FB zawsze świeże
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#pc #zuzyciepradu #rtx Hej, mam taki temat. Jeszcze niedawno sprawdzając w aplikacji gniazdka wifi mój pc 3080, i5 zużywał w pulpicie jakieś 80w aktualnej mocy, dzisiaj z ciekawości sprawdziłem i jest to ponad 170w. Obciążenie GPU to w pulpicie 1%, procek 5%. Nic nie zmieniałem w setupie komputera. Skąd może być taki wzrost zużycia ?
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@marso96 Ja miałem to samo u siebie i dałem sobie spokój. Szukałem rozwiązań np. żeby ustawiać krzywą jak są niskie temperatury na karcie itp, ale prawdopodobnie karta po prostu sama ogarniała, że są niskie temperatury, więc automatycznie podbijała napięcie żeby była wyższa wydajność.
  • Odpowiedz
via Wykop
  • 1
@ReeceWithouterpoon: jeszcze nie wiem. Może wrzucę z powrotem do kompa i się pobawię jakimś AI na obu kartach. Razem to już 48GB VRAM, całkiem dużo do zabawy z większymi LLM.
Długość chyba około 32cm.
  • Odpowiedz
  • 2
@FLAC z jakiego powodu mieliby sobie ograniczać zarobek, skoro te same (ograniczonej ilości) chipy mogą sprzedać wielokrotnie drożej jako akceleratory AI?
  • Odpowiedz
@majk3l: dokładnie, NVIDIA nas tak wyrucha z cenami, że nawet fanatycy RT i dlss będą płakać i spoglądać na radeony.
A AMD odpuściło hajend w nowej serii kart.
Szykują się wspaniałe lata dla gamingu... Jeśli ktoś lubi indyki i pixelart. XD
  • Odpowiedz