5-7k za RTX4080 to nie jest jakoś kosmicznie dużo, już RTX 3080 kosztował sporo więcej parę miesięcy temu. Tylko, że te ceny w rzeczywistości będą zapewne co najmniej 50% wyższe. RTX3xxx dobijały w pewnym momencie 300% MSRP.
@mastapepe: ethereum przeszło na proof of stake a ceny prądu niedługo #!$%@?ą poza skalę. Większosć firm przestanie kopać bo kopanie będzie generować straty xd
Szczerze mówiąc, to 4080 w wersji 12 GB powinna się nazywać 4070, bo jest mocno obcięta względem wersji 16 GB i dodatkowo porównując ceny z poprzednią generacją to widać jak na dłoni, jak Nvidia ma jest pazerne na hajs. Niech giną.
@grubY_0936: Ano jest pazerne na hajs. Niedawno było znalezisko, że EVGA zrywa współpracę z NVidią. W komentarzach można było znaleźć kilka dodatkowych ciekawych informacji - np. jak zmieniała się w czasie marża produktów NVidii vs współpracujących producentów (NVidia zarabia coraz więcej, producenci coraz mniej) albo jak ponoć prezes NVidii narzekał, że producenci są generalnie ch\* warci bo tylko korzystają z tego co wymyśli NVidia.
@dasfinaleresultat: Ja ciągle jestem na AMD 580 (daje radę w 1080p). Na jakąś pokoparkową 3700 lub 3800 będę polował. Seria 4000 to żart jeśli chodzi o zużycie prądu. A z tą mocą i tak nie ma co robić, bo rozwój gier praktycznie stoi od początku tej chućpu z krypto.
Nie ma się co ekscytować, jak niedługo może nie być stać nikogo na to, żeby kąkuter w ogóle uruchomić z takim poborem prądu kart graficznych, jeśli ceny prądu nadal będą rosnąć. O ile w ogóle będzie prąd.
Jak byla premiera 3xxx to wszyscy sie srali z zachwytu jaki to mamy duzy skok wydajnosci wzgledem poprzednich kart i jak swietnie sa wycenione. Kiedys taki przyrost wydajnosci to nie bylo nic nowego tylko norma kazdej generacji. No ale to wystarczylo zeby zieloni poczuli krew i macie nowa serie z dostosowanymi cenami :D Trzeba kibicowac Intelowi zeby te ich karty wypalily( ͡°͜ʖ͡°)
Trzeba kibicowac Intelowi zeby te ich karty wypalily( ͡°͜ʖ͡°)
@Endrjuss: Coś tam dłubią. Arc A750 ma być wydajnością zbliżony do RTX3060 więc nie ma tragedii. Jak je dobrze wycenią i będą mieli dobre sterowniki to jest potencjał na trzeciego gracza na rynku GPU, zwłaszcza jak dalej będą rozwijać produkt. Zajęło im tylko 2 generacje dojście do obecnej wydajności.
"W ciągu ostatnich kilku tygodni zespół marketingowy
@mastapepe: eee panie ja osttnio nabyłem 3060 (bo stwierdziłem że tyle mamony co kosztuje 3070 to jednak na sporadyczną rozrywkę nie wydam). Wziaem jakąś wersję co ma chyba 10GB pamięci czy jakoś tak. W połączeniu z najnowszym I5 i 32 GB ramu to jedzie bardzo dobrze, 1440p daje radę przyprawie nawyższych ustawieiach graficznych we wszystkim co zainstalowałem
@pokusof: teraz kupisz 3080 i możesz sobie spokojnie 4 do 6 lat na niej siedzieć, praktycznie w grach się nic specjalnego nie dzieje i szansa, że coś się stanie jest tak nikła, bo mamy cudowny hamulec, który nazywa się konsola. Do tego powiedz mi ile obecnie tytułów gier jest wartych uwagi ? Indyki są już dużo lepsze niż AAA ¯\_(ツ)_/¯
@ramirezvaca: zalezy od twoich wymagan. dostalem gre Control przy zakupie rtx 2070 super i do dzisiaj jej ani razu nie odpalilem (zreszta wtedy jak karte kupowalem tam nawet nie bylo dlss 2 jeszcze w tej grze, dlc tez nie bylo). dopiero jak kupie rtx 4080 to sobie zagram, bo wreszcie bede mogl grac w komfortowej jakosci.
Ceny są proporcjonalne do wydajności. Jak ktoś przeliczał sobie fps na dolary przy 30x0 to już dawno to zaobserwował. Nikt się tu nie będzie bawić w promocje, chcesz 2x większą wydajność, płacisz 2x więcej. Nawet gdyby Nvidia dała MSRP na poziomie 299 USD, to sklepy i tak ustawiłyby ceny realne zgodnie z wydajnością, bo tam popyt spotyka się z podażą.
@szumowina_wadowicka: Swoją drogą obecna generacja kart - zarówno NVidii jak i AMD - wystarczą jeszcze na długo ludziom grającym w 1080p, a takich jest nadal z 80% jak nie więcej. Potem jest grupka grająca w 1440p i jakiś skąpy odsetek takich co grają w 4k. Prosy to już w ogóle wolą grać w 1080p w 300 fpsach niż w 4k przy stabilnych 60 fps. Nie ma więc za bardzo sensu wchodzenie
@mastapepe: RT jest super ale developerzy zwyczajnie nie piszą pod niego gier... To że w Cyberpunku można włączyć lepsze odbicia na RT (i dostać wydajność /4) mija się z celem, bo odbicia da się uzyskać na sto innych sposobów. RT pokazuje moc w tak prymtywnych grach jak Quake 2 czy Minecraft gdzie po prostu całość oświetlenia idzie RT i daje genialne efekty.
Komentarze (41)
najlepsze
3080 10GB na premierę było $699.
4080 16GB teraz jest $1199.
4080 12GB, która w poprzednich generacjach byłaby modelem xx70 jest wyceniona na $899.
Więc jest niemal stuprocentowy pogrom poza top-top segmentem :).
@mastapepe: w sumie prawdę powiedział. Jak nie finansują r&d to można ich co najwyżej używać jako podwykonawców bo to zbędna konkurencja.
O ile w ogóle będzie prąd.
Trzeba kibicowac Intelowi zeby te ich karty wypalily( ͡° ͜ʖ ͡°)
@Endrjuss:
Coś tam dłubią. Arc A750 ma być wydajnością zbliżony do RTX3060 więc nie ma tragedii. Jak je dobrze wycenią i będą mieli dobre sterowniki to jest potencjał na trzeciego gracza na rynku GPU, zwłaszcza jak dalej będą rozwijać produkt. Zajęło im tylko 2 generacje dojście do obecnej wydajności.
"W ciągu ostatnich kilku tygodni zespół marketingowy