Wpis z mikrobloga

#pcmasterrace #amd

Całkiem dobrze się to zapowiada.

Największy plus nowych kart to wsparcie dla AI. W końcu #!$%@?, ile można było czekać. No i dzięki temu FSR 3 NARESZCIE. - choć nie wyjaśniono nam dokładnie zasad działania, ale należy założyć, że działa z akceleracją AI, wiec imho będzie tylko na nowych kartach?.

Nie dostaliśmy super jasnego porównania fps, głównie jakieś procenty. Szczerze mówiąc te procenty nie zrobiły na mnie jakoś wrażenia. W sensie co tam było x 1.7 wydajność w RT? To niby dużo skoro AMD RT ma tragiczne? - . AMD podaje 60 teraflops, - ile ma 4090? 80?100? Bo nawet nie wiem. Dlatego z ta oceną to trzeba się wstrzymać do realnych testów

Mały plusik za DP 2.1. Choć nie uważam aby to było jakoś super mega ważne. Będzie ważne w następnej generacji, w tej to tak ehh, ale doceniam, że jest.

AMD bardzo mądrze ograniczyła sobie pobór mocy aby był racjonalny. Duży plus marketingowo, no i tak logicznie. RTX 4090 można bez strat na wydajnościalbo z minimalnymi stratami mocno skręcić z poboru prądu a głupia nvidia tego nie zrobiła i wymaksowała jak mogła. No i mamy łatkę pożeracza prądu itp zupełnie niepotrzebnie. Nvidia nie umie w marketing. Więc tutaj bardzo mądry ruch AMD. Dzięki temu łatwiej tez to będzie schłodzić. Plus też za normalne wtyczki a nie nowe wynalazki.

Odnośnie cen, jest taniej niż u nvidii. Ale trzeba poczekać na dostępność i realne testy w grach, fps itp. Choć nie wiem czy to nie zmusi nvidi do obniżenia ceny 4080. 4080 był od początku koszmarnie wyceniony a teraz w ogóle drogo wypadanie - jeśli nie wniesie wiele względem kart AMD to tu nvidia może mocno stracić.
  • 13
@Variv: Nie ma złych kart, są tylko źle wycenione i tu amd ma szerokie pole do popisu ale wszyscy wiemy jak to się skończy. Po raz pierwszy jestem za Intelem chociaż od lat mam ich cpu w budzie. I nawet niech ryżojady wejdą do gry bo rynek gpu to #!$%@?.
Nie ma złych kart, są tylko źle wycenione i tu amd ma szerokie pole do popisu ale wszyscy wiemy jak to się skończy. Po raz pierwszy jestem za Intelem chociaż od lat mam ich cpu w budzie. I nawet niech ryżojady wejdą do gry bo rynek gpu to #!$%@?.


@TheLizardKing: Żeby nie było, ja nie lubie polityki AMD czy to marketingowej, czy R&D od lat. Szefowanie Raja Kudriego było dla mnie
@Variv: > "No i mamy łatkę pożeracza prądu itp zupełnie niepotrzebnie. Nvidia nie umie w marketing. Więc tutaj bardzo mądry ruch AMD. Dzięki temu łatwiej tez to będzie schłodzić."

Akurat ze schłodzeniem 4090 nie mają najmniejszego problemu z uwagi na kolosalne chłodzenie co dla mnie jest dużym plusem - ciche i chłodne mimo dużego poboru mocy. Nie miałbym nic przeciwko, gdyby 7900XTX brało 1,5x więcej prądu i było jeszcze 1.5x wydajniejsze
Nie miałbym nic przeciwko, gdyby 7900XTX brało 1,5x więcej prądu i było jeszcze 1.5x wydajniejsze niż to co pokazali.


@grzechu1999: Na 100% będą autorskie modele z większym limitem mocy. Tak jak było przecież np. przy rtx 3080. -normalnie 2 wtyczki, ale są modele po ponad 400w co mają 3 wtyczki. Wiec jest margines.
@Variv: pewnie to nie będą najwyższe modele 1 MCD jest pusty w XTX, a ponadto krążą plotki, że mogą się zdecydować na 3D V-Cache dla Infinite Cache. No nic poczekamy na testy, w RT na pewno nie będzie poziom co RTX, ale w rasteryzacji podejrzewam, że będzie podobnie z lekkim wskazaniem na RTX 4090
@Variv: pewnie to nie będą najwyższe modele 1 MCD jest pusty w XTX, a ponadto krążą plotki, że mogą się zdecydować na 3D V-Cache dla Infinite Cache. No nic poczekamy na testy, w RT na pewno nie będzie poziom co RTX, ale w rasteryzacji podejrzewam, że będzie podobnie z lekkim wskazaniem na RTX 4090


@menelaosPL Sprawdziłem 4090 ma 100 teraflopow. Amd ma 60. Spora różnica choć wiadomo na fps to się
nvidia chiplety planuje od przyszłej generacji zdaje się.


@Variv: i nie wiadomo co z tego wyjdzie, Intel w procesorach też do tej pory sukcesów nie ma, planują w 2023 r. coś wydać, także tu AMD trafiło w 10, przetestowało technologie na CPU, które są siłą rzeczy mniej skomplikowanymi tworami
fps to się liniowo nie przekłada.


@Variv: Pamiętam jak GPU AMD miało w uj flopsów względem nVidia, a dostawały srogi #!$%@? w grach, no ale teraz mamy RT, upskalowania itp. także nie ma co porównywac
fps to się liniowo nie przekłada.


@Variv: Pamiętam jak GPU AMD miało w uj flopsów względem nVidia, a dostawały srogi #!$%@? w grach, no ale teraz mamy RT, upskalowania itp. także nie ma co porównywac

@menelaosPL Ale wtedy to była inna przyczyna. Stara archi amd zle działała na dx11. Z resztą ta ich stara archi to było xD bo nie potrafili jej ulepszyć przez lata tylko jakieś pudrowanie trupa. Do tego
wsparcie dla AI


@Variv: oglądaliśmy 2 różne konfy. Miły Pan mówi wyraźnie 'leading edge temporal upscaling solution' czyli nic się nie zmieniło. A idąc dalej generację ramek można zrobić tak jak robi monitor - robimy 1-2 ramki laga i wyliczamy średnią i nie trzeba AI i kupować patentów od Nvidii bo oczywiście jakby bylo ich stać to by mieli ale na 20 lat wszystko jest już zamurowane.
Obejrzyj sobie ostatnie 2
keton22 - > wsparcie dla AI

@Variv: oglądaliśmy 2 różne konfy. Miły Pan mówi wyraź...