Aktywne Wpisy
Sigfried +89
Treść przeznaczona dla osób powyżej 18 roku życia...
KwadratF1 +262
#ukraina #ruskapropaganda #bekazpodludzi #konfederacja #braun
Mniam mniam mniam, ale smaczne unijne obiadki! Tylko skończymy jeść i wracamy do wyzywania EU. Aaaa i jeszcze tylko wypłatę Europejską i już już wyzywamy wstrętną okropną Unię serwującą robaki na obiad. Co? Wyjazd na wakacje do Rosji? Eeeeee, może za rok, teraz nie mogę ( ͡° ͜ʖ ͡°) #polityka
Mniam mniam mniam, ale smaczne unijne obiadki! Tylko skończymy jeść i wracamy do wyzywania EU. Aaaa i jeszcze tylko wypłatę Europejską i już już wyzywamy wstrętną okropną Unię serwującą robaki na obiad. Co? Wyjazd na wakacje do Rosji? Eeeeee, może za rok, teraz nie mogę ( ͡° ͜ʖ ͡°) #polityka
Mam RTX4090 #beyonddisaster i do tego 5900x który nie daje jej rady wykarmić nawet w 4k. O ile benchmarki są spoko to pójście na targ w Cyberaku kończy się 36fps i 40% zużycia GPU. Plague Tale Requiem jak się dobrze trafi podobnie. Mniej procesorowe gry ogarniają ale ogólnie bottleneck jest teraz po stronie CPU.
Obejrzałem sobie trochę testów z których wynika że 13700k jest równy 12900k i DDR4 nie ma wielkiego znaczenia.
Mam bardzo dobry kit 3800CL14 który spokojnie pójdzie jako 4200CL16. Mógłbym sobie po taniości zrobić platformę która wykarmia mojego RTXa na zasadzie upgrade CPU+płyta.
I teraz 2 sakramentalne pytania:
1. czy ja dobrze kombinuję? Materiały źródłowe przykładowe: https://www.youtube.com/watch?v=s8kY_rx13L8 i https://www.youtube.com/watch?v=B6ijtfJ7CXI
tl;dw: 13600k po oc na 5.3GHz z ddr4 jest z grubsza 5% za 12900k w 4k z 4090. 13700k jest praktycznie równe 12900k. 12900k wykarmia 4090 bez problemu.
2. jaki chipset i płyta do 13700k? Chcę robić OC mnożnikiem jak człowiek, chcę mieć sensowną sekcję zasilania. Nie potrzebuję wifi ani chyba PCIe5.0 za to mam 2 szybkie dyski pcie4.0 i one mają zostać szybkie. Platforma idzie do zmiany ideowo przy następnym upgrade gpu jak ddr5 dojrzeje i będzie zauważalnie lepszy niż ddr4.
@keton22: Lepiej utrzyma wartość, łatwiej sprzedać w przyszłości. Trochę więcej cash. Choć ja mam problem z 13700 taki, że sporo się dopłaca względem 13600k, a zyskuje się 2 rdzenie i troche cashu. Aczkolwiek mimo wszystko 13900k pod gry
@keton22: Coś musi być nie tak. Ten ryzen ma to #!$%@? infinity fabric? Kurde takiego spadku to ja na 9900k nie mam w 1440p z RT. Coś imho nie działa tak jak powinno. Masz poustawiane w windowscie zasilanie na maksymalną wydajność itp?
@keton22: Moim zdaniem to jest najlepsza opcja teraz. Jeśli masz DDR4 to sobie zmieniasz płytę i CPU i jazda.
Owszem można iśc teraz w nową podstawkę AMD, z nadzieją, że za 3 czy 4 lata się tam zmieni CPU na nowy
@Variv: też mi się tak wydawało ale benchmarki cpu są w normie. Do tego IF 1800, RAM 3800CL14, Aida pokazuje typową latencję i przepustowość. Bottleneck jest do tego stopnia że w spidermanie nie widać czym mam DLAA czy DLSS2 włączone, jest tyle samo FPS, ~65-70% zużycia z RT i wszystkim na max. Za to jak popatrzysz na zużycie CPU rozbite na wątki to widać że
@keton22
https://i.imgur.com/Ekfi7EL.jpeg - 60 fps
https://i.imgur.com/7TLMOqo.jpg - 58 fps
https://i.imgur.com/gXC6vvB.jpg - 81 fps
13900K + 4090 + DDR5 (96,6 fps): https://youtu.be/RYXzcnJMOoc?t=76
5900X + 4090 + DDR4 (91,9 avg): https://i.imgur.com/VLd7Y7T.jpg
EDIT: co do badlandsów na filmiku to mam tam dobre zużycie gpu i fpsy podobnie jak miałem na 3080. Przy jeżdżeniu po mieście raczej też, nawet 9700k z którym testowałem na początku dawał radę. Zabawa zaczyna się jak jest dużo modeli w kamerze na raz.
Mi tylko zależy żeby karta była wystarczająco wykarmiona bo to co jest teraz nie jest normalne. Na teraz są gry dobre gdzie jest 99% zużycia GPU i np. w Modern Warfare 2 na maxie bez dlss jest 144fps w moim 'prawie 4k'. Podobnie w uncharted.
A w takim spidermanie jak w chlewie - nie ważne czy jest dlss czy dlaa, detale niskie czy wysokie jest