Wpis z mikrobloga

Mircy z #pcmasterrace i #komputery pomuszcie bo nie ogarniam.

Mam RTX4090 #beyonddisaster i do tego 5900x który nie daje jej rady wykarmić nawet w 4k. O ile benchmarki są spoko to pójście na targ w Cyberaku kończy się 36fps i 40% zużycia GPU. Plague Tale Requiem jak się dobrze trafi podobnie. Mniej procesorowe gry ogarniają ale ogólnie bottleneck jest teraz po stronie CPU.

Obejrzałem sobie trochę testów z których wynika że 13700k jest równy 12900k i DDR4 nie ma wielkiego znaczenia.

Mam bardzo dobry kit 3800CL14 który spokojnie pójdzie jako 4200CL16. Mógłbym sobie po taniości zrobić platformę która wykarmia mojego RTXa na zasadzie upgrade CPU+płyta.

I teraz 2 sakramentalne pytania:

1. czy ja dobrze kombinuję? Materiały źródłowe przykładowe: https://www.youtube.com/watch?v=s8kY_rx13L8 i https://www.youtube.com/watch?v=B6ijtfJ7CXI
tl;dw: 13600k po oc na 5.3GHz z ddr4 jest z grubsza 5% za 12900k w 4k z 4090. 13700k jest praktycznie równe 12900k. 12900k wykarmia 4090 bez problemu.

2. jaki chipset i płyta do 13700k? Chcę robić OC mnożnikiem jak człowiek, chcę mieć sensowną sekcję zasilania. Nie potrzebuję wifi ani chyba PCIe5.0 za to mam 2 szybkie dyski pcie4.0 i one mają zostać szybkie. Platforma idzie do zmiany ideowo przy następnym upgrade gpu jak ddr5 dojrzeje i będzie zauważalnie lepszy niż ddr4.
  • 39
  • Odpowiedz
po ciul? W produktywności nie wychłodzę, w gierkach w 4k bez znaczenia.

EDIT: właśnie to że 13700k + płyta jest tańsza niż ryzen 7900x bez niczego do mnie przemawia żeby ewentualnie coś.


@keton22: Lepiej utrzyma wartość, łatwiej sprzedać w przyszłości. Trochę więcej cash. Choć ja mam problem z 13700 taki, że sporo się dopłaca względem 13600k, a zyskuje się 2 rdzenie i troche cashu. Aczkolwiek mimo wszystko 13900k pod gry
  • Odpowiedz
O ile benchmarki są spoko to pójście na targ w Cyberaku kończy się 36fps i 40% zużycia GPU


@keton22: Coś musi być nie tak. Ten ryzen ma to #!$%@? infinity fabric? Kurde takiego spadku to ja na 9900k nie mam w 1440p z RT. Coś imho nie działa tak jak powinno. Masz poustawiane w windowscie zasilanie na maksymalną wydajność itp?
  • Odpowiedz
- intel wersja eco - zostawiamy RAM bo nic mu nie brakuje i kupujemy tylko platformę. Jak wyjdzie szybszy ddr5 i zen3d można tak samo myśleć i coś kupić/sprzedać


@keton22: Moim zdaniem to jest najlepsza opcja teraz. Jeśli masz DDR4 to sobie zmieniasz płytę i CPU i jazda.
Owszem można iśc teraz w nową podstawkę AMD, z nadzieją, że za 3 czy 4 lata się tam zmieni CPU na nowy
  • Odpowiedz
Coś musi być nie tak


@Variv: też mi się tak wydawało ale benchmarki cpu są w normie. Do tego IF 1800, RAM 3800CL14, Aida pokazuje typową latencję i przepustowość. Bottleneck jest do tego stopnia że w spidermanie nie widać czym mam DLAA czy DLSS2 włączone, jest tyle samo FPS, ~65-70% zużycia z RT i wszystkim na max. Za to jak popatrzysz na zużycie CPU rozbite na wątki to widać że
  • Odpowiedz
też mi się tak wydawało ale benchmarki cpu są w normie. Do tego IF 1800, RAM 3800CL14, Aida pokazuje typową latencję i przepustowość. Bottleneck jest do tego stopnia że w spidermanie nie widać czym mam DLAA czy DLSS2 włączone, jest tyle samo FPS, ~65-70% zużycia z RT i wszystkim na max. Za to jak popatrzysz na zużycie CPU rozbite na wątki to widać że są takie które pracują na maxa.


@keton22
  • Odpowiedz
@Variv: zaktualizowałem do najnowszego i wbiłem wszystko od zera. Podobnie mam najnowsze sterowniki od chipsetu co pomagają coś tam na aktualizację 22H2 windowsa. Zyskałem na tym może 5% w 3dmark, w grach nie widać. Ogólnie póki jest zapas na CPU wszystko się zgadza z benchmarkami z neta. A te parę gier co są wrażliwe na CPU i RAM w stylu plaga, spiderman czy trochę cyber mają lepsze wyniki od 3080
  • Odpowiedz
@JanKremovski: RT:Ultra, DLSS Quality, wyłączone wszystkie ziarna, aberracje czy inne depth of field. Jestem w prologu zaraz za misją z Viktorem Vectorem, wyszedłem od niego i tam niedaleko jest taki bazarek. Jak się po nim chodzi niedaj Borze się krzywo spojrzy to lecą fpsy i zużycie GPU.
  • Odpowiedz
@JanKremovski: pobiegałem jeszcze bo wyczytałem że ludzie mają problem z ALPM i pomaga ustawienie planu wysoka wydajność. Może coś nawet ale szału nie robi, najmniej miałem 74% zużycia i 42fps. Znamienne jest że przełączenie DLSS z quality na balanced daje całe nic a w spokojniejszej scenie takiej jak mieszkanie V różnice są.
  • Odpowiedz
@JanKremovski: dzięki, to jest to miejsce tylko trzeba trochę połazić. Jak zaczynasz biegać gapiąc się na stoiska i npców to u mnie zużycie gpu rzadko jest powyżej 90% a to często poniżej 80% a raz na czas kompletnie się załamuje. Tak sobie stojąc w 'złym' miejscu jest powiedzmy 75% zużycia i jakie 55-60 fps, ruszysz kamerą i nagle jest 60% i 45 fps. Próbowałem screeny zrobić tyle że jak jest
  • Odpowiedz
@JanKremovski: tak żeby skończyć temat słucham sobie streama Gamers Nexus gdzie Tech Jesus i Tech Santa podkręcają 4090 na azocie i padło takie stwierdzenie że jest bug na AMD i czekajcie na bios do swojej płyty bo bez tego były ultra niskie wyniki w benchmarkach. Nic więcej nie powiedzieli bo azot stygnie ale mi to coraz bardziej śmierdzi bugiem. Może nie sam cyberak bo on zawsze był specjalnej troski ale
  • Odpowiedz
@JanKremovski: dzięki. Na dlss quality mam 84fps avg i 43 fps minimum czyli się zgadzamy z grubsza.

EDIT: co do badlandsów na filmiku to mam tam dobre zużycie gpu i fpsy podobnie jak miałem na 3080. Przy jeżdżeniu po mieście raczej też, nawet 9700k z którym testowałem na początku dawał radę. Zabawa zaczyna się jak jest dużo modeli w kamerze na raz.
  • Odpowiedz
@Shewie: niech mają, na zdrowie.
Mi tylko zależy żeby karta była wystarczająco wykarmiona bo to co jest teraz nie jest normalne. Na teraz są gry dobre gdzie jest 99% zużycia GPU i np. w Modern Warfare 2 na maxie bez dlss jest 144fps w moim 'prawie 4k'. Podobnie w uncharted.
A w takim spidermanie jak w chlewie - nie ważne czy jest dlss czy dlaa, detale niskie czy wysokie jest
  • Odpowiedz
@keton22: Wiem o co chodzi piszę tylko że jeśli czujesz ze masz bottleneck CPU to moze warto przeskoczyć na 13900k. Reszta to chyba kwestia optymalizacji i driverów...
  • Odpowiedz
@Shewie: co szczerze coraz bardziej rozważam choćby dlatego że poprawka w AGESA 'będzie kiedy będzie' a Gigabyte którego płytę mam jest szczególnie powolny w tym temacie. Dzięki za głos w stronę Intela.
  • Odpowiedz