Wpis z mikrobloga

Mircy z #pcmasterrace i #komputery pomuszcie bo nie ogarniam.

Mam RTX4090 #beyonddisaster i do tego 5900x który nie daje jej rady wykarmić nawet w 4k. O ile benchmarki są spoko to pójście na targ w Cyberaku kończy się 36fps i 40% zużycia GPU. Plague Tale Requiem jak się dobrze trafi podobnie. Mniej procesorowe gry ogarniają ale ogólnie bottleneck jest teraz po stronie CPU.

Obejrzałem sobie trochę testów z których wynika że 13700k jest równy 12900k i DDR4 nie ma wielkiego znaczenia.

Mam bardzo dobry kit 3800CL14 który spokojnie pójdzie jako 4200CL16. Mógłbym sobie po taniości zrobić platformę która wykarmia mojego RTXa na zasadzie upgrade CPU+płyta.

I teraz 2 sakramentalne pytania:

1. czy ja dobrze kombinuję? Materiały źródłowe przykładowe: https://www.youtube.com/watch?v=s8kY_rx13L8 i https://www.youtube.com/watch?v=B6ijtfJ7CXI
tl;dw: 13600k po oc na 5.3GHz z ddr4 jest z grubsza 5% za 12900k w 4k z 4090. 13700k jest praktycznie równe 12900k. 12900k wykarmia 4090 bez problemu.

2. jaki chipset i płyta do 13700k? Chcę robić OC mnożnikiem jak człowiek, chcę mieć sensowną sekcję zasilania. Nie potrzebuję wifi ani chyba PCIe5.0 za to mam 2 szybkie dyski pcie4.0 i one mają zostać szybkie. Platforma idzie do zmiany ideowo przy następnym upgrade gpu jak ddr5 dojrzeje i będzie zauważalnie lepszy niż ddr4.
  • 39
@Atreyu: po ciul? W produktywności nie wychłodzę, w gierkach w 4k bez znaczenia.
EDIT: właśnie to że 13700k + płyta jest tańsza niż ryzen 7900x bez niczego do mnie przemawia żeby ewentualnie coś.
@keton22: zjedź z detalami obciążającymi CPU o jedno oczko i będzie dobrze. Nie ma co wydawać teraz hajsu skoro masz 5900x. No i wyłącz dlss (bo opóźnienia i artefakty) i graj w natywnym 4k to znowu nie będziesz musiał narzekać na CPU bo GPU będzie płakał ;)
@ReeceWithouterpoon: widzę że nie miałeś jeszcze szansy doświadczyć jaki apetyt ma 4090 na draw calle. Zużycie gpu załamuje się tak samo dobrze albo lepiej na niższych detalach. A dlss 3 bo o tym piszesz nie używam, nie jestem fanem artefaktów które generuje.
@keton22: osobiście by mi się nie chciało z tym wszystkim #!$%@?ć chyba, że szuka dla sztuki. Bo ja od dawna już nie podkręcam (bardzo) bo nie lubię tej loterii, przepalania kasy nieproporcjonalnie dużej do zysków i sprawdzania stabilności przez długie godziny. Na moje, czekać obserwować, wyjdą lepsze cepy to se kupisz.
Ps. Na razie nie interesuje mnie szczególnie drogi sprzęt bo nic nie jest w stanie uciągnąć ms flight sima w
pomuszcie

rdzeniuf

Zużycie


@keton22: NIe chcę się bawić w @paliwoda, ale na boga naucz się ortografii, bo aż oczy bolą. Po drugie nie zużycie, bo się grafika ani procesor nie zużywają tylko użycie.

A poza tym coś myślał? Chyba wszystkie procesory konsumenckie w tej chwili będą miały bottelneck z 4090, trzeba czekać na mocniejsze jednostki.
@NielegalneKretowisko: tak to ja też mogę powiedzieć każdemu na każdy temat. Jakieś rozwinięcie?

@dwal: doceniam dobre chęci ale popatrz na testy

A ogólnie jak zobaczyłem to OC zablokowane do chipsetów Z, bios flashback będący premium feature w Asusie tylko w płytach za 2k, z kolei kompatybilność ze starszymi coolerami tylko w Asusie a nie w MSI czy Gigabyte to mi się chyba odechciało.
@keton22: Do samego grania w gry większa ilość rdzeni na niewiele ci się zda. Tu się bardziej liczy moc pojedynczego rdzenia, niż wielowątkowość. I tak mało która gra potrafi wykorzystywać dobrze procesory z większą ilością rdzeni i wątków niż 6/12. Najlepszym przykładem jest to, że nowszy i5 12400F (6/12) jest w grach wydajniejszy niż i9 10900 (10/20).
liczy moc pojedynczego rdzenia


@z1x2c3: pełna zgoda i trzeba iść w najmocniejszy pojedynczy rdzeń czyli obecnie... raptor lake + może lekkie OC do tego. Ale mi się wincej rdzyniuff przyda bo muszę mieć wydajność kompilacji kodu większą niż mam czyli 13700/13900k, względnie 7900x. To właśnie skreśla dla mnie 5800x3d.
Opcje:
- nie robić nic, ale aż żal ściska bo bottleneck jest od tego stopnia że np. w spidermanie jest tyle samo