Wpis z mikrobloga

@Anon2139: to ja się boję gdzie odleci mój laptop jakbym włączył tam RTX jak mu się wentylatorki załączą, jak wy na PCtowych kartach nowszej generacji macie coś około 60 FPS, CDPR cożeś ty mnie tu znwou uczynił ( ͡° ʖ̯ ͡°)
Wiele osób ma tak samo. U mnie na RTX2060 na najniższych zużycie GPU jest w okolicy 40-50%. Pomaga przejście na DX11, ale wtedy RT i DLSS odpadają.


@krzysiu51: I masz gorszą grafikę niż wcześniej bo część opcji jak HBAO+ usunęli xD
Dlaczego mam tak niskie uzycie GPU


@asdasdce2w: jaki CPU? Mam nadzieję że 13900k bo jak nie to to jest normalne. Ta grafa będzie wykorzystana przez którąś nadchodzącą generację dopiero. U mnie na 7900x i 4090 nie mogę nawet zobaczyć fps bo nakładka się nie wyświetla i mimo samsunga 980 pro (jedyny milion IOPS, 7GB/s) są loading stuttery, wystarczy trochę koniem pojechać.
jaki CPU? Mam nadzieję że 13900k bo jak nie to to jest normalne.


@keton22: Nie ma nic normalnego w tym że ma się 30FPS na 4090 i 50% wykorzystanie. Nawet na średnim procesorze to nie wystąpi. Mamy tu wzorcowy przykład skopanej optymalizacji.
Nawet na średnim procesorze to nie wystąpi.


@Zuben: masz? próbowałeś takie gry jak spiderman czy plague tale requiem w 4k na ultra? Jak nie nie wypowiadaj się. Ludowe mądrości tej karty nie dotyczą i nawet 7900x i 13900k w 4k są bottleneckiem w kilku grach i ta lista rośnie.
masz? próbowałeś takie gry jak spiderman czy plague tale requiem w 4k na ultra? Jak nie nie wypowiadaj się. Ludowe mądrości tej karty nie dotyczą i nawet 7900x i 13900k w 4k są bottleneckiem w kilku grach i ta lista rośnie.


@keton22: A co według ciebie usprawiedliwia drastyczny wzrost wymagań względem CPU na 7 letniej grze gdzie analogiczne CPU generowały po 200 klatek przed patchem? Jak wyjaśnisz że dokładnie ten sam
wzrost wymagań względem CPU na 7 letniej grze


@Zuben: na najnowszej i najmocniejszej karcie na rynku a nie grze. Case study - 3080 i 5900x czyli taki midend spiderman 100% zużycia GPU i 100fps w 4k na maxie bez raytracingu z dlss quality. Ta sama scena 7900x i 4090 60-70% zużycia gpu i 130fps. Mogę włączyć/wyłączyć DLAA bez różnicy w fps co nie powinno mieć miejsca, lekko tylko wzrasta zużycie gpu.
próbowałeś takie gry jak spiderman czy plague tale requiem w 4k na ultra?


@keton22: na 5800XD3 czy i 13600k masz na 4090 utylizacje w okolicach 90% w spidermanie, a to najbardziej procesororzerna gra jaka powstała? Naprawdę uważasz że stary wiedźmin powinien wymagać więcej od procesora nie mówiąc już o tym że obciążenie procesora też jest niskie w tym super patchu.

Case study - 3080 i 5900x czyli taki midend spiderman 100%
@Zuben: ja uważam tylko że bottleneck an 4090 to rzecz powszechna i że mocniejszy procesor pomaga tam gdzie widać niskie zużycie gpu, mam nawet serię postów pod tagiem #beyonddisaster gdzie testuję kartę zaraz po premierze i dochodzę z nią do ładu między innymi przez upgrade platformy.

Co do W3 to jakbyś czytał to piszę od jakiegoś czasu że tak będzie to oczywiście wypoki się rzuciły że niby jestem hejterem. Bawcie się
ja uważam tylko że bottleneck an 4090 to rzecz powszechna i że mocniejszy procesor pomaga tam gdzie widać niskie zużycie gpu, mam nawet serię postów pod tagiem #beyonddisaster gdzie testuję kartę zaraz po premierze i dochodzę z nią do ładu między innymi przez upgrade platformy.


@keton22: Ale ja nie zaprzecza że jest, tylko on nie powinien wystąpić w momencie gdy mamy 30 fps w 8 letniej grze.

Co do W3 to
@asdasdce2w: a tak ad rem polatałem sobie i zużycie gpu jest wysokie (>95%) a mam wszystko na maxa. Jak usunąłem ten dll co psuł i kazali na reddicie to nawet Afterburner działa a jak hex edytorem pozmieniałem wartości to nie mam letterboxa w cutscenach. Jedyne co to że tekstury nie są wcale takie wow, zwykły hd rework a na samym początku widać że tak jak w oryginale jest parę takich które