Aktywne Wpisy
Jkl777 +32
Pisanie z dziewczyną:
Napiszesz zwykłe hej, co tam - jesteś nudny
Napiszesz coś głupiego nietypowego/zabawnego - jesteś dziwakiem
Napiszesz jej komplement - jesteś spermiarzem
Napiszesz ciekawe rozbudowane otwarte pytanie - jesteś nachalny prowadzisz rozmowę jak przesłuchanie
XDDDDDD i tak można wymieniać godzinami mnie osobiście to pisanie z dziewczynami męczy w c--j
Napiszesz zwykłe hej, co tam - jesteś nudny
Napiszesz coś głupiego nietypowego/zabawnego - jesteś dziwakiem
Napiszesz jej komplement - jesteś spermiarzem
Napiszesz ciekawe rozbudowane otwarte pytanie - jesteś nachalny prowadzisz rozmowę jak przesłuchanie
XDDDDDD i tak można wymieniać godzinami mnie osobiście to pisanie z dziewczynami męczy w c--j
Nooleus +132
I nie zapraszam do dyskusji.
Dlaczego mam tak niskie uzycie GPU? Gram na najnowszych sterownikach GeForce Game Ready Driver 527.66 z 12/08/2022.
#wiedzmin3 #gry
@asdasdce2w: Ponieważ CDPROJEKT zespół optymalizacje.
@krzysiu51: I masz gorszą grafikę niż wcześniej bo część opcji jak HBAO+ usunęli xD
@asdasdce2w: jaki CPU? Mam nadzieję że 13900k bo jak nie to to jest normalne. Ta grafa będzie wykorzystana przez którąś nadchodzącą generację dopiero. U mnie na 7900x i 4090 nie mogę nawet zobaczyć fps bo nakładka się nie wyświetla i mimo samsunga 980 pro (jedyny milion IOPS, 7GB/s) są loading stuttery, wystarczy trochę koniem pojechać.
@keton22: Nie ma nic normalnego w tym że ma się 30FPS na 4090 i 50% wykorzystanie. Nawet na średnim procesorze to nie wystąpi. Mamy tu wzorcowy przykład skopanej optymalizacji.
@Zuben: masz? próbowałeś takie gry jak spiderman czy plague tale requiem w 4k na ultra? Jak nie nie wypowiadaj się. Ludowe mądrości tej karty nie dotyczą i nawet 7900x i 13900k w 4k są bottleneckiem w kilku grach i ta lista rośnie.
@keton22: A co według ciebie usprawiedliwia drastyczny wzrost wymagań względem CPU na 7 letniej grze gdzie analogiczne CPU generowały po 200 klatek przed patchem? Jak wyjaśnisz że dokładnie ten
@Zuben: na najnowszej i najmocniejszej karcie na rynku a nie grze. Case study - 3080 i 5900x czyli taki midend spiderman 100% zużycia GPU i 100fps w 4k na maxie bez raytracingu z dlss quality. Ta sama scena 7900x i 4090 60-70% zużycia gpu i 130fps. Mogę włączyć/wyłączyć DLAA bez różnicy w fps co nie powinno mieć miejsca, lekko tylko wzrasta zużycie
@keton22: na 5800XD3 czy i 13600k masz na 4090 utylizacje w okolicach 90% w spidermanie, a to najbardziej procesororzerna gra jaka powstała? Naprawdę uważasz że stary wiedźmin powinien wymagać więcej od procesora nie mówiąc już o tym że obciążenie procesora też jest niskie w tym super patchu.
Co do W3 to jakbyś czytał to piszę od jakiegoś czasu że tak będzie to oczywiście wypoki się rzuciły że niby jestem
@keton22: Ale ja nie zaprzecza że jest, tylko on nie powinien wystąpić w momencie gdy mamy 30 fps w 8 letniej grze.
@keton22: widziałem dllka ta chyba tylko jest by blokować liczniki fpsów xD