Mirki ja serio dobrze widzę? Procek za 660zł - Ryzen 5600 - nie jest tak daleko 5700x za 1150zł (praktycznie 2x tyle!), potem 5800x za 1180 okazuje się być blisko 5700x, a w niektórych grach nawet i nie odbiega tak bardzo od 5800x3d za 1800(!) zł?
Przecież to jest istna deklasacja, ja na pewno to dobrze patrzę? Szukam kompa na 3080, żeby ograć cybera, rdr2 w 1440p ultrawide 34". poniżej 5600 vs 5700x #pcmasterrace #komputery #amd
No ja nie wierzę 5600 w miarę nie odbiega od 5700x, gdzie 5700x jest równy 5800x gdzie 5800x wychodzi tak samo 5800x3d za 3x tyle hajsu - przy określonych grach, tych na których akurat mi zależy Czy to się ciągnie jeszcze gdzieś dalej?
@Buka81: no dobra ale czemu ten proc? Nie analizowałeś tego jakoś bardzo, czy była jakaś promocja, czy jest coś czego nie wiem, albo nie używasz do gier gdzie nie ma różnicy?
Wcześniejszy procek ograniczał mojego rtx 3070 a wiem ze ten dobrze radzi sobie z cod warzone^^ I w sumie tyle :) tak jakoś specjalnie tego nie analizowałem tylko spontanicznie go zamówiłem . Starego ryska opchnę za parę stówek i będzie git :)
@Buka81: ale teraz to mam łeb #!$%@? jeżeli wierzyć temu porównaniu, to ryzen 3600 dalej jest najlepszą opcją, a jak ryzen 3600, to pewnie i ryzen 3100 albo 1600af.
Po #!$%@? w takim razie, tyle generacji procesorów, skoro ona daje wynik ok kilka fps więcej?
Mógłbyś powiedzieć jakie będziesz miał wzrosty na 5800x gdy już wymienisz go z 3600? Jestem mega ciekaw, czy będzie to coś rzędu 6fps, czy ile,
@interpenetrate: wymieniłem 3700X na 5800X3D ze względu na 0.1 low no i 5800X3D to ostatni możliwy upgrade pod gry na tej podstawce. Jeżeli weźmiesz 5800X3D to koniecznie musisz ustawić pbo tuner na -30, bo inaczej grzeje się nawet pod chłodzeniem wodnym. Minus taki że nie można go podkręcić w żaden sposób nie licząc podkręcania przez BCLK na płytach droższych niż samo cpu
jeżeli wierzyć temu porównaniu, to ryzen 3600 dalej jest najlepszą opcją, a jak ryzen 3600, to pewnie i ryzen 3100 albo 1600af.
@interpenetrate: Nie rozpędzaj się tak. Raz, ze kanałom, na których są tylko filmiki z porównaniami procesorów, czy kart średnio bym wierzył, bo to mogą być fejki, a dwa, że jaka jest różnica cenowa między Ryzenem 5 3600 a Ryzenem 5 5600? 200 zł? Chyba nawet nie. Jaki to jest procent ceny całego komputera? 2, 3, 4? No to różnica w grach, nawet w 1440p jest nieraz wyraźnie większa (Death Stranding, CS:GO, nawet HZD). Nawet tam gdzie jest niewielka, to w minimalnych fpsach przebija te kilka procent.
Błędem logicznym jest patrzenie na to, że np. kupuję procesor o połowę tańszy, a tracę tylko 5% wydajności, więc to się opłaca. Bo tracisz 5% wydajności w grach całego, dużo droższego komputera, a
jak już z 3070 taki 5600 będzie już bottle neck'iem, więc nie rozpędzaj się tak z tym 3080 XD
@Gorkel: W 1080p. W 1440p kalkulator wylicza potężny 0,3% bottleneck - https://pc-builds.com/bottleneck-calculator/result/1fB17R/1/general-tasks/2560x1440/ ( ͡º͜ʖ͡º). Oczywiście kalkulator to tylko jakieś uproszczenie (przy czym ja bym raczej powiedział, że w 1080p trochę za łatwo wychodzi tam bottleneck), w grach o których pisze OP, gdzie nastawia się bardziej
przy 1440p zastanawiałbym się nad kombinacją Ryzen 5 5600 z RTX 3080, a przy szerokim 1440p to już spokojnie.
@Jan_K: byłbyś w stanie wytłumaczyć czemu to tak działa? Chodzi mi o składowanie tej wydajności pomiędzy rozdzielczościami. Na logikę, jak jest trochę słabo w 1080p, to w 1440p powinno być jeszcze slabiej, a tu te procenty wykorzystania lepiej się wyrównują.
Z 3070, r5600 będzie spowalniał karte w 1080p, ale już z
@interpenetrate: Procesor jest odpowiedzialny za te rzeczy, które nie są związane z rozdzielczością. Np. zachowania wrogów dookoła i wynikające z tego ich położenie. Niezależnie czy grasz w 1080p, czy w 1440p ma tyle samo roboty. Więc jak grasz na RTX 3080 w 1080p to procesor powinien przygotować np. 150 klatek, żeby dalej obrobiła je karta i z tym może mieć problem. Natomiast jak zwiększysz rozdzielczość to RTX 3080 będzie wymagał
@Jan_K: no nie tłumaczysz jasno Zobacz, najpierw napisałeś : "ma tyle samo roboty procek w 1080p jak i 1440p", a zaraz po tym "ma różne roboty, w 1080p przygotować musi 150 klatek, a w 1440p np. 100".
Jeżeli zwiększamy rozdzielczość (na razie przy tym samym monitorze), z 1080p na 1440p, to znaczy że tych "wrogów na ekranie" co bierzemy jako sposób tłumaczenia tego przykładu - będzie też większa ilość, to też będzie musiał więcej procesor przewyobliczać ( ͡°͜ʖ͡°), tych ich zachowań. I musi wygenerować dla 1080p np. 10 wrogów 30kl/s co daje 300kl/s, a na 1440p tych wrogów na ekranie zmieści się 15, gra będzie musiała silnikiem wymyślić zachowanie dla 15 wrogów i wtedy dla 30kl/s, daje to 450kl/s?
Bo napisałeś wartości malejące 150 i 100, czyli że jak w moim przykładzie w 1080p musi być 300kl/s, to w 1440p, musiałoby
@interpenetrate: To może nieco inaczej - załóżmy, że procek daje radę z przygotowaniem 125 klatek. W 1080p karta dałaby radę obrobić 150, ale dostaje 125, więc widzisz na wykresach, że procek niedomaga, a z mocniejszym masz więcej fps. W 1440p karta daje radę obrobić 100 (ma więcej pikseli do wygenerowania na każdej z nich), dostaje 125, więc nawet jak wsadzisz mocniejszy procesor to nic się nie zmieni.
Jeżeli zwiększamy rozdzielczość (na razie przy tym samym monitorze), z 1080p na 1440p, to znaczy że tych "wrogów na ekranie" co bierzemy jako sposób tłumaczenia tego przykładu - będzie też większa ilość
Na pewno? Im wyższa rozdzielczość tym wyższa dokładność obrazu, ale jeśli nie bawisz się zoomem, czy polem widzenia to normalnie widzisz ten sam fragment. Więcej - szerzej - widzisz przechodząc z 16:9 na widescreen.
Zresztą procesora normalnie nie interesuje ile widzisz. On oblicza zachowania w jakimś zasięgu narzuconym przez silnik gry, w zależności od gry albo tyle, żebyś nie miał szans natrafić na "nieruchomy" obszar, albo wręcz dla całej mapy. To, że ktoś stoi za Twoimi plecami i nie masz go na widoku nie oznacza, że procesor nie musi zajmować się obliczeniami jego zachowania i pozycji. Jak w strategii masz mgłę wojny i większość mapy zakrytą, to nie znaczy, że procesor nie musi dokonywać obliczeń dla
Procek za 660zł - Ryzen 5600 - nie jest tak daleko 5700x za 1150zł (praktycznie 2x tyle!),
potem 5800x za 1180 okazuje się być blisko 5700x,
a w niektórych grach nawet i nie odbiega tak bardzo od 5800x3d za 1800(!) zł?
Przecież to jest istna deklasacja, ja na pewno to dobrze patrzę?
Szukam kompa na 3080, żeby ograć cybera, rdr2 w 1440p ultrawide 34".
poniżej 5600 vs 5700x
#pcmasterrace #komputery #amd
No ja nie wierzę
5600 w miarę nie odbiega od 5700x, gdzie 5700x jest równy 5800x gdzie 5800x wychodzi tak samo 5800x3d za 3x tyle hajsu - przy określonych grach, tych na których akurat mi zależy
Czy to się ciągnie jeszcze gdzieś dalej?
jeżeli wierzyć temu porównaniu, to ryzen 3600 dalej jest najlepszą opcją, a jak ryzen 3600, to pewnie i ryzen 3100 albo 1600af.
Po #!$%@? w takim razie, tyle generacji procesorów, skoro ona daje wynik ok kilka fps więcej?
Mógłbyś powiedzieć jakie będziesz miał wzrosty na 5800x gdy już wymienisz go z 3600? Jestem mega ciekaw, czy będzie to coś rzędu 6fps, czy ile,
@interpenetrate: Nie rozpędzaj się tak. Raz, ze kanałom, na których są tylko filmiki z porównaniami procesorów, czy kart średnio bym wierzył, bo to mogą być fejki, a dwa, że jaka jest różnica cenowa między Ryzenem 5 3600 a Ryzenem 5 5600? 200 zł? Chyba nawet nie. Jaki to jest procent ceny całego komputera? 2, 3, 4? No to różnica w grach, nawet w 1440p jest nieraz wyraźnie większa (Death Stranding, CS:GO, nawet HZD). Nawet tam gdzie jest niewielka, to w minimalnych fpsach przebija te kilka procent.
Błędem logicznym jest patrzenie na to, że np. kupuję procesor o połowę tańszy, a tracę tylko 5% wydajności, więc to się opłaca. Bo tracisz 5% wydajności w grach całego, dużo droższego komputera, a
@Gorkel: W 1080p. W 1440p kalkulator wylicza potężny 0,3% bottleneck - https://pc-builds.com/bottleneck-calculator/result/1fB17R/1/general-tasks/2560x1440/ ( ͡º ͜ʖ͡º). Oczywiście kalkulator to tylko jakieś uproszczenie (przy czym ja bym raczej powiedział, że w 1080p trochę za łatwo wychodzi tam bottleneck), w grach o których pisze OP, gdzie nastawia się bardziej
@Jan_K: byłbyś w stanie wytłumaczyć czemu to tak działa? Chodzi mi o składowanie tej wydajności pomiędzy rozdzielczościami. Na logikę, jak jest trochę słabo w 1080p, to w 1440p powinno być jeszcze slabiej, a tu te procenty wykorzystania lepiej się wyrównują.
Z 3070, r5600 będzie spowalniał karte w 1080p,
ale już z
Zobacz, najpierw napisałeś : "ma tyle samo roboty procek w 1080p jak i 1440p", a zaraz po tym "ma różne roboty, w 1080p przygotować musi 150 klatek, a w 1440p np. 100".
Jeżeli zwiększamy rozdzielczość (na razie przy tym samym monitorze), z 1080p na 1440p, to znaczy że tych "wrogów na ekranie" co bierzemy jako sposób tłumaczenia tego przykładu - będzie też większa ilość, to też będzie musiał więcej procesor przewyobliczać ( ͡° ͜ʖ ͡°), tych ich zachowań. I musi wygenerować dla 1080p np. 10 wrogów 30kl/s co daje 300kl/s, a na 1440p tych wrogów na ekranie zmieści się 15, gra będzie musiała silnikiem wymyślić zachowanie dla 15 wrogów i wtedy dla 30kl/s, daje to 450kl/s?
Bo napisałeś wartości malejące 150 i 100, czyli że jak w moim przykładzie w 1080p musi być 300kl/s, to w 1440p, musiałoby
Na pewno? Im wyższa rozdzielczość tym wyższa dokładność obrazu, ale jeśli nie bawisz się zoomem, czy polem widzenia to normalnie widzisz ten sam fragment. Więcej - szerzej - widzisz przechodząc z 16:9 na widescreen.
Zresztą procesora normalnie nie interesuje ile widzisz. On oblicza zachowania w jakimś zasięgu narzuconym przez silnik gry, w zależności od gry albo tyle, żebyś nie miał szans natrafić na "nieruchomy" obszar, albo wręcz dla całej mapy. To, że ktoś stoi za Twoimi plecami i nie masz go na widoku nie oznacza, że procesor nie musi zajmować się obliczeniami jego zachowania i pozycji. Jak w strategii masz mgłę wojny i większość mapy zakrytą, to nie znaczy, że procesor nie musi dokonywać obliczeń dla