Wpis z mikrobloga

@Lanc: Szybkość ma znaczenie, ale takie samo znaczenie ma zużycie prądu.

GTX 770 ma wydajność 0.25 R9 280X, ale ma niższe zużycie prądu (choć niewiele) - 230W przy 250W Radka. To oznacza że opłacalność wynosi 0,27 opłacalności Radka.

Teraz: R7 265 w kopaniu Litecoin'a jest 2x szybszy niż GTX 750Ti, ale przy zużyciu prądu 115W, gdzie GTX na swoje 0.5 wydajności potrzebuje 60W. To powoduje, że koszt wydobycia jest prawie ten
@Lanc: Cholera, machnąłem się, popatrzyłem na koszty kopania Bitcoin'a!

Więc drugie wyliczenia jeszcze raz:

Radeon R7 265 wyciąga 252 kh/s i zużywa 150W.

Geforce GTX 750Ti wyciąga 245 kh/s i zużywa 60W.

To oznacza, że GeForce jest 2.57x wydajniejszy niż Radeon! Ceny obu mają wynosić mniej więcej tyle samo : ).
@losiul: bardzo ciekawe. 245 khash przy 60W ? to nie potrzebuje nawet 6pin z zasilacza :) a przy podkręceniu pewnie dojdzie w granice 280. 6 takich na asrocku pro btc daje ok 1500 kh/s. Ile toto kosztuje? Wreszcie nvidia pomyślała ? Czekam na edycję kart pro-scrypt mining, z duzym wentylatorem i bez wyjsc video :)
@losiul: to teraz cie zaskoczę. R9 270 - 140w z zasilacza (150w z gniazdka), 490 kH/s. Coś jeszcze chcesz dodać? ;)

Czyli tak:

2x GF 750 Ti = 490 kH - 120W, koszt ponad 1100 zł

1x R9 270 = 490 kH - 140W, koszt 650 zł

Tak więc póki co jeszcze nie. Może w następnej generacji. No chyba ze wyższe modele będą miały większego kopa.

Czemu ty tu robisz porównanie
@Lanc: R9 270 potrzebuje 150W i kosztuje ok 700zł (na allegro jest 1na oferta poniżej..), a wg THG wyciąga 292kh/s (w tym samym pudle co GF!). Żeby coś porównać musisz mieć te same warunki. Wg tego co podałem, to 270tka ma wydajność 2,97x razy niższą niż GF i jest droższa.

Jest oczywiście szansa na to, że THG używa jakiejś niezoptymalizowanej wersji testu, ale ciężko mi w to wnikać - można tak
@losiul: no to tyle teorii z twojej strony.

1. Wczoraj kupiłem 2x R9 270 OC, nówki ze sklepu po 660 zł sztuka.

2. Mam już jednego takiego gigabyte, wiem ile mi kręci kH i wiem jaki jest jego pobór prądu (mierzone watomierzem). I te 140W ciągnie juz po OC, kręcąc w tym czasie 490 kH/s.
@Lanc: Nice ; ). Tak czy inaczej nie odpuszczałbym tych GF: jest spora szansa, że realnie wyciągają też sporo więcej niż Radki. Warto ten temat obserwować: nVidia chce wejść ze swoimi układami na smartfony, może się w niedługim czasie okazać, że są znacznie wydajniejsi per W niż AMD w GPGPU.
@losiul: to inaczej. Ja nie przekreślam nvidii. Po prostu ten konkretny model jest za słaby, żeby był opłacalny. Zobaczymy jak się będą zachowywać mocniejsze karty oparte na maxwellu.
@losiul @Lanc @paniczklos : doczytałem, są już testy z oc przy kopaniu, robi na cudaminerze 295 kh/s przy wciąż 60w. linia pcie jest gardłem wąskim, ale są juz konstrukcje z gniazdem zasilania i jest szansa że wykręcą jeszcze więcej, zwazywszy ze cudaminer nie jest jeszcze zopt. do architektury maxwell.

panowie, mamy chyba nowego króla pod wzgledem efektywności per watt.
@mesjasz22: gorzej, że karta kręci za mały hashrate, żeby opłacało się składać koparki na niej. Za dużo miejsca by ci po prostu zajęły. Trzeba czekać na mocniejsze maxwelle ;)
@Lanc: Dokładnie : ).

@paniczklos: Kepler'y są bardzo kiepskie do kopania. Pod względem GPGPU są często nawet słabsze niż mój Fermi.

@mesjasz22: nVidia od czasu Keplerów zaczęła stawiać na efektywność per watt właśnie. Co jest bardzo ciekawe to to jak będą się sprawować Maxwell'e na smartfonach, gdzie przy Tegra K1 (Kepler, którego jeszcze nie można kupić), wzięli układ z desktopów, trochę zmodyfikowali pod kątem zużycia prądu i wyszedł im