Wpis z mikrobloga

@CrystalDizzy: takiego nie będzie. Docelowy PC zarabia na swoje utrzymanie więc jest włączony 24/7 i przez większość czasu coś robi. Guesstimate byłby w granicach 50-75 PLN miesiąc bo z grubsza o tyle spadają rachunki jak wyjeżdżam.
@Variv: widzę że musi być cała historia... Moj komp z grubsza wygląda tak. Wyprucie bloku wodnego i wstawienie tymczasowej linii wodnej to jedno ale tu brakuje miejsca między rezerwuarem a końcem karty. Dosłownie cholernego 0.5cm. Jakby to mioało być na stałe to bym zamówił inny bracket, rozpruł wszystko, przedłużył przewody wodne i tyle. Ale na 2 tygodnie (#pdk, ale wolę nie) to co innego.

A i krótszą tubę żeby rez
Pobierz
źródło: comment_1666161860lTZn6RKdSn3i3PVGv7bpyu.jpg
sraczkowa noctua


@Ralphs: ma dla mnie wartość niemalże sentymentalną - pochodzi z pewnego kompa który miło wspominam. Gdzieś, kiedyś w lepszych wspanialszych czasach. Za to Vardary które tu widać walić prądem, 4 lata i już uwalone łożyska. Teraz mam phanteksa T30 w cenie dobrego używanego Passata :)
@iMarek22: to poczytaj posty z #beyonddisaster w skrócie undervolt dla 100w mniej przy tej samej wydajności. Mogli ją wydać tak żeby brała mniej niż 3080 i miała 2 fps w 4k mniej niż ma.


@keton22 Nie czaje tego. Zrobiłoby gpu co zamiast 450w ma 350/370w. Do tego mogłoby wywczas dać mniejsze chłodzenie a realnie wydajność byłaby symbolicznie mniejsza.
Wszyscy byliby zadowoleni. Wydajność Per wat jeszcze większą i wszyscy by chwalili.
@Variv: ja też tego nie czaję. Z drugiej strony jak ją odkręcisz na 600w i podlejesz woltami to przekracza 3ghz na powietrzu pierwszy raz w historii i ma dodatkowe 5-10% w benchmarkach. Tyle że na gry to się nie przekłada. Może w renderingu/ML jest więcej. Ale ja nie chcę grzejnika o mocy 600w i tak 350 już jest uciążliwe.
@keton22: @Variv: w grach nie ma to żadnego znaczenia ale te 5-10% wydajności bo właśnie daje to te 3-4 fpsy.
Ale w renderingu 3d czy montażu filmów to robi różnice i tam każda sekunda jest odczuwalna.
A jednak takie karty głównie tam mają zastosowania a nie w grach.
nie w grach


@carving85: normalnie bym ci przyznał rację ale tym razem kiedy dużo więcej kart się wyprzedało niż było takiej 3090 na początku to sam nie wiem. I 3090 była w sklepach dłużej po premierze bo nikt nie brał bo się nie opłacało dla 10% więcej za 700 dolków. Tu masz 30% więcej do 4080 (niegdyś 16gb) i różnica w cenie mniejsza.
A i ludzie pamiętają co było z Ampere
@keton22: nie no wiadomo że jest jakaś tam pula osób która kupuje te karty tylko do grania i tak na pewno jest ona większa z tego względu co piszesz że kupowali bo było dostępne a nie wiadomo co będzie za miesiąc.
Ale jak się spojrzy ogólnie na topowe grafiki to czy xx80 czy xx90 to jest mniejszość jeżeli chodzi o granie wystarczy spojrzeć na statystyki steama odnośnie sprzętu.
@carving85: to prawda ale z innej strony Ampere jest już najpopularniejszą generacją a 3060 najpopularniejszą kartą więc tak źle nie jest.
Ale racja może jak ktoś takiego kompa stawia w klimatyzowanej serwerowni to ma w nosie i każdy procent jest ważniejszy. A Nvidia lubi mieć powód twierdzić że każda generacja jest najszybsza na świecie i wygrywać z AMD. Undervolta zrobią użytkownicy we własnym zakresie.
z innej strony Ampere jest już najpopularniejszą generacją a 3060 najpopularniejszą kartą więc


@keton22: nie wiem czy patrzymy na ten sam wykres ( ͡° ͜ʖ ͡°). Bo nie wiem czy jest sens dodawać 3060 zwykła do laptopowej, bo tylko wtedy jest najpopularniejsza.

Jednak laptopowa 3060 jest tak popularna bo była dostępna i laptopy były powiedzmy w sensownej cenie, gdzie ze zwykłymi to wiadomo jak było.
Pobierz
źródło: comment_1666172644ZMiKizNdQaXvpergBGAupz.jpg