@aparat_rozdzielczy: jak mówią że tak będzie to albo już pracują nad tym od dłuższego czasu i w miarę działa albo wojsko już to ma i musi miną kilka lat
@aparat_rozdzielczy: @brusse: nie wiecie o czym piszecie :) Napisanie takiego MS Office na GPU pewnie byłoby nawet możliwe i nie jest to problem techniczny. Natomiast ze względu na konieczność rozdziału i synchronizacji wątków oraz stałej wymiany danych pomiędzy nimi (i to nie dwóch czy czterech się kilkuset do kilku tysięcy) to mega, mega skomplikowany problem programistycznych. To też jest jeszcze jakoś do zrobienia tylko tracimy przy podstawową zaletę
Znając nVidię jest szansa, że dogadali się z Microsoftem i kolejny Excel będzie potrzebował min 30 potoków, akceleracji fizyki i będzie gubił przecinki na kartach AMD. ( ͡°͜ʖ͡°)
@mrares a moze maja opravowane jakies slabe cpu i zrobia apu. W sumie co taki cpu musialby obsluzyc? System i programy co nie jest akomplikowane i wymagajace. Zaawansowane progtamy jak cad i photoshop juz uzywaja gpu.
No właśnie, tekst wyrwany z kontekstu a do tego autor nie zrozumiał przesłania. Na prezentacji nvidii faktycznie padło stwierdzenie, że CPU rozwija się bardzo wolno i że architektura itp. Miało to na celu podkreślenie jaki postęp zrobiła nvidia ze swoją nową architekturą, którą podniosła wydajność o kilkadziesiąt procent (w jakiś tam przypadkach) i ile pracy włożyli w tą architekturę.
Zgadza się również, że GPU nadaje się lepiej do AI, właśnie ze względu
@szkari: a czego się spodziewasz po artykule napisanym przez laika? Moim zdaniem jeśli ktoś nie zna nawet podstaw architektury komputerów to nie powinien pisać artykułów na takie tematy. Jak widać panu Kamilowi Pieczonce bardzo słaba znajomość tematu nie przeszkadza w pisaniu artykułów, po przeczytaniu których człowiek ma ochotę przejść się z żenady po mieszkaniu.
@SpasticInk: OK, na pewno nie rozwijają się w takim zawrotnym tempie jak skoki rzędu 300% między rokiem 1999 a 2001 i prawo Moore'a już dawno przestało obowiązywać. Jednak mówienie, że technologia stoi w miejscu to gruba przesada. Twój zestaw był może potężny w tym 2010 i nadal można z niego korzystać "do zastosowań domowych" ale tak zasadniczo to to jest już zabytek ;) Pewnie, wiesiek 3 odpali ale co to
To nie do końca tak jest. Po wrzuceniu AMD Ryzen, Intel rzucił i9. i9 to(niech mnie ktoś poprawi) projekt z 2013 roku. Co Intel ma teraz? Dowiemy się za jakieś 4 lata. Wiemy, że mają procesory oparte na każdej możliwej technologii i każdą próbują wdrażać.
Komentarze (133)
najlepsze
( ͡° ͜ʖ ͡°)
Zgadza się również, że GPU nadaje się lepiej do AI, właśnie ze względu
https://www.hardocp.com/article/2017/01/13/kaby_lake_7700k_vs_sandy_bridge_2600k_ipc_review/4
MASAKRA +20% WYDAJNOSCI W CIAGU 6 LAT
@szkari: a czego się spodziewasz po artykule napisanym przez laika? Moim zdaniem jeśli ktoś nie zna nawet podstaw architektury komputerów to nie powinien pisać artykułów na takie tematy. Jak widać panu Kamilowi Pieczonce bardzo słaba znajomość tematu nie przeszkadza w pisaniu artykułów, po przeczytaniu których człowiek ma ochotę przejść się z żenady po mieszkaniu.
Po wrzuceniu AMD Ryzen, Intel rzucił i9. i9 to(niech mnie ktoś poprawi) projekt z 2013 roku.
Co Intel ma teraz? Dowiemy się za jakieś 4 lata.
Wiemy, że mają procesory oparte na każdej możliwej technologii i każdą próbują wdrażać.