Wpis z mikrobloga

#hubadev o tematyce kwantowych obliczeń i komputerów, inspirowany dyskusją pod wykopem o programowaniu kwantowym

Można, używać karty graficznej do obliczeń CPU i na odwrót ale to nie ma sensu. Tak samo można używać procesora o kwantowej architekturze do obliczeń CPU ale przez jego niedokładność(tak samo jak w przypadku GPU) nikt tego nie robi. W obliczeniach CPU potrzebujemy 99.99%(jak najwięcej się da technicznie) dokładności i bezbłędności do stabilnego działania.

GPU(architektura) zostało stworzone bo potrzebowaliśmy o wiele szybszych obliczeń do grafiki(i nie tylko) które mogą mieć rzędy więcej błędów bo nikt nie zauważy tysiąca źle wyświetlonych pikseli(źle zrobionych obliczeń) w jednej klatce, podczas grania w grę czy oglądania filmu.

Architektura kwantowa tworzona jest by być jeszcze szybszym!!! TURBO SZYBKIM jak tylko się da szybkim! ale znów kosztem następnych rzędów błędów ( ͡° ͜ʖ ͡°).
W architekturze kwantowej nie mówimy już o "wyniku" a o prawdopodobieństwie wyniku . Tutaj zastosowanie znajduje kryptografia(bankowość/bezpieczeństwo/klucze/bitcoiny xD).

I znów tworzymy nową architekturę QPU(Quantum Processing Unit) która nawet jeśli będzie w smartfonach za 10 lat to nigdy nie wyprze CPU (Central Processing Unit) tak jak nie zrobiło tego GPU(Graphics Processing Unit). Tylko będą współpracować, każde do innego celu.

CPU -> BIOS/SYSTEM
GPU -> GRAFIKA/UI
QPU -> SZYFROWANIE/OBLICZENIA(wątpię, że przejmie wyświetlanie grafiki bo moglibyśmy mieć niezłą abstrakcje xD)

Kiedyś pewnie powstanie coś jeszcze szybszego *PU z jeszcze większą ilością błędów ale nadal nie zastąpi starego dobrego CPU, dlatego też w sondach kosmicznych mamy procesory z lat 70, bo ich architektura jest odporna na błędy/artefakty.

#informatyka #programowanie #komputery