Zainspirowany artykułem o nowych kartach NVIDIA Vera Rubin Superchip z [PurePC](https://www.purepc.pl/nvidia-vera-rubin-superchip-omowienie-platforma-ai) pogadałem sobie z Gemini na temat złożoności obliczeniowej i pamięciowej mózgu człowieka. W sensie jak dużo brakuje żeby symulować (funkcjonalnie) myślenie człowieka na krzemie.
Założenia i pełną dyskusję można sobie przejrzeć w raporcie [ExaFLOP brain](https://gemini.google.com/share/acae88a5ab02). Oczywiście nie sprawdzałem dokładnie wszystkiego ale dużo parametrów które Gemini wygrzebał z sieci zgadzają się z tym co wiem albo co znalazłem.
To jest złożone zagadnienie, mózg nie jest jednorodny, do "myślenia" używamy tylko części (tej mniejszej, 19% komórek) ale ona ma największą złożoność (większość synaps, czyli pamięci), poza tym są limity energetyczne które nie pozwalają odpalić wszystkie komórki naraz. Budżet ATP (nośnik energii w komórkach - Adenozynotrifosforan) pozwala na aktywność 1-5% komórek albo bursty po których trzeba się "doładować", etc...
Anyway, najważniejsza tabelka/zestawienie wygląda tak:

Mózg (wetware)
Najważniejsze liczby to:
- pamięć człowieka w ujęciu informatycznym: 200 TB (jakby razem RAM i storage - nie ma rozróżnienia)
- szybkość przetwarzania informacji podczas myślenia 0.075-20 PetaOPS (czyli PFLOPS przy rozdzielczości 1B)
Komputer (hardware)
[NVIDIA Vera Rubin NVL72](https://www.nvidia.com/en-us/data-center/vera-rubin-nvl72/), to jest jak rozumiem cały RACK złożony z 36 GPU, max 230 kW mocy czyli "myślenie" przez godzinę kosztuje ~300zł za sam rachunek na prąd.
- pamięć GPU (łączna): 20.7 TB
- szybkość przetwarzania, zależnie od precyzji: 1260 PFLOPS (FP8) do 3600 PFLOPS (NVFP4 Inference)
Wnioski
Taki jeden cluster (typowa szafa RACK) były w stanie procesować w czasie rzeczywistym od 100 do 25 tysięcy (!!!) ludzi, w zależności jakie założenie wybierzemy. Z kolei pamięci wystarczy na zaledwie 0.1 człowieka :-/ Oczywiście tu jest wiele założeń, które mogą nie być prawdziwe. Mogą w mózgu istnieć inne procesy przetwarzania i przechowywania pamięci (mało prawdopodobne) a wydajność obliczeniowa GPU może być o wiele mniejsza niż teoretyczna max (bardzo prawdopodobne).
Nie mniej jednak, szybkości jest wielokrotnie większa niż wymagana za to pamięci jest wielokrotnie mniej niż potrzeba... To przynajmniej wiemy skąd takie wysokie ceny pamięci ;-)








Komentarze (30)
najlepsze
IMO:
Rubin potrzebuje dużo pamięci (obrazek).
Ale przecież nie tylko Nvidia produkuje układy do obliczeń AI, które wymagają coraz więcej pamięci, bo też Google, AMD, i inne, a po stronie Chin: Huawei, Alibaba, i inne.
A szaleństwo z pamięciami zaczęło się od czasu ogłoszenia przez USA Misji Genesis, która przyspieszyła projekt Stargate, gdzie nieoficjalnym celem jest stworzenie AGI i ASI (superinteligentnej AGI). Chińczycy
źródło: image
Pobierz@Arkass: Musisz zrozumieć, że nie ma już nic "później". To najprawdopodobniej jest wygrana albo całkowite podporządkowanie się. Dla dyktatora (partii Chin) utrata władzy to utrata wszystkiego więc "opcja atomowa" nie jest nieprawdopodobna. Może nie dosłownie atomowa ale sabotaż w postaci klasycznych ładunków/rakiet jak najbardziej
też obstawiam że za duże, pobieżnie:
- o ile dobrze zrozumiałem 1 strzał z synapsy = 1 operacja
Tylko to tak nie działa bo neuron ma kilka synaps, nie możemy ich policzyć jednocześnie bo aktywacja to suma poszczególnych wejść - trzeba wczytać N-bitów i N-razy dodać to N operacji sekwencyjnych, mózg to robi "w jednym takcie",