Aktywne Wpisy
![Nooleus](https://wykop.pl/cdn/c0834752/a9a40c7e18352950e991fe5a3cac76cdd490602ca9240f424a66199f8a5b6470,q60.png)
Nooleus +233
Chłop się pierwszy raz całował w życiu i z kim i z innym chłopem :33333
![Nooleus - Chłop się pierwszy raz całował w życiu i z kim i z innym chłopem :33333](https://wykop.pl/cdn/c3201142/98f2d6bdc824d6e1412ee8599a019aac319b2e735db6ac45c2962b7ac446de0a,w150.jpg)
źródło: 20240629_130700
Pobierz![Jerzy_Kudelski](https://wykop.pl/cdn/c3397992/Jerzy_Kudelski_am7Ln1e6Jp,q60.jpg)
Jerzy_Kudelski +543
#julka #pieknokobiet #pieklomezczyzn
Nic mnie tak nie #!$%@? jak baba oglądająca się ciągle za siebie, gapiąc się na mnie dając mi poczucie, że chce ją napaść i zgwałcić, a ja tylko chciałem wyskoczyć do żabki po 0.2 żubrówki, cole i orzechowe chrupki i spokojnie wrócić do domu.
Nic mnie tak nie #!$%@? jak baba oglądająca się ciągle za siebie, gapiąc się na mnie dając mi poczucie, że chce ją napaść i zgwałcić, a ja tylko chciałem wyskoczyć do żabki po 0.2 żubrówki, cole i orzechowe chrupki i spokojnie wrócić do domu.
![Jerzy_Kudelski - #julka #pieknokobiet #pieklomezczyzn
Nic mnie tak nie #!$%@? jak b...](https://wykop.pl/cdn/c3201142/dfa5d5b4bce49bdd14b1470017d10b93ccbbc1bc64a82e151c7e8f0422b8993a,w150.jpg?author=Jerzy_Kudelski&auth=5be39c314a6d8a28d0931328f7823675)
źródło: temp_file5332537037188460093
Pobierz
Generalnie, Nvidia zaliczyła tak kosmiczny wzrost, bo jest dostawcą sporej większości firm zainteresowanych ML/AI, bo ich karty są najwydajniejsze (aktualnie) do tego typu zadań, przez (głównie) technologie CUDA i Tensor. Tesla, AWS, google, netflix - biorą od nich czipy. Ich kapitalizacja rynkowa wybiła na takie poziomy, bo aktualnie są de facto monopolistami w dziedzinie - nie ma nic wydajniejszego.
Rynek próżni i monopolu nie lubi, więc naturalnym krokiem będzie teraz oczekiwanie na firmy, które zechcą sobie wykroić trochę tortu z samej produkcji chipów. Jak wspomniałem, Nvidia wygrywa aktualnie w czystej wydajności, ale baardzo przegrywa w wydajności. Tj. ich karty potrzebują ogromnych ilości energii, co nie jest problemem w serwerach, ale jest dużym problemem w podkategorii AI która dopiero się rozwinie, tj. AI mobilne. W tą kategorię wchodzą nie tylko telefony, laptopy, ale również wszelkiego typu roboty, drony (zastosowania militarne również), czyli wszystko, gdzie będzie konieczna długa praca na baterii.
I w tej kategorii, już teraz wygrywa Apple, które ma dużo ambitniejsze plany. Zaprezentowany miesiąc temu chip M4 ma mieć zajebiście dużą wydajność, jak na pobór mocy, dzięki Applowemu NPU (neural processing unit, apple trzyma tu mocny patent). Apple ma plany (podobno), na tworzenie również własnych czipów serwerowych - patrząc na ich procesory z serii M, to może być mocny game changer. Również ich framework Metal (odpowiednik CUDA) staje się coraz lepszy.
Jeśli więc apple pójdzie w tą stronę i im to wyjdzie, to jest potencjał na duże wzrosty. Ich konkurentami na ten moment będzie intel i qualcomm (AMD raczej do #!$%@? już idzie, zaspali za mocno), ale still wydaje mi się, że w kwestii mobilnej, za 2-3 lata, będą mieli duży monopol. Ten mobilny rynek AI dopiero się rozwinie - aktualnie nie ma odpowiednich mocy przerobowych + efektywności energetycznej, żeby to działało na dłuższą metę. Ale to się zmieni, i Apple będzie tutaj górą, bo już aktualnie w "prymitywnych" zastosowaniach AI (jakość zdjęć, siri itp) jest górą.
Z ryzyk, to klasycznie - ale to obejmuje dosłownie każdego dostawcę chipów, nvidię, amd, intela itp - większość samej produkcji czipów zapewnia TSMC, które jest na Tajwanie, więc jedna bomba od Chin i te stocki lecą po 90% w dół i mamy globalny kryzys.
https://patents.google.com/patent/US20210103803A1/en
https://www.tomshardware.com/pc-components/cpus/alleged-apple-m4-geekbench-scores-show-incremental-improvement-in-machine-learning-over-last-gen
https://www.macrumors.com/2024/04/23/apple-developing-its-own-ai-server-processor/
#gielda
Już pomijając to, że absolutnie błędnie widzisz potencjał desktopowego AI. To nie będzie prawdziwy rynek, to będzie coś, co będzie miał każdy procesor do lokalnych gówno-zadań i nikt nie będzie do tego przykładał większej uwagi.
Ależ oczywiście że będą, aktualnie potencjał AI drzemie tylko w brute force, llama najnowsza miała ponad 50000x więcej mocy obliczeniowej przy treningu niż gpt-2. Modele były tylko marginalnie ulepszane (funkcje aktywacyjne np), co spowodowało prawdziwy wzrost wydajności, to moc obliczeniowa i brute force. Apple ma potencjał na wprowadzenie tego samego, ale do sektora mobilnego - i wtedy nie