źródło: eldorado1973
Pobierz
źródło: eldorado1973
Pobierz
źródło: temp_file9116077525699232344
Pobierz
źródło: temp_file4683883840813852535
Pobierz
źródło: temp_file4683165164945550441
Pobierz
źródło: temp_file8384586080289012772
Pobierz
źródło: temp_file7333893861478541171
Pobierz
źródło: 1000008598
PobierzKomentator
od 01.10.2022
Rocznica
od 16.07.2024
Gadżeciarz
od 25.07.2012
Mikroblogger
od 21.11.2017
Koder
od 07.03.2023
Wykop.pl
Najpierw trochę kontekstu: Obecnie trenowanie najlepszych modeli AI jest NIEWYOBRAŻALNIE drogie. OpenAI, Anthropic i inne firmy wydają ponad 100 milionów dolarów tylko na moc obliczeniową. Potrzebują ogromnych centrów danych z tysiącami kart GPU wartych po 40 tysięcy dolarów każda. To jak posiadanie całej elektrowni tylko po to, aby zasilić fabrykę.
DeepSeek właśnie się pojawił i powiedział: „LOL, a co jeśli zrobimy to za
źródło: GiUo6MTaYAAvgw9
Pobierz