Wpis z mikrobloga

#codzienneainews
[1] Machines Of Loving Grace - jak sztuczna inteligencja może zmienić świat na lepsze
Dario Amodei, CEO Anthropic, wysmarował baaaaaaaaaardzo długiego posta na blogu. Przedstawia w nim optymistyczną wizję świata z potężnym AI w ciągu 5-10 lat po jego powstaniu. Według niego, AI mogłoby znacząco przyspieszyć postęp w biologii i neuronaukach, potencjalnie eliminując większość chorób, podwajając ludzką długość życia i znacząco poprawiając zdrowie psychiczne oraz funkcjonowanie poznawcze. Amodei sugeruje, że AI mogłoby skompresować postęp całego XXI wieku do zaledwie kilku lat, choć przyznaje, że przewidywania te są spekulatywne. Streszczenie w komentarzu.

[2] Zmiany na rynku GPU do AI
Na Latent Space pojawiła się fajna analiza obecnej sytuacji hardware'u do AI. Otóż rynek GPU, szczególnie NVIDIA H100, przeszedł dramatyczną zmianę w ciągu ostatniego roku. Ceny wynajmu spadły z $8 za godzinę w 2023 roku do poniżej $2 za godzinę w 2024 roku na wielu platformach. Ten spadek jest wynikiem kilku czynników: opóźnionych dostaw sprzętu, które teraz zalewają rynek, rosnącej popularności modeli open-source, oraz zmniejszenia liczby nowych firm tworzących modele podstawowe. Dodatkowo, duzi gracze w branży AI budują własne klastry obliczeniowe, zmniejszając popyt na publiczne chmury.

Ta sytuacja ma poważne implikacje dla branży. Inwestycje w nowe klastry H100 stają się mniej opłacalne, a przy cenach poniżej $2.85 za godzinę, zwrot z inwestycji jest gorszy niż na rynku akcji. Jednakże, niższe ceny GPU mogą przyspieszyć adopcję modeli open-source i demokratyzację AI. W obecnej sytuacji rynkowej, eksperci zalecają unikanie zakupu nowych H100, sugerując zamiast tego wynajem mocy obliczeniowej, chyba że ma się specjalne warunki lub potrzeby. Rynek GPU ewoluuje w kierunku towaru, co może prowadzić do dalszych spadków cen w przyszłości.

[3] lm.rs: przy użyciu Rust odpal sobie inferencję LM-ów lokalnie na CPU
Autor, zainspirowany projektami Karpathy'ego (llama2.c i llm.c), postanowił stworzyć bardzo minimalistyczny kod (choć na razie nie jest aż tak minimalistyczny), który pozwala na wykonywanie pełnej inferencji modeli językowych na CPU bez użycia bibliotek do ML. Początkowo obsługiwane były tylko modele Gemma 2 od Google, ale autor dodał wsparcie dla nowych modeli Llama 3.2 oraz możliwość obsługi obrazów za pomocą PHI-3.5. Obecnie przetwarzanie i kodowanie obrazów zajmuje trochę czasu, co spowalnia pierwszą odpowiedź, ale autor pracuje nad optymalizacją. A, no i zrobił to w Rust...

[4] Wpływ ChatGPT na naukę programowania: korzyści i szkody
Pojawiła się fajna publikacja, w której badacze z uczelni w Kolonii i Rotterdamie analizują jak generatywna sztuczna inteligencja, a w szczególności duże modele językowe (LLM), wpływają na naukę w zajęciach z programowania. Przeprowadzili trzy badania, które pokazują, że korzystanie z LLM może mieć zarówno pozytywny, jak i negatywny wpływ na wyniki w nauce.

Stwierdzili, że studenci korzystający z LLM jako osobistego nauczyciela, pytając o wyjaśnienia, odnoszą korzyści z takiego wsparcia. Jednak nadmierne poleganie na LLM przy rozwiązywaniu zadań praktycznych szkodzi nauce, zwłaszcza u studentów, którzy nie podejmują wystarczającego własnego wysiłku intelektualnego. Uczniowie bez wcześniejszej wiedzy z danej dziedziny odnoszą większe korzyści z dostępu do LLM. Na koniec wykazali, że subiektywne poczucie korzyści z używania LLM może przewyższać rzeczywiste efekty, co prowadzi do przeceniania swoich umiejętności.

Ogólnie rzecz biorąc, wyniki tego eksperymentu pokazują, że LLM mogą być obiecującym wsparciem w nauce, ale studenci muszą być świadomi potencjalnych pułapek.

#ainews #sztucznainteligencja #gruparatowaniapoziomu #rustlang [3]

Odnośniki:
[1]
https://darioamodei.com/machines-of-loving-grace

[2]
https://www.latent.space/p/gpu-bubble
https://www.reddit.com/r/LocalLLaMA/comments/1g12ist/2_h100s_how_the_gpu_rental_bubble_burst/
https://x.com/latentspacepod/status/1844563363877224889

[3]
https://github.com/samuel-vitorino/lm.rs

[4]
https://www.openread.academy/en/paper/reading?corpusId=508861109
https://arxiv.org/pdf/2409.09047
PeterWeiss - #codzienneainews
• [1] Machines Of Loving Grace - jak sztuczna inteligen...

źródło: smacznej kawusi xD sref 2421824781 2

Pobierz
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 3
Trochę dłuższe streszczenie newsa nr [1]:
Dario Amodei, CEO Anthropic, wysmarował baaaaaaaaaardzo długiego posta na blogu. Przedstawia w nim optymistyczną wizję świata z potężnym AI w ciągu 5-10 lat po jego powstaniu. Według niego, AI mogłoby znacząco przyspieszyć postęp w biologii i neuronaukach, potencjalnie eliminując większość chorób, podwajając ludzką długość życia i znacząco poprawiając zdrowie psychiczne oraz funkcjonowanie poznawcze. Amodei sugeruje, że AI mogłoby skompresować postęp całego XXI wieku do zaledwie kilku lat,
  • Odpowiedz
Dario Amodei, CEO Anthropic, wysmarował baaaaaaaaaardzo długiego posta na blogu. Przedstawia w nim optymistyczną wizję świata z potężnym AI w ciągu 5-10 lat po jego powstaniu.


@PeterWeiss: U, ktoś chyba szykuje się na kolejną rundę finansowania xD
Oczywiście, jest możliwe, że zostanie stworzone potężne AI, które zupełnie zmieni świat w ciągu 5-10 lat od swojego powstania, ale:
- to prawdopodobnie nie będzie najbliższe 5-10 lat
- to prawdopodobnie nie będzie to AI działające w
  • Odpowiedz
@PeterWeiss: Jeśli chodzi o punkt 4. Bardzo pokrywa się to z moim osobistym doświadczeniem. Korzystam z GPT , Claude i github copilot i strasznie rozleniwiają. Zamiast pomyśleć i skupić się gdzie jest problem, zaczynam ślepo kopiować błędy i ich odpowiedzi, co prowadzi do błędnego koła naprawiania błędów spowodowanych przez LLM. Trzeba powiedzieć sobie stop w pewnym momencie, przeanalizować kod osobiście, poprawić i można jechać dalej z LLM ;) Napewno więcej
  • Odpowiedz
  • 0
@roundy-challenge: Nie inaczej :-) Ja robię w kompletnie innej branży, acz zdarza mi się pisać jakąś drobnicę w celu zmniejszenia sobie ilości pracy. Też miewałem takie momenty, że zamiast zrozumieć problem, kazałem Claude'owi robić poprawki do oporu. Fajnie jest czasem się zatrzymać, przeanalizować wszystko samemu, a potem znów wrócić do korzystania z LLM. To narzędzia, które mogą ułatwiać pracę, ale nie zastąpią myślenia. Z tym 'English is the new programming
  • Odpowiedz
@PeterWeiss: Też to wszystko traktuje hobbistycznie, tyle się w temacie dzieje, że ciężko nad tym wszystkim nadążyć. Jak dla mnie jest to rewolucja na skalę wynalezienia prądu albo koła i nie mówię tu o jakimś hype aktualnym na wszystko co ma w nazilwie skrót AI, tylko chłodno logicznie patrząc na to można tylko stwierdzić "What a time to be alive" ;) Niby machine learning to nic nowego, ale w połączeniu
  • Odpowiedz