Wpis z mikrobloga

#codzienneainews przełomowy OCR, bezpłatne kursy Nvidii, nowy akcelerator AI od Meta oraz badanie w jakim stopniu LLMy zapamiętują dane treningowe

[1]
Kling dostanie nowe narzędzie w postaci "motion brush", dzięki któremu będzie można rysować wektory ruchu. Wideo w komentarzu.
[2]
Nowy model OCR o nazwie GOT (General OCR Theory) został opracowany jako przełomowe rozwiązanie w technologii rozpoznawania tekstu. GOT z 580 milionami parametrów oferuje jednolity system zdolny do rozpoznawania różnorodnych formatów tekstu, od prostego po złożone formuły i wykresy.
Model przewyższa wydajnością istniejące rozwiązania OCR, zarówno w języku angielskim, jak i chińskim. GOT ma potencjał do zrewolucjonizowania technologii OCR, oferując wydajniejsze i bardziej wszechstronne rozwiązanie w porównaniu z dotychczasowymi systemami.

[3]
NVIDIA oferuje wiele bezpłatnych kursów w swoim Deep Learning Institute. Z wartych uwagi:

a) Building RAG Agents with LLMs: Ten kurs poprowadzi was przez praktyczne wdrożenie systemu agentów RAG (jak podłączyć zewnętrzne pliki, takie jak PDF, do LLM).

b) Generative AI Explained: W tym kursie bez kodowania poznacie koncepcje i zastosowania generatywnej sztucznej inteligencji oraz związane z nią wyzwania i możliwości. *Świetne dla zaczynających z generatywną SI!*

c) An Even Easier Introduction to CUDA: Kurs koncentruje się na wykorzystaniu procesorów graficznych NVIDIA do uruchamiania masowo równoległych kerneli CUDA, umożliwiając wydajne przetwarzanie dużych zbiorów danych.

d) Building A Brain in 10 Minutes: Wyjaśnia i bada biologiczną inspirację dla wczesnych sieci neuronowych. Dobry dla początkujących użytkowników Deep Learning.

[4]
Meta opracowała własny akcelerator inferencji AI o nazwie MTIA (Meta Training and Inference Accelerator) wykorzystujący tanie rdzenie RISC-V i pamięć LPDDR5. Najnowsza generacja ma na celu m.in. poprawę wydajności, efektywności energetycznej i szybkości wdrażania.

Chip MTIA wykorzystuje niedrogie rdzenie RISC-V i pamięć LPDDR5, oferując znacznie lepszą wydajność obliczeniową i przepustowość pamięci. Meta wspomniała również o tajemniczym "rozszerzeniu pamięci", które może być opcją na przyszłość, ale obecnie nie jest wdrażane.

[5] W jakim stopniu LLMy zapamiętują swoje dane treningowe?
Badacze z Carnegie Mellon University wprowadzają nową definicję "zapamiętywania" używając do tego współczynnika kompresji (ACR), który mierzy jak bardzo krótszy może być prompt w porównaniu do uzyskanego wyniku. Jeśli prompt może odtworzyć frazę za pomocą mniejszej liczby tokenów niż sama fraza, to uważa się, że fraza jest zapamiętana.

To badanie ma duże znaczenie dla rozwoju AI, szczególnie w kontekście etycznego i prawnego wykorzystania danych treningowych. Proponowana metoda może pomóc w bardziej precyzyjnym określeniu, co model faktycznie "zapamiętał", a co jest wynikiem jego zdolności do generalizacji. Jest to kluczowe dla przyszłych regulacji prawnych dotyczących wykorzystania danych w sztucznej inteligencji.

#ainews #sztucznainteligencja #gruparatowaniapoziomu
PeterWeiss - #codzienneainews przełomowy OCR, bezpłatne kursy Nvidii, nowy akcelerato...

źródło: midjourneyj GXrfnMbaQAAyq0l

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach