#codzienneainews
• [1] Llama Stack upraszcza tworzenie aplikacji agentowych
Meta wydała Llama Stack, nowy interfejs API, upraszcza wdrażanie i dostosowywanie modeli Llama.
• [2] Emu3: Rewolucja w AI multimodalnym dzięki przewidywaniu kolejnego tokena
AAI wypuściło model Emu3, który wykorzystuje przewidywanie kolejnego tokena do generowania obrazów, tekstu i wideo. W przeciwieństwie do tradycyjnych modeli opartych na złożonych metodach, takich jak modele dyfuzyjne (np. Stable Diffusion) lub modele kompozytowe (np. CLIP z LLM), Emu3
• [1] Llama Stack upraszcza tworzenie aplikacji agentowych
Meta wydała Llama Stack, nowy interfejs API, upraszcza wdrażanie i dostosowywanie modeli Llama.
• [2] Emu3: Rewolucja w AI multimodalnym dzięki przewidywaniu kolejnego tokena
AAI wypuściło model Emu3, który wykorzystuje przewidywanie kolejnego tokena do generowania obrazów, tekstu i wideo. W przeciwieństwie do tradycyjnych modeli opartych na złożonych metodach, takich jak modele dyfuzyjne (np. Stable Diffusion) lub modele kompozytowe (np. CLIP z LLM), Emu3









![PeterWeiss - Odnośniki:
[1]
https://neuralmagic.com/blog/llm-compressor-is-here-faste...](https://wykop.pl/cdn/c3201142/d83c39754afa023cdea3e51e857bee4e98b71c90e633b8e1764af8be0ce4cc72,w400.jpg)






• [1] LLM od AMD
AMD wypuściło swój LLM AMD-Llama-135m wytrenowany na swoich akceleratorach MI250. Oparty na architekturze (a jakże) LLaMA2 i używa tego samego tokenizera. Niby nic nowego, ale jest to jeden z nielicznych w pełni otwartych modeli - kod treningowy, zestaw danych i wagi dla tego modelu są jawne. W dodatku autorzy udokumentowali
źródło: midjourney GXR4m94bgAULlwB
Pobierz[1]
https://huggingface.co/amd/AMD-Llama-135m
[2]
https://arstechnica.com/information-technology/2024/09/major-ai-updates-from-meta-and-google-and-a-new-era-for-ai-designed-chips/