#codzienneainews •[1] Poprawa efektywności LLM-ów wykorzystywanych w RAG-ach Naukowcy z Google Cloud analizują wyzwania związane z wykorzystaniem modeli językowych o długim kontekście (LLM) w systemach generacji wspomaganej wyszukiwaniem (RAG). Odkryli oni, że samo zwiększenie liczby pobranych fragmentów może w rzeczywistości obniżyć wydajność ze względu na wprowadzenie nieistotnych informacji, które "dezorientują" LLM.
Aby rozwiązać te problemy, badacze proponują trzy metody: a) zmianę kolejności wyszukiwania,
#codzienneainewsgenerator podcastów; SI do podsumowywania pracy na kompie; GUI do opisywacza obrazków; Meta AI dostępna w kolejnych państwach
•[1] Mamo, ja chcę NotebookLM! Mamy NLM w domu. NLM w domu: podcastify.ai Podcastify to opensource'owe narzędzie, które przekształca różnorakie treści (PDF-y, strony internetowe, dokumenty etc) w podcasty z wieloma "rozmówcami". To skromniejszy odpowiednik googlowskiego NotebookLM. Jest wiele podobnych projektów, ale ten wydaje się być najlepszy z otwartoźródłowych.
#codzienneainewsLLaVA-Critic; LLM-y wiedzą więcej niż pokazują; Kompresja LLM-ów od MS; SI CERN-u w opiece zdrowotnej
•[1] LLaVA-Critic: otwarty model do oceny wyników w zadaniach multimodalnych Wydany został LLaVA-Critic - pierwszy otwarty model, który ocenia wyniki różnych zadań multimodalnych (łączących tekst i obrazy). Jest trenowany na specjalnym zestawie danych, aby dobrze oceniać różne sytuacje. Testy pokazują, że model skutecznie działa w dwóch obszarach: (1.) jako sędzia, gdzie ocenia wyniki równie
#codzienneainewsClaude z trybem batch; Noble za sieci neuronowe; Boty obsługujące nr 911; Nowe podejście do transformerów •[1] Anthropic ma teraz tryb batch (w wersji beta) Umożliwia on wysyłanie proptów do Claude'a w partiach, które zostaną przetworzone w ciągu 24 godzin (choć prawdopodobnie znacznie szybciej) i będą objęte 50% rabatem cenowym. Fajna rzecz jak się komuś nie spieszy, a chce promptować hurtowo, albo korzystać z magicznego zaklęcia, o którym wspominałem
@PeterWeiss: Kwa, co za bio! George Bool (od zmiennych "boolean"), słynny chirurg James Hinton, matematyk Charles Hinton, George Everest (Mount Everest), słynny ekonomista Colin Clark... Z taką rodziną już na starcie jesteś na lepszej pozycji, a jak zakasasz rękawy to świat legnie u twoich stóp. Łociesunę!
#codzienneainewsZLUDA wskrzeszona po raz drugi; AI zmienia branżę muzyczną jak niegdyś zrobiły to MP3 i streaming; Framework App Intens od Apple; Kompozytor używający AI i komputera kwantowego
•[1] ZLUDA (translator CUDA->ROCm) wskrzeszona po raz drugi. Andrzej Janik zakomunikował na swoim blogu, że ZLUDA powraca. Twórca znalazł nowego (anonimowego) sponsora, który wspiera rozwój projektu. Obecnie kod został przywrócony do stanu sprzed współpracy z AMD, a projekt skupia się na obsłudze
#codzienneainewsTestowanie limitów skalowania o1-mini; Kalifornijska ustawa o AI zawetowana; Przystępna metoda analizy dokumentów; Pracownicy socjaln wykorzystują AI do "papierkowej roboty"
•[1] Testowanie limitów skalowania modelu o1-mini ChatGPT o1-mini uzyskuje lepsze wyniki w Amerykańskim Teście Matematycznym (AIME), gdy... poleceniem "myśl dłużej" każe mu się używać więcej tokenów.
Ciekawe, że burmistrz Lądka Zdroju komentował, że dzięki pomocy hydrologa, który jest mieszkańcem Lądka, ktory powiedzial ze NIE MOZEMY CZEKAC NA KOMUNIKATY Z GORY, TYLKO ROZPOCZYNAMY EWAKUACJE, to jak sie okazalo uchronilo ich przed jeszcze wiekszą katastrofą. Nasz cudowny rząd troszeczkę nie ogarnął. Karton...
#codzienneainewsLLM od AMD; DeepMind rewolucjonizuje projektowanie chipów; Zaktualizowane Gemini; Nowatorskie podejście do sterowania robotami kroczącymi
•[1] LLM od AMD AMD wypuściło swój LLM AMD-Llama-135m wytrenowany na swoich akceleratorach MI250. Oparty na architekturze (a jakże) LLaMA2 i używa tego samego tokenizera. Niby nic nowego, ale jest to jeden z nielicznych w pełni otwartych modeli - kod treningowy, zestaw danych i wagi dla tego modelu są jawne. W dodatku autorzy udokumentowali
#codzienneainews •[1] Llama Stack upraszcza tworzenie aplikacji agentowych Meta wydała Llama Stack, nowy interfejs API, upraszcza wdrażanie i dostosowywanie modeli Llama.
•[2] Emu3: Rewolucja w AI multimodalnym dzięki przewidywaniu kolejnego tokena AAI wypuściło model Emu3, który wykorzystuje przewidywanie kolejnego tokena do generowania obrazów, tekstu i wideo. W przeciwieństwie do tradycyjnych modeli opartych na złożonych metodach, takich jak modele dyfuzyjne (np. Stable Diffusion) lub modele kompozytowe (np. CLIP z LLM), Emu3
#codzienneainewsAutonomiczny pojazd podwodny; SI dla statków kosmicznych; Znane głosy w Llama; Gemini w Snapchacie
•[1] Autonomiczny pojazd podwodny do inspekcji morskich farm wiatrowych Firma Beam wprowadziła pierwszy na świecie autonomiczny pojazd podwodny sterowany AI do inspekcji morskich farm wiatrowych. Technika ta została już zastosowana do kontroli konstrukcji wsporczych w największej szkockiej morskiej farmie wiatrowej Seagreen. Znacząco zwiększyła efektywność i zredukowała koszty inspekcji, skracając czas prac nawet o 50%. Beam
Info ze sztabu kryzysowego: Gość, który wczoraj ukradł dwie pompy odprowadzające wodę z zalanej piwnicy, został dzisiaj błyskawicznie osądzony i skazany na 8 miesięcy bezwzględnego więzienia - bez możliwości wcześniejszego wyjścia.
• [1] Poprawa efektywności LLM-ów wykorzystywanych w RAG-ach
Naukowcy z Google Cloud analizują wyzwania związane z wykorzystaniem modeli językowych o długim kontekście (LLM) w systemach generacji wspomaganej wyszukiwaniem (RAG). Odkryli oni, że samo zwiększenie liczby pobranych fragmentów może w rzeczywistości obniżyć wydajność ze względu na wprowadzenie nieistotnych informacji, które "dezorientują" LLM.
Aby rozwiązać te problemy, badacze proponują trzy metody:
a) zmianę kolejności wyszukiwania,
źródło: Vampires are make-believe, just like elves, gremlins and Eskimos
Pobierz