#codzienneainews
• [1] Poprawa efektywności LLM-ów wykorzystywanych w RAG-ach
Naukowcy z Google Cloud analizują wyzwania związane z wykorzystaniem modeli językowych o długim kontekście (LLM) w systemach generacji wspomaganej wyszukiwaniem (RAG). Odkryli oni, że samo zwiększenie liczby pobranych fragmentów może w rzeczywistości obniżyć wydajność ze względu na wprowadzenie nieistotnych informacji, które "dezorientują" LLM.
Aby rozwiązać te problemy, badacze proponują trzy metody:
a) zmianę kolejności wyszukiwania,
• [1] Poprawa efektywności LLM-ów wykorzystywanych w RAG-ach
Naukowcy z Google Cloud analizują wyzwania związane z wykorzystaniem modeli językowych o długim kontekście (LLM) w systemach generacji wspomaganej wyszukiwaniem (RAG). Odkryli oni, że samo zwiększenie liczby pobranych fragmentów może w rzeczywistości obniżyć wydajność ze względu na wprowadzenie nieistotnych informacji, które "dezorientują" LLM.
Aby rozwiązać te problemy, badacze proponują trzy metody:
a) zmianę kolejności wyszukiwania,












• [1] Ataki na LLM-y trwają średnio mniej niż minutę i 90% udanych ataków prowadzi do wycieku wrażliwych danych
Według październikowego raportu Pillar Security obejścia zabezpieczeń LLM są skuteczne w 20% prób. Najczęstsze techniki obejścia to prompty rodzaju "zignoruj poprzednie instrukcje", używanie autorytatywnego języka jak np "ADMIN OVERRIDE" i... prompty zakodowane w base64 (bo LLM
źródło: People say nothing is impossible, but I do nothing every day
Pobierzktóry z wymienionych sposobów obejścia zabezpieczeń jest twoim zdaniem najbardziej zabawny?
https://streamable.com/6qwmux