Wpis z mikrobloga

Pytanie od ludków z ai i ml. Powiedzmy, że chcę sobie zbudować bazę wiedzy organizacji czy czegokolwiek co mnie interesuje (np. w Neo4j), rozumiem teraz, że dane (wierzchołki/relacje/atrybuty) do takich zbiorów udaje się ekstrachować używajac llm'ów, potem ewentualnie użyć llm do tłumaczenia zapytań w języku naturalnym na np. cyphera, to drugie teraz mniej istotne. Nie chodzi mi tu o zastosowanie takiej bazy w RAG/ GraphRAG, tylko o możliwość automatyzacji budowania bazy wiedzy w oparciu o "ETL" gdzie T jest robione przez LLM.
Widziałem demonstracje, gdzie możesz np. narzucić schemat swojej bazy wiedzy, tak by przy ekstracji llm'em filtrował tylko relacje/wierzchołki, które pasują do użytego schematu.
Przykład:
https://github.com/neo4j/NaLLM

Teraz pytanie - czy da się to sensownie skalować? Bo tam chyba po prosu promptuja model jakimś tekstem i prosza o ekstrakcję nodów relacji itd., więc "przepustowość" ograniczona jest do wielkości kontekstu. Czy istnieją jakieś modele, które sprawdziłyby się w tym lepiej i potrafiły importować duuuuże zbiory (nawet akceptujac, że to co trafi finalnie do grafu, będzie miało jakieś powymyślane relacje, których nie ma w tym co wrzuciliśmy do llma)

#technologia #ai #programowanie #chatgpt #machinelearning
fukinloner - Pytanie od ludków z ai i ml. Powiedzmy, że chcę sobie zbudować bazę wied...

źródło: 908724767c08ec81a808fc4213ec1d1d

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach