Wpis z mikrobloga

W jaki sposób robi się fine-tuning LLMa? Czytałem pobieżnie dokumentacje OpenAI i jest opisana metoda, że ładuje się "prompt" i "answer"

Co jeśli do LLMa chce załadować swoje dokumenty źródłowe - mam potencjalnie źródeł o długości kilku mln tokenów.

Są tam dokumenty źródłowe, dokumentacja, sposoby użycia - czy ja mam wszystko przerobić na JSONa "prompt":"answer"?

Polecicie ewentualnie jakieś materiały które mogłyby mnie zagłębić w temat?

#sztucznainteligencja
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@hub_bub nie widzę sensu fine-tuningu pod dokumenty. Spotkałem się z paroma badaniami, które wprost wykazywały spadek efektywności LLM po małych FT.

Zamiast tego lepiej zembeddowac chunki dokumentu, skorzystać z bazy wektorowej i dorzucać do promptu jako knowledge base
  • Odpowiedz
@hub_bub Ten drugi przypadek często jest robiony za pomocą RAG. Działa to znacznie szybciej.

Finetuning jest rzadszy, bo bez zaawansowanych technik jak Lora jest kosztowny i często brakuje danych do tego.

Poza tym są jeszcze inne rodzaje dostosowywania llmow pod swoje problemy. ALE jest sporo papierów pokazujących, że nie zawsze warto to robić.
  • Odpowiedz
  • 1
@JamesJoyce dzięki ten RAG to może być to o co mi chodzi. Dość skomplikowany temat ale wiem że w mojej dziedzinie systemy zatrzymały się na latach 90.
Obecnie dostępne płatne wyszukiwarki w zasadzie wykorzystują tylko dopasowanie dokładne
  • Odpowiedz