Wpis z mikrobloga

@Borysek_tygrysek: nie potrzebujesz żadnego llama index ani Langchain. Po 1. musisz upewnić się, że te dane możesz wrzucić do GPT. Po 2. masz generalnie dwie opcje, fine tuning albo RAG. RAG to tylko fancy nazwa na wrzucanie zewnętrznych informacji do kontekstu i cały trud polega właśnie na tym jak to zrobić. Jak masz mało danych to możesz wrzucić wszystko i model sobie pewnie poradzi (chociaż przy wielkich kontekstach skuteczność będzie
  • Odpowiedz
prywatny model w azure, dane wrzucone do azure ai search zeby sie zaindeksowaly do modelu, ewntualnie mozesz uzyc azure ai studio (jak chesz sie bawic pythonem) also MS copilot studio jako low code solution zeby podpiac dane "na zywo" jako "search endpoint".

nie trzeba tranowac modelu od zero ani go fine tunowac, nie ma to sensu. Fine tuning jest tylko potrzebny jesli model nie ogarnia twojego contextu biznesowego, a i wtedy nalezy
  • Odpowiedz