Wpis z mikrobloga

#programista15k #programowanie #sztucznainteligencja

TL;DR: LangGraph pozwala AI działać krok po kroku, weryfikować dane i przyznawać się do ograniczeń zamiast wymyślać odpowiedzi. To ważne narzędzie, przydatne w budowaniu praktycznych systemów AI, które zbliżają się do działania, jak prawdziwi asystenci, a nie papugi.​​​​​​​​​​​​​​​​

Mirki, ja też zauważyłem problem, który dotyka wszystkich, którzy używają LLM w praktycznych zastosowaniach. Modele językowe działają w trybie “jedna odpowiedź na pytanie” bez możliwości refleksji czy weryfikacji. Obecny projekt, który kończę refleksji jednak wymaga. Wymaga także paralelizmu. Rozglądając się za czymś lepszym niż Autogen, który klient wymusił, wybór padł na Langgraph.

LangGraph rozwiązuje wymienione problemy, tworząc system gdzie AI może wykonywać złożone przepływy decyzyjne. Zamiast liniowego przetwarzania prompt-response, model może teraz zatrzymać się, przeanalizować sytuację, podjąć decyzję o kolejnym kroku czy wrócić do poprzedniego etapu, jeśli coś nie gra.

Praktycznie oznacza to, że możesz zbudować agenta, który najpierw analizuje, czy ma wystarczające informacje do odpowiedzi. Jeśli nie, może wyszukać dane z zewnętrznych źródeł, zweryfikować je i dopiero wygenerować odpowiedź. Dodatkowo może sprawdzić poprawność swojej odpowiedzi przed jej zwróceniem.

Różnica jest ogromna - zamiast halucynacji i pewności siebie przy błędnych danych, mamy system który przyznaje się do ograniczeń i aktywnie szuka sposobów na ich przezwyciężenie.

Zastosowania obejmują pewnie pierdyliard rzeczy, ale na pewno analizę dokumentów, gdzie agent czyta, weryfikuje dane w różnych źródłach i zadaje pytania wyjaśniające, asystentów biznesowych, którzy nie podejmują decyzji na niepełnych danych, oraz research agents, które systematycznie przechodzą przez źródła zamiast generować treść na podstawie zapamiętanych wzorców. To są przykłady rzeczy, które stworzyłem przy pomocy Langgraphu na obecnym projekcie. Dodatkowa ważna rzecz jest taka, że Langgraph jest nieoceniony w systemach wieloagentowych.

Dla zainteresowanych podrzucam linka do tutorial o tym, jak używając Langgrapha i Ollamy zbudować agenta podłączonego pod api reddita

https://www.pinecone.io/learn/langgraph-ollama-llama/
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@default_city wymagania do wycen klientów mówią coś innego. YouTube czy Twitter może sobie mówić że teraz agentów robi się w n8n czy langflow, ale produkcyjnie, dla złożonego systemu wieloagentowego wciąż najlepszy jest langgaph
  • Odpowiedz