Wpis z mikrobloga

Co tak naprawdę robią "agenci"?

Pobierają kontekst z zewnętrznych źródeł ✓ (jak RAG)
Wywołują funkcje/narzędzia ✓ (function calling w RAG)
Iterują po zadaniach ✓ (chain of thought w RAG)
Planują kroki ✓ (prompting techniques w RAG)

Różnica? Zamiast jednego cyklu retrieve→generate, mamy pętlę z "reasoning". Ale fundamentalnie to nadal ten sam pattern: model + external data + structured prompting.
Przykład z życia:
"Agent" który "autonomicznie analizuje kod" to de facto:

RAG który indexuje codebase
LLM z promptem "przeanalizuj ten fragment krok po kroku"
Function calling do git/IDE tools
Loop który powtarza powyższe

Marketing mówi "agent". Inżynier wie, że to RAG z retry logic.
Co będzie dalej?
Obserwując cykle hype w AI, przewiduję kolejną falę za ~12-18 miesięcy. Prawdopodobnie coś związanego z:

"Compound AI Systems" - sieci specjalistycznych modeli
"Neural Operating Systems" - abstrakcja wyższego poziomu
"Emergent Workflows" - systemy które "uczą się" nowych patterns

Każda fala to iteracja poprzedniej z lepszą infrastrukturą i marketingiem. RAG → Agents → ??? → AGI.
Bottom line: Nie dajcie się zwieść buzzwordom. Agenci to ewolucja RAG-a, nie rewolucja. Prawdziwy skok jakościowy przyjdzie dopiero z fundamentalnie inną architekturą - multimodalnością, kontinual learning, albo czymś czego jeszcze nie przewidujemy.
Inwestujcie w zrozumienie podstaw, nie w gonienie najnowszych trendów.

#ai #rag #agents #hype #technologia #programowanie #programista15k #pasjonat15k #sztucznainteligencja
  • 26
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@JamesJoyce: Wszystko spoko, ale u mnie w firmie agent AI wciąż ma problem napisać kod na podstawie dokumentacji z ZUS i podłączyć się za pomocą SOAP’a do ich usług. Póki co wszystko trzeba ręcznie zrobić i w dodatku połączyć reguły biznesowe i napisać testy integracyjne. Wciąż się gubi i ma halucynacje. Więcej czasu zajmuje spędzanie na naprowadzaniu go i frustracji aniżeli wyklepanie tego samemu w 2-3 dni. O nurkowaniu w
  • Odpowiedz
Co tak naprawdę robią "agenci"?


@JamesJoyce: Czyli dokładnie to co ludzcy pracownicy - dostają zadanie, umieją się posługiwać jakimiś narzędziami i próbują rozwiązać problem przy dostępie swojej wiedzy i narzędzi.

I większość z ludzi jest przeszkolona w rozbijaniu takich problemów na mniejsze problemy, wykonywaniu kolejnych kroków, sprawdzaniu, cofaniu się jeżeli potrzeba, składaniu tego do kupy (czasami metodami prób i błędów), testowaniu, testowani i testowaniu
  • Odpowiedz
mcp to fancy nazwa na banal, protokół


@JamesJoyce: Uniwersalny protokół dostępowy do "wszystkiego". To jest jak HTTP czy SMTP - giga rzecz w dziedzinie LLMów. W szczególności że został powszechnie uznany jako standard.
  • Odpowiedz
@JamesJoyce: ja tam wielkim znawcą AI nie jestem, ale wyraźnie widać, że po "przełomie" z chatem gpt 3.5 wszystko mocno zwolniło i po prostu te systemy się nie skalują. A biorąc pod uwagę, że "zimy" w dziedzinie sztucznej inteligencji trwały nawet po kilkanaście czy kilkadziesiąt lat to ciężko wyrokować, że kolejna fala będzie za rok czy 2. Może tak może nie.

Miało być AGI a coraz bardziej widać, że g---o
  • Odpowiedz
@JamesJoyce: na podstawie benchmarków, kolejne wersje to już małe przyrosty, dlatego idą w modele wyspecjalizowane co raczej oddala cały trend od początkowego założenia czyli jednego modelu który jak człowiek robi wszystko.
  • Odpowiedz
@kwanty ależ ty mądry, ten wykres @JamesJoyce jest z d--y, jak go zobaczyłem to wiedziałem że odpuszczam bo nie będzie to dobra dyskusja. już jak nie wiedziałeś o co mi chodzi z skalowaniem to wypadało się dopytać,ale kit z tym
  • Odpowiedz
@JamesJoyce: a jak mam być czepialski to "nie skaluje się" to nie jest to samo co "nie rozwija". ciężko żeby ta działka się nie rozwijała skoro tyle kasy wpompowali ale efekty tego są coraz mniej spektakularne.
  • Odpowiedz
  • 0
@tubkas12: OpenAI, DeepMind i Anthropic opublikowały badania (np. Kaplan et al., 2020), które wykazały, że błąd predykcji LLM-ów maleje w przybliżeniu zgodnie z prostą funkcją potęgową w miarę zwiększania:

liczby parametrów (model size),

liczby tokenów w treningu (dataset
  • Odpowiedz
@JamesJoyce: To przeczytaj ze zrozumieniem co sam napisałeś. Piszesz o jakimś wyimaginowanym casie gdzie nie ma na przykład ograniczeń danych.

Jak będziesz miał nieskończoną ilość danych, energii i mocy obliczeniowej to według ciebie nie będzie problemów. No super to jest mądre, naprawdę. Na razie dokładają tylko serwery i dobudowują elektrownie obok i efekty są coraz gorsze a koszty rosną.
  • Odpowiedz