Wpis z mikrobloga

https://www.reddit.com/r/OpenAI/comments/1en1cpe/4o_is_just_gpt4_dumbed_down/

Oto dlaczego llm nie radzi sobie z tym pytaniem:

Modele językowe, opierają się na analizie tokenów, a nie pojedynczych liter. Przy liczeniu liter, jak na przykład "r" w słowie, model nie operuje na poziomie pojedynczych liter, ponieważ są one często częścią większych tokenów. Modele językowe są zorientowane na rozumienie kontekstu i generowanie tekstu a nie na analizowanie go na poziomie pojedynczych znaków.

To po prostu wynika z tego jak funkcjonuje taki model. Może nie radzić sobie z prostymi zadaniami (dla człowieka), a bardzo trudne wykona dużo lepiej. Jak wyżej, te proste zadania są łatwe dla człowieka, dla modelu językowego w ogóle nie jest to możliwe do wykonania, więc nie można mówić o żadnym poziomie trudności. Znając naturę modelu językowego to pytania nie powinny być nigdy zadane, lub nie powinno się mieć żadnych oczekiwań że odpowie poprawnie.

Modele językowe mogą pomóc w pisaniu tekstów, kodu, streszczeń, generowaniu pomysłów, tłumaczeniach językowych, nauce nowych umiejętności, korekcie tekstu, czy nawet w rozwiązywaniu bardziej skomplikowanych problemów matematycznych i naukowych.

#sztucznainteligencja #ai #openai #chatgpt
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@raneli jak ci bardzo zależy to zawołaj mnie za 2-3 godziny (wtedy będę przy komputerze) i przestawie tu sposób jak zrobić, by LLM potrafił rozwiązywać problemy takie jak wyżej.

Szybki spojler na teraz: LLM potrzebuje wpierw zahalucynowac by mógł rozwiązać problemy stricte językowe. W tym wypadku ma zrozumieć, że wpierw należy rozbic słowo na litery a następnie policzyć to czego oczekujesz. Szybka ewaluacja pokazała mi, że myli się dość rzadko (ok.
  • Odpowiedz