@JamesJoyce: Yyyyy, parę lat temu kupiłem książkę "Hierarchie systemów logiki parakonsystentnej" Janusza Ciuciury i dalej czekam na motywację do jej przeczytania :)
@tylkosieturozgladam: całkowicie nie, ale zmnimalizuje przy użyciu odpowiednich logik i promptów.
Czyli stan początkowy agenta mocno wpływa na jego późniejsze zachowanie, niezależnie od promptowania. Ciekawe. Ale poprawa agentów, to ogromna ingerencja w całe ich funkcjonowanie. Może parafrazowanie i check? Do prompta dodajesz sparafrazuj i pozniej weryfikujesz parafraze, czy zrozumial?
@JamesJoyce robiłem to - efekty niby lepsze ale nadal mało satysfakcjonujące. CoT już rok temu próbowałem, a o1-preview wcale sobie tak dobrze nie radzi z klasycznym strawberry problem.
Istnieje teoria, że każdy model ML to po prostu kompresja. Może tokenizacja niektórych promptow kompresuje sens zbyt mocno?
Po publicznej debacie na temat OKI, ministerstwo zdecydowało opublikować nowy pomysł - drzewko umiejętności podatkowych. Będzie można dostosować podatki pod siebie, w zależności od tego jaki styl oszczędzania i inwestowania wybierzemy. #gielda
@JamesJoyce: Yyyyy, parę lat temu kupiłem książkę "Hierarchie systemów logiki parakonsystentnej" Janusza Ciuciury i dalej czekam na motywację do jej przeczytania :)
@eU2MO: to logika dopuszczająca występowanie sprzeczności.
Czyli stan początkowy agenta mocno wpływa na jego późniejsze zachowanie, niezależnie od promptowania. Ciekawe. Ale poprawa agentów, to ogromna ingerencja w całe ich funkcjonowanie. Może parafrazowanie i check? Do prompta dodajesz sparafrazuj i pozniej weryfikujesz parafraze, czy zrozumial?
Istnieje teoria, że każdy model ML to po prostu kompresja. Może tokenizacja niektórych promptow kompresuje sens zbyt mocno?