Wpis z mikrobloga

to nawet nowela nie jest


@dict: mylisz się. 128k tokenów to około 100k słów. Dla porównania Powrót Króla (LOTR) ma 137k słów. Więc jednak bliżej temu to zwykłej powieści, niż noweli.
  • Odpowiedz
@kwanty: Stack "Three-Agent_Stack" #threeagentstack do tradowania na BTC https://wykop.pl/wpis/85010205/program-do-tworzenia-raportow-do-oceny-rynku-pomoc

Zbudowałem Perceptrona na kilku AI i karmię je całymi stronami internetowymi, mam mały wkład z API który mam plan zwiększyć o x100 to powinno być do 20k tokenów samo API coinglass. Oglądamy szereg heatmap przykład: https://www.coinglass.com/large-orderbook-statistics
@plaisant +3
Program do tworzenia raportów do oceny rynku (pomocny w podejmowaniu decyzji) i do automatycznego tradowania przez kilka AI na podstawie danych rynkowych z różnych źródeł.

Zrobiłem Audyt z nowym Opus i pokazał ładne diagramy i przepływ.

W tej wersji działa bezpiecznik TP/SL ustawiany na 1-10% od ceny market.
W następnych wersjach
  • Odpowiedz
@kwanty: Chińskiej, DeepSeek jest najtańszy. Dostaje zawsze swojego prompta na początek i cały wkład skompletowany tekstem przez API. Wkład do innych AI przepuszczam przez parsers funkcję która wyklucza dużo szumu z wkładu np dla Qwen3Max i darmowego Copilota (GPT deep)
W DeepSeek mam już od jakiegoś czasu ten rozumujący. Jest świetny. To jest 3.2 reasoning jeśli dobrze pamiętam.
  • Odpowiedz
I więcej informacji w jednej rozmowie (kontekście) tym gorzej


@JamesJoyce: I niewiele z tego wynika. Wg wykresu jest jakiś tam spadek między 8k i 16k tokenów. Czyli około 6k i 12k słów. Przeliczając na zwykłe książkowe strony - odpowiednio 25 i 50 stron. Przecież to absurdalnie dużo jak na zwykłą rozmowę.

To tak jakby kupować auto do miasta i mówić że to które przyspiesza do setki w 3 sekundy jest
  • Odpowiedz
Ciekawostka. I więcej informacji w jednej rozmowie (kontekście) tym gorzej. Model zwyczajnie traktuje całość jak zmienne w kodzie I przestawia je sobie, elegujac obsluge tych części do slabszych podmodeli, prowadzac do spadku jakości


@JamesJoyce: Z pierwszym zdaniem zgoda. A co do reszty ciekawostki to chyba nie za bardzo zrozumiałeś tekst do którego się odniosłeś
  • Odpowiedz
  • 0
GPT-5 drastycznie traci jakość na OOLONG przy >32K tokenów, podczas gdy RLM(GPT-5) utrzymuje wysoką jakość nawet przy 1M tokenów o nie typo
  • Odpowiedz