Ciekawostka. I więcej informacji w jednej rozmowie (kontekście) tym gorzej. Model zwyczajnie traktuje całość jak zmienne w kodzie I przestawia je sobie, elegujac obsluge tych części do slabszych podmodeli, prowadzac do spadku jakości.
@dict: mylisz się. 128k tokenów to około 100k słów. Dla porównania Powrót Króla (LOTR) ma 137k słów. Więc jednak bliżej temu to zwykłej powieści, niż noweli.
Zbudowałem Perceptrona na kilku AI i karmię je całymi stronami internetowymi, mam mały wkład z API który mam plan zwiększyć o x100 to powinno być do 20k tokenów samo API coinglass. Oglądamy szereg heatmap przykład: https://www.coinglass.com/large-orderbook-statistics
Program do tworzenia raportów do oceny rynku (pomocny w podejmowaniu decyzji) i do automatycznego tradowania przez kilka AI na podstawie danych rynkowych z różnych źródeł.
Zrobiłem Audyt z nowym Opus i pokazał ładne diagramy i przepływ.
W tej wersji działa bezpiecznik TP/SL ustawiany na 1-10% od ceny market. W następnych wersjach
@kwanty: Chińskiej, DeepSeek jest najtańszy. Dostaje zawsze swojego prompta na początek i cały wkład skompletowany tekstem przez API. Wkład do innych AI przepuszczam przez parsers funkcję która wyklucza dużo szumu z wkładu np dla Qwen3Max i darmowego Copilota (GPT deep) W DeepSeek mam już od jakiegoś czasu ten rozumujący. Jest świetny. To jest 3.2 reasoning jeśli dobrze pamiętam.
I więcej informacji w jednej rozmowie (kontekście) tym gorzej
@JamesJoyce: I niewiele z tego wynika. Wg wykresu jest jakiś tam spadek między 8k i 16k tokenów. Czyli około 6k i 12k słów. Przeliczając na zwykłe książkowe strony - odpowiednio 25 i 50 stron. Przecież to absurdalnie dużo jak na zwykłą rozmowę.
To tak jakby kupować auto do miasta i mówić że to które przyspiesza do setki w 3 sekundy jest
Ciekawostka. I więcej informacji w jednej rozmowie (kontekście) tym gorzej. Model zwyczajnie traktuje całość jak zmienne w kodzie I przestawia je sobie, elegujac obsluge tych części do slabszych podmodeli, prowadzac do spadku jakości
@JamesJoyce: Z pierwszym zdaniem zgoda. A co do reszty ciekawostki to chyba nie za bardzo zrozumiałeś tekst do którego się odniosłeś
Ciekawostka. I więcej informacji w jednej rozmowie (kontekście) tym gorzej. Model zwyczajnie traktuje całość jak zmienne w kodzie I przestawia je sobie, elegujac obsluge tych części do slabszych podmodeli, prowadzac do spadku jakości.
źródło: IMG_2298
Pobierz@dict: mylisz się. 128k tokenów to około 100k słów. Dla porównania Powrót Króla (LOTR) ma 137k słów. Więc jednak bliżej temu to zwykłej powieści, niż noweli.
Zbudowałem Perceptrona na kilku AI i karmię je całymi stronami internetowymi, mam mały wkład z API który mam plan zwiększyć o x100 to powinno być do 20k tokenów samo API coinglass. Oglądamy szereg heatmap przykład: https://www.coinglass.com/large-orderbook-statistics
Zrobiłem Audyt z nowym Opus i pokazał ładne diagramy i przepływ.
W tej wersji działa bezpiecznik TP/SL ustawiany na 1-10% od ceny market.
W następnych wersjach
W DeepSeek mam już od jakiegoś czasu ten rozumujący. Jest świetny. To jest 3.2 reasoning jeśli dobrze pamiętam.
@JamesJoyce: I niewiele z tego wynika. Wg wykresu jest jakiś tam spadek między 8k i 16k tokenów. Czyli około 6k i 12k słów. Przeliczając na zwykłe książkowe strony - odpowiednio 25 i 50 stron. Przecież to absurdalnie dużo jak na zwykłą rozmowę.
To tak jakby kupować auto do miasta i mówić że to które przyspiesza do setki w 3 sekundy jest
@kwanty: ja potrafię ( ͡° ͜ʖ ͡°) stary mnie zmuszał do nauki Pana Tadeusza na pamięć ¯\(ツ)/¯
@JamesJoyce: Z pierwszym zdaniem zgoda. A co do reszty ciekawostki to chyba nie za bardzo zrozumiałeś tekst do którego się odniosłeś