#gielda zdziwi mnie jak nie będzie tego OKI, przecież podatek belki jest od zysków, czyli realnie go nie ma, za to na OKI jest podatek procentowy od kapitału więc każdy by płacił
Wszystko
Najnowsze
Archiwum

manlet185cm
- 9
- 1
#gielda Donald wstawaj bo nudy, walnij postem
- 0
#gielda 3, 2, 1........
- 8
- 1
#gielda warto dobrać szczura Za 92
@Polakmaly85 gdy wszystko leciało jak p------e dino było na zielono
#gielda ten bumech to kiedyś odzyje?
@davidero69: witam chyba nigdy
- 13
Mam wrażenie, że Tomek tylko chodzi po X i szuka tweetów albo kresek jakichś randomów, które pasują mu pod tezę krachu. :D
#gielda
#gielda
@pepedros: https://wykop.pl/wpis/85462249/gielda-swiety-tomaszku12333-wystarczy-juz-tego-kra#294160623 zobacz ten wpis, jemu kreski powiedziały że Trump nie miał wyjścia, musiał TACO xD
@HAMSKLOSS89: nie mam pojęcia. Nie wiem co się wydarzyło
@tom-ek12333: da się wnioskować realnie z magicznych kresek?
- 2
- 3
@davidero69: no tak, I cześć opisów to format dd.mm, a cześć to mm.rr, chyba że to normalne ale wygląda dziwnie, prędzej bym się spodziewał tam w środku 01.03, a nie 03.26
#gielda czyli mamy negocjacje o których wie Iran i jednocześnie piechotą się zbliza
- 0
Trump już wstał?
#gielda
#gielda
- 11
Zawsze jak mnie nachodzi ochota na inwestowanie na #gielda to sprawdzam sobie tag i już mi się nie chce. Taki trochę post-nut clarity.
- 6
@helghast: wróciłem do starych wykresów bo nic nie widziałem od pozycji i tp oraz czekających zleceń xD
- 2
#gielda #meczennicydino jutro raport ciekawe jak nisko spadnie
@Ivanaran: Raczej juz byly spadki po raporcie biedronki ostatnio, takze nic specjalego sie nie dowiemy. Chyba ze zaskoczy in plus to co najwyzej wzrosty.
Raczej juz byly spadki po raporcie biedronki ostatnio, takze nic specjalego sie nie dowiemy. Chyba ze zaskoczy in plus to co najwyzej wzrosty.
@nflsteelers: XDDDD piękna ANALiza.
to już wiem skąd ta piana dziś :)
@vladi_putin: na stare lata tak myślę zrobić, ale teraz jeszcze trzeba się wyszaleć
- 7
Siema Mirki z #gielda i #ai, widzieliście to?
Google wczoraj wrzuciło info, które może nieźle namieszać, a widzę że u nas przeszło trochę bez echa (pic rel). Chodzi o ich nowy algorytm TurboQuant.
W dużym skrócie: tnie zużycie pamięci (VRAM) dla LLM-ów o co najmniej 6 razy i daje 8-krotnego kopa do wydajności. I to wszystko bez żadnej straty na jakości modelu.
Jak ktoś siedzi w AI, ten wie, że
Google wczoraj wrzuciło info, które może nieźle namieszać, a widzę że u nas przeszło trochę bez echa (pic rel). Chodzi o ich nowy algorytm TurboQuant.
W dużym skrócie: tnie zużycie pamięci (VRAM) dla LLM-ów o co najmniej 6 razy i daje 8-krotnego kopa do wydajności. I to wszystko bez żadnej straty na jakości modelu.
Jak ktoś siedzi w AI, ten wie, że
@LadySandra: widziałem rano że już jest kilka modeli 27B z tą techniką na Hugging Face
@ethize: Słyszałem, typo z roboty od LLM-a się jara tym od wczoraj jak Hamburg w '43.
To chyba zależy od spojrzenia na temat. Z tego co ja rozumiem największy zysk z tego będzie na lokalnym hardware gdzie masz mały vram (większy kontekst, lepsze modele). Dla dużych graczy zmniejszą się koszty, okej, ale czy wraz z lepszą dostępnością lokalnych modeli, nie zmniejszy się trochę popyt na te płatne?
Wiem że większość
To chyba zależy od spojrzenia na temat. Z tego co ja rozumiem największy zysk z tego będzie na lokalnym hardware gdzie masz mały vram (większy kontekst, lepsze modele). Dla dużych graczy zmniejszą się koszty, okej, ale czy wraz z lepszą dostępnością lokalnych modeli, nie zmniejszy się trochę popyt na te płatne?
Wiem że większość
@Blackhorn: zapytałem wczoraj na supporcie o korektę PITa oraz ten Raport. Dostałem tylko odpowiedź o PITa, o raporcie ani słowa xD
@Blackhorn: Mi znudziło się czekanie (plus dodatkowo jest dużo opinii o błędach w PITach) więc stwierdziłem, że sam policzę. Jako że miałem jedynie dywidendy z USA, to całość zajęła mi może 30-60 minut. Także polecam zrobić sobie po prostu excela i będziesz miał z głowy
- 11
@why1sthat: to etf albo etn więc tylko w górę
@jacas:
źródło: kononowicz-błogosławieństwo
Pobierz
źródło: 1000025094
Pobierz


























Google wczoraj wrzuciło info, które może nieźle namieszać, a widzę że u nas przeszło trochę bez echa (pic rel). Chodzi o ich nowy algorytm TurboQuant.
W dużym skrócie: tnie zużycie pamięci (VRAM) dla LLM-ów o co najmniej