Od miesiąca używam Codexa w ramach subskrypcji ChatGPT Plus.

Subskrypcja kosztuje mnie 20$ miesięcznie.

Sprawdziłem ile tokenów wykorzystałem przez ten miesiąc (ccusage-codex)

Input
trevoz - Od miesiąca używam Codexa w ramach subskrypcji ChatGPT Plus.

Subskrypcja ko...

źródło: image

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Niesamowite jest to ile OpenAI dopłaca do biznesu. Dziękuję Pan Sam Altman


@trevoz: IMO:
Bo to jest moment walki o klienta, nawet gdy trzeba dopłacać.
Google wieki temu też oferował pocztę Gmail, która oferowała za darmo sporo więcej niż konkurencja w płatnych usługach. Tak samo było z YouTube na początku.
Czas odcinania od tej polityki kuponów przyjdzie później, jak to miało miejsce u Google.
  • Odpowiedz
@Arkass: przeciez bardzo latwo zmienic ai ktore uzywasz. maila tak latwo nie zmienisz. youtube zeby mial konkurencje to tworcy filmow musieliby masowo filmy wrzucac na strone tej konkurencji. ai modele nie maja takich moatów
  • Odpowiedz
#ai #cobedziezarok

Obecnie AI spędza sen z powiek. Wiemy jaka jest sytuacja obecna. Ale żeby było ciekawiej opiszę jak ona wygląda, żeby za rok zobaczyć jak wygląda postęp. Opiszę też jakie są obawy i nadzieje w związku z rozwojem AI (taka kapsuła czasu na rok, żeby zobaczyć czy to wszystko się sprawdzi).

AI obecnie przejmuje coraz większe tereny, gdzie ludzie myśleli, że nie znajdzie zastosowania tak szybko. Jeśli chodzi
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Przedwczoraj wrzucałem tu najnowszą wersję GA modelu Gemini 3 Deep Think: https://wykop.pl/wpis/84974695/google-deepmind-zaktualizowalo-swoj-model-gemini-3
A tutaj mamy wytłumaczenie jak działa ten model, oraz jak z narzędziem do niego "Aletheia" - jest on potężnym AI: https://www.youtube.com/watch?v=MNiF8pPTao8
Tutaj więcej o wykorzystaniu Aletheia i Gemini Deep Think w nauce: https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/

#ai #sztucznainteligencja #technologia #nauka #ciekawostki #wykop #gruparatowaniapoziomu
@Arkass +78
Google DeepMind zaktualizowało swój model Gemini 3 Deep Think: https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-deep-think/
Wyniki są imponujące, zwłaszcza w teście ARC-AGI-2 (84% - obrazek).
W tym miesiącu reszta modeli Gemini 3 też ma wyjść z fazy zapoznawczej (preview) i wejść w fazę GA - General Availability (ogólna dostępność).
Więcej na kanale Demisa
Arkass - Przedwczoraj wrzucałem tu najnowszą wersję GA modelu Gemini 3 Deep Think: ht...

źródło: image

Pobierz
Arkass - Przedwczoraj wrzucałem tu najnowszą wersję GA modelu Gemini 3 Deep Think: ht...
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#ai #seedance Nawet się cieszę. Koniec gwiazdek mówiących ludziom jak mają zyć i puszących się niczym małpy jest bliższy niż kiedykolwiek. No i koniec Hollywood i długonosych, którzy tworzą jakieś kretyńskie treści zamiast dobrych filmów.
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@VanGogh: o to to upadek Hollywood to miód na moje oczy i uszy a jestem zatwardziałym filmowcem ale patrząc co tw branza o--------a to im się należy i liczę w przyszłości na więcej treści od utalentowanych ludzi bez dużych budżetów
  • Odpowiedz
Treść przeznaczona dla osób powyżej 18 roku życia...
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

No i nie ukrywam to jest TANI TRENER, low costowy projekt dla BEKI i podniesienia cen ramu.


@cezeter:

To nie jest TANI TRENER, tylko drogi chatgpt wrapper, i nie jest to projekt dla BEKI, ale dla KASY.

Po prostu w tym jest za malo roboty zeby ktos 50zl placil. Moze jakbys po 5zl zrobil to by ludzie costam wzieli
  • Odpowiedz
@anonimowy_programista: już wiele razy omawiano kwestie zużycia energii przez centra danych. W obecnej formie nie da się tego utrzymać i szuka się różnych rozwiązań. Tylko przy takim wzroście zapotrzebowania na energię elektryczną w najgorszej sytuacji jak zawsze, zostają odbiorcy indywidualni.
  • Odpowiedz
Trenowanie AI, żeby pisało kod, to jedno.
Trenowanie go, żeby używało narzędzi we właściwej kolejności, ogarniało stan aplikacji i nie rozwalało niczego po drodze? To już zupełnie inna bajka.

Nowy artykuł od Snowflake AI Research + UNC-Chapel Hill proponuje całkiem pragmatyczne podejście: wygenerować 1000 throwaway mini-apek, każda z bazą SQLite i API przez FastAPI + MCP, i pozwolić agentom trenować na tym.

Zamiast:
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach