@JamesJoyce: Ale przecież ta publikacja jest chyba z 2025 z czerwca. Nie mówiąc że to było prawdopodobnie po to robione żeby wytłumaczyć akcjonariuszom dlaczego nie inwestują tak bardzo w AI. Kuriozalne jest też to że niby Ai jest srakie czy owakie ale dobili deal z Googlem na gemini ( ͡° ͜ʖ ͡°)
  • Odpowiedz
Skrót dzisiejszych wiadomości ze świata technologii #codziennytech #sztucznainteligencja #technologia #wydarzenia #komputery #informatyka #ciekawostki #programowanie #gruparatowaniapoziomu
Uwaga: Streszczenia i tłumaczenia mogą być niedokładne, dlatego zawsze podaję link do artykułów żródłowych.

Mężczyzna aresztowany w Singapurze za wyciek filmu „Legenda Aanga: Ostatni władca powietrza” z serwisu Paramount+. Grozi mu do 7 lat więzienia
26-letni mężczyzna z Singapuru został aresztowany za
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#sztucznainteligencja #ai #programista15k #it

Ależ ten paper pozamiata, jeślli to prawda.

Udało im się wytrenować ogromny model językowy wyłącznie na typach danych liczb całkowitych. Surowa, podstawowa matematyka niskiego poziomu. Jeśli można trenować modele bezpośrednio na tanich i szybkich typach danych liczb całkowitych, których używają do wnioskowania, wymagania sprzętowe ulegają załamaniu. Wg ich paperu 100 razy szybciej.

We introduce Evolution Guided GeneRal Optimisation via Low-rank
JamesJoyce - #sztucznainteligencja #ai #programista15k #it 

Ależ ten paper pozamiata...

źródło: image

Pobierz
  • 12
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Ależ ten paper pozamiata, jeślli to prawda.


@JamesJoyce: Trzeba by przeczytać, albo choćby obejrzeć podcast tego co przeczyta ;-) Trudno uwierzyć, że back-propagation zadziała na stałym przecinku - od zawsze jest przekonanie, że potrzebne są dokładne gradienty bo inaczej optymalizacja nie działa.

Pytanie jak jest to efektywne obliczeniowo. Bo nie sztuka uśredniać z wielu epok, żeby uzyskać rezultaty podobne co w jednej epoce tylko na
  • Odpowiedz
#vibecoding #ai #programowanie #programista0k #sztucznainteligencja #chwalesie

Zvibecodowalem sobie 2 program za pomocą Ai xD doświadczenie mam 0 (oprocz tej wcześniej apki - Bot do gry) wszystko z deepseek i kimiK2, Qwen - moim zdaniem najlepsze darmowe Ai. Chat GPT 5 ten za free ssie i to mocno, Grok i Gemini jeszcze coś daja radę.

Aplikacja jakich pełno, ale nie mogłem znaleźć niczego
TakiSeLogin - #vibecoding #ai #programowanie #programista0k #sztucznainteligencja #ch...

źródło: Screenshot_20260426-114532-387

Pobierz
  • 10
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@mk321: bot jest do g---o gierki MMO - ale nie mówię jakiej bo banują za to a chce jeszcze trochę pooszukiwać xd

Zwykle promopty, to było ok pół roku temu, najpierw ustalenie z chatem co chce i wybór tego co powinno działać najlepiej, wybraliśmy pythona, vs code. A później copy - paste

Na początku próbowałem jednym promptem i żeby wypluł wszystko na raz ale to zupełnie nie
  • Odpowiedz
@mk321: dokładnie tak, czat pamięta co pisze, a jak zmieniałem czata to tylko ładowałem mu aktualny plik .py i mówiłem co ma zmienić

Ale te llm o których mówisz są chyba płatne ?
  • Odpowiedz
#ai #sztucznainteligencja #matematyka #programista15k

Hej, dla zainteresowanych, prawie skończyłem serię 8 notebooków o logikach nieklasycznych w komunikacji agentów AI, nad czym siedziałem trochę. Pokrótce co jest w środku.

Każda logika ma ręcznie napisany ewaluator (zero zewnętrznych bibliotek), scenariusz multi-agentowy i teraz też kontekst filozoficzny z otwartymi pytaniami.

Logiki
  • 17
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 3
@Majkel2008: ale tu nie chodzi o wydajność czy jakość, bo one są osobno walidowane. Albo nie tylko. Knowledge Packs arxiv.org/abs/2604.03270: RAG marnuje tokeny. Knowledge Packs to pre-komputowane KV cache'y które dostarczają tę samą wiedzę przy zerowym koszcie tokenów.

KV Cache injection zakłada że wiedza którą wstrzykujesz jest spójna. Jeśli nie jest, a w prawdziwych korpusach rzadko jest wstrzykujesz sprzeczność bezpośrednio do pamięci modelu bez żadnego mechanizmu jej obsługi. Model dostaje {T,F}
  • Odpowiedz
W sumie też miałem taki pomysł, aby stworzyć app gdzie kilka LLMs rozmawiają ze sobą gdzie każdy ma inny system prompt i aby razem wspólnie doszli do jednego zdania, ale ten project jest o wiele lepszy: https://github.com/nex-crm/wuphf

btw: posłuchajcie filmiku, nawet nie wiem czy ten narrator to AI czy prawdziwy człowiek xD

#programowanie #office #sztucznainteligencja
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Skrót dzisiejszych wiadomości ze świata technologii #codziennytech #sztucznainteligencja #technologia #wydarzenia #komputery #informatyka #ciekawostki #programowanie #gruparatowaniapoziomu
Uwaga: Streszczenia i tłumaczenia mogą być niedokładne, dlatego zawsze podaję link do artykułów żródłowych.

Federalna technologia nadzoru stanie się obowiązkowa w nowych samochodach od 2027 roku
Od 2027 roku wszystkie nowe samochody będą musiały być wyposażone w federalne technologie monitorujące, co budzi
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Czasy taniego AI się kończą. Od stycznia prywatnie używam AI do kodowania, korzystam z Codexa (subskrypcja ChatGPT Plus za 20$), Github Copilot Pro za 10$ i OpenCode Go za 10$

Codex obniża limity, jako tako starcza do moich projektów, ale już tygodniowy limit wykorzystałem, a reset dopiero za 3 dni.

O Claude'ie nawet nie wspominam bo za 20$ jednym promptem potrafiłem wykorzystać limit XD

Przez
trevoz - Czasy taniego AI się kończą. Od stycznia prywatnie używam AI do kodowania, k...

źródło: image

Pobierz
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@trevoz: wgle większośc kodu mógłby pisać najtańszy gpt-5-mini czy tam glm 4.7-flash
gdyby byl dobrze ogarnięty routing miedzy zadaniami, Opus mógłby planować, debugować cieższe przypadki i pisać dokładne todo execution steps dla mniejszego modelu
w hermesie troche to lepiej ogarniaja, np grepy czy rózne durne zadania robi mniejszy model bo odkąd używam to mi użycie spadlo o 1/3
grand_khavatari - @trevoz: wgle większośc kodu mógłby pisać najtańszy gpt-5-mini czy ...

źródło: image_2026-04-25_160456848

Pobierz
  • Odpowiedz