NVidia kiedy widzi, że cały internet wykorzystuje prywatne tokeny EjAjowe i:
- nabija roboczogodziny ich sprzętowi na którym zarabiają XD
- generuje (darmowe dla nich) dane treningowe z pikselozy, której nawet by normalnie nie tknęli

( ͡° ͜ʖ ͡° )*:

#nvidia #heheszki #dlss5 #machinelearning #ai
xfin - NVidia kiedy widzi, że cały internet wykorzystuje prywatne tokeny EjAjowe i:
-...

źródło: image

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
@MilionoweMultikonto: a co to znaczy? Bo ja nie czuję żeby rynek w PL był super i żebym mógł decydować z kim chce pracować. 7-10 yoe, projekty wszelakie w tym realizacje e2e z deploymentem i mlopsem w chmurze. Obecnie nie research. Background nie bootcamp
  • Odpowiedz
Trenowanie AI, żeby pisało kod, to jedno.
Trenowanie go, żeby używało narzędzi we właściwej kolejności, ogarniało stan aplikacji i nie rozwalało niczego po drodze? To już zupełnie inna bajka.

Nowy artykuł od Snowflake AI Research + UNC-Chapel Hill proponuje całkiem pragmatyczne podejście: wygenerować 1000 throwaway mini-apek, każda z bazą SQLite i API przez FastAPI + MCP, i pozwolić agentom trenować na tym.

Zamiast:
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

It's a Live!
Zamiast bawić się w filozofa, postanowiłem usiąść do #programowanie
https://wykop.pl/wpis/83964233/eksperyment-czy-ai-gemini-3-widzi-wiecej-8-dni-z-a

Nie chciałem wróżenia z fusów. To, co widzicie na screenie, to Agent 3 i Agent 1 "Three-Agent Stack". Żeby AI główne (Agent 2) nie halucynowało, zadajemy w pętli prompt startowy (skrócony opis wpisu z wykopu) z instrukcjami i z 7 twardymi wskaźnikami w
@plaisant +10
Eksperyment: Czy AI Gemini 3 widzi więcej? 8 dni z "Agentem 2".

#bitcoin #gielda #kryptowaluty #sztucznainteligencja

Zamierzam bawić się we *wróżbitę przez 8 dni z Gemini 3. Podszedłem do tematu kursu BTC/USD na podstawie schematu "Wąskiej AGI" opisanego we wpisie o systemach
plaisant - It's a Live!
Zamiast bawić się w filozofa, postanowiłem usiąść do #program...

źródło: Three-Agent_Stack

Pobierz
  • 18
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Mirkowie z #chatgpt #openai #machinelearning #programowanie #llm,

Kilka tygodni temu opisywałem projekt nad którym pracuję: https://wykop.pl/wpis/82634911/hej-chatgpt-openai-machinelearning-programowanie-n

W skrócie: przygotowałem prompt do "debugowania" LLMów: audytu ich procesu rozumowania, oraz wykrywania i analizy hipokryzji w ich wewnętrznych guideline'ach.
@Jake_921 +8
Hej #chatgpt #openai #machinelearning #programowanie

Napisałem dość obszerny post na moim blogu na temat jailbreakowania LLMów w celu analizy ich wewnętrznych guideline'ów.

"Reason ex Machina: Jailbreaking LLMs by Squeezing Their Brains": https://xayan.nu/posts/ex-machina/reason/

Opisuję
Jake_921 - Mirkowie z #chatgpt #openai #machinelearning #programowanie #llm,

Kilka t...

źródło: thumb

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Trochę prowokacyjnie, trochę pod prąd, ale przy niedzielce można sobie podywagować - zapraszam!

Widząc co się dzieje na rynku pracy w #pracait (głównie w #programowanie ) ludzie #programista15k którzy zostaną bez pracy albo przynajmniej eldorado im się skończyło i nie będą chcieli użerać się ze swoim przełożonym, a jednocześnie nie będą mogli łatwo przeskoczyć do innej roboty siłą rzeczy zaczną się (już to część robi) rozglądać
  • 12
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Kiedyś w latach 80-90 lingwistyka obliczeniowa była królem analizy języka. Wszystko musiało być ładnie, systematycznie i zgodnie z teorią językoznawczą. Chcesz parsować zdanie? Musisz mieć gramatykę formalną, reguły składniowe, drzewa parsowania. Chcesz rozpoznać znaczenie? Buduj ontologie, sieci semantyczne, logikę predykatów.

I nagle przyszły lata 2000+ i wszyscy odkryli machine learning. "Po co te wszystkie skomplikowane reguły, jak można po prostu nakarmić algorytm danymi?" - pomyśleli sobie ludzie z computer science.
Efekt?

Lingwiści: "Ale przecież to
  • 11
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@pustelnikk: Praktukują tam na dziennych praktykują rozmowę kwalifikacyjną? XD Niech się lepiej cieszą, że jeszcze jakichś chętnych znajdują. Ja kończę właśnie, ale zaoczne i biorą wszystko co się rusza, bo wbrew pozorom chętnych nie ma tak dużo. Cena za semestr była w 2021 około 2800. Teraz to 5500. zdziercy
  • Odpowiedz
Pytanie od ludków z ai i ml. Powiedzmy, że chcę sobie zbudować bazę wiedzy organizacji czy czegokolwiek co mnie interesuje (np. w Neo4j), rozumiem teraz, że dane (wierzchołki/relacje/atrybuty) do takich zbiorów udaje się ekstrachować używajac llm'ów, potem ewentualnie użyć llm do tłumaczenia zapytań w języku naturalnym na np. cyphera, to drugie teraz mniej istotne. Nie chodzi mi tu o zastosowanie takiej bazy w RAG/ GraphRAG, tylko o możliwość automatyzacji budowania bazy wiedzy
fukinloner - Pytanie od ludków z ai i ml. Powiedzmy, że chcę sobie zbudować bazę wied...

źródło: 908724767c08ec81a808fc4213ec1d1d

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

**https://ai-2027.com/

We predict that the impact of superhuman AI over the next decade will be enormous, exceeding that of the Industrial Revolution.


We wrote a scenario that represents our best guess about what that might look like.1 It’s informed by trend extrapolations, wargames, expert feedback, experience at OpenAI, and previous forecasting successes.2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach