Pany jak myślicie jaka teraz niszowa branża it lub około it która zrobi blow out za następne 5/10 lat?( ͡° ͜ʖ ͡°)

Wiadomo #ai lub #cybersecurity to już mainstream od kilku lat (chyba że jakieś wąskie specki w nich)
Jak się wstydzicie to piszcie na pw ( ͡° ͜ʖ ͡°)

#informatyka #programista15k #programowanie #
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Pany jak myślicie jaka teraz niszowa branża it lub około it która zrobi blow out za następne 5/10 lat?( ͡° ͜ʖ ͡°)


@msea940: IMO:
Ciężko powiedzieć, bo prawdopodobniej wtedy już ludzie nie będą pracować w IT (i około IT).
A co będzie tworzyć AGI (prawdopodobnie do 5 lat), to jeszcze można próbować prognozować, gdy się jest w tym top ekspertem, ale co będzie tworzyć ASI (superinteligentna
  • Odpowiedz
Istnieje ryzyko że na magisterkę będę trenował jakiś model (pewnie jakiś mały i banalny) i mam taktyczne pytanie co począć
a) Kupić 32gb ramu do kompa (obecnie ma bieda 16)
b) kupić egpu i podpiąć 5070 do laptopa który ma 32gb ramu i AMD Ryzen 7 8845HS xd
Rozważam też wymianę 5070 na cośco ma wincyj vramu
#ai #machinelearning #pcmasterrace #programowanie
  • 8
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Zastanowiłbym się raczej nad wypożyczeniem mocy obliczeniowej zamiast wydawaniem paru tysięcy na sprzęt do jednego projektu (chyba, że potem rzeczywiście będzie czynnie używany). Na Google Colab czy Kaggle da się zrobić sporo za darmo, a jak potrzeba więcej mocy, to Vast.ai wychodzi całkiem tanio na godziny. Do magisterki zwykle i tak robisz fine-tuning, a nie trening od zera, więc własna machina ai to (dla mnie) zbyt dużo.
  • Odpowiedz
@kacpervfr: koledzy wyżej piszą czy opłaca się kupować hardware do ai i popieram ich, natomiast ja pójdę o krok dalej i zapytam czy tak naprawdę jeszcze warto iść w ai z takim przesytem na rynku i sytuacja w IT aktualnie xD
  • Odpowiedz
Mirunie deanonimizuje się. Zrobiłem poprawny i zlozony newsletter. Pierwszy post:

Kilka tygodni temu kolejna runda wyników SOTA. Nagłówki przewidywalne. Komentarze jeszcze bardziej.

Nie piszę o tym, który model wygrał. Piszę o tym, dlaczego benchmark jako narzędzie ewaluacji jest strukturalnie zepsuty.

MMLU
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

NVidia kiedy widzi, że cały internet wykorzystuje prywatne tokeny EjAjowe i:
- nabija roboczogodziny ich sprzętowi na którym zarabiają XD
- generuje (darmowe dla nich) dane treningowe z pikselozy, której nawet by normalnie nie tknęli

( ͡° ͜ʖ ͡° )*:

#nvidia #heheszki #dlss5 #machinelearning #ai
xfin - NVidia kiedy widzi, że cały internet wykorzystuje prywatne tokeny EjAjowe i:
-...

źródło: image

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
@MilionoweMultikonto: a co to znaczy? Bo ja nie czuję żeby rynek w PL był super i żebym mógł decydować z kim chce pracować. 7-10 yoe, projekty wszelakie w tym realizacje e2e z deploymentem i mlopsem w chmurze. Obecnie nie research. Background nie bootcamp
  • Odpowiedz
Trenowanie AI, żeby pisało kod, to jedno.
Trenowanie go, żeby używało narzędzi we właściwej kolejności, ogarniało stan aplikacji i nie rozwalało niczego po drodze? To już zupełnie inna bajka.

Nowy artykuł od Snowflake AI Research + UNC-Chapel Hill proponuje całkiem pragmatyczne podejście: wygenerować 1000 throwaway mini-apek, każda z bazą SQLite i API przez FastAPI + MCP, i pozwolić agentom trenować na tym.

Zamiast:
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

It's a Live!
Zamiast bawić się w filozofa, postanowiłem usiąść do #programowanie
https://wykop.pl/wpis/83964233/eksperyment-czy-ai-gemini-3-widzi-wiecej-8-dni-z-a

Nie chciałem wróżenia z fusów. To, co widzicie na screenie, to Agent 3 i Agent 1 "Three-Agent Stack". Żeby AI główne (Agent 2) nie halucynowało, zadajemy w pętli prompt startowy (skrócony opis wpisu z wykopu) z instrukcjami i z 7 twardymi wskaźnikami w
@plaisant +10
Eksperyment: Czy AI Gemini 3 widzi więcej? 8 dni z "Agentem 2".

#bitcoin #gielda #kryptowaluty #sztucznainteligencja

Zamierzam bawić się we *wróżbitę przez 8 dni z Gemini 3. Podszedłem do tematu kursu BTC/USD na podstawie schematu "Wąskiej AGI" opisanego we wpisie o systemach
plaisant - It's a Live!
Zamiast bawić się w filozofa, postanowiłem usiąść do #program...

źródło: Three-Agent_Stack

Pobierz
  • 18
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Mirkowie z #chatgpt #openai #machinelearning #programowanie #llm,

Kilka tygodni temu opisywałem projekt nad którym pracuję: https://wykop.pl/wpis/82634911/hej-chatgpt-openai-machinelearning-programowanie-n

W skrócie: przygotowałem prompt do "debugowania" LLMów: audytu ich procesu rozumowania, oraz wykrywania i analizy hipokryzji w ich wewnętrznych guideline'ach.
@Jake_921 +8
Hej #chatgpt #openai #machinelearning #programowanie

Napisałem dość obszerny post na moim blogu na temat jailbreakowania LLMów w celu analizy ich wewnętrznych guideline'ów.

"Reason ex Machina: Jailbreaking LLMs by Squeezing Their Brains": https://xayan.nu/posts/ex-machina/reason/

Opisuję
Jake_921 - Mirkowie z #chatgpt #openai #machinelearning #programowanie #llm,

Kilka t...

źródło: thumb

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Trochę prowokacyjnie, trochę pod prąd, ale przy niedzielce można sobie podywagować - zapraszam!

Widząc co się dzieje na rynku pracy w #pracait (głównie w #programowanie ) ludzie #programista15k którzy zostaną bez pracy albo przynajmniej eldorado im się skończyło i nie będą chcieli użerać się ze swoim przełożonym, a jednocześnie nie będą mogli łatwo przeskoczyć do innej roboty siłą rzeczy zaczną się (już to część robi) rozglądać
  • 12
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Kiedyś w latach 80-90 lingwistyka obliczeniowa była królem analizy języka. Wszystko musiało być ładnie, systematycznie i zgodnie z teorią językoznawczą. Chcesz parsować zdanie? Musisz mieć gramatykę formalną, reguły składniowe, drzewa parsowania. Chcesz rozpoznać znaczenie? Buduj ontologie, sieci semantyczne, logikę predykatów.

I nagle przyszły lata 2000+ i wszyscy odkryli machine learning. "Po co te wszystkie skomplikowane reguły, jak można po prostu nakarmić algorytm danymi?" - pomyśleli sobie ludzie z computer science.
Efekt?

Lingwiści: "Ale przecież to
  • 11
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach