Mireczki, jako java dev zajmująca się powtarzalnym taskami, chcę w wolnej chwili poświęcić trochę czasu na edukację z AI.
Przyznam, że zostałam turbo w tyle, tak mi się wydaje. Jedyne co, to korzystam z chata i gemini na bieżąco do wielu rzeczy, nie tylko w pracy. Ale mało co wiem na ten temat. LLM, jacyś agenci AI, GenAI, machine learning, jak to w środku działa itp itd. Nie ukrywam też, że chciałabym
Jeśli jesteś pewna, że chcesz wiedzieć jak to działa od środka to wpisujesz na YouTube „Karpathy micrograd” i pierwszy filmik z góry. Albo to polubisz albo się szybko poddasz. A co do pracy z LLM to najprościej założyć sobie konto na OpenAI, ogarnąć API Key i zaczac eksperymentować oraz czytać dokumentację
@Rogogon5 wspanialy bait. Człowiek ogląda, patrzy na te „blundery” a potem okazuje się, że to szachy 6D nie do ogarnięcia moim początkującym umysłem szachowym
@JamesJoyce używam już od dłuższego czasu lokalnie gpt-oss. Co do test-time computing to już chwilę jest. Taka ostatnia (najnowsza) rewolucja jest powiedziałbym mixture of experts, który przyspiesza inferencje aktywując tylko część neuronów
@ryoku88 ja tez amator. Sprawdź na YouTube speedruny Jaskółki i xtentacion. Fajnie tłumaczą taktyki i strategie. No i ćwiczenia rób to się nauczysz tych pojęć szybko
Czołem Mirki, piszę teraz dłuższy artykuł i pomyślałem, że jego fragment może być dla niektórych ciekawy. Całość przetłumaczona lamami.
Ostatnie badania wyjaśniają dlaczego asystenty AI czasem generują syf. Problem nazywa się sycophancy - modele zgadzają się z użytkownikiem zamiast mówić prawdę.
@JamesJoyce ciekawostka z innej beczki: robiliśmy zespołem ewaluacje LLM w formie LLM-as-a-judge. Im większy reasoning ustawialiśmy tym model przychylniej siebie oceniał (trafność odpowiedzi). Z kolei thinking ustawiony na low skutkował większą samokrytyką. Próbka: ok. 200 promptow.
Myślę, że to może mieć też coś wspólnego z „robieniem dobrze” userowi
Co słychać Panowie? Dawno mnie nie było na wykopie ze względów zdrowotnych. Prześledziłem pobieżnie posty, ale wywnioskowałem, że wszystko ok. Pozdrowienia
@JamesJoyce zaprojektowałem i wytrenowałem od zera swój pierwszy transformer w życiu i to na dodatek nie jako model językowy. Taki mały chwaliposcik ( ͡°͜ʖ͡°) a co u ciebie?
Według komentarzy w serwisie GoWork.pl Allegro zarządziło powrót do biur na 4 dni w tygodniu, zostawiając możliwość pracy zdalnej raz w tygodniu. Pracownicy w kometarzach nie szczędzą gorzkich słów pod adresem prezesa, a ocena firmy wynosi już 1.8 i wciąż spada
Dostałem atrakcyjną ofertę od jednej firmy i zrobiłem ów „szantaż” ówczesnej. Byłem jednak tak „zimny” że dałem im na decyzje 2 dni robocze (poinformowałem w czwartek, dałem ETA na poniedziałek). Efekt: otrzymałem podwyżkę (powyżej tamtej oferty) i zgodziłem sie na zbicie 5 eur za godzinę mniej by nie dotykało sufitu widełek tego korpo.
Wszyscy co się obawiali zrobić to co ja - podwyżek nie dostali. Mało tego: rok później firma postanowiła zamknąć
Jako osoba pracująca w AI około 9 lat przyznaję, że najprawdopodobniej jesteśmy tuż przed kolejną „zimą AI”. Aktualna bańka oparta na llmach zaczyna pękać, bo modele nie dowożą tego, co obiecywali marketingowcy. 70, 80 czy 90% ról „White collar jobs” nie zostanie zredukowane w ciągu najbliższych 2 lat. Firmy przeinwestowały budżety i niedługo zaczną robić korekty.
@JamesJoyce moja rada jest z kolei taka: olać te raporty i cisnąć AI ile wlezie. Siedzę dużo w enterprise i ciśnienie na AI jest z miesiąca na miesiąc coraz większe
z AI do programowania używam tylko chata gpt, więc się nie znam na temacie, ale przypuszczam że są już całe środowiska, kompilatory itd które analizują cały twój projekt, z podkreśleniem na analizę całego projektu i podawanie podpowiedzi na jego podstawie, nie chodzi mi o wbudowane narzędzie które bardziej służy tylko jako code completion i aby się coś dowiedzieć muszę mu wklejać części kodu ręcznie są już takie co nie? jak dobrze działają?
#szachy #chesscom Mam pytanie do apki Chess.com. Kiedyś jak grałem z podpowiedziami, to gdy zbliżał się mat, komputer pokazywał ile ruchów zostało do mata. Teraz tego nie mam. Jest jakaś opcja, aby to włączyć.
@gosh sprawdziłem i nadal pokazuje. Masz to na pasku pokazującym kto ma przewagę. Jeśli mat jest możliwy, to pokazuje przy prawej krawędzi tego paska Mx, np. Mat do 3 pokazuje jako M3.
@K_eM1 nieironicznie dzięki za ten wpis. Gdy będę kupował samochód już wiem, żeby dodać zapis gwarantujący brak zajęcia samochodu przez komornika/wierzyciela
Ktoś z komentujących czytał ten papier? Bo ja tak.
Ma to jak najbardziej sens i widzę, ze niektóre narzędzia korzystają z podobnego frameworka (np cursor). Nie uznałbym za artykuł przełomowy ale za to za solidny i istotny jak najbardziej. Proponują solidne fundamenty jako framework, by stworzyć swoje zagentyzowane środowisko. I co najważniejsze: bez potrzeby trenowania swojego modelu.
Osobiscie go sobie zapisałem i spróbuję odtworzyć taki framework u siebie i zobaczyć na ile
Hej, jeszcze raz w temacie agentowym. Ostatnio dość popularne jest narzędzie n8n. W prosty sposób można w nim stworzyć system wieloagentowy, wykonujący różne zadania. Podrzucam Wam poradnik, jak można korzystać z n8n używając lokalnych modeli ollamy. Pamiętajcie tylko, że, żeby rag działał dobrze potrzebujecie przynajmniej 32b.
@JamesJoyce czemu uważasz, że RAGi są obciążające sprzetowo? Koniec końców i tak to puszczasz wszystko w chmurę więc nie korzystasz z LLMów lokalnych. To samo z bazami wektorowymi (ale nawet tu nie widzę sensu stawiać chromaDB lokalnie skoro AWS S3 Vectors kosztuje śmieszne pieniądze).
Sam całkowicie odchodzę od RAGow na rzecz MCP. Kwestia integracji danych pomiędzy serwisami (już prawie) jest wyłącznie po stronie MCP serwerów. Modele (nawet gpt-oss:20b) bardzo dobrze same
Ktoś (z powodzeniem) implementował i trenował PatchTST? Zastanawiam się, czy to byłby dobry wybór pod model, który musi ogólnie zrozumieć time series dane.
Poprzez „ogólnie”, mam na myśli zrozumieć zasadę działania tych danych by następnie już je np klasyfikować lub znajdywać anomalie (jakis transfer learning, ew. KNN etc).
@dywergent no tak, racja. Może rozwinę swoją myśl bardziej: potrzebuję self-supervised barebone. O ile sam model do klasyfikacji też bylby ok, o tyle długoterminowo chcemy wytrenować bazowy model i pomyślałem, że transformer mógłby być niezły. Czytałem jednak różne i dość skrajne opinie o zastosowaniu transformera z danymi typu time series. Taki bazowy model przydałby się bardzo w transfer learningu pod inne, który już wykonywałyby konkretną robotę. Klasyfikacja jest tylko jednym z
W badaniu zrealizowanym przez organizację METR, stosowanie AI wydłużyło wykonanie zadania przez programistów średnio o 1/5. Doświadczeni programiści open source nie potrafili właściwie przewidzieć wpływu AI na swoją produktywność, a co więcej ocenić go właściwie po wykonaniu zadania.
Według mnie to badanie wykazuje, że sporo programistów nie potrafi dostosować środowiska pod siebie, a zwłaszcza pod AI. Poza tym, gdy piszę kod, to kwestie architektoniczne robię sam, a implementacyjne hybrydowo, np. tworzenie crudów, zapytań do bazy, algorytmów, widoków, konfiguracji, dokumentacji, czy klientów API. Nie zmierzyłem efektów, ale miałem przez jakiś czas porównanie wykorzystania AI w jednych projektach na moim środowisku a w innym na cudzym bez AI. Wrażenie bycia zbyt powolnym
Przyznam, że zostałam turbo w tyle, tak mi się wydaje. Jedyne co, to korzystam z chata i gemini na bieżąco do wielu rzeczy, nie tylko w pracy. Ale mało co wiem na ten temat. LLM, jacyś agenci AI, GenAI, machine learning, jak to w środku działa itp itd. Nie ukrywam też, że chciałabym