Tydzień temu wymyśliłem sobie nowy większy projekt do którego nie mam umiejętności, ale wczoraj wspólnie z #claude i #chatgpt zrobiłem w dzień roboczy praktycznie 70% roboty... AI by tego samo nie zrobiło i potrzebowało sporo pomocy, ale samemu bym potrzebował tygodni i pewnie finalnie bym się poddał ( ͡° ͜ʖ ͡°)

Zachęcony jak sprawie poszło zaraz kupuje w końcu #cursor i dość
  • 22
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
@wafel93: ja używam tego typu softu w większości do tworzenia rzeczy o których nie mam pojęcia, i ten projekt raczej zrobiłem szybciej niż zrobiłby go ktoś kto ma o każdym aspekcie pojęcie.

Chciałem mieć system który dostarczy licencjonowane stocki w odpowiednich rozmiarach na wszystkie z setek stron którymi się zajmuje, praca obejmowała:

- pobranie 27tys stocków ze strony która ani nie ma api, ani nawet nie udostępni mi w normalny sposób całej listy pobrań więc AI dało mi rozwiązanie jak złożyć zapytania w konsoli przeglądarki by dostać całą tę listę i edytować ją do formatu w którym będzie mi potrzebna
- znalezienie CMS służącego organizacji zdjęć, pierwszy raz ten CMS na
  • Odpowiedz
  • 0
@TomSz: no i dobrze, tylko "problem się pojawi, gdy pojawi się problem" ( ͡° ͜ʖ ͡°) generalnie nie życzę największemu piwniczakowi utrzymywania kodu wyplutego przez AI. Taki kod jest z-----y w sprytny sposób, rzadko widywany w normalnych projektach.
  • Odpowiedz
Joł. Jaka jest najtańsza opcja posiadania pełnego dostępu ( chyba taki potrzebuje) do chatu gpt?
Mam pełno pomysłów z wykorzystaniem grafiki wektorowej i lasera do wycinania/grawerowania, ale nie potrafię rysować. Chat prawie świetnie sobie radzi z generowaniem moich pomysłów, ale limit dwóch grafik jest niewystarczający.
https://allegro.pl/oferta/chatgpt-plan-plus-chatgpt-4o-omni-bez-gratisu-na-30-dni-15672476210?fromVariant=15672269578 to dobra oferta? xd

#chatgpt #chatgpt4 #sztucznainteligencja #sztuka
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

To się nie kończy...
Co tydzień znajdzie się idiota, który jedyne co potrafi zrobić z GPT, to zapytać go o ilość R, i pochwalić się tym na wypoku...
I nawet nie wie, świadectwo jak wielkiego debilizmu sobie sam wystawia...
Cóż, przynajmniej jest się z czego pośmiać :DDD
PanodInternetu - To się nie kończy...
Co tydzień znajdzie się idiota, który jedyne co...

źródło: haha

Pobierz
  • Odpowiedz
#codzienneainews dziś: samouczący się robo-pies na kołach, humanoidalne roboty w fabryce BMW, GENERATOR PODCASTÓW od Google i nowy model od OpenAI
[1]
Google NotebookLM ozwala on na przesłanie do 100 dokumentów, każdy do 200 000 słów i generowanie podsumowań, zapytań itp. Dokumenty można przeglądać i znajdować w nich kluczowe detale. Już samo to jest fajne, ale na dniach wydali niesamowitą aktualizację. Teraz Google NotebookLM może generować podcasty (z męskim i żeńskim lektorem) z dokumentów i stron internetowych!

Aby wypróbować tę funkcję, trzeba wejść na NotebookLM.google.com i przesłać swój plik tekstowy albo wskazać stronę internetową. Następnie kliknij * Notebook Guide po prawej stronie pola wprowadzania i wybierz Generate w sekcji Audio Overview. Zajmie to kilka minut, ale wygeneruje podcast. Nie działa to jeszcze na mobilnych urządzeniach.

Naturalnie
PeterWeiss - #codzienneainews dziś: samouczący się robo-pies na kołach, humanoidalne ...

źródło: 1725414452614.png_image

Pobierz
PeterWeiss - #codzienneainews dziś: samouczący się robo-pies na kołach, humanoidalne ...
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 6
Komentarz:
Dr Jim Fan, autor wpisu na X omawia model "Strawberry" (o1), który to wprowadza zmianę w podejściu do uczenia maszynowego, przesuwając nacisk z dużych modeli przedtrenowanych na optymalizację skalowania w czasie wnioskowania (inference). Podejście to odzwierciedla szerszy trend polegający na wykorzystaniu większej mocy obliczeniowej podczas wnioskowania, a nie tylko w fazie trenowania, co jest zgodne z ideą Richarda Suttona z The Bitter Lesson, która podkreśla, że jedynie uczenie i wyszukiwanie są technikami skalującymi się z mocą obliczeniową.

Fan zauważa, że duże modele często koncentrują się na zapamiętywaniu faktów na potrzeby zadań takich jak quizy, ale możliwe jest oddzielenie rozumowania od wiedzy. Mniejszy rdzeń może skupić się na rozumowaniu i wywoływać narzędzia zewnętrzne (takie jak weryfikatory kodu czy przeglądarki), co zmniejsza potrzebę intensywnego przedtrenowania (pre-training).

Zamiast inwestować moc obliczeniową głównie w trenowanie, coraz więcej obliczeń jest wykorzystywanych podczas wnioskowania. Modele mogą symulować różne strategie i ostatecznie dochodzić do lepszych rozwiązań, podobnie jak w przypadku wyszukiwania Monte Carlo Tree Search (MCTS) stosowanego w AlphaGo lub rStar, o którym pisałem w którymś w poprzednich wpisów #codzienneainews
PeterWeiss - Komentarz:
Dr Jim Fan, autor wpisu na X omawia model "Strawberry" (o1), ...

źródło: GXSkIaKbgAQrbJx

Pobierz
  • Odpowiedz
@Rabusek: to tak jak kaze mu wymyslic tekst oparty na innym czy inspirowany, no to wrzuca te same slowa i miesza zamiast wymyslic cos innego. Chyba trza promptowac, zeby unikal wszystkich slow z przykladow, zeby stworzyl cos calkiem oryginalnego
  • Odpowiedz
Ten chatgpt jednak nie jest tak zajebisty jak miałem w głowie. Ostatnio wziąłem się solidniej za naukę i spędzam z nim trochę czasu i tak często się myli i podaje pierdoły, że nie można na nim polegać.
Oczywiście nadal przyśpiesza rozwiązywanie problemu, potrafi coś łatwo wyjaśnić i jest zajebistym narzędziem itd. Ale te halucynacje i to jak jednak trzeba mocno go nakierowywać w prompts, żeby nie ocipiał mnie rozczarowuje.

Do tego jak
  • 19
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Kantar: W ramach kursu od IBM o AI na Coursera miałem "prompt engineering" i tam poznałem podstawowe zasady zapytań do LLM:
1) Dobry prompt składa się z 4-ch części: jasnych instrukcji, dobrego kontekstu, jasnego opisu oczekiwanego wyjścia i stosowania wzorca Persona,
2) instrukcje to co chcę od LLM,
3) kontekst to opis otoczki tych instrukcji,
4) opis wyjścia to np. ile słów ma być na wyjściu, czy to ma być esej, rozprawka, sprawozdanie, styl,
5) wzorzec persona to coś w stylu: "wciel się w doświadczonego prawnika z
  • Odpowiedz
Ostatnio zacząłem pytać ChataGPT czy warto przebranżowić się na #medycyna jako #programista15k. W dużym skrócie ChatGPT mówi mi, że raczej nie, bo choć lekarze zarabiają 30-50k i więcej, to specjaliści w mojej działce mogą zarabiać podobnie i że takie zarobki są dla mnie osiągalne w perspektywie 3-5 lat. Nawet prosiłem go o to by mi stworzył model obliczający prawdopodobieństwo tego, że switch na medycynę przyniesie mi większe
  • 42
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Czy LLMy halucynują


@kawalerka15k: Tak. Bo w praktyce jebniesz głową w szklany sufit w okolicy 20k i potem będziesz się już poruszał dosłownie po kropelce wyżej, bo zamykasz widełki większości ofert i w zasadzie nie masz jak z tego wyjść jak nie zaczniesz brać bezpośrednio jakichś kontraktów z USA.

A jako alternatywa będzie granie dosyć ryzykownie czyli zmienianie firm "bo mi 5 zł więcej tam zapłacą" i w pewnym momencie
  • Odpowiedz
@Romska_Palo_Ul_Laputa: No zauważalne 5-10%, ale nie uzyłbym słowa biedackie.

zależy co tam robisz. Ja mam taki projekt, że łączę umiejętnie oba światy.


Obecnie np migruje aplikacje pomiedzy chmurami, więc nie tylko Azure ale też AWS, dobrze też znać GCP. A praca developera dziś nie kończy się w momencie napisania kodu, ale po przygotowaniu dockera, przepuszczenia wszystkiego przez CI/CD i zdeployowaniu na środowisko testowe. Oczywiscie im większa firma tym wieksza specjalizacja
zibizz1 - @RomskaPaloUl_Laputa: No zauważalne 5-10%, ale nie uzyłbym słowa biedackie....

źródło: zarobki

Pobierz
  • Odpowiedz
#chatgpt łyknął temat POTĘŻNEGO włodarza #famemma niczym wyposzczona niewiasta ładunek ( ͡° ͜ʖ ͡°)

Lubię gdy mam cel, Baxton jest obok
Ona wie, że tu chce być, kiedy jestem blisko
Nike Air Force 1, blue jeans, tęczowy top, jabola
Wysyłam zdjęcia benisa,
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach