@kolekcjoner_szekli: z moich obserwacji wynika, że o1 daje dużo lepsze odpowiedzi. Często uwzględnia też więcej wariantów. Dziś zwiększyli limity siedmiokrotnie. To bardzo dobra wiadomość, bo powrót do omni był ograniczający. Teraz trudniejsze zadania daje preview, a mniej skomplikowane omni.
  • Odpowiedz
  • 2
@kolekcjoner_szekli: mini, jak to mini, spoko, tanio, pewnie powstało celem zastąpienia 3,5 turbo. W tą stronę teraz idą firmy. Lorują, kwantyzują itd, żeby mniejszy model był lepszy od większego. To jest dla mnie jasne.

o1-preview to inna sprawa. Znacznie ważniejsza. Ten model to zupełnie inna odnoga modeli, i powinien być tak traktowany. Pokazuje on swój potencjał w zawansowanych kwestiach, jak programowanie, badania naukowe czy matematyka. Nie jest to levele phd
  • Odpowiedz
Wykorzystuje #chatgpt do odszukiwania #muzyka w SWOIM WŁASNYM komputerze, bo już mam tak jej dużo że nie pamiętam tytułu kawałka. Co wiecej, czasami potrzebuje odszukać kawałek o którym wiem jedynie to, że był z jakiejś gry, to ciekawe!
Bunch - Wykorzystuje #chatgpt do odszukiwania #Muzyka w SWOIM WŁASNYM komputerze, bo ...

źródło: wow!

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@adam128256: zapewne trza by mu wklejac ten sam prompt, zeby pamietal za kazdym razem, udręka. I pewnie nie ma customowych instrukcji jak w gpt. Tak robie w copilot jak wyczerpie 5 odpowiedzi w 1 watku i zaczynam od nowa, ale to wystarczy wklepac w 1 prompcie przypomnienie i kontynuowac
  • Odpowiedz
Tydzień temu wymyśliłem sobie nowy większy projekt do którego nie mam umiejętności, ale wczoraj wspólnie z #claude i #chatgpt zrobiłem w dzień roboczy praktycznie 70% roboty... AI by tego samo nie zrobiło i potrzebowało sporo pomocy, ale samemu bym potrzebował tygodni i pewnie finalnie bym się poddał ( ͡° ͜ʖ ͡°)

Zachęcony jak sprawie poszło zaraz kupuje w końcu #cursor i dość
  • 24
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@TomSz: nie wiem jak Claude, ale copilot na najnowszym gpt generuje kupę, trudnych do zauważenia bugów. IMO jak ktoś umie programować i robi coś poważniejszego, to nawet przeszkadza, bo generuje dług jakościowy.
  • Odpowiedz
  • 2
@wafel93: ja używam tego typu softu w większości do tworzenia rzeczy o których nie mam pojęcia, i ten projekt raczej zrobiłem szybciej niż zrobiłby go ktoś kto ma o każdym aspekcie pojęcie.

Chciałem mieć system który dostarczy licencjonowane stocki w odpowiednich rozmiarach na wszystkie z setek stron którymi się zajmuje, praca obejmowała:

- pobranie 27tys stocków ze strony która ani nie ma api, ani nawet nie udostępni mi w normalny sposób całej
  • Odpowiedz
To się nie kończy...
Co tydzień znajdzie się idiota, który jedyne co potrafi zrobić z GPT, to zapytać go o ilość R, i pochwalić się tym na wypoku...
I nawet nie wie, świadectwo jak wielkiego debilizmu sobie sam wystawia...
Cóż, przynajmniej jest się z czego pośmiać :DDD
PanodInternetu - To się nie kończy...
Co tydzień znajdzie się idiota, który jedyne co...

źródło: haha

Pobierz
  • Odpowiedz
@ilem: LLM to narzędzie trzeba umieć używać, bo sobie krzywdę zrobisz. Dobrze jest myśleć "Czy jakbym miał odpowiedzieć natychmiast (tak jak każemy AI) to czy podałbym dobrą odpowiedź?"

Tutaj trzeba trochę analizy, żeby doprecyzować, że chcemy dokładnie policzoną odpowiedź.
1133 - @ilem: LLM to narzędzie trzeba umieć używać, bo sobie krzywdę zrobisz. Dobrze ...

źródło: Screenshot 2024-09-18 at 03.05.03

Pobierz
  • Odpowiedz
#codzienneainews dziś: samouczący się robo-pies na kołach, humanoidalne roboty w fabryce BMW, GENERATOR PODCASTÓW od Google i nowy model od OpenAI
[1]
Google NotebookLM ozwala on na przesłanie do 100 dokumentów, każdy do 200 000 słów i generowanie podsumowań, zapytań itp. Dokumenty można przeglądać i znajdować w nich kluczowe detale. Już samo to jest fajne, ale na dniach wydali niesamowitą aktualizację. Teraz Google NotebookLM może generować podcasty (z męskim i
PeterWeiss - #codzienneainews dziś: samouczący się robo-pies na kołach, humanoidalne ...

źródło: 1725414452614.png_image

Pobierz
PeterWeiss - #codzienneainews dziś: samouczący się robo-pies na kołach, humanoidalne ...
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 6
Komentarz:
Dr Jim Fan, autor wpisu na X omawia model "Strawberry" (o1), który to wprowadza zmianę w podejściu do uczenia maszynowego, przesuwając nacisk z dużych modeli przedtrenowanych na optymalizację skalowania w czasie wnioskowania (inference). Podejście to odzwierciedla szerszy trend polegający na wykorzystaniu większej mocy obliczeniowej podczas wnioskowania, a nie tylko w fazie trenowania, co jest zgodne z ideą Richarda Suttona z The Bitter Lesson, która podkreśla, że jedynie uczenie i wyszukiwanie są technikami
PeterWeiss - Komentarz:
Dr Jim Fan, autor wpisu na X omawia model "Strawberry" (o1), ...

źródło: GXSkIaKbgAQrbJx

Pobierz
  • Odpowiedz
Ten chatgpt jednak nie jest tak zajebisty jak miałem w głowie. Ostatnio wziąłem się solidniej za naukę i spędzam z nim trochę czasu i tak często się myli i podaje pierdoły, że nie można na nim polegać.
Oczywiście nadal przyśpiesza rozwiązywanie problemu, potrafi coś łatwo wyjaśnić i jest zajebistym narzędziem itd. Ale te halucynacje i to jak jednak trzeba mocno go nakierowywać w prompts, żeby nie ocipiał mnie rozczarowuje.

Do tego jak
  • 19
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Kantar: W ramach kursu od IBM o AI na Coursera miałem "prompt engineering" i tam poznałem podstawowe zasady zapytań do LLM:
1) Dobry prompt składa się z 4-ch części: jasnych instrukcji, dobrego kontekstu, jasnego opisu oczekiwanego wyjścia i stosowania wzorca Persona,
2) instrukcje to co chcę od LLM,
3) kontekst to opis otoczki tych instrukcji,
4) opis wyjścia to np. ile słów ma być na wyjściu, czy to ma być esej, rozprawka, sprawozdanie, styl,
  • Odpowiedz