#ai #sztucznainteligencja #gemini

Hej Mirki i Mirabelki - może ktoś ma dokładniejszą wiedzę na temat limitów w określonych planach Gemini? Bo jak tak patrzę, to większość chatów AI ma super ultra mega niejasne rozpiski dotyczące planów tj.:
A - mały limit, B - średni limit, C - wysoki limit.
No jak dla debila, a ja chciałbym konkrety - np. w darmowym planie masz 5 promptów dziennie,
MgrMarecki - #ai #sztucznainteligencja #gemini

Hej Mirki i Mirabelki - może ktoś ma ...

źródło: image

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 0
@tyrytyty: czyli homo nie wiadomo... straszna lipa bo chciałem bez wydawania w ciemno tych kilkuset złociszy się dowiedzieć ile to warte ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°) Także chyba się nie dowiem a google się na mnie nie wzbogaci ¯\(ツ)/¯
  • Odpowiedz
@presburger:załóż konto na runway ml. Masz tam sporo nowych modeli generatywnych za free. Wyczerpiesz limit to jeszcze 2 razy założysz konto na ten sam mail/konto google. W zakładce generowania obrazu jak użyjesz modelu flash2.5 to cenzury nie ma. No i jakość dużo lepsza niż na chatgpt.
  • Odpowiedz
Pamiętasz ten moment, gdy pierwszy raz odpaliłeś ChatGPT? To uczucie “wow”, że rozmawiasz z maszyną? Przez ostatnie dwa lata wszyscy uczyliśmy się tej sztuki. “Prompt Engineering” stał się nowym angielskim. Uczyliśmy się prosić, doprecyzowywać, negocjować z modelem.

Ale mam wrażenie, że ostatnio uderzyliśmy w ścianę. Rozmowa z AI stała się... męcząca. Ile razy można poprawiać ten sam tekst, by uzyskać konkret?

Premiera Gemini 3.0 pokazuje, że Google też to zauważyło. I właśnie zamknęło pewien
SzymonwSieci - Pamiętasz ten moment, gdy pierwszy raz odpaliłeś ChatGPT? To uczucie “...

źródło: przestan-rozmawiac-zacznij-wymagac-gemini-3-0-era-agentow

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Wiem ze temat znany i oklepany ale jezu jak te AI pie*doli glupoty. Poprosilem o proste porownanie 3 irygatorow (Philips, Waterpik i Panasonic) w formie tabelki.
Po lewej Gemini po prawej claude. I w jednym i w drugim polowa rzeczy sie nie zgadza XD totalnie z d--y parametry. Jeden AI twierdzi ze philips ma najwieksze cisnienie, drugi AI twierdzi ze to Panasonic ma jednak najwieksze xD
Pojemnosc zbiornika w Panasonicu (screenshot)? 150
TurboBlejzer - Wiem ze temat znany i oklepany ale jezu jak te AI pie*doli glupoty. Po...

źródło: image

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@TurboBlejzer: a napisałeś, żeby użył danych z internetu? Jak nie, to one tną koszty i będą się odwoływać do wiedzy z czasu uczenia sieci, najczęściej robiąc masę błędów.
  • Odpowiedz
To tylko generator kolejnych słów...


@kliq: IMO:
Pierwsze LLMy takie było, choć i one potrafiły dobić z IQ do poziomu człowieka z inteligencją średnią (IQ co najmniej 90 punktów).
Tyle, że teraz modelami granicznymi nie są proste LLMy, ale multimodalne LRMy, które rozumują inaczej, niż tylko przewidując kolejne słowo, bo przeprowadzają złożony wewnętrzny monolog, który w drodze rozumowania, prowadzi je do logicznych wniosków, przez co już dziś potrafią mieć IQ na poziomie człowieka
Arkass - >To tylko generator kolejnych słów...

@kliq: IMO:
Pierwsze LLMy takie było,...

źródło: image

Pobierz
  • Odpowiedz
Dzisiaj nadal probując sie dowiedizęc, czy jest sens doplacac do laptopa z 16gb vram względem 12gb w kontekscie zabawy z AI, natknąłem sie opinie że te lokalne modele są słabe i zazwyczaj działają dużo gorzej niż komerycjne wersje? Prawda to?

Przykladowo taki lokalny flux albo stable diffiusion, do czego mogą byc przydatne zakladając mozliwosc korzystania np. z nano banana pro? Noiby sie slyszy o cenzurze, ale chyba jakos mocno to nie rpzeszkadza,
  • 9
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: Ja kupiłem lapka z 16 Gb VRAMu i żałuję. Małe modele językowe działają jak g---o a generatory obrazów dostępne lokalnie nie mają startu do Nano Banana. Jak pisał kolega Fluxa i tak nie odpalisz. Jak nie jesteś spoceńcem który generuje gołe baby bez cenzury nie jest to warte zachodu i lepiej zainwestować w subskrypcję Gemini, gdzie masz jednej z najlepszych dużych modeli językowych, praktycznie nieograniczony dostęp do generowania obrazów
  • Odpowiedz
co sądzisz o tym co mi tu google powiedział


@essos: co sądzisz o tym co mi tu google powiedział
Chyba wtedy jak sprawdzałem fluxa to nie ogarniałem czym jest kwantyzacja. Ale jakkolwiek, oprócz vramu jest jeszcze sam gpu, a mój nie jest demonem, nie chce mi się sprawdzać drugi raz. Nie przesadzałbym z optymizmem.

Mozesz podac jakoes przyklady tej "dowolnosci" podczas
  • Odpowiedz