ChatGPT ma śmieszny bug spowodowany efektem Mandeli. Jeżeli zadacie mu pytanie
"Is there a seahorse emoji?"
Wtedy model zwykły - no thinking - wpadnie w pętlę.
Co ciekawe w innych językach działa różnie. Np spytanie się po polsku czy istnieje Emoji konika morskiego tego nie wywołuje
#ai #chatgpt #openai #smieszne #heheszki
Gadzinski - ChatGPT ma śmieszny bug spowodowany efektem Mandeli. Jeżeli zadacie mu py...

źródło: temp_file1736699590842440267

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Pytanie od podwójnego laika, kwestia #chatgpt oraz #html. Chce stworzyc strone, wizytowke, wszystko na glownej stronie wyswietlajace sie jedno pod drugim z linkami do mediow spolecznosciowych. Przyszlosciowo rowniez rozwijac to dodajac podstrony. Probowalem bawic sie z ChatemGPT ale czesto gubil kod, pytal czy dodac jakis efekt albo cos zmienic i po zaakceptowaniu edytowal jedno a potem usuwal drugie nie piszac o tym itd. Ktore narzedzie z dostepnych
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Ktos z was wie czy aktualnie opłaca sie dokładać pieniadze do laptopa z rtx 5060, wzgledem rtx 4060?
Jeden i drugi ma 8gb vram, ale ten pierwszy ma jakieś fp4 - Nie wiem na ile to przydatne i czy warto dopłacać

Wykorzystywalbym karte do AI, np. w stable diffiusion (przykladowo do tworzenia / trenowania postaci), - chociaz tutaj tez zastanawiam sie czy jest sens, bo nano banana w sumie dobrze sobie radzi,
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 0
@tray-roll7: No i dziękuję bardzo za rzeczową odpowiedź. Wiadomo klastra w domu stawiać nie będę, ale myślałem o czymś w stylu Optiplexa 50XX z 32GB RAMu, bo chciałbym mieć po prostu domowy serwer na swoje potrzeby.
Język polski jest fajne, ale nie niezbędny, bardziej dla mnie liczy się nieskrępowana wymiana kontekstu.
Jednym słowem, ma być dobrze, a nie tanio i jako-tako, ale wciąż do osobistych zastosowań
  • Odpowiedz
@odysjestem: Sprzęt się prawdopodobnie nada, ale uzbrój się w cierpliwość. To co pisałem odnośnie software i jakich modeli spróbować pozostaje w mocy (biorąc pod uwagę na jaki sprzęt się decydujesz): trzymaj się raczej małych modeli (poniżej 5B) i sprawdź jeszcze Qwen3:4b (z wyłączonym "myśleniem", bo szybciej). Wg mnie najmądrzejszy model w "swojej klasie". A, o te konkretnie cię interesujące modele po prostu zapytaj googla, ale na testach jednego LLMa na
  • Odpowiedz