Wpis z mikrobloga

O nie.. ChatGPT zaczął automatycznie "szukać w sieci" co spowodowało spadek jakości odpowiedzi do zera.. dziś jeszcze udało mi się to obejść prosząc go o to by tego nie robił, ale jeśli tego nie będzie się dało wyłączyć to to będzie solidny minus.. TL;DR: wyłączcie to g---o

Bo dla mnie przewagą ChatGPT było właśnie to, że zamiast trafiać na spam SEO i artykuły bez żadnej treści, otrzymywałem odpowiedź na konkretne pytanie i mogłem ominąć całe to g---o stworzone tylko pod kliknęcia w reklamy.. model może nie był świeży ale dla mnie to nie miało aż takiego znaczenia.

W ogóle ja nadal czekam na rewolucję polegającą na tym, że na domowym sprzęcie będzie można te modele uczyć, bo to odblokuje wiele nowych możliwości, których nie da nam dłuższy kontekst. To właśnie to, że model się uczy sprawia, że przyjmuje on nową wiedzę tworząc względnie spójny obraz rzeczywistości, dzięki któremu potem można znaleźć konkretną informację której szukamy.

A ten cały tryb "search" to dla mnie jedno wielkie "garbage in garbage out" ;/

#przemysleniazdupy #ai #chatgpt #zalesie #zjadlemzaduzoczekoladyizalesienawykopie
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 0
@Desseres: Ale mi chodzi o coś co możesz uruchomić na laptopie.. tak jak masz https://ollama.com/ i tam możesz generować odpowiedzi lokalnie z mniejszych modeli tak mi chodzi o coś, gdzie możesz te modele uczyć.. na własnym sprzęcie.
Fine-tuning jest obecnie drogi i mnie właśnie chodzi o optymalizację tego procesu tak jak to się stało z "inferencją"
  • Odpowiedz
  • 0
@Desseres: BTW asystent to nie to samo co fine-tuning, asystent używa funkcji a mnie chodzi o coś co aktualizuje "spójny obraz rzeczywistości" danego modelu dzięki czemu nie musi korzystać z zewnętrznych narzędzi np. wyszukiwarek wektorowych, te narzędzia mają duże ograniczenia
  • Odpowiedz