Pobrałem sobie #llama2 i zadałem mu pytanie o kod do szukania liczb pierwszych. 13b sobie średnio poradził, a z 70b dpuściłem, tak mi kompa zwiesił. #chatgpt gpt w sekundę zwraca kod. Albo to jest tak zasobożerne, albo coś źle robię. #programowanie
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@kutafonixor: mam 3090. W LM Studio 70b puszczam na CPU+GPU+RAM z integry i idzie. Powoli, ale idzie. A mam też WEBUI do lokalnego pythona, gdzie puszczam 13b na samym GPU+zintegrowanym GPU i tam fajnie śmiga. Jakbym miał pewność, że w SLI mi odpali 70B na dwóch 3090, to bym jedną dokupił, ale sam model waży 160 GB, więc słabo to widzę.
  • Odpowiedz
Na wydajniejsze modele przyjdzie jeszcze poczekać. Możesz sobie sprawdzić Vicuna, ten model 13b działa jak Chatgpt i jeszcze kilka miechów temu był najwydajniejszym modelem open source. Teraz pewnie są lepsze
  • Odpowiedz
#chatgpt #ai #llama #llama2 #sztucznainteligencja #informatyka
Siema, korzystam z płatnego chatgpt4, pomaga mi dosyć sporo w pracy ale co jakiś czas zaczynają drażnić mnie jego 'etyczne' ograniczenia. Czy próbował ktoś przenieść się na jakiś inny z tych modeli z llama albo inne? Jak sie za to zabrać, nawet na testy i na próbę, od czego zacząć, tych modeli jest w
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@aptitude: o fajnie, też protestuje. Narazie pobrałem ten pierwszy domyślny i na pytanie o dzisiejszą datę po polsku odpowiada że "dnia dwudziestego drugiego lutego", dobrze to nie wróży ????
Zobaczymy jak będzie generować kod jak się tylko skończy pobierać model.
  • Odpowiedz