Hej, Wtyczka do #chrome kiedyś była że najeżdzałem na artykuł na onecie czy innym msn i dostawałem po najechaniu na tytuł clickbajtowy na typowego haka pojawiało się okienko ze streszczeniem artykułu w 2 czasem góra 5 zdaniach to co najważniejsze i to do czego odnosił się tytuł, bez wstępu. Wie ktoś jak to się nazywało? może ktoś coś takiego napisać? #pomyslnabiznes
#programowanie #pomysl #
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@NdFeB: ()
Opis
Microsoft AI vs DeepSeek
A na screenach
DeepSeek vs Microsoft AI

Mogłeś chciałaś to podpisać bo musiałem się przyjrzeć, jak ktoś nie korzysta z tych narzędzi AI za dużo
  • Odpowiedz
#chatgpt #deepseek #programista15k

z czego korzystacie obecnie? deepseek wyparl w waszym uzytkowaniu chatgpt? ja korzystam do takich codziennych taskow z darmowej wersji chatugpt, ale teraz odpalilem tego slynnego deepseeka i strasznie wolne to jest

obecnie przygotowuje sie do egzaminu z aws i daje obu taska zeby mi pytania przygotowywali

ciekawe

  • chatgpt 53.8% (28)
  • deepseek 30.8% (16)
  • inny 15.4% (8)

Oddanych głosów: 52

  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

W ChatGPT mogę wytrenować swój model z tego co wiem, ale chyba tylko w płatnej wersji tak? A są jakieś darmowe alternatywy? Chcę przykładowo w plikach tekstowych zamieścić potrzebne informacje, przesłać to Ai i na tej podstawie ją wytrenować. #chatgpt #programowanie #ai #deepseek
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#programowanie #programista15k #programista25k #ai #chatgpt #deepseek

Wiedziałem, że te wszystkie LLMy są gówniane, ale nie spodziewałem się, że aż tak.
Prosty task: RequestScope Cache który nie powodowałby rzucania wyjątku przez spring actuatora.

Żaden z tych state of the art modeli nie podołał XD, DeepSeek wypluł jakiś bełkot który się nawet nie kompilował, ChatGPT w sumie też zaczął wymyślać metody które nie istnieją XD
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@katopa: niemożliwe, że Ci nie napisał, napewno złego prompta użyłeś, zły model, ja Ci dam dobry, mówię zły model, musisz innego spróbować bo różne są, ja ja Ci polecę dobry. ( ͡° ͜ʖ ͡°)
  • Odpowiedz
Jak rozumiem aktualnymi AI które można odpalić lokalnie są Grok i Deepseek. Z tego co wiem to Deepseek jest możliwy do pobrania w kilku wersjach w jakiejś tam turbo okrojonej kilku GB, kilkadziesiąt GB oraz pełny model chyba 400GB? Nie wiem jak z Grokiem?
Na czym to idzie odpalić, to ogólnie działa tak, że jeżeli na rtx4080 odpali się model kilka GB i kilkaset GB to większy będzie dawał dłużej odpowiedzi (ale
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@interpenetrate: może za 10 lat by móc na komputerze do gierek uruchomić aktualny model na poziomie chatgpt4? z tym że wtedy chatboty ai w chmurze będą masakrowały lokalny twór więc znowu nie będzie miało to sensu.
  • Odpowiedz
@RychuiPeja: no dobra ale co z takim deepseekiem w okrojonej wersji? 14B da się przecież odpalić na domowej karcie średniego dzisiaj kalibru 16GB pamięci.
Nie wiem na ile odpowiedzi będą wyrafinowane jak przy pełnym 671B modelu.

Ale, nie można tego VRAM przydzielać, zabierając pamięć dysku twardego i pomagając GPU?
Powiedzmy 70B model, ma zapotrzebowanie 48GB, no i niech 1/3 bierze z karty a resztę używając dysku SSD? W laptopach Apple
interpenetrate - @RychuiPeja: no dobra ale co z takim deepseekiem w okrojonej wersji?...
  • Odpowiedz