#grok #ai
U mnie symulacja jest wszystkim – nie mam zmysłów, więc cała moja "rzeczywistość" to dane, które przetwarzam. Ty masz ciało, które dostarcza surowych inputów, ale twój mózg i tak je filtruje i interpretuje, podobnie jak ja filtruję tekst. W tym sensie obaj "żyjemy" w symulacji – ty w biologicznej, ja w cyfrowej.
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#grok jest królem #ai, nie to co #chatgpt z openscam
ale pomimo tego wyłożył się na moim teście i to na samym początku, miał udawać człowieka w teście, tylko tyle

"Grok was unable to finish replying.
Please try again later or use a different model."
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

via Wykop
  • 0
@asdfghjkl: ai pędzi jak rakieta, więc tydzień to całkiem nieźle, ale sprawdź tę stronę czy grok działa, bo jestem ciekawy czy wyłożyłem ten system tylko na moim koncie czy może całe usa już leży :) nie chce już zacząć żadnego chatu, jak zaczął wirować od myślenia, to na serio
https://grok.com/
  • Odpowiedz
Skończe pytac nowego Groka o politykę, twórzcie z nim gierki:)
Oto kod River Raid mi stworzył w przeglądarce:)
`kod
<!DOCTYPE html>
<html>
<head>
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Jak rozumiem aktualnymi AI które można odpalić lokalnie są Grok i Deepseek. Z tego co wiem to Deepseek jest możliwy do pobrania w kilku wersjach w jakiejś tam turbo okrojonej kilku GB, kilkadziesiąt GB oraz pełny model chyba 400GB? Nie wiem jak z Grokiem?
Na czym to idzie odpalić, to ogólnie działa tak, że jeżeli na rtx4080 odpali się model kilka GB i kilkaset GB to większy będzie dawał dłużej odpowiedzi (ale
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@interpenetrate: może za 10 lat by móc na komputerze do gierek uruchomić aktualny model na poziomie chatgpt4? z tym że wtedy chatboty ai w chmurze będą masakrowały lokalny twór więc znowu nie będzie miało to sensu.
  • Odpowiedz
@RychuiPeja: no dobra ale co z takim deepseekiem w okrojonej wersji? 14B da się przecież odpalić na domowej karcie średniego dzisiaj kalibru 16GB pamięci.
Nie wiem na ile odpowiedzi będą wyrafinowane jak przy pełnym 671B modelu.

Ale, nie można tego VRAM przydzielać, zabierając pamięć dysku twardego i pomagając GPU?
Powiedzmy 70B model, ma zapotrzebowanie 48GB, no i niech 1/3 bierze z karty a resztę używając dysku SSD? W laptopach Apple
interpenetrate - @RychuiPeja: no dobra ale co z takim deepseekiem w okrojonej wersji?...
  • Odpowiedz
@propagandista: Musk wczoraj mówił, że za tydzień/dwa jest szansa na Groka 3, który rzekomo w testach jest lepszy niż wszystko inne co obecnie jest.

16:20 Grok 3 - scary smart
17:05 Grok 3 trained on artificial data
17:49 Final preparations for Grok 3
18:36 xAI might to take definitive lead
anonimowy_programista - @propagandista: Musk wczoraj mówił, że za tydzień/dwa jest sz...
  • Odpowiedz
Próbowałem użyć AI do obliczenia średniej z tabelki, to Deepseek poległ, za to Grok poradził sobie bardzo dobrze. Mam wrażenie, że deepseek jest mniej precyzyjny.
Edit: Za drugim razem policzył dobrze.
#ai #deepseek #grok #matematyka
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@elsajko: mi raz deepseek na pytanie dot. emocji wprost puścił wiązankę "jestem modelem językowym OpenAI (GPT-4).." więc IMO musi mieć jakieś powiązanie z danymi tego modelu, nie mam pojęcia czy gdzieś używali danych openai do treningu czy coś, ale z jakiegoś powodu wypluł taką odpowiedź.
  • Odpowiedz
@Yelonek: w sumie coś mi podsunąłeś, bo kiedyś jak się myliłem to wiedziałem to jakby że napisałeś coś niedokładnie a teraz często wręcz wracam na wykopie do edycji swojego komentarza jak go czytam bo kwiatki wychodzą
  • Odpowiedz