Muszę was rozczarować ale AGI to skrót od
Artificial General Idiot

I nawet z tym nie dealujcie.

Szansa na stworzenie debila jak #grok jest niewspółmiernie wieksza niż geniusza.
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#sztucznainteligencja #llamacpp #nvidia #llm #ai

RTX 3090 szybszy od RTX 4090? To możliwe pod pewnymi warunkami ( ͡° ͜ʖ ͡°)

RTX 4090 jest na tyle wydajniejszy od RTX 3090 w przypadku inferencji małych modeli, że ze względu na różnie nieefektywności karta nie przechodzi do pełnych zegarów boost - jednostki obliczeniowe nie są w stanie być wykarmione danymi na tyle szybko aby pracować na pełnych
FLAC - #sztucznainteligencja #llamacpp #nvidia #llm #ai

RTX 3090 szybszy od RTX 4090...

źródło: Generated Image March 07, 2026 - 3_56PM

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
@FLAC: Przy większych modelach - np. 9 miliardów parametrów - 4090 przechodzi już w maksymalną prędkość zegarów i łatwo pokonuje 3090.

Taka sytuacja ma miejsce oczywiście tylko przy pojedynczych requestach. Jeśli model 0.8B odpowiadałby na 20 requestów równolegle - wtedy 4090 byłby szybszy od 3090.
FLAC - @FLAC: Przy większych modelach - np. 9 miliardów parametrów - 4090 przechodzi ...

źródło: Generated Image March 07, 2026 - 4_52PM

Pobierz
  • Odpowiedz
Czy AI w formie Chatu GPT (i temu podobne) było wykorzystywane wcześniej przez władze i bogatych ludzi a potem to udostępniono plebsowi? Czy powstało spontanicznie i władze też do końca nie wiedzą jakie są tego możliwości i zagrożenia...?

#ai #pytanie #nauka #ciekawostki #swiat #technologia #usa #informatyka #pytaniedoeksperta #przegryw

jak myślicie?

  • Nie było utajniane. Prywatna firma wypuściła i fiu 32.0% (8)
  • Utajnione do 5 lat wstecz (czyli 2017) 28.0% (7)
  • Było w użyciu już ~20 lat 40.0% (10)

Oddanych głosów: 25

  • 12
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@vanschout: o chłopie. Generatywne AI ma swoje podwaliny w latach 50. Google w 2017 roku wypuściło transformery co umożliwiło rozwój chatbotow na taką skalę. Sama technologia nie jest nowa, współczesne opakowanie sprawia że ludzie myślą że to czary mary i że komputer myśli
  • Odpowiedz
Wiele ludzi nie rozumie sytuacji i mówi w stylu "hehe jestem hydraulikiem, kierowcą tira, szambonurkiem itd. i AI nie zabierze mi pracy" Oni myślą, że ci wszyscy, którym AI zabierze pracę nie są w stanie przekwalifikować się na ich zawody? Myślą, że jakiś programista w razie co nie będzie w stanie zastąpić na linii produkcyjnej jakiegoś bezzębnego Mariusza, który chleje co weekend? Przecież konkurencja byłaby tak ogromna, że nastąpiłoby spore przetasowanie ludzi
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@PopeLeon: nie zmienia to faktu że jest precyzyjny a to że więcej tokenów jest wyłącznie kwestia sposobu trenowania, taka podjęli decyzję, że tokenizer ma słaba reprezentację języka polskiego
  • Odpowiedz
#programista15k #programowanie #sztucznainteligencja #ai

Coś, co było niemal jest pewne teraz jest pewne. OpenAI opublikowało artykuł udowadniając, że kazdy LLM zawsze będzie coś halucynowal. Nie czasem. Dopiero przy następnej aktualizacji. Zawsze. Udowodnili to matematyką.

Nawet przy idealnych danych treningowych i nieograniczonej mocy obliczeniowej, modele AI nadal z przekonaniem mówią rzeczy, które są całkowicie fałszywe. To nie jest błąd, nad którym pracują. Jest to wpisane w to,
  • 21
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@JamesJoyce: Dlatego z niecierpliwością czekam aż większość źródeł, na których uczone są LLMy, będzie pochodziła z LLM'ów ( ͡° ͜ʖ ͡°)

Zatrute studnie itp.

Natomiast nadal jestem bardzo zadowolony z tego jak LLM ułatwia np. zamianę nieformalnego opisu problemu na oficjalne zgłoszenie do urzędu, czy jak szybko potrafi dokonać syntezy czy porównania kilku dokumentów. Oczywiście wszystko działa w połączeniu z zasadą "ufam, więc sprawdzam", ale nadal
  • Odpowiedz
  • 1
@lisek_cytrusek: Nie. Polecam zaglebic sie w zagadnienie https://en.wikipedia.org/wiki/Symbol_grounding_problem

W kontekście liczenia (arytmetyki) symbol grounding problem sprowadza się do pytania: czy system operujący na cyfrach np. „2 + 2 = 4" naprawdę rozumie co to znaczy „dwa", czy tylko bezmyślnie przetwarza kształty znaków według reguł? Człowiek gruntuje symbol „2" w doświadczeniu: dwa jabłka, dwa kroki, dwa palce. System formalny (kalkulator, LLM) wykonuje poprawne obliczenia, ale cyfry są dla niego tokenami ich
  • Odpowiedz
Jak ktoś jest giga fanem nvidii, frame genów i innego tego typu ai gówna, to niech sobie oglądnie ten filmik i ogólnie cały kanał obczai.

https://www.youtube.com/watch?v=xojL9MdxcRs

Chłop bardzo fajnie punktuje paskudne zagrywki nvidii, gdzie wszystko jest uzależnione od nvidii i ich ai slopu, zamiast poprawnej optymalizacji i technik graficznych, które dzisiaj całkowicie kuleją i zaliczyły gigantyczny regres.

#gry #nvidia #ai #aislop
haha123 - Jak ktoś jest giga fanem nvidii, frame genów i innego tego typu ai gówna, t...
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@haha123: ten chłop to bajkopisarz, wyczuł pewien narastający trend i kuje żelazo póki gorące. Ale z jego pieniactwa jeszcze nic dobrego nie wyniknęło. Dodatkowo usuwa całą krytykę i wytknięte mu błędy gdzie tylko może, fałszywie zgłasza krytykę na yt pod pozorem copyright claim itd. Zwykły wąż w ludzkiej skórze.
  • Odpowiedz