@toolonge

@JamesJoyce Też mi się wydaje, że taki przeskok kosztowy jest szalenie niezwykły A może jednak nie jest ? Zależy, w takim razie zachód też bez problemów powinien zjechać z kosztów wielokrotnie, bo okazuje się to być czymś "tanim"w osiągnięciu Zobaczymy


Kilka lat temu było to bardzo kosztowne. Wraz z rozwojem robi się coraz
  • Odpowiedz
#ai #sztucznainteligencja #llm

ReaderLM-v2 to model języka parametrów 1,5B, który konwertuje surowy kod HTML na pięknie sformatowany kod Markdown lub JSON z wyjątkową dokładnością i ulepszoną obsługą dłuższego kontekstu. Obsługując wiele języków (w sumie 29), ReaderLM-v2 specjalizuje się w zadaniach obejmujących analizowanie, przekształcanie i wyodrębnianie tekstu HTML.

ReaderLM-v2 stanowi znaczący krok naprzód w stosunku do swojego poprzednika, z kilkoma kluczowymi ulepszeniami:

Lepsze
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@makrofag74: No to jeszcze został im tylko Windows i MacOS. Myślę że jak chcesz być czołowym globalnym modelem to multiplatformowość jest obowiązkowa. Ciekawi mnie czy Qwen AI też wydadzą w najbliższym czasie swoje appki, bo ostatnio wypuścili wersję webową chatu. Cieszy mnie że chińczycy nie odpuszczają bo to bardzo napędza konkurencję i zmusza gigantów jak OpenAI czy Google z ich modelem Gemini do jeszcze szybszego rozwoju
  • Odpowiedz
  • 0
@kkecaj: DeepSeek jest całkiem niezły i goni czołówkę. Ostatnio tłumaczę sobie napisy do seriali w nim. Co ciekawe w wersji www ma guzik CONTINUE, a konkurencja nie ma.
  • Odpowiedz
  • 1
Kwantyzację można porównać do hmmm...kompresji obrazka, model jest mniejszy i potrzebuje mniej pamięci do uruchomienia, ale kosztem jakości odpowiedzi.

Na szczęście coraz mniejsze modele działają coraz lepiej.

Typ modelu, a wielkość:
makrofag74 - Kwantyzację można porównać do hmmm...kompresji obrazka, model jest mniej...

źródło: kwantyzacja

Pobierz
  • Odpowiedz
  • 1
@kartofel: 1,2 - Reprezentuje 20% narzut związany z ładowaniem dodatkowych rzeczy w pamięci GPU.

wujek AI mówi, że: "Nie do końca. Wielkość modelu, np. 70B (70 miliardów parametrów), odnosi się do liczby parametrów w modelu, a nie bezpośrednio do liczby połączeń między "neuronami".

Co oznaczają te 70 miliardów parametrów?
Parametry w modelu to wagi i przesunięcia (bias), które są dostosowywane podczas procesu trenowania sieci neuronowej. W przypadku dużych modeli językowych, takich jak GPT,
  • Odpowiedz
@PieknyWojciechPostrachDziewic: patrząc jak okrojone jest Gemini (i inne modele) i jak w wielu tematach trzeba się namęczyć, żeby dostać odpowiedź na proste pytanie (np mi nie odpowiada na „ile lat ma prezydent USA”), to jednak „jesteś nikim, weź umrzyj” jest czymś po prostu ciekawym, bo faktycznie niekoniecznie nadzwyczajnym.
  • Odpowiedz