@makrofag74: nie chce psuć zabawy ale serio zachwycasz się tym że AI napisało program który:
- odczytuje wartość
- dzieli ją przez dwa
- wyświetla wynik
?

XDDDD
  • Odpowiedz
  • 1
@makrofag74: EDIT:
Żeby być bardziej precyzyjnym. Część modeli do generacji video da się lokalnie też postawić, ale większość ma spore wymagania.

WAN 2.1 lokalnie-wymagania:
  • Odpowiedz
  • 1
@makrofag74: Znalazłem małe obejście:
Po zasłonięciu prawej strony CZARNYM TŁEM - blokada się nie włącza.
Czasami to nie pomaga i trzeba zamiast zasłaniać wyciąć kawałek z tym co chcemy usunąć i na nim edytować.
makrofag74 - @makrofag74: Znalazłem małe obejście: 
Po zasłonięciu prawej strony CZAR...

źródło: ok

Pobierz
  • Odpowiedz
Muszę napisać kilkadziesiąt tekstów w języku polskim - 3 razy na ten sam temat. Aby były różne myślałem użyć różnych LLM. Jakie LLM używają języka polskiego ? Jest jakiś system do grupowania LLM - jedna opłata i mogę używać kilku ?
#ai #llm #chatgpt
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 0
@Supaplex: jak wszystkie 3 teksty przygotuje jeden model to i tak będą troche podobne i to czuć dlatego chcę teksty od róźnych modeli. Druga sprawa to jestem ciekawy porównania. Na wrzuconym blogu jest info o poe.com i pewnie będę próbował tego agregatora.
  • Odpowiedz
  • 402
O curwa xD coś ćpoł wymyślając to. Moim zdaniem takie coś bedzie generować permanentny smutek i tęsknotę. Nie pozwoli iść dalej i przejść żałoby
  • Odpowiedz
Są jakieś narzedzia offline, do zainstalowania na kompie działające jak LLM, ale nie wymagajace miliona TB RAMU, czy pakietu 20 RTX5090?
Nie chcę generowania obrazków, tylko, żeby potrafił jak Gemini zrobić podsumowanie z załączonych plików i działać jak "ekspercki" GEM po załadowaniu informacji.
#chatgpt #llm #gemini #google #copilot #ai #sztucznainteligencja
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
@tyrytyty: tok myslenia:

Okay, so I need to figure out if a differentiable function f from R to R, with the derivative's absolute value less than 1 everywhere, must have a fixed point. A fixed point is where f(x) = x, right? Hmm, let me start by recalling some theorems related to fixed points.

Banach Fixed Point Theorem comes to mind, which states that a contraction mapping on a complete metric space
  • Odpowiedz
@le1t00: Obrazek zawiera instrukcje dotyczące uruchomienia modelu uczenia maszynowego o nazwie „Deepseek R1” na komputerze. Model jest duży i wymaga potężnego GPU (karty graficznej) do wydajnej pracy.

Oblicza, ile warstw modelu można rozładować do GPU. (im więcej tym lepiej)
Oto, co oznacza każdy termin:

VRAM (GB): Pamięć dostępna na GPU (np. 24 GB lub
makrofag74 - @le1t00: Obrazek zawiera instrukcje dotyczące uruchomienia modelu uczeni...

źródło: RunningFULLDeepSeekR1671BLocally

Pobierz
  • Odpowiedz
Bawi się tu ktoś lokalnie w LLMy?
Korzystam trochę z ChatGPT ale chciałbym pobawić się lokalnie w postawienie czegoś własnego.
Widziałem, też, że są do ściągniecia paczki "danych" do nauki własnego modelu.

Ma ktoś solidne materiały jak to ugryźć lokalnie od podstaw i jakie minimalne wymagania co do PC, żeby to miało sens?

#
  • 9
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@cebulowyInwestor to instaluj ollame i się baw. Na obu sprzętach dasz rade odpalic modele ktore sa uzyteczne. To gdzie bedzie dzialalo lepiej to zalezy od modelu (jak model sie zmiesci w vram, to lepiej pojdzie na 2060, jak bedzie troche wiekszy, to lepiej bedzie na m1) Małe modele nie są tak universalne jak sonet, ale to nie znaczy ze sa zle. Na 2060 powinienes dac rade odpalic modele do 7B parametrow
  • Odpowiedz
@gradekmi a, i jak chcesz inwestować to rozwaz maca (nawet mini). Unified Memory robi naprawdę niezła robotę. Ja mam m4 pro z 48gb ram i już naprawdę sporo modeli mozna odpalic z rozsądna wydajnością
  • Odpowiedz