Dobre to do lokalnego AI będzie?
Jest sens kopać się z konfiguracjami by odpalić na 2kartach na raz? A tym bardziej - więcej kart? Bo to znacznie komplikuje dobór płyty gl... W ogóle czy przy używaniu AI na takim GPU ma znaczenie CPU? Bo jeśli nie, to są fajne płyty gl typowo koparkowe, z CPU śmieciowym
















Jako że Qwen wypuścił kilka małych modeli z rodziny 3.5 to zastanawiało jak stare GPU można jeszcze użyć do odpalenia tych LLMów ( ͡° ͜ʖ ͡°)
Na pierwszy strzał poszedł GTX Titan Black - najpotężniejsza dostępna wersja karty z generacji architektury Kepler - 2013 rok! 2880 rdzeni, 6 GB
źródło: image
Pobierz@kwanty: no właśnie paradoksalnie wsparcie Vulkan w llama.cpp spowodowało że ceny AMD Mi 50 wystrzeliły w kosmos xD wersje 32 GB podrożały około 3x względem tego za ile można było je kupić przed szałem LLM i łatwym wsparciem Vulkana. RoCM już nie wspiera oficjalnie Mi50 więc