#sztucznainteligencja #selfhosted #pytaniedoeksperta
Mam taką rozkminę - model AI odpalony lokalnie - do czego?
Sprzęt w kosmos drogi, chcę to sobie postawić dla zabawy na czymś wygrzebanym z szafy, szybkie testy pokazały, że modele mniej więcej do 11B działają z sensowną szybkością.
Ale nie potrafię wymyślić żadnego zastosowania dla takiego modelu :)
Mądrość zbiorowa internetu podpowie?
Mam taką rozkminę - model AI odpalony lokalnie - do czego?
Sprzęt w kosmos drogi, chcę to sobie postawić dla zabawy na czymś wygrzebanym z szafy, szybkie testy pokazały, że modele mniej więcej do 11B działają z sensowną szybkością.
Ale nie potrafię wymyślić żadnego zastosowania dla takiego modelu :)
Mądrość zbiorowa internetu podpowie?














macie jakiś dobry i sprawdzony tutorial postawienia nextcloud na debianie? ogólnie to ma być lxc/wm na proxmoxa
próbowałem:
https://docs.nextcloud.com/server/31/admin_manual/installation/source_installation.html - po postawieniu nie wchodziła strona logowania
https://www.rosehosting.com/blog/how-to-install-nextcloud-on-debian-13/ - nie dało się zalogować po finalizacji instalacji na gui, za każdym razem błędne hasło
https://community-scripts.org/scripts/nextcloud-vm - stawia NC 18, podnosi się do 34 bez problemu ale pokonało mnie doinstalowanie modułu php smb client
To jest po prostu produkcyjne.
Wbij i zobaczysz że wymagania nextcloud to 12-tka. Podobnie jest w CUDA.
13-tka jest zbyt świeża.
@nameisnull: No w sumie też mam podobnie.
Jednak debmirrorem porobiłem lokalne repo i jakoś daję radę bez sięgania do arch-a
Dziwne. jakie to podobne doświadczenia.
Znaczy ewolucja działa tylko w stronę minimalizacji energii xD