Aktywne Wpisy
LeKosmita +13
Uczestnicy nocnej tzw. nocniki to elita tego kraju. Podczas gdy inni ludzie śpią by jutro poświęcić się pracy zarobkowej, my dyskutujemy o filozofii, nauce i technologii. Jesteśmy współczesną arystokracją decydującą o kierunku w jakim pójdzie ten świat
GoodGuyChucky93 +13
Ja rozumiem #!$%@? nitro za to jakim człowiekiem jest ale serio teraz będziecie #!$%@? przez tydzień bo 100 postów dziennie bo typ miał jednego gejowskiego screena? Robicie aferę jak by przez przypadek pokazał folder na którym ma kilkaset GB gejowskiego porno.
Ludzie szanujcie się, to na pewno nie było pod jakiegoś mema czy coś w tym stylu tylko pod walenie sobie konia i zaspokajania ukrytych homoseksualnych zapędów i fantazji
#famemma
Ludzie szanujcie się, to na pewno nie było pod jakiegoś mema czy coś w tym stylu tylko pod walenie sobie konia i zaspokajania ukrytych homoseksualnych zapędów i fantazji
#famemma
Żeby zacząć bawić się z Machine Learningiem potrzebna jest dobra karta graficzna. Bo nawet na dobrym zwykłym procesorze uczenie sieci trwa długo. Na procesorze graficznym jest to dużo szybsze.
Co jeśli chciałbym taką aplikację z ML postawić w internecie? Przecież nie będzie stała na moim GPU pod biurkiem. Trzeba ją uruchomić na jakimś serwerze. Obecnie nawet VPS-y nie mają GPU. Zostaje mi jedynie Amazon AWS (czy podobne rozwiązanie od Google lub Azure) gdzie słono się płaci za każdą uruchomioną godzinę.
Nie ma innego wyboru?
A może jedynie uczenie sieci wymaga mocnego GPU, a postawienie aplikacji i jej działanie już nie?
Przykładowo, aplikacja ma rozpoznawać koty/psy:
- Do przemielenia tysięcy zdjęć potrzeba mocnego GPU. Wystarczy to zrobić tylko raz (np. u mnie na komputerze pod biurkiem).
- Ale jak już wytrenuję sieć (taką "wyuczoną sieć" mógłbym przenieść w formie np. jakiegoś pliku), to aplikacja po podaniu nowego zdjęcia ma tylko sprawdzić czy zgadza się z wyuczonymi wagami. To mogłoby być szybko realizowane nawet na zwykłym procesorze? Dobrze myślę?
Oczywiście jakby siec miała uczyć się na bieżąco z nowych zdjęć, to musiałaby aktualizować tą sieć. Ale nowe dane spływałyby bardzo wolno. Ewentualnie raz na jakiś czas zbierałbym dane i trenował (aktualizował) siec u siebie lokalnie zamiast na serwerze.
Komentarz usunięty przez autora
Komentarz usunięty przez autora
Komentarz usunięty przez autora
Użycie to jest tylko wykonywanie wielu operacji mnożenia i dodawania i jest zależne jedynie od rozmiarów sieci - ilości i wielkości warstw oraz ilości danych wejściowych i wyjściowych.
Można ściągnąć sporo sieci z internetu. Poszukaj pre trained neural network github.
Do predykcji (rozpoznawanie) karta graficzna nie jest niezbędna.
Sieci są jaknajbardziej publikowane, ale słyszałem jedynie o tych konkursowych, takich jak google net czy resnet.
Te razem z obszerną ich recenzją są publikowane w ramach rozwoju nauki.
Problem z nimi jest taki, że są przystosowane do rozpoznawania tysiąca czy więcej klas, przez co są całkiem ogólne i
Wlaśnie po mękach postawiłem dual boota z linuxem z sterownikami i bibliotekami potrzebnymi pod obliczenia na NN i okazało się że trening wykonuje się około 60 razy szybciej niż na mobilnym CPU i5.
Sam jestem w szoku że to aż taki