Aktywne Wpisy

gerwazy-oko +17

radzioso532 +80
Dlaczego zwierzęta nie mają świadomości, że kiedyś umrą a tylko ludzie to wiedzą?
To fascynujące pytanie, które dotyka samej istoty tego, co czyni nas ludźmi. Krótka odpowiedź brzmi: zwierzęta żyją w "wiecznym teraz", podczas gdy ludzki mózg wyewoluował tak, by symulować odległą przyszłość.
Oto główne powody, dla których nauka uważa, że zwierzęta nie mają koncepcji własnej śmiertelności:
To fascynujące pytanie, które dotyka samej istoty tego, co czyni nas ludźmi. Krótka odpowiedź brzmi: zwierzęta żyją w "wiecznym teraz", podczas gdy ludzki mózg wyewoluował tak, by symulować odległą przyszłość.
Oto główne powody, dla których nauka uważa, że zwierzęta nie mają koncepcji własnej śmiertelności:
![Ostatnie Pentium czyli podkręcamy MMX 233 MHz [TOWARY MODNE 307]](https://wykop.pl/cdn/c3397993/98ee21b5a57fe31ef103527c64f24012b1c819f9caecf68796df4a9cddbcd327,q80.jpg)




Żeby zacząć bawić się z Machine Learningiem potrzebna jest dobra karta graficzna. Bo nawet na dobrym zwykłym procesorze uczenie sieci trwa długo. Na procesorze graficznym jest to dużo szybsze.
Co jeśli chciałbym taką aplikację z ML postawić w internecie? Przecież nie będzie stała na moim GPU pod biurkiem. Trzeba ją uruchomić na jakimś serwerze. Obecnie nawet VPS-y nie mają GPU. Zostaje mi jedynie Amazon AWS (czy podobne rozwiązanie od Google lub Azure) gdzie słono się płaci za każdą uruchomioną godzinę.
Nie ma innego wyboru?
A może jedynie uczenie sieci wymaga mocnego GPU, a postawienie aplikacji i jej działanie już nie?
Przykładowo, aplikacja ma rozpoznawać koty/psy:
- Do przemielenia tysięcy zdjęć potrzeba mocnego GPU. Wystarczy to zrobić tylko raz (np. u mnie na komputerze pod biurkiem).
- Ale jak już wytrenuję sieć (taką "wyuczoną sieć" mógłbym przenieść w formie np. jakiegoś pliku), to aplikacja po podaniu nowego zdjęcia ma tylko sprawdzić czy zgadza się z wyuczonymi wagami. To mogłoby być szybko realizowane nawet na zwykłym procesorze? Dobrze myślę?
Oczywiście jakby siec miała uczyć się na bieżąco z nowych zdjęć, to musiałaby aktualizować tą sieć. Ale nowe dane spływałyby bardzo wolno. Ewentualnie raz na jakiś czas zbierałbym dane i trenował (aktualizował) siec u siebie lokalnie zamiast na serwerze.
Komentarz usunięty przez autora
Komentarz usunięty przez autora
Komentarz usunięty przez autora
Użycie to jest tylko wykonywanie wielu operacji mnożenia i dodawania i jest zależne jedynie od rozmiarów sieci - ilości i wielkości warstw oraz ilości danych wejściowych i wyjściowych.
Można ściągnąć sporo sieci z internetu. Poszukaj pre trained neural network github.
Do predykcji (rozpoznawanie) karta graficzna nie jest niezbędna.
Sieci są jaknajbardziej publikowane, ale słyszałem jedynie o tych konkursowych, takich jak google net czy resnet.
Te razem z obszerną ich recenzją są publikowane w ramach rozwoju nauki.
Problem z nimi jest taki, że są przystosowane do rozpoznawania tysiąca czy więcej klas, przez co są całkiem ogólne i można powiedzieć
Wlaśnie po mękach postawiłem dual boota z linuxem z sterownikami i bibliotekami potrzebnymi pod obliczenia na NN i okazało się że trening wykonuje się około 60 razy szybciej niż na mobilnym CPU i5.
Sam jestem w szoku że to aż