Wpis z mikrobloga

@GHJ567: pojedynczy perceptron nie różni się bardzo od funkcji IF. Jeśli jest odpowiedni zestaw pobudzeń na wejściu to albo się wzbudza albo nie. Rożnica jest taka że perceptron działa w dziedzinie ciągłej, więc może się wzbudzić tylko trochę, a warunki są zero-jedynkowe. Niemniej funkcja aktywacji jest zwykle mocno nieliniowa tak że na ogół albo nie jest wzbudzony w ogóle albo na maksa.
ty algorytmu AI na oczy nie widziałeś

znajdź mi if w takim typwym algorytmie sieci neuronowch. Powodzenia.


@GHJ567: przecież deep learning to pomnożenie wektora wejściowego przez ogromną sieć neuronową i zinterpretowanie wag wynikowych. Problemem jest skala obliczeń i proces uczenia natomiast gotowy model to są dosłownie ify
Po 2: skąd wiesz że nasz mózg nie działa wg. twoich "zwykłych algorytmów"?


@GHJ567: Przeciez dziala w ten sposob, zauwaz ze AI nasladuje nasze kanony piekna i je odwzorowuje tyle ze dziala selektywnie a nie holistycznie