Wpis z mikrobloga

Mam pytanie do wykopowych ekspertów #machinelearning ( ͡º ͜ʖ͡º) #statystyka
Chodzi o normalizację danych wejściowych (feature normalization).

Pracuję nad algorytmem rozpoznawania pisma przy pomocy logistycznej regresji (logistic regression) - cel czysto naukowy - czyli Matlab bez żadnych wbudowanych funkcji.

Minimalizuję funkcję kosztu metodą gradientu prostego (gradient descent). Niestety dane wejściowe (macierz obrazka) są dosyć 'rozbieżne' i Matlab średnio sobie z tym radzi (ref

Zastosowałem więc normalizację i teraz jest git.
Ale okazuje się, że wyuczone współczynniki działają tylko dla tych znormalizowanych danych (muszę zapisywać wart. śred/mean i odchylenie standardowe/std.dev).

Czyli zawsze nowe dane muszę też najpierw normalizować?
A dopiero potem obliczać i klasyfikować?

Niby normalizacja optymalizuje działanie algorytmu gradientu prostego ale sama też trochę trwa (szczególnie dla obrazka 100x100) i jeżeli ma się to np. odbywać 'online' to trochę słabe rozwiązanie.

Pozwolę sobie zawołać Mirków, którzy już raz mi pomogli z tematem ML, mam nadzieję, że się nie pogniewacie @dziobaki_sa_jadowite @Diego19
  • 9
@dziobaki_sa_jadowite:
Nie matlab tylko octave, nie uczelnia tylko dom, po pracy ( ͡° ͜ʖ ͡°)
Studia skończyłem z 15 lat temu, po prostu chciałem się tego nauczyć...
Postanowiłem, że użyję właśnie octave/matlab by jeszcze lepiej zrozumieć jak to działa.

Edit: Odnośnie studiów to za moich czasów przedmiot nazywał się chyba "Systemy Ekspertowe i Sieci Neuronowe" i był na to semestr albo dwa. I też nie było matlaba