Wpis z mikrobloga

Ale nie fair :S od paru dni spamuję mirko gorzkimi żalami odnośnie sieci neuronowej którą miałem za zadanie zaprogramować. Sieć ta ma się nauczyć rozpoznawać litery na obrazkach. Na każdym obrazku jest jedna litera, dla utrudnienia są ona zniekształcane. Projekt jest w 3-osobowych grupach i w związku z tym mieliśmy wziąć największą ostatnią cyfrę z naszych numerów indeksów i ta cyfra była naszym numerem zestawu literek. Padło na 9, bo tak ma jeden z kolegów. Okazało się to być w cholerę trudne - literki nie dość, że powykrzywiane i zaszumione, to jeszcze poprzecinane, pokryte w niektórych miejscach grubymi plamami lub "półprzezroczyste" (czyli efekt był taki, że literki były złożone z szachownicy). Robiłem co mogłem, siedziałem nad tym bardzo długo i najlepszy rezultat jaki osiągnąłem to 89% skuteczności - warte raptem 1/4 punktów :S powyżej 90 byłoby już 1/2, ale no nie dało się. Zamiast tego wzięliśmy inny zestaw testowy, o numerze 6, czyli ostatniej cyfrze mojego numeru indeksu. Obrazki są dużo mniej złożone (jest tylko szum i zniekształcenia) i ta sama sieć dla tego zestawu dała za pierwszym podejściem 96% skuteczności - co już jest maksymalną oceną :S i co co tutej chodzi, czemu Ci z 9 mają tak przesrane a reszta nie? #studia #studbazaproblem #coolstory #tldr #sztucznainteligencja
  • 9
@Marmite: a pokaże te obrazki. Może po prostu twoja metoda lepiej radzi sobie ze zniekształceniami z innych zestawów, a do twojego zestawu trzeba jakąś inną wymyślić. Chyba, że zestawy są wygenerowane zupełnie losowo, wtedy masz racje. Jeśli różnią się rodzajem zniekształcenia to co innego.
@Marmite: Ogólnie ciekawy temat. Kiedyś chciałem się za to zabrać, ale nie wiem jak zacząć, może polecasz coś w tym temacie, jakaś literuatura czy coś?

Tylko mnie to bardziej interesuje coś typu jeżdzący robot z czujnikiem odległości, wykrywający przeszkody na sieciach neuronowych. Może masz coś tego typu?
@ZeNoN246: Obrazy są generowane "na bieżąco" z tego samego algorytmu, natomiast zestawy 6 i 9 różnią się prawdopodobieństwami pewnych zniekształceń - w zestawie 6 aż 4 z nich mają prawdopodobieństwo równe 0 :| podczas gdy w 9 nie i dlatego tak mocno się różnią. Chyba nie muszę wrzucać przykładów to z tego jasno wynika, że to nie wina metody, tylko łatwiejszego zestawu :D

@austra: Ciekawe jest tylko w teorii, programowanie