Wpis z mikrobloga

@Andrzejek13: @Nicescroll: Alez skad. kolega ma racje. Robisz dokladnie to samo za kazdym razem kiedy przepuszczasz przez algo, albo siec kolejne rekordy danych. Za kazdym razem liczysz gradienty, funkcje straty, modyfikujesz wagi i jeszcze raz i jeszcze raz az nie wyczerpie Ci sie dataset treningowy.
konto usunięte via Wykop Mobilny (Android)
  • 6
@arysto2011: @arysto2011: ale absolutnie nie, równie dobrze możesz powiedzieć, że wchodzisz codziennie na wykop i jest to samo bo robisz to samo. To że proces jest taki sam, nie znaczy że dane są te same. Dane przechodzące przed warstwy są za każdym razem inne, właśnie na tym polega uczenie, czyli cały sens ai. Co to w ogóle za stwierdzenie ze algorytm ten sam, no kurde po to został stworzony aby
@Nicescroll: Akademicka dysputa. mem jest smieszny bo ukazuje, ze w powiedzeniu Einsteina to co robi sie w MLu de facto to robienie tego samego i oczekiwanie innych rezultatow. Algortm ML i mechanizm wstecznej propagacji to czynnosc (robienie czegos), dane to tylko podmiot tej czynnosci. Dlatego jest smieszny. Reszta to dzielenie wlosa na czworo.

I gdybym sie uparl, to moglbym traktowac dataset treningowy jako calosc. I wtedy dane nie sa inne, chyba,