Wpis z mikrobloga

@erwit: To zależy od ciebie. Cross-validation wykorzystujesz do samego procesu uczenia i dobrania parametrów modelu. Jeżeli chcesz (musisz?) dostarczyć obiektywnych dowodów na to, że twój model jest dobry (uniwersalny), a nie przetrenowany tylko do konkretnych danych, to musisz losową próbę danych pozostawić na później.
  • Odpowiedz
@Kura_Wasylisa: @grajlord: dzieki! Poradzcie jeszcze prosze, jak po cross validation zostaje z kilkoma modelami, to score licze sobie jaki srednia scorow tych kilku modeli. A jak jest z hyperparameters? Tez srednia wyliczam?
  • Odpowiedz
via Wykop Mobilny (Android)
  • 0
@erwit: Nie wiem jakiego rodzaju modeli używasz, ale generalnie wybiera się jeden i go używa, nie wiem jak w twojej dziedzinie wiedzy/aplikacji. Score to pewnie masz na myśli jakaś statystykę która jest miarą dopasowania modelu, nie widzę celu w uśrednieniu
  • Odpowiedz
@erwit masz model X, k razy go uczysz i k razy walidujesz ( na każdym foldzie). Dostajesz k statystyk np auc, rmse itd. Na ogół finalna jest średnia z k miar. Robisz N takich modeli zazwyczaj każdy z innymi parametrami i wybierasz ten z najlepszym średnim wynikiem. Zadnych parametrów nie usredniasz
  • Odpowiedz