Wpis z mikrobloga

Zakladam, ze trenujesz jakas siec, ktorej wynikiem jest score. Ile klas docelowych? Dwie, wiecej? Jaka metryka klasyfikacji? To bedzie sie roznic w zaleznosci od zbalansowania zbioru danych.

Jak ocenisz metryke klasyfikacji (najlepiej pojedynczy wskaznik), to k-fold cross-validation jest w miare dobrym podejsciem, ale zalezy od czasu, wielkosci danych i dostepnego hardweru.

Mozesz uzyc XGBoosta do optymalizacji wyniku drzew decyzyjnych.
via Wykop Mobilny (Android)
  • 0
@bohater: tak Jake pisalem XGBoost, albo lightGBM dają najlepsze efekty jeśli chodzi o optymalizację. Są szybkie (wspieraja GPU), nie tak jak sklearn. Od tego lepsze są chyba tylko sieci neuronowe (autoenkodery).
@bohater: Chcąc znaleźć optimum hiperparametrów jakiegoś modelu ML musisz zdefiniować co jest Twoim wskaźnikiem i czy chcesz go minimalizować, czy maksymalizować. Wspominałeś o dokładności i czasie treningu. W takim przypadku miałbyć np. wskaźnik, który byłby średnią ważoną valacc i 1/ttrain. Wagi dobierzesz sobie w zależności od tego, jak cenisz sobie dokładność, a jak szybkość treningu.

Jak koledzy wspominali są do tego frameworki, żeby zwrapować grid, czy random search, jednak