Mirki mam w #python funkcje 4 (hyper-)parametrow, w zasadzie bez zadnych constrainow, kotej wynikem jest score. Da sie to jakos ladniej zoptymializowac niz poprzed k-fold validation? Gradient liczyc? Na pewno sa jakies gotowe rozwiazania? #machinelearning #datascience
Zakladam, ze trenujesz jakas siec, ktorej wynikiem jest score. Ile klas docelowych? Dwie, wiecej? Jaka metryka klasyfikacji? To bedzie sie roznic w zaleznosci od zbalansowania zbioru danych.
Jak ocenisz metryke klasyfikacji (najlepiej pojedynczy wskaznik), to k-fold cross-validation jest w miare dobrym podejsciem, ale zalezy od czasu, wielkosci danych i dostepnego hardweru.
Mozesz uzyc XGBoosta do optymalizacji wyniku drzew decyzyjnych.
@arysto2011: no wlasnie napisalam swoja optymalizacje random forrest i chce znalezc optymalne hyperparametry (balans miedzy dokladnoscia, a predkoscia treningu)
@bohater: tak Jake pisalem XGBoost, albo lightGBM dają najlepsze efekty jeśli chodzi o optymalizację. Są szybkie (wspieraja GPU), nie tak jak sklearn. Od tego lepsze są chyba tylko sieci neuronowe (autoenkodery).
@bohater: Chcąc znaleźć optimum hiperparametrów jakiegoś modelu ML musisz zdefiniować co jest Twoim wskaźnikiem i czy chcesz go minimalizować, czy maksymalizować. Wspominałeś o dokładności i czasie treningu. W takim przypadku miałbyć np. wskaźnik, który byłby średnią ważoną valacc i 1/ttrain. Wagi dobierzesz sobie w zależności od tego, jak cenisz sobie dokładność, a jak szybkość treningu.
Jak koledzy wspominali są do tego frameworki, żeby zwrapować grid, czy random search,
Da sie to jakos ladniej zoptymializowac niz poprzed k-fold validation? Gradient liczyc? Na pewno sa jakies gotowe rozwiazania? #machinelearning #datascience
score. Ile klas docelowych? Dwie, wiecej? Jaka metryka klasyfikacji? To bedzie sie roznic w zaleznosci od zbalansowania zbioru danych.Jak ocenisz metryke klasyfikacji (najlepiej pojedynczy wskaznik), to k-fold cross-validation jest w miare dobrym podejsciem, ale zalezy od czasu, wielkosci danych i dostepnego hardweru.
Mozesz uzyc XGBoosta do optymalizacji wyniku drzew decyzyjnych.
Jak koledzy wspominali są do tego frameworki, żeby zwrapować grid, czy random search,