Wpis z mikrobloga

#deeplearning #forex
Takie dziwne zjawisko napotkałem: Gdy trenuję model do gry z dużą ilością dropoutów i do walidacji używam danych poprzedzających dane wykorzystane do treningu to trafność walidacji jest większa o kilka % od trafności uzyskanej podczas treningu (czyli w normie). Jeśli jednak do walidacji używam danych wyprzedzających dane treningowe to im większa jest trafność treningowa to trafność walidacji spada - i to poniżej wartości wynikającej z prawdopodobieństwa. Jak dla mnie trochę #creepy ( ͡º ͜ʖ͡º). Teraz np. trafność treningowa wynosi ~80% a testowa (dla danych nowszych niż treningowe) to ~42%, gdzie 50% wynikałoby z wyborów losowych.
  • 1
  • Odpowiedz
@Bejro: ( ͡° ͜ʖ ͡°) trzeba jeszcze dodać feature jeśli coś modelowi wyjdzie, że trzeba zrobić TAK to trzeba zrobić NIE i w ten sposób osiągniesz 58% ( ͡° ͜ʖ ͡°) mam nadzieje, że pomogłem. A tak naprawdę to mega creepy, jeśli coś jest gorsze od rzutu monetą.
  • Odpowiedz