Wpis z mikrobloga

@RolnikSamWdolinie: ale masz podejrzenia co to jest za algorytm, np. funkcja kwadratowa czy sześcienna itp a ty chcesz policzyć współczynniki?
czy może być dowolna fukcja, logarytmy mnożone przez pierwiastki dzielone przez coś tam?
  • Odpowiedz
ale jak wygląda ten zbiór danych, masz te liczby (nazwijmy je y) i co do nich? jakiś x?

coś w stylu

x | y
-+-
1|3
2|5
3|7

tak to wygląda?
  • Odpowiedz
@heniek_8: mam same wartości bez x. Są one w rosnacej kolejnosci ale cześć elementów brakuje. Mogę wygenerować kilkadziesiąt elementow idealnie jeden po drugim, ale nie wszystkie. Dodatkowo nie jest tak ze n1 <n2<n3. raz są większe raz mniejsze
  • Odpowiedz
@RolnikSamWdolinie:

a co to jest, szeregi czasowe może?

jeżeli kolejność twojego ciągu jest znana, to zmienną niezależną jest numer obserwacji
od 1 do n czy od 0 do n-1
to jest nasz X

a zmienną zależną są twoje liczby z ciągu czyli nasz Y

tworzysz model Y = f(x) który minimalizuje błąd iksów

możesz zwalidować model na nowych danych jeżeli możesz je wygenerować

z tym, że:
jeżeli masz x np. od
  • Odpowiedz
@RolnikSamWdolinie:

to możesz wygenerować od razu następne wartości
potem np. wylosować 1/4 i schować na razie
a model nauczyć na 3/4 zbioru i sprawdzić na tamtch 25%

chodzi o to żebyś nie miał np. modelu na danych od 1 do 100 i robił potem predykcję do 120
skoro możesz mieć dane do 120 i na nich nauczyć model

a prawdziwa jego wartość wykaże się kiedy będziesz miał dane np. do 150
  • Odpowiedz
@heniek_8: Gdzie mi do notowań. Tam już konretni ludzie zainwestowali konkretne pieniądze w konkretne boty ( ͡° ͜ʖ ͡°)
Taki miałem zamiar z tymi generowanymi danymi. Tylko musze dobrac jakis dobry model i znaleść tutka dla opornych ;)
  • Odpowiedz
@RolnikSamWdolinie: Machine Learning Ci raczej tych kropek nie połączy. ML polega na odnajdowaniu wzorców w dużych zbiorach danych. Z tego co widzę tutaj zbiór ani nie jest duży ani nie ma wzorca. Tak czy inaczej do tego problemu jeśli już miałbym coś wyuczyć koniecznie, to wziąłbym jakieś drzewo decyzyjne, a nie bawił się w deep learning.
  • Odpowiedz