Wpis z mikrobloga

Wytrenowałem prostą sieć neuronową do predykcji WIG20 na podstawie jego przeszłych notowań. W poniedziałek zamknięcie na 1758 :D Będę to rozwijał. Kolejnym krokiem będzie utworzenie algorytmu ewolucyjnego do dobrania najlepszych parametrów sieci, i okresu danych wejściowych do nauki. Potem będę dodawał jeszcze wskaźniki ekonomiczne takie jak PMI, dane inflacyjne i stopy procentowe, może jeszcze dodam dane z innych rynków europejskiego i amerykańskiego. Jak model będzie dobry to będę wyniki aktualizował na bieżąco na jakiejś stronce internetowej. Największą trudnością jest przygotowanie i normalizacja danych wejściowych żeby sieć robiła jakieś sensowne obliczenia.
#gielda
  • 21
wspolczynnik korelacji 0,0001


@essalysolu: Teoretycznie, ale bardzo bardzo teoretycznie, gdyby sieć rozgryzła działanie efektu impetu to w silnym trendzie mogłaby chyba czasem coś trafiać. Tylko w sumie do gry z impetem w trendzie nie trzeba sieci neuronowej.
@DJ007: oczywiście że tak. Dokładnie dane wziąłem od 2019 bo z danymi od 91 roku wyniki były kompletnie rozjechane. Dopiero od 2019 roku udało się znaleć jakiś skorelowany. Oczywiście wyniki mocno rozchodzą się z prawdą. Ale jestem mega zadowolony że udało mi się taką sieć zbudować samemu, znormalizować dane i jeszcze uzyskać wynik który jest prawdopodobny. A to że predykcja jest słabo skorelowana z rzeczywistością, nie szkodzi. W zasadzie chyba nie
@DJ007: być może będą zdążały się krótkie okresy czasu gdzie dobry model może się po prostu sprawdzić. Natomiast zdarzenia losowe są zupełnie nieprzewidywalne i rozbijają w pył wszelką predykcje.
Dopiero od 2019 roku udało się znaleć jakiś skorelowany.


@DexterFromLab: Dlatego powinieneś pracowacować na danych trudniejszych lub mieć kilka próbek, bo jeśli coś działa na "łatwych" danych, to jest to już duża optymalizacja na etapie projektu.
Jak masz wiedzę programistyczną i lubisz giełdę, to idź w kierunku prostych algorytmów z małą liczbą parametrów, warto.
@DJ007: wydaje mi się że nie można zbudować jednego modelu dla całego okresu notowań od początku historii. Będą to zestawy danych o jakimś ograniczonym okresie ponieważ sieć jest w stanie znaleźć ajkies regularności w okresach dajmy na to 3- letnich natomiast w 10 czy 20 letnich zestawach danych zupełnie się gubi. Więc myślę że taki model musiał by ciągle ewolułować i znajdować swoje optimum cały czas. I stabilizował by się tylko
@DJ007: no a jeśli chodzi o inwestowanie to jestem zwolennikiem taktyki kup i zapomnij. Nie pozwolił bym sobie na inny sposób gry na giełdzie, z uwagi na emocje i generalnie uważam że to najrozsądniesjze podejście.
wydaje mi się że nie można zbudować jednego modelu dla całego okresu notowań


@DexterFromLab: I mnie się tak wydaje. Dlatego czy nie lepiej skupić się na zależnościach typu: kup jeśli wystąpi X, sprzedaj jeśli wystąpi Y, po zysku zwiększ pozycję o A%, po stracie zmniejsz pozycję o B%.
@DJ007 wiesz, dzisiaj bawię się tym żeby się tego nauczyć i mieć motywację a jutro zrobię coś sensownego. Kolejne SI jakie chce zrobić to do generowania obrazu svg na podstawie zdjęcia i wygenerowanie do tego gcode dla plotera laserowego. Jest dużo zastosowań dla SI dlatego chcę ją umieć.