Cześć, miał ktoś z was do czynienia z systemami typu actor-critic.
Problem wygląda tak. Muszę wykonać bota do gry na giełdzie. Oczywiście całość będzie odbywać się w symulowanym środowisku a dane będę ciągnąć z jakiegoś ogólnodostępnego api.
Agent będzie dokonywał operacji kupna sprzedaży w symulatorze i uczył się na podstawie strat/zysków w ramach sesji uczącej.
No i na początku padło na zastosowanie uczenia poprzez użycie metody bazującej na NEAT - coś się
@Fotoblysk: Wybacz stary, ale to co piszesz się za bardzo kupy nie trzyma. Masz jakieś podstawy wiedzy z Reinforcement Learning?

Zacznij od określenia trzech podstawowych pojęć: State, Actions, Reward.
State - czyli informacje, które Twój model będzie otrzymywał
Actions - możliwe akcje, którym Twój model ma przyporządkować wartości
Reward - nagroda, którą wybrana akcja spowodowała.

Np. masz już Actions: sprzedaj 100 jednostek, kup 100 jednostek, nic nie rób. Więc dzięki temu
Intel Movidius - uczenie maszynowe na sterydach

Czy słyszałeś kiedyś ludzi rozmawiających o uczeniu maszynowym lub widziałeś reklamę jeszcze jednego inteligentnego urządzenia (takiego, jak: iPhone X, Huawei P20, Mate 10, LG ThinQ, telewizory LG), ale masz tylko blade pojęcie o znaczeniu tego terminu i się zastanawiasz, jak coś, co dopiero co wymagało superkomputerów, nagle działa w elektronice użytkowej? Czy męczy Cię potakiwanie głową i udawanie, że wiesz, o co chodzi i co