Sztuczna inteligencja uczy się zabawy w chowanego
Ciekawa demonstracja jak samouczące się algorytmy w oparciu o proste zasady i fizykę z czasem uczą się coraz to inteligentniejszych zachowań i wykorzystania narzędzi.
R.....S z- #
- #
- #
- #
- #
- #
- 168
- Odpowiedz
Komentarze (168)
najlepsze
W zagadnieniach RL zwiększa się nagrodę lub zmniejsza karę.
Ktore (nagrody/kary) w (deep) RL są potem przekuwane w funkcje błędu - najczęsciej policy loss, value function loss i w niektorych wariantach inne. A potem suma tych funkcji błędów jest minimalizowana.
'entropy loss' chociażby nie jest związany z rewardem.
Gdyby nie było rewardów, to to nie byłby reinforcement learning.
@Jedenipol: Porównać optymalizacje do brute force to tak jakbyś porównał ewolucje do nieskończonej ilości małp. Różnica jest taka że mechanizm optymalizujący jest w stanie określić w którym kierunku powinien przemierzać przestrzeń rozwiązań a każda kolejna iteracja zaczyna tam gdzie poprzednia skończyła.
Te setki tysięcy prób
@Jedenipol: no nie do końca losowych bo metody sztucznej inteligencji mają tę cechę, że są adaptacyjne - minimalizują błąd.
Co do tych milionów operacji ostatnio ktoś mi mądrą rzecz na wykopie napisał odnośnie msi. Tak, robią te miliony operacji z malutką, kilkunasto neuronową siecią, ale z drugiej strony ludzki mózg ma >miliony neuronów, ale
Komentarz usunięty przez moderatora
Komentarz usunięty przez moderatora
@lastro: To znaczy, że osoba wrzucająca ten mem nie ma pojęcia o metodach sztucznej inteligencji, a samą koncepcję sztucznej inteligencji rozumie poprzez pryzmat AI w strzelankach pierwszoosobowych, gdzie faktycznie decyzje npców są else-ifowe.
lepiej o powstaniu pokrzyczec i na ukraincow jajechac , bo przynajmniej komus slabszemu mozna jeszcze #!$%@?
Oj, dluga jeszcze droga do apokalipsy.
Ale ten jeden agent i agentka są owocem bilionów kroków ewolucyjnych od pierwszych oddziaływań międzycząsteczkowych