Chcę napisać AI do gry planszowej typu Azul, Splendor wykorzystując sieci neuronowe. Z tego co wyczytałem to najlepiej użyć do tego Q-learning. To ma być self-learning.

Problem jest taki, że nie znalazłem libki do tego - jest ten Tensorflow.NET ale on tego nie obsługuje, ML.NET tak samo albo o czymś nie wiem (nie robiłem nic wcześniej z NN).

A może jakieś algorytmy genetyczne? Weźcie coś doradźcie, żeby się nie narobić, a zrobić.
@harakiri888: ile masz na to czasu? Generalnie używanie RLa do grania w gry planszowe to nie jest coś co można ogarnąć w godzinę i raczej potrzeba trochę intuicji żeby wiedzieć co się tam dzieje i mieć na to jakiś wpływ, może wybierz jakiś łatwiejszy sposób np jakiś minmax + może Monte Carlo tree search
@becvvv: W większości przypadków to nie będzie takie proste, tutaj już z 50%+ do realizmu jest samo to, że typ ma podobny wygląd, budowę czaszki. Np. deepfake z Keanu Reeves od CorridorCrew, także wybrali typa, który naśladował głosem, i ogólnie pasował dobrze rzeźbą twarzy. Jeśli nie ma zbieżności w rzeźbie twarzy to jest znacznie trudniej. W tych trudnych do odróżnienia przypadkach algorytm nie musiał wiele poprawiać/dopasowywać, dlatego są przekonujące. Dodatkową kwestią
Mam takie zadanie:
Mam zdjęcia naczep ciężarówek załadowanych żwirem. Zadaniem jest określenie jakiego rodzaju jest załadowany żwir (chodzi o określenie jego frakcji, czyli rozmiaru). Z góry wiem jakie frakcje są możliwe. Trzeba tylko ustalić czy to jest np. żwir 8-16 mm czy może 16-32 mm albo 4-8 mm itd (przyporządkować do jednej z predefiniowanych kategorii).
Zakładam, że do tego zadania trzeba zrobić sieć neuronową. Problem polega na tym, że jest to dziedzina
@GienekZFabrykiOkienek: Ja myślałem, żeby jeszcze tak zrobić: Mam sieć neuronową, która wykrywa krawędzie ziaren żwiru. Czyli robi taki ich obrys. A później mogę obliczyć dla każdego takiego obrysu jego promień i wtedy wiem, że np 90% promieni wpada w jakiś przedział i mam wynik. Tylko ta kwestia wyskalowania zdjęcia wcześniej. Może masz rację i nie trzeba nic skalować bo przedziały są na tyle od siebie odległe, że mała różnica w pomiarze
1. Wchodzimy na https://colab.research.google.com/drive/1MEWKbm-driRNF8PrU7ogS5o3se-ePyPb?usp=sharing
2. Klikamy na przycisku "Start" w górnym lewym rogu pierwszego okienka.
3. Czekamy aż wszystko się ściągnie i zainstaluje ("Successfully installed" itd.)
4. Poniżej w polu "Text" wpisujemy to, co chcemy żeby nam sieć neuronowa wygenerowała.
5. W górnym menu wybieramy "Środowisko wykonawcze / Włącz ponownie i uruchom każdy kod", potwierdzamy
6. Czekamy i obserwujemy efekty.

Poniżej obrazek wygenerowany po wpisaniu "Michał Białek", najwyraźniej sieć nie zna tego
Broximon - 1. Wchodzimy na https://colab.research.google.com/drive/1MEWKbm-driRNF8PrU...

źródło: comment_16120977739pT63eT5R1q5hHMfFvlpPI.jpg

Pobierz
Załóżmy, że istnieje apka na androida, która zbiera (za zgodą) twarze, aby trenować sieć neuronową w celu ulepszania usług typy postarzanie twarzy, podmiana itp (wybaczcie niefachową terminologię, ale nie znam się na głębokim uczeniu).
Zakłądam, że na podstawie iluś tam milionów zdjęć powstaje jakiś model, w oparciu o który działa usługa.
Teraz co w przypadku gdy jakiś użytkownik zażąda usunięcia z modelu informacji o jego twarzy, które pomogły w jego trenowaniu? Czy
@rzezbi: Na rynku Python przeważa do zastosowań analitycznych oraz uczenia maszynowego. R również przydaje się głównie w analityce, szczególnie w farmaceutyce. Można go też użyć do uczenia maszynowego, natomiast nie spotkałem jeszcze zespołu, który by go preferował ponad Pythona.

W przyszłości Java może mieć większe znaczenie, gdyż miesiąc temu Oracle wydało Tribuo, bibliotekę do machine learningu w Javie.

Ogólnie znajomość Javy głównie plusuje w projektowaniu pipelineów Big Data, chociażby przy
@KomendaGlownaPolicji: w jaki sposób rozrysować?

Mam wektor pomiarów oraz wektor z godzinę kiedy dany pomiar został wykonany, chciałbym oba te wektory wsadzić jako wejście do sieci neuronowej i wyniku otrzymać predykcje pomiaru zależnie od godziny.
#siecineuronowe
#machinelearning

Cześć Mirki, czy ktoś z Was miał taką sytuację, że wyjście modelu zawsze odwzorowuje ten sam kształt krzywej? W żadnym wypadku nie udało mi się odwzorować tych "oscylacji" rzeczywistej wartości.

Model regresji liniowej, na wejściu dwie funkcje sinus (jako predytkory w modelu). Niezależnie od liczby epok, optymalizatora i wartości learningrate, aktywacji warstwy, liczby neuronów i wielkości zbioru danych.

Macie jakieś pomysły?

Wołam jeszcze Mirków spod tagu #python, ponieważ
siewymyslipotem - #siecineuronowe 
#machinelearning 

Cześć Mirki, czy ktoś z Was ...

źródło: comment_1596815045UlO9agHkfVIXQDySsb5BNb.jpg

Pobierz
Historia sieci neuronowych sięga roku 1940, gdy Donald O. Hebb postawił hipotezę, że połączenia neuronów wzmacniają się, gdy przebiegają po nich impulsy. "Neurony, które razem świecą, łączą się". Była to przełomowa koncepcja, która zainspirowała kolejne generacje naukowców do odtworzenia mechanizmu za pomocą połączeń elektronicznych.

Jednak nie było to takie proste. Dopiero 5 lat później powstał superkomputer ENIAC. Wykonywał on zawrotne 100 000 cykli na sekundę. Paradoksalnie to nie jest duża ilość. Obecnie
tomaszs - Historia sieci neuronowych sięga roku 1940, gdy Donald O. Hebb postawił hip...

źródło: comment_1588862169TXGpmwC73DVLkPA1VzFwyK.jpg

Pobierz
Czy wiesz, że styl malarski jest ukryty w kilku warstwach sieci neuronowej? Poniżej przykład jak sieć neuronowa potrafi nauczyć sie stylu malarskiego i namalować nim dowolny obraz. Robi wrażenie prawda?

Rozdział 8 książki, którą czytam mówi nie tylko o neuronowym transferze stylu, generowaniu tekstu, ale też o DeepDream, sieciach GAN i koderach VAE. Czyli o tym jak powstają te wszystkie aplikacje do postarzania twarzy, generowania postaci anime itp. Czy też jak powstał
tomaszs - Czy wiesz, że styl malarski jest ukryty w kilku warstwach sieci neuronowej?...

źródło: comment_1588779048nuYyC3fctKC4E7kOBqZlAm.jpg

Pobierz
@AdireQ: Ale liczba pi to tylko związek wymyślony przez człowieka, nie tworzy ona nic nowego. To tylko suche cyfry. Pi nie stwierdzi nagle, że zamiast cyfr zaczną pojawiać się litery. Znów nie wychodzi poza schemat który został jej "zaprogramowany".

W tamtym przykładzie chodziło mi że akurat konkretnie ta funkcja srand tworzy złudzenie losowości. Nie wiem nic o tym co podałeś, ale kiedyś czytałem że każdy szum czy ziarno zwraca tylko pozornie