@MarcinOrlowski: więcej niż 200 nie udało mi się zebrać - przede wszystkim potrzebuje różnych, żeby sieć umiała generalizować. Nie chcę zrobić rozpoznawania paragonów z LIDL, tylko uniwersalne narzędzie. Jeśli ktoś ma drukarkę POS i może wydrukować mi wszystkie znaki (character test) to też chętnie przyjmę ;) Czcionki monospace podobne do tych z paragonów również - byle z polskimi znakami diakrytycznymi. Niestety po tygodniowym researchu nie udało mi się znaleźć zasobów innych
  • Odpowiedz
@rzezbi: żaden język Ciebie nie eliminuje, ale zastanów się co chciałbyś robić. To nie jest tak że wszyscy w tej dziedzinie robią jedno i to samo.
  • Odpowiedz
@rzezbi: Na rynku Python przeważa do zastosowań analitycznych oraz uczenia maszynowego. R również przydaje się głównie w analityce, szczególnie w farmaceutyce. Można go też użyć do uczenia maszynowego, natomiast nie spotkałem jeszcze zespołu, który by go preferował ponad Pythona.

W przyszłości Java może mieć większe znaczenie, gdyż miesiąc temu Oracle wydało Tribuo, bibliotekę do machine learningu w Javie.

Ogólnie znajomość Javy głównie plusuje w projektowaniu pipelineów Big Data, chociażby przy
  • Odpowiedz
#deeplearning #programowanie #tensorflow

Do tej pory używałem tf 2.0, komunikat o braku obsługi AVX2 olewałem i nie instalowałem nowszej wersji bo przecież i tak mam Radeona to nie wykorzystam mocy GPU. No ale postanowiłem spróbować obejść to przez bibliotekę plaidML - w ten sposób po zainstalowaniu tf 2.3.1 dowiedziałem się, że moja karta jedynie zabiera miejsce w laptopie a do obliczeń się nie nadaje. Ale jest też plus pozytywny: tf 2.3.1 wspiera
Wtedy tworzyłem autoenkoder aby odtworzyć taki generator twarzy. No i nawet się udało mimo, że miałem dość mały i bardzo mocno zróżnicowany zestaw danych. Teraz próbuję zrobić to samo przy pomocy GANa ale to iteruje już dzisiaj cały dzień na razie bez większych skutków. Na oko potrzebowałbym 8 dni obliczeń aby uzyskać dobre rezultaty.
  • Odpowiedz
#deeplearning #forex
Takie dziwne zjawisko napotkałem: Gdy trenuję model do gry z dużą ilością dropoutów i do walidacji używam danych poprzedzających dane wykorzystane do treningu to trafność walidacji jest większa o kilka % od trafności uzyskanej podczas treningu (czyli w normie). Jeśli jednak do walidacji używam danych wyprzedzających dane treningowe to im większa jest trafność treningowa to trafność walidacji spada - i to poniżej wartości wynikającej z prawdopodobieństwa. Jak dla mnie trochę
@Bejro: ( ͡° ͜ʖ ͡°) trzeba jeszcze dodać feature jeśli coś modelowi wyjdzie, że trzeba zrobić TAK to trzeba zrobić NIE i w ten sposób osiągniesz 58% ( ͡° ͜ʖ ͡°) mam nadzieje, że pomogłem. A tak naprawdę to mega creepy, jeśli coś jest gorsze od rzutu monetą.
  • Odpowiedz
via Wykop Mobilny (Android)
  • 0
Czy ktoś ma może link do google colab z modelem do robienia #koksu5gram? Ewentualnie jakiś write-up z modelami dnn użytymi do tego, lub po prostu jakiś ipynb? Chciałem się sam tym trochę pobawić a nie followuje nowych modeli ani #arxiv od jakiegoś czasu i nie wiem czego się teraz używa do takich rzeczy i co jest teraz SOTA. Wiem o koksu5gram.pl ale tam nie ma nic o tym jak generują te
Chiny zyskują przewagę nad USA w sztucznej inteligencji. Recepta Ameryki: drenaż mózgów bo sami sobie nie poradzą

Po zakończeniu koronawirusa USA z pewnością będą sięgać po naukowców także z Polski. W znalezisku i komentarzu więcej o tym dlaczego Chiny przejmują czołową pozycję w AI, a jedynym ratunkiem dla USA jest sięganie po pomoc za granicą

#liganauki #machinelearning #gospodarka #deeplearning #datascience #chiny #usa
cieliczka - Chiny zyskują przewagę nad USA w sztucznej inteligencji. Recepta Ameryki:...

źródło: comment_1597246706X6HSlJmklAcBqVDZaerMbM.jpg

Pobierz
Hejo, zrobiłem zestawienie nowych (2018-2020) książek do Pythona. Która książka / ebook do Pythona jest najlepsza? Sprawdź to teraz!

https://polishwords.com.pl/blog/2020/najlepsza-ksiazka-do-pythona/

Ps. Obecnie do poniedziałku jest promo na ebooki i książki także warto nabyć.

#python #programowanie #naukaprogramowania #programujzwykopem #deeplearning #kodowanie #informatyka
tomaszs - Hejo, zrobiłem zestawienie nowych (2018-2020) książek do Pythona. Która ksi...

źródło: comment_1594491795KFmY0vWeKYAPw61cwoRprf.jpg

Pobierz
Elo Mirki.
Szukam jakiegoś speca od sieci neuronowej. Mam pewien problem i nie wiem jak go rozwiązać.
Moje zadanie to, mając do dyspozycji zbiór z różnymi informacjami dotyczącymi tego czy użytkownik kliknął reklamę (kilka kolumn zawierających wartości int, cztery kolumny zawierające stringi złożone z ciągów liczb oddzielonych "|", np. 123|2341|12|56), stworzyć sieć neuronową która przewidzi czy użytkownik kliknie reklamę.

Problemem jest to, że jak chcę wprowadzić do feature columns (w którym już
Przeuczenie sieci neuronowej można zobrazować przykładem tego konia. Wydaje Ci się, że on umie liczyć, a tak naprawdę nauczył się na pamięć jak reagować, by dostać co chce.

Przetrenowania można uniknąć przerywając naukę, gdy w testach zaczyna iść jej coraz gorzej. Albo wprowadzając np. szum tj. zerując losowe fragmenty odpowiedzi poszczególnych warstw. Wtedy sieć nie może wykuć odpowiedzi i musi kombinować, jaka jest ogólna reguła dająca odpowiedź na pytanie.

Jesli lubisz takie
tomaszs - Przeuczenie sieci neuronowej można zobrazować przykładem tego konia. Wydaje...

źródło: comment_1589105954lQKmUablk6s5zDAbDFwDug.jpg

Pobierz
Historia sieci neuronowych sięga roku 1940, gdy Donald O. Hebb postawił hipotezę, że połączenia neuronów wzmacniają się, gdy przebiegają po nich impulsy. "Neurony, które razem świecą, łączą się". Była to przełomowa koncepcja, która zainspirowała kolejne generacje naukowców do odtworzenia mechanizmu za pomocą połączeń elektronicznych.

Jednak nie było to takie proste. Dopiero 5 lat później powstał superkomputer ENIAC. Wykonywał on zawrotne 100 000 cykli na sekundę. Paradoksalnie to nie jest duża ilość. Obecnie
tomaszs - Historia sieci neuronowych sięga roku 1940, gdy Donald O. Hebb postawił hip...

źródło: comment_1588862169TXGpmwC73DVLkPA1VzFwyK.jpg

Pobierz