Ostatnio zdarzyło mi się pomagać tutaj kilku mirkom w robieniu zadań na zaliczenie na studia i w rozwiązywaniu egzaminów z programowania. Chyba całkiem dobrze mi to idzie, bo za każdym razem kończyło się pozytywną oceną. Więc jeśli ktoś potrzebuje pomocy z nauką #python lub z zagadnieniami z obszaru #machinelearning #deeplearning to zapraszam. Może ktoś się przygotowuje do matury z informatyki. Albo potrzebuje przeglądu kodu. Albo pomocy w napisaniu pierwszego projektu do portfolio.
Jak obecnie wyglada sytuacja z GPU, a w zasadzie GPGPU, na #linux? Lepiej wypada #nvidia czy #amd?
Nie zamierzam nic kupowac, ale mnie ciekawi jak wyglada sytuacja ze sterownikami i roznymi bibliotekami. Z tego co wyczytalem to raczej z nvidia jest prosciej, bo jest CUDA i sporo bibliotek do #deeplearning wspiera ich GPU. Natomiast amd ma tam obecnie OpenCL i swoje rzeczy, ale nie wiem jak to w praktyce wypada.
@narowerzesamochodem: anyway, kursy które polecam:

Fast.ai:
Introduction to Machine Learning for Coders https://course18.fast.ai/ml
Practical Deep Learning for Coders, v3 - https://course.fast.ai (najnowszy kurs)
Cutting Edge Deep Learning For Coders, Part 2 - https://course18.fast.ai/part2.html (druga część, jeszcze nie zaktualizowana, ale ma być update w 2019)

Coursera - oba kursy robione przez Andrew Ng, jedną z bardziej rozpoznawanych postaci w świecie ML / DL
Machine Learning - https://www.coursera.org/learn/machine-learning
DeepLearning - https://www.coursera.org/specializations/deep-learning

Fast.ai jest
@RolnikSamWdolinie: Machine Learning Ci raczej tych kropek nie połączy. ML polega na odnajdowaniu wzorców w dużych zbiorach danych. Z tego co widzę tutaj zbiór ani nie jest duży ani nie ma wzorca. Tak czy inaczej do tego problemu jeśli już miałbym coś wyuczyć koniecznie, to wziąłbym jakieś drzewo decyzyjne, a nie bawił się w deep learning.
@MarcinOrlowski: więcej niż 200 nie udało mi się zebrać - przede wszystkim potrzebuje różnych, żeby sieć umiała generalizować. Nie chcę zrobić rozpoznawania paragonów z LIDL, tylko uniwersalne narzędzie. Jeśli ktoś ma drukarkę POS i może wydrukować mi wszystkie znaki (character test) to też chętnie przyjmę ;) Czcionki monospace podobne do tych z paragonów również - byle z polskimi znakami diakrytycznymi. Niestety po tygodniowym researchu nie udało mi się znaleźć zasobów innych
@rzezbi: Na rynku Python przeważa do zastosowań analitycznych oraz uczenia maszynowego. R również przydaje się głównie w analityce, szczególnie w farmaceutyce. Można go też użyć do uczenia maszynowego, natomiast nie spotkałem jeszcze zespołu, który by go preferował ponad Pythona.

W przyszłości Java może mieć większe znaczenie, gdyż miesiąc temu Oracle wydało Tribuo, bibliotekę do machine learningu w Javie.

Ogólnie znajomość Javy głównie plusuje w projektowaniu pipelineów Big Data, chociażby przy
#deeplearning #programowanie #tensorflow

Do tej pory używałem tf 2.0, komunikat o braku obsługi AVX2 olewałem i nie instalowałem nowszej wersji bo przecież i tak mam Radeona to nie wykorzystam mocy GPU. No ale postanowiłem spróbować obejść to przez bibliotekę plaidML - w ten sposób po zainstalowaniu tf 2.3.1 dowiedziałem się, że moja karta jedynie zabiera miejsce w laptopie a do obliczeń się nie nadaje. Ale jest też plus pozytywny: tf 2.3.1 wspiera
Wtedy tworzyłem autoenkoder aby odtworzyć taki generator twarzy. No i nawet się udało mimo, że miałem dość mały i bardzo mocno zróżnicowany zestaw danych. Teraz próbuję zrobić to samo przy pomocy GANa ale to iteruje już dzisiaj cały dzień na razie bez większych skutków. Na oko potrzebowałbym 8 dni obliczeń aby uzyskać dobre rezultaty.
#deeplearning #forex
Takie dziwne zjawisko napotkałem: Gdy trenuję model do gry z dużą ilością dropoutów i do walidacji używam danych poprzedzających dane wykorzystane do treningu to trafność walidacji jest większa o kilka % od trafności uzyskanej podczas treningu (czyli w normie). Jeśli jednak do walidacji używam danych wyprzedzających dane treningowe to im większa jest trafność treningowa to trafność walidacji spada - i to poniżej wartości wynikającej z prawdopodobieństwa. Jak dla mnie trochę
@Bejro: ( ͡° ͜ʖ ͡°) trzeba jeszcze dodać feature jeśli coś modelowi wyjdzie, że trzeba zrobić TAK to trzeba zrobić NIE i w ten sposób osiągniesz 58% ( ͡° ͜ʖ ͡°) mam nadzieje, że pomogłem. A tak naprawdę to mega creepy, jeśli coś jest gorsze od rzutu monetą.
via Wykop Mobilny (Android)
  • 0
Czy ktoś ma może link do google colab z modelem do robienia #koksu5gram? Ewentualnie jakiś write-up z modelami dnn użytymi do tego, lub po prostu jakiś ipynb? Chciałem się sam tym trochę pobawić a nie followuje nowych modeli ani #arxiv od jakiegoś czasu i nie wiem czego się teraz używa do takich rzeczy i co jest teraz SOTA. Wiem o koksu5gram.pl ale tam nie ma nic o tym jak generują te