@skrzacik320: Dla ścisłości: embedingi word2vecowe i glovowe nie są kontekstowe. One są (pre)trenowane na podstawie kontekstów w dużym korpusie, ale ich użycie też sprowadza do lookupu do macierzy, bez kontekstu. Różnica jest taka, że embedding layer jest trenowany razem z innymi parametrami sieci w sposób nadzorowany, na downstreamowym tasku, natomiast wspomniane statyczne embedingi, przygotowaje się w sposób nienadzorowany, np. faktoryzując macierz współwystępowania słów w dużym korpusie. Można ich potem użyć
  • Odpowiedz
@Izanagi013: wiesz, pobór prądu podejrzewam jest zupełnie inny tu i tu + jak jest jakieś grubsze rozpoznawanie mowy z pomocą internetu to transfer do tego leci. A tak można by zrobić jakieś Arduino reagujące na słowo kluczowe, które aktywuje raspberry, które od wtedy będzie przejmować cały proces. Brzmi sensownie chyba
  • Odpowiedz
via Wykop Mobilny (Android)
  • 0
@michal1358: chyba nie, bo raspberry też moze robić to co arduino, bez połączenia z netem. A pobór prądu w większości wypadków nie ma znaczenia, choć raspberry pobiera mniej więcej tyle, co telefon i też może lecieć z baterii
  • Odpowiedz
https://www.techpowerup.com/gpu-specs/radeon-hd-5870.c253
vs
https://www.techpowerup.com/gpu-specs/radeon-hd-7950.c307
Jedna karta kosztuje 50-80zł a druga 150-300zł, lecz oba są tak samo efektowne w #machinelearning przy użyciu OpenCLa.
Tylko czy da się pamięć ram z płyty przydzielić do tych obliczeń na GPU w OpenCLu?
W końcu zawsze mam wolne 40gb ddr2 w zapasie ( ͡° ͜
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

No elo swiry z #python #machinelearning #tensorflow
Mam takie zadanie do wykonania, jestem newbie i zastanawiam sie nad generalnym podejsciem/architektura:

Generowanie textu na podstawie podprzednio widzianych zdan oraz przekazanego kontekstu (slowa kluczowe).
W pierwszym przypadku jak rozumiem, moge zastosowac jakas rekurencyjna warstwe np LSTM, GRU, zmapowac zdania na chary i jako cel ustawic wybor kolejnej litery - zrobiem pare takich.
Ale w jaki sposob moge przekazac
  • 28
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@skrzacik320: miałaś może chwilę czasu by zerknąć na te dane? () Zaraz zabieram się za kolejny model (mała wariacja z Dropout), ale generalnie mam wrażenie, że coś mocno nie gra - byłbym dużo spokojniejszy, gdyby te sieci generowały cokolwiek dłuższego niż 1-2 wyrazowe wypowiedzi (,)
  • Odpowiedz
@majsterV2: ogólnie na starszym sprzęcie. Szczerze nie pamiętam teraz jak wygląda użycie ram karty przy odpalonym modelu rcnn ale przy uczeniu na gtx 1060 6gb to 99% ram zajęte. To raczej jest ciekawostka gdzie można by dla testów odpalić prostsze modele. To będzie "przełom" raczej jak wyjdzie karta graficzna intela i intel kupił ta firmę co tego plainML robi. Po prostu intel chce mieć pewnie na start stack do ML,
  • Odpowiedz
@majsterV2: nie kumasz. Jak uczysz taką sieć to jedziesz mocno vram karty i jego gpu. Z kolei np. przy testowaniu nauczonych sieci rcnn do wykrywania obrazów gpu obserwowałem do około 25-30% na gtx 1060 6gb ale nie pamiętam ile vram. Dwa sam ram przy uczeniu to nie problem zajechać wystarczy wrzucić jedno dwa zdjęcia w jpg o rozmiarze 1 mb i dużej rozdzielczości i ram w komie się kończy przy
  • Odpowiedz
Do wszystkich fanatyków uczenia maszynowego!
Właśnie znalazłem rozwiązanie aby posiadacze niemal wszystkich GPU mogli się cieszyć uczeniem maszynowym w #tensorflow!
https://rustyonrampage.github.io/deep-learning/2018/10/18/tensorfow-amd.html
Wyczytać można iż #plaidml działa na #intel HD4000, tak wiec starsze GPU zgodne z OpenCL 1.1 będą działać! ( ͡ ͜ʖ ͡)*:

majsterV2 - Do wszystkich fanatyków uczenia maszynowego!
Właśnie znalazłem rozwiązan...

źródło: comment_kFThL0Rw0LrXzbYcMyWt2OQ8i4CWQOi9.jpg

Pobierz
  • 9
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 4
@piwniczak: dokumentacja Home Assistant ( ͡° ͜ʖ ͡°) Przeklejam. To jest ogólnie pod hass.io, bo były problemy z uruchomieniem TF tamże.

#tensorflow #hassio #cctv #monitoring
Udało mi się uruchomić TensorFlow na hass.io i zgrać go z usługą camera.record. Dla potomnych postaram się krótko opisać co i jak (zakładam, że ogarniasz yaml i hass.io):
1. Dodajemy stream: do configuration.yaml
2. Dodajemy do whitelist, w
  • Odpowiedz
Sama implementacja #tensorflow na różnych rodzajach sprzętu i systemu to trudna kwestia.
Zwłaszcza że są problemy z kartami graficznymi.
Dlatego myślę o tym aby wykorzystać do tego celu #boinc, zwłaszcza że postawienie takiego klastra to byłaby łatwizna, oraz wykorzysta dosłownie każde GPU.
https://boinc.berkeley.edu/wiki/GPU_computing
Czy jest ktoś w stanie mi pomóc to ogarnąć?
Myślę że to będzie ostateczne rozwiązanie wszystkich problemów ze
  • 7
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Jak powiązać zasób słownictwa z inteligencją? Jak długa musi być wypowiedz aby wyniki były miarodajne? Jak poziom zaangażowania osoby wpływa na wyniki? Dzisiaj skończę zbierać dane. Chciałbym podziękować wszystkim zaangażowanym.

Czy jeśli wrzucę nicki i różnicę +/- od poziomu bazowego to będzie zgodne z regulaminem wykopu?

Tensorflow skończy mielić dane z wykopu w połowie marca 2018. Jeśli ktoś jest ciekawy wyników to zapraszam do obserwowania #vocabluaryiq.
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Próbuję uruchomić tensorflow-gpu, ale wydaje mi się, że wersje poszczególnych komponentów są ze sobą niekompatybilne i już chyba się zapętliłem. Ktoś ma zbudowane, działające środowisko i podzieli się wersjami poszczególnych komponentów, python, tensorflow-gpu, cuda, cudnn.
#cuda #nvidia #ai #tensorflowgpu #tensorflow #python #machinelearning
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Chcę wystartować z #tensorflow do rozpoznawania obrazów na jakiejś platformie embedded. Standardowo wychodziłbym od jakiegoś #rpi plus kamera, tylko może już teraz są lepsze zestawy w podobnym budżecie, które mógłbym w tym celu wykorzystać, co byście polecali? #elektronika
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@AdireQ: Może jest jakiś inny sposób?
Może da się odpalić serwer boinc i to rozbijać tak aby na każdym krzemie zasuwało ze znaczną efektywnością?
W końcu masz GPU z AMD i używają tych kart w boinc.
W sieci lokalnej po Gigabicie to nie powinno straszyć.
majsterV2 - @AdireQ: Może jest jakiś inny sposób?
Może da się odpalić serwer boinc i...
  • Odpowiedz
@Luk_1mex: scikit będzie łatwiejszy na początek. To nie jest typowe rozpoznawanie znaków jak mnist z convnet, ale w sumie i lepiej (łatwiej). Wielowarstwowy perceptron i ogień. MLPClassifier szukaj.
  • Odpowiedz