Cześć #machinelearning. Mam zbiór około 80 tys. notatek - średnio każda ma stronę A4. Chciałbym analizować czy coś jest fake newsem czy nie, korzystając z modelu BERT do #nlp. I mam pytanie czy dobrze rozumiem jak to miałoby działać: tokenizuje notatke, dodaje te tokeny specjalne cls i sep, zamieniam to na wektory wrzucam w berta i dostaje w outpucie tez wektory. To dopiero muszę wsadzić do
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Państwo zakłada firmę specjalizującą się w AI - IDEAS NCBR sp. z o.o.
Mają cel zatrudnić ponad 200 osób.
"Spółką kieruje trzyosobowy Zarząd (Prezes i dwóch Wiceprezesów), zatrudniony w drodze otwartego konkursu." - no to wyciągam popcorn i napawam się nadmiarem kompetencji członków zatrudnionych w otwartym konkursie.

Eh k---a, a założenie w tej polsce startupu to j----a droga przez mękę. To jest dramat.

#machinelearning #ncbr #sztucznainteligencja
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@abraca: Dodatkowo, Waymo działa tylko tam gdzie pracownicy zmapowali teren XD A i tak to trzeba aktualizować co jakiś czas! Tesla natomiast działa wszędzie, gdzie człowiek by mógł jechać (FSD Beta na razie tylko w USA)
  • Odpowiedz
Ostatnio zdarzyło mi się pomagać tutaj kilku mirkom w robieniu zadań na zaliczenie na studia i w rozwiązywaniu egzaminów z programowania. Chyba całkiem dobrze mi to idzie, bo za każdym razem kończyło się pozytywną oceną. Więc jeśli ktoś potrzebuje pomocy z nauką #python lub z zagadnieniami z obszaru #machinelearning #deeplearning to zapraszam. Może ktoś się przygotowuje do matury z informatyki. Albo potrzebuje przeglądu kodu. Albo pomocy
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Jak obecnie wyglada sytuacja z GPU, a w zasadzie GPGPU, na #linux? Lepiej wypada #nvidia czy #amd?
Nie zamierzam nic kupowac, ale mnie ciekawi jak wyglada sytuacja ze sterownikami i roznymi bibliotekami. Z tego co wyczytalem to raczej z nvidia jest prosciej, bo jest CUDA i sporo bibliotek do #deeplearning wspiera ich GPU. Natomiast amd ma tam obecnie OpenCL i swoje rzeczy,
  • 13
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@RolnikSamWdolinie: Machine Learning Ci raczej tych kropek nie połączy. ML polega na odnajdowaniu wzorców w dużych zbiorach danych. Z tego co widzę tutaj zbiór ani nie jest duży ani nie ma wzorca. Tak czy inaczej do tego problemu jeśli już miałbym coś wyuczyć koniecznie, to wziąłbym jakieś drzewo decyzyjne, a nie bawił się w deep learning.
  • Odpowiedz
Mirasy, robię eksperyment naukowy związany z OCR paragonów sklepowych - w sumie #deeplearning oraz #programowanie. Jak zwykle problem jest z pozyskaniem danych. Czy moglibyście wrzucić troche skanów paragonów do tego wątku albo na mejla checksum@gazeta.pl? Niekoniecznie z sexshopu ;)
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@MarcinOrlowski: więcej niż 200 nie udało mi się zebrać - przede wszystkim potrzebuje różnych, żeby sieć umiała generalizować. Nie chcę zrobić rozpoznawania paragonów z LIDL, tylko uniwersalne narzędzie. Jeśli ktoś ma drukarkę POS i może wydrukować mi wszystkie znaki (character test) to też chętnie przyjmę ;) Czcionki monospace podobne do tych z paragonów również - byle z polskimi znakami diakrytycznymi. Niestety po tygodniowym researchu nie udało mi się znaleźć zasobów
  • Odpowiedz
@rzezbi: żaden język Ciebie nie eliminuje, ale zastanów się co chciałbyś robić. To nie jest tak że wszyscy w tej dziedzinie robią jedno i to samo.
  • Odpowiedz
@rzezbi: Na rynku Python przeważa do zastosowań analitycznych oraz uczenia maszynowego. R również przydaje się głównie w analityce, szczególnie w farmaceutyce. Można go też użyć do uczenia maszynowego, natomiast nie spotkałem jeszcze zespołu, który by go preferował ponad Pythona.

W przyszłości Java może mieć większe znaczenie, gdyż miesiąc temu Oracle wydało Tribuo, bibliotekę do machine learningu w Javie.

Ogólnie znajomość Javy głównie plusuje w projektowaniu pipelineów Big Data, chociażby
  • Odpowiedz
#deeplearning #programowanie #tensorflow

Do tej pory używałem tf 2.0, komunikat o braku obsługi AVX2 olewałem i nie instalowałem nowszej wersji bo przecież i tak mam Radeona to nie wykorzystam mocy GPU. No ale postanowiłem spróbować obejść to przez bibliotekę plaidML - w ten sposób po zainstalowaniu tf 2.3.1 dowiedziałem się, że moja karta jedynie zabiera miejsce w laptopie a do obliczeń się nie nadaje. Ale jest
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Wtedy tworzyłem autoenkoder aby odtworzyć taki generator twarzy. No i nawet się udało mimo, że miałem dość mały i bardzo mocno zróżnicowany zestaw danych. Teraz próbuję zrobić to samo przy pomocy GANa ale to iteruje już dzisiaj cały dzień na razie bez większych skutków. Na oko potrzebowałbym 8 dni obliczeń aby uzyskać dobre rezultaty.
  • Odpowiedz
#deeplearning #forex
Takie dziwne zjawisko napotkałem: Gdy trenuję model do gry z dużą ilością dropoutów i do walidacji używam danych poprzedzających dane wykorzystane do treningu to trafność walidacji jest większa o kilka % od trafności uzyskanej podczas treningu (czyli w normie). Jeśli jednak do walidacji używam danych wyprzedzających dane treningowe to im większa jest trafność treningowa to trafność walidacji spada - i to poniżej wartości wynikającej z prawdopodobieństwa.
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Bejro: ( ͡° ͜ʖ ͡°) trzeba jeszcze dodać feature jeśli coś modelowi wyjdzie, że trzeba zrobić TAK to trzeba zrobić NIE i w ten sposób osiągniesz 58% ( ͡° ͜ʖ ͡°) mam nadzieje, że pomogłem. A tak naprawdę to mega creepy, jeśli coś jest gorsze od rzutu monetą.
  • Odpowiedz
via Wykop Mobilny (Android)
  • 0
Czy ktoś ma może link do google colab z modelem do robienia #koksu5gram? Ewentualnie jakiś write-up z modelami dnn użytymi do tego, lub po prostu jakiś ipynb? Chciałem się sam tym trochę pobawić a nie followuje nowych modeli ani #arxiv od jakiegoś czasu i nie wiem czego się teraz używa do takich rzeczy i co jest teraz SOTA. Wiem o koksu5gram.pl ale tam nie ma nic o
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach