#programowanie #machinelearning #sztucznainteligencja

Mam do przetworzenia bardzo dużo dokumentów tekstowych i będę chciał z nich wyciągnąć pewne zależności i porobić kilka innych rzeczy związanych uczeniem sieci.

Co polecacie do tego? Równocześnie, żeby było to jakieś nowe rozwiązanie, którego warto się uczyć.

TensorFlow+Java/Python?
Deeplearning4j+Java?
Theano+Python? Keras+Python?
Apache Spark? Apache Hadoop?

A może jest coś jeszcze fajniejszego? Może coś z nowymi językami programowania? Scala? Cloujure? Groovy? Kotlin?

Gdzie szukać takich nowinek?
12 tygodni - wstęp

Postanowiłem w końcu zrealizować to co od dłuższego czasu planowałem.
Chciałbym zebrać jak największą liczbę które chcą współnie zgłębić tematykę
machine learning big data i ogólnie AI.

Na czym to ma polegać?
Jest wiele kursów na coursera z tej tematyki i plan jest taki aby podzielić się na grupy, i np. jedni będą lecieli z kursami np. z big data, a inni równolegle ML, tak aby sumarycznie nasza
Mam jeden długi tekst z czego na początku jest jego treść po polsku, a niżej (w nieznanym mi momencie) jeszcze raz to samo, ale przetłumaczone na obcy język (przyjmijmy, że zawsze jest to angielski). Algorytm dzieli taką treść na części (dla uproszczenia przyjmijmy, że każde zdanie = 1 element arraya). Macie jakieś pomysły jak obciąć z końca tak powstałej tablicy zdania, które są w języku obcym?

#programowanie #algorytmy #nlp #machinelearning #deeplearning (najlepiej
Mirki. szukam jakiejs biblioteki do porowania zdjec. Biblioteka przyjmuje jedno zdjecie zrobione rok temu aparatem A zrobione po konretnym kontem przedsatwiajace np. budynek i drugie ten sam budynek, ten sam kat, rok pozniej innym aparatem, przy innym swietle i zwraca stopien podobienstwa np. 89%. Da sie cos takiego w #opencv zrobic? Sa jakies gotowe rozwiazania dla #python lub #javascript ? Moze cos opartego o #machinelearning?

#computervision
AI and ‘Enormous Data’ Could Make Tech Giants Harder to Topple

The ecosystem of tech companies that consumers and the economy increasingly depend on is traditionally said to be kept innovative and un-monopolistic by disruption, the process whereby smaller companies upend larger ones. But when competition in tech depends on machine learning systems powered by huge stockpiles of data, slaying a tech giant may be harder than ever.


https://www.wired.com/story/ai-and-enormous-data-could-make-tech-giants-harder-to-topple/

#technologia #ai #
@Djakninn: Masz dużo danych, możesz robić lepsze algorytmy ML, mając lepsze algorytmy możesz zebrać lepszej jakości dane, majac lepsze dane robisz lepsze algorytmy... Będzie problem monopoli jak tak dalej pójdzie. Nie mowię, że nie powinno się rozwijać, ale pewnego dnia się obudzimy a wszystko dookoła będzie kontrolowane przez Google czy Facebooka trochę jak w 1984...
Mam pytanie do wykopowych ekspertów #machinelearning ( ͡º ͜ʖ͡º) #statystyka
Chodzi o normalizację danych wejściowych (feature normalization).

Pracuję nad algorytmem rozpoznawania pisma przy pomocy logistycznej regresji (logistic regression) - cel czysto naukowy - czyli Matlab bez żadnych wbudowanych funkcji.

Minimalizuję funkcję kosztu metodą gradientu prostego (gradient descent). Niestety dane wejściowe (macierz obrazka) są dosyć 'rozbieżne' i Matlab średnio sobie z tym radzi (ref

Zastosowałem więc normalizację
W jaki sposób powinna wyglądać ewolucja sieci neuronowej? Powiedzmy, że pierwsze pokolenie dostaje jako dane treningowe losowy input i output (zarazem ma losowe wagi neuronów). Kolejne pokolenie to potomkowie dwóch jednostek (oczywiście wylosowanych zgodnie z zasadą większa sprawność = większa szansa). To pokolenie powinno otrzymać jako dane treningowe wszystkie pary input oraz output (obojga rodziców)? W jaki sposób dodawać mutacje - przekształcać nieco dane treningowe od rodziców czy dodawać nowe, losowe dane?
@roy_batty: ja podobnie, ale jedyna nowa rzecz (po liceum) to funkcja sumy, wzory na gradient wyznaczają za Ciebie więc do implementacji nie jest potrzebna wiedza z analizy. sugerowałbym wprowadzenie do matematyki przez etrapez (macierze, wektory, gradient, statystyka) + powtórka z liceum z pochodnych i jednak prostsze kursy - upraszczając nie zaczniesz deep learning bez machine learning.
Od kilku dni próbuję znaleźć prosty i praktyczny problem który mógłbym rozwiązać za pomocą logicznej regresji.

Jest kilka oklepanych przykładów jak OCR, SPAM, FRAUD, rozpoznawanie twarzy itd. ale jak wspomniałem, są mało oryginalne i dość czasochłonne w implementacji (od początku). A mi chodzi o mało złożony problem i łatwo dostępne dane treningowe.

Myślałem o wykrywaniu oszustw przy logowaniu na podstawie czasu wpisywania hasła, tylko nie mam danych treningowych - musiałbym stworzyć jakąś
Panowie @dziobaki_sa_jadowite @Diego19 na wstępie dziękuję za rzeczową dyskusję.
Swoją drogą kolejny już raz przekonuję się, że na portalu ze śmiesznymi obrazkami dużo szybciej uzyskasz wartościowe odpowiedzi niż na niejednym branżowym forum.

Wracając do tematu @dziobaki_sa_jadowite to masz rację, chodzi oczywiście o zagadnienie regresji logistycznej.

Dziękuję za podane przykłady.
O ile ten z Titaniciem za praktyczny nie jest ( ͡° ͜ʖ ͡°), to już ceny domów - tak.
jedynym uproszczeniem względem C było to, że nie musiałem martwić się pamięcią


Prawdopodobnie nie zdajesz sobie sprawy z tego co do końca napisałeś. Pod względem programistycznym to jest prawdopodobnie największe wyzwanie reszta to tak na prawdę bardziej matematyka niż programowanie i inne umiejętności są potrzebne.
Moje zdanie jest takie że w dzisiejszych czasach pisać od podstaw te algorytmy po by lepiej je rozumieć to prawie jak samemu budować proste modele komputerów żeby