Hej #datascience i #machinelearning! W tym tygodniu chciałem się z wami podzielić prostą techniką oceniania przydatności kolumny w ramce danych za pomocą algorytmu permutation importance:
Hej #machinelearning i #datascience. Ostatnio trafiłem na moduł Pythonowy auto_ml. Pomyślałem sobie, że może to być fajna alternatywa dla tpot. Napisałem więc artykuł, w którym chciałem je dokładnie porównać. Ale z powodu bugów i słabej dokumentacji skończyło się tylko na ogólnym jego omówieniu. Myślę, że i tak może was zaciekawić:
Czy gdy wielkie firmy już opanują Sztuczną Inteligencję to zaczną wysyłać roboty ze sztuczną inteligencją na inne jak się okaże zamieszkałe planety? Zaczną uczyć tubylców podstaw rolnictwa, wprowadzać religię dla uczynienia ich sobie podwładnymi, prawa (przykazania) typu "nie będziesz miał innych bogów prócz mnie" (bo przecież przylecą roboty innych firm) albo "nie wzywaj niepotrzebnie imienia boga swego" (zawsze mnie to zastanawiało, czy sztuczna inteligencja boga ma ograniczone zasoby i chodzi o to
@Miszkurka2000: Ja bym stawiał raczej na to, że roboty z SI będą budować kopalnie i statki kosmiczne i wysyłać to wszystko na ziemię. A jeśli na coś inteligentnego natrafią to to zmiotą.
Hej #machinelearning i #datascience. Napisałem artykuł, w którym pokazuję pomysł, jak w prosty sposób można się pozbyć trochę danych, żeby nasz model trochę szybciej się trenował, nie tracąc przy tym zbyt dużo na jakość. Jeśli ktoś jest zainteresowany, to zapraszam do lektury.
Tak sobie dumam nad projektem #ai związanym z grami. Zastanawiam się nad Pokerem Texas Hold’em. Wiem, że kilka projektów tego typu już powstało, wydaje się to więc fajnym tematem na start.
Może ktoś z was już coś takiego kombinuje i moglibyśmy połączyć siły? Jedynym warunkiem z mojej strony jest to, że projekt musi być rozwijany na licencji FLOSS i publicznie dostępny. No i myślę, że projekt ten będę rozwijał w
@smyl: Aktualnie planuję poświęcić 5h/tydzień. Od czego zacząć: * spisać cele i określić na którym etapie chciałbym je realizować * zorientować się czy np. to (https://ishikota.github.io/PyPokerEngine/) narzędzie nam wystarczy do symulacji, czy potrzebujemy też jakiś symulator stworzyć od nowa * zorganizować jakaś strukturę continous integration * podumać więcej czy w ogóle ma to ręce i nogi ;)
Hej. Tym razem napisałem artykuł, w którym spisuję garść moich przemyśleń na temat #machinelearning. Wymiatacze nie mają za bardzo czego tam szukać, ale początkującym może się to przydać.
Z uczeniem maszynowym mamy do czynienia od lat, choć dopiero w ostatnim czasie to zagadnienie stało się bardzo popularne. Już w latach ‘50 przeprowadzano pierwsze testy związane z tą technologią, a dzisiaj machine learning staje się powoli normą, która wspiera pracę nie tylko...
@etutuit: Nie wczytywałem się akurat w ten artykuł, ale z tego co obserwuję, to Java dość dobrze się przyjęła w kontekście operowania danymi w big data. Ani Python ani R nie za dobrze sobie radzą w wykorzystywaniem wielo-maszynowych klastrów poza specjalnymi zastosowaniami. Może o to w tym chodzi?
Hej. Zauważyłem, że początkujący w #machinelearning i #datascience czasem się trochę motają przy instalacji #jezykr, #python i bibliotek. Napisałem więc artykulik który być może przyda się komuś takiemu do ogarnięcia tego problemu przy pomocy wirtualnych środowisk.
Hej! Osoby początkujące w #datascience i #machinelearning zastanawiają się pewnie czasem czy nie warto wesprzeć się jakąś książką. Jeśli są tu takie osoby, to z chęcią mogę polecić wam książkę, która w mojej skromnej opinii jest aktualnie najlepsza na ten temat na polskim rynku. Zrobiłem nawet jej recenzję:
@mcnight95: Nie chodziło mi o to, że matematyka jest niepotrzebna. Chodzi mi o to, że widziałem kilka tłumaczeń różnych zagadnień, w których autor opierał wszystko na matematyce i nie przejmował się, że ktoś tej matematyki może aż tak dobrze nie rozumieć. Natomiast w tej książce autorzy postarali się, żeby matematyka (tam gdzie to możliwe) była rozszerzeniem idei a nie przeszkodą filtrującą czytelników. Trochę w stylu "patrzcie jakie to proste" zamiast
@sfah: Super, mam nadzieję, że tak samo Ci zamiesza w głowie jak mi swego czasu. Książki o której wspominasz nie znam, dopisuję ją do swojej listy do przeczytania :) Wizualizacje to dość subiektywny temat. Nie mam akurat nic pod ręką do polecania. Myślę, że zabiorę się za to prędzej lub później, szczególnie jeśli faktycznie namierzę jakąś dobrą książkę. Dzięki za komentarz, zachęcam do częstego zaglądania na mojego bloga, powinno być
Jakby ktoś nie nie kojarzył, to Pandas to taki moduł #python który jest niemalże standardem jeśli ktoś działa w #datascience i jest też przydatny w #machinelearning
Ma ktoś z was jakieś swoje wypieszczone komputerki do obliczeń? Wiem, że w pewnych sytuacjach bardziej sensowne jest działanie w chmurze (nawet z GPU). Ale domyślam się też, że nie wszyscy to lubią albo mogą tak pracować. Ciekaw jestem jakich wyborów dokonaliście i dlaczego.
Hej! W #machinelearning, #datascience i #artificialintelligence przyjmujemy w ciemno, że im więcej danych - tym lepiej. Z moich własnych obserwacji okazuje się jednak, że nie zawsze jest tak super :) Napisałem krótki artykulik, w którym zabieram się za ten problem od strony identyfikacji najbardziej przydatnych kolumn w ramce danych. Myślę, że komuś może się to przydać ;)
@Iesuz: Takie uproszczenie ;). Nawinie kalkulując: skoro z mniej niż ~50 obserwacjami nic nie zdziałamy, a deep learning startuje dopiero przy więcej niż ~1k obserwacjach, to prosta ekstrapolacja pokazuje, że im więcej tym lepiej :D. Na a że nie widziałem żeby ktoś trafił na górną granicę ... ( ͡°͜ʖ͡°)
@takiego: W sumie racja, czasem się na tym przyłapię i poprawię... a czasem mi to umyka. Faktycznie jest to zła praktyka. Przycisnę to w przyszłości :)
19 października 2018 odbędzie się konferencja „ai & nlp workshop day” w Warszawie, podczas której uczestnicy będą mogli wziąć udział w jednym z dwunastu warsztatów poświęconych sztucznej inteligencji oraz przetwarzaniu języka naturalnego. NA HASŁO mamstartuo10 zniżka 10%!