Stary za 12k to masz 3 kursy na udacity z tematyki ML, AI i jeszcze DevOps przykładowo, jak zrobisz u nich w rok trzy kursy to sami znajdą dla Ciebie pracę. Możesz jeszcze policzyć że 12k to +60 miesięcy kursów na Coursera. Nikt nie zrobi z Ciebie DS w 3 miesiące na to nie licz. Lepiej powoli a wytrwale iść do celu.
Chciałbym nauczyć się #python w celu #machinelearning, a dokładnie będę probował zrobić apke, która będzie czytała pismo ręczne więc #nlp i chciałbym wybrać do tego jakiś dobry framework, wszędzie piszą o Django ale to chyba dla webu ? Ktoś może mi coś doradzić ? Każda rada będzie dla mnie dobrą radą :) Chyba, że mam sobie soli do dupy nasypać to może jednak nie każda...
NIe żebym był jakiś super ekstra obeznany w temacie ale połowa chyba nie wie o czym pisze na tym wypoku :D masz tutaj cały silnik do ocr z handwritten digits, tylko wytrenować :) Nie dziękuj bo nie sprawdzałem https://github.com/tesseract-ocr/tesseract/wiki/Training-Tesseract
Miał ktoś z was może styczność z TensorFlow, a konkretnie z Estymatorem? Mam taki problem dotyczący uczenia sieci konwolucyjnej, a właściwie zbierania z niej danych. Ale do rzeczy:
Chcę zbierać wartości podczas uczenia modelu sieci co każdą epokę i w tym miejscu są dwie opcje: 1) używam funkcji trainandevaluate(), która uczy szybko jednak nie znalazłem możliwości zbierania danych funkcją evaluate co każdą epokę. Wszelkie źródła mówią o wywoływaniu funkcji co
Prostymi słowami, chcesz zbierać wagi modelu tak? Jeśli tak to do tego służy taki moduł jak callbacks. Możesz ustawić sobie zapis w dowolnej konfiguracji (tylko po co?) np. modelcnn{0}_{1}.format(epoch, lr)
Cześć! Mam problem dot. zamiany listy tablic 2D (n x n) na numpy array. Gdy to zrobię zużycie RAM drastycznie rośnie. Miał ktoś z tym taki problem? Zadanie realizuję w CoLab jak i u siebie na PC, lokalnie. Prześlę zużycie RAM w odpowiednich miejscach. Scenariusz wygląda tak: - wczytuje obraz
Nie wiem po co najpierw robisz listę a później zamieniasz na numpy array. Przejdź odrazu do numpy zrób sobie operację na macierzach i sprawdź jak to będzie działać
Mam bazę użytkowników ≈50mln i teraz chciałbym z nich wyciągnąć ,,rodzynki". Czy jest możliwe, żeby skrypt na podstawie moich wyborów doszukiwał mi podobne pozycje, a gdy uznam że jest ok, sam się doskonalił jak wskarze mu błędy? Jeśli mam wiele źródeł danych które zmieniają się z godziny na godzinę, jak mogę to ,,ogarnąć"? Czy studenci chętnie pracują za % od zysków? #studbaza #datascience #programowanie
@define może proponujesz dobrą metodę ale nie wiem czy do końca rozumiesz metody analizy skupień ( ͡°ʖ̯͡°). @jazmojegopokoju trochę słabo wytłumaczyłeś problem, masz te swoje rodzynki i co? jak te rodzynkowe wektory wyglądają? Czy to są bardziej rodzynkowe-wektory ciągłe, dyskretne może trochę tego, trochę tego. Rodzynkowe wektory dyskretne to takie: [0,1,5,2, ...] Rodzynkowe wektory ciągłe to takie: [1,44234, 11,13, 66,242, ...] I teraz tak jak, co
tak się składa, że jutro mam rozmowę z machine learning, sztucznej inteligencji oraz IoT, jednak nic z tego nie umiem (nie wiem, dlaczego zaprosili mnie na rozmowę z tego, skoro w cv tego nie mam :/ ). Jaka wiedza jest must have z tych rzeczy? Jakie materiały polecacie, by mieć mniej więcej rozeznanie w tych rzeczach?
Miruny spod #analizadanych #datascience itp. Kojarzycie może jakiś algorytm pozwalający liczyć odległość punktu do najbliższego/najdalszego punktu w poligonie? Najlepiej z zastosowaniem QGIS lub #python.
Co rozumiesz przez najdalszy, najbliższy punkt? Wykorzystujesz normalną metrykę Euklidesową? Jeśli tak to możesz spróbować 'rysować' okrąg i później porównać wszystkie promienie kół. Nie wiem czy ten algorytm jest bardzo efektywny ale wymyśliłem go na poczekaniu.
Miałem dataset który miał kolumnę jako object z kilkoma różnymi cechami. Zmieniłem, więc to na liczby i kolumna jest jako int i przyporządkowałem liczby do opisów w słowniku. Oczywiście podobnych kolumn było o wiele więcej. Problem powstaje, kiedy muszę zrobić wykresy. Jak sobie rozkodować najlepiej pojedyncze słupki w wykresie?
Rozumiem że używasz pythona i biblioteki pandas tak? Jeśli tak to możesz to zrobić prostym sposobem (może nie najlepszym ale na ten moment nic lepszego nie przychodzi mi do głowy) 1. Zliczasz sobie ilość kategorii w danej kolumnie df['...'].value_counts() i zapisujesz jako słownik 2. Podmieniasz int na nazwy ze słownika. 3. Generujesz wykres klik
No elo swiry z #python #machinelearning #tensorflow Mam takie zadanie do wykonania, jestem newbie i zastanawiam sie nad generalnym podejsciem/architektura:
Generowanie textu na podstawie podprzednio widzianych zdan oraz przekazanego kontekstu (slowa kluczowe). W pierwszym przypadku jak rozumiem, moge zastosowac jakas rekurencyjna warstwe np LSTM, GRU, zmapowac zdania na chary i jako cel ustawic wybor kolejnej litery - zrobiem pare takich. Ale w jaki sposob moge przekazac konktekst wypowiedzi? Np. uczenie generowania zdan
Generowanie tekstu to nie trywialny problem. Nie siedzę w tym temacie ale z tego co się orientuję będzie ciężko zrobić jeden model który generuje tekst wielu autorów opierając się na znaczniku, chyba że będzie to jakiś model łączony. Zobacz czy tutaj nie ma nic co może pomóc: paperwithcode OpenML Github
Mireczki z #machinelearning #datascience ma ktoś może doświadczenie z jakimś ciekawym biznesowym datasetem z kaggle/innych źródeł? Mam zamiar zrobić sobie jakiś fajny projekcik do CV w związku z rekrutacją do firmy zajmującej się data science i przydałoby się coś żeby im pokazać. Celuję w coś biznesowego ale cholera nie mam totalnie pojęcia o żadnych fajnych business- datasets ( ͡°ʖ̯͡°)
Tak jak @vasper mówi najpierw ustal co robi firma bo ścieżek DS jest bardzo dużo. Od segmentacji klientów przez vision i szeregi czasowe kończąc na robotyce. Sprawdź tego gita https://github.com/firmai/industry-machine-learning albo lepiej znajdź jakiś paper naukowy z dziedziny jaką zajmuje się firma i spróbuj zaimplementować algorytm :) Myślę że takie podejście dużo wyżej może postawić Cię w ocenie. Sprawdź jeszcze czego używają do zbierania danych (spark, postgres itp.) i na czym mogą
#kaggle Hej, jestem nowy w temacie ML i chciałbym się czegoś jeszcze poduczyć. Dotarłem do problemu sądzę dość typowego pt. nie mam dobrej karty graficznej i nauka sieci trwa 2h na jeden epoch. Szukam rozwiązań chmurowych, znalazłem opcję, że na Kaggle mogę to zdalnie odpalać mój kod. Czy jest opcja przeniesienia jakoś tego, co mam lokalnie na kompie bezpośrednio na kaggle, wpisania tam typowej komendy python3 train.py --path /path/? Bo póki co
@Mpknw: na kaggle jest chyba 6 godzin GPU, później maszyna się resetuje. To sam jest na google colab. Nie rozumiem tylko jakie Ty parametry chcesz kopiować?
Bootcamp "data science" z Gdańska skupia się na pythonie i jego bibliotekach, machine learning, AI. Więcej godzin warsztatowych, wyższa cena (12k), nie wiadomo kto prowadzi.
https://infoshareacademy.com/kursy/kurs-weekendowy_gdansk_data_science/
A podyplomówka "data science" na PW skupia się na R. Niższa cena (10k), więcej teorii, mniej godzin warsztatowych, poważniejsza kadra merytoryczna.
http://datascience.ii.pw.edu.pl/datascience.html#program