Czy ktoś wstawiał linie o określonym kształcie "między" punkty tak aby jak najbardziej wpasować linie w punkty (zdjęcie poniżej) i później z tego określił pole powierzchni między linia zbudowaną na punktach a tą która określoną która wstawiamy?
Za każdą poradę, artykuł będę wdzięczny

#naukaprogramowania #matplotlib #python #programowanie #datascience #analizadanych
Pobierz mozeskomentuje - Czy ktoś wstawiał linie o określonym kształcie "między" punkty tak a...
źródło: comment_h2ZLA3oFnBhy4IiDT96JK0t47cwCGNXz.jpg
@mozeskomentuje: Uogólnione modele liniowe powinny załatwić sprawę. Można też wykonać dopasowanie oparte np. na metodzie największej wiarygodności i skorzystać z kryterium informacyjnego (Bayesa-Schwartza albo Akaikego). Pole powierzchni powinna załatwić różnica dwóch pól powierzchni między prostą (krzywą) wpasowaną, a osią odciętych.
Po co Ci to w ogóle potrzebne? Dopasowujesz rozkład?
@luzny_lori: @Tomek7: ok chyba juz zrozumialem co jest nie tak
spark faktycznie ustawia FAIR, ale „scheduling across applications” byl na domyslnych ustawieniach i bede musial zmienic, zeby np ustawic limit „core’ow” uzywanych przez jedna aplikacje

w dokumentacji pod „job scheduling” sa te informacje jakbyscie chcieli poczytac
@musialmi: Toś mi akurat skomentował/(a) najmniej chyba istoty element artykułu. Widziałem to AFAIR gdzieś w materiałach u Andrew Ng i on tego też za bardzo nie drążył. Może masz rację ¯\_(ツ)_/¯
#bigdata #sgh #machinelearning #datascience
Hej, słuchajcie mam takie pytanie. Jest tu jakiś absolwent Big Data na SGH i może podzielić się tym jak jest na rynku? Aktualnie studiuję BD na SGH i mam średnie odczucia. Czy jest sens to teraz rzucać i iść na jakąś informatykę ? Generalnie interesuje mnie głownie działka ML, hurtownie danych, cloud computing, czyli mniej analizy a więcej robienia. Myślałem, że kierunek ten jest właśnie idealny pod to,
@trelis_morelis: Sama uczelnia jak i kierunek jest szanowana - szczególnie przez działy HR, więc jak umiesz ładnie odpowiedać na pytania rekrutacyjne to spokojnie się gdzieś załapiesz. Warto szczególnie działać w kołach naukowych i działać w projektach studenckich. Jakbyś chciał iść w typowy machine learning gdzie będzie Cię już rekrutował ktoś kto sie na tym zna, no to już jakiś poziom musisz prezentować - statystyka/programowanie np w R itp.

Generalnie jak się
@Luk_1mex: scikit będzie łatwiejszy na początek. To nie jest typowe rozpoznawanie znaków jak mnist z convnet, ale w sumie i lepiej (łatwiej). Wielowarstwowy perceptron i ogień. MLPClassifier szukaj.
Hej #datascience i #machinelearning!
W tym tygodniu artykuł nieco leniwy, ale myślę, że będzie szczególnie przydatny dla programujących w #jezykr.
W artykule omawiam całkiem ciekawy pakiet o nazwie auditor. Jeśli potrzebowałeś kiedyś porównać właściwości modeli predykcyjnych w R to będzie to narzędzie w sam raz dla Ciebie:

https://www.jakbadacdane.pl/pakiet-auditor-weryfikacja-walidacja-i-analiza-bledow-modelu-w-r/

#jakbadacdane
Hej,
Mirasy mam do Was pytanie dotyczące przyszłości data science w polsce.
Studiuje sobie infę, jestem na drugim roku. Do tej pory wiadomo, robiłem to co musiałem na uczelnię, a na własną rękę uczyłem się po trochu wielu rzeczy. Grzebałem trochę w froncie, nawet pare zleceń mi wpadło po znajomych i rodzinie. Uczyłem się trochę programowania pod Androida. Ale generalnie to nie dla mnie chyba. Od kilku miesięcy dokształcam się w kierunku
@ostry_ananas: Mało jest firm które rzeczywiście robią data science w Polsce. Do tych lepszych musisz zajebiście ogarniać matmę i statystykę - odniosłem wręcz wrażenie, że to ważniejsze niż programowanie, takiego juniora dużo łatwiej kogoś douczyć pisania kodu - stąd rekrutacje często są bardzo wymagające. W tych gorszych często stanowisko nazywa się data scientist ale tak naprawdę zajmujesz się robieniem #!$%@? regresji w SASie. Jak znajdzie się fajną firmę to praca jest
@ostry_ananas: Polecam dwie rzeczy:
1) zacznij pokazywać w sieci (blog, github, youtube, whatever), że masz pasję do danych
2) zastanów się nad szukaniem pracy zdalnej

Ścisłe wykształcenie bardzo pomaga. Ja pracuję jako Data Scientist za oceanem i za każdym raziem jak się przedstawie klientowi na początku projektu, że mam doktorat z fizyki to zaczynają słuchać co mam do powiedzenia.
Politolog, dr hab. Rafał Matyja, przygotował dla Nowej Konfederacji pogłębioną analizę wyników wyborów samorządowych 2018. Oprócz werdyktu "kto zyskał, kto stracił" dużo ciekawych statystyk, np. tabelka wieku i płci prezydentów miast w różnych kadencjach samorządu:

Znalezisko: https://www.wykop.pl/link/4718409/krajobraz-po-samorzadowej-bitwie-raport-ekspercki-nowej-konfederacji/

PS: Rafał Matyja to bardzo ciekawa i godna zaufania postać. Ostatnio wydał książkę "Wyjście awaryjne" (tu reakcja Klubu Jagiellońskiego), która - choć może nie jest porywająca jak np. książki Krasowskiego - pozwala się dużo
Pobierz eoneon - Politolog, dr hab. Rafał Matyja, przygotował dla Nowej Konfederacji pogłębio...
źródło: comment_MNLstfbd5vMkBlDiSlzHxGhfhaNLFN4g.jpg
@Avitus:
Wydaje mi się, że potrzebujesz tak naprawdę dwóch statystyk, które będziesz potem analizował we wzajemnym kontekście - jakość powietrza oraz jakość danych.
W kwestii modelowania jakości powietrza, to u siebie stosujesz dość prostą metodę średniej ważonej, ja bym się zastanowił nad jakimś modelem "przestrzennym", modelującym też korelacje, jakiś model mieszany.
Jeżeli chodzi o modelowanie jakości danych, to jakaś prosta statystyka wynikająca z liczby dostępnych punktów i odległości.
Albo można wsiąknąć
@lekkonieobecny: Wow, fajnie to wyszło. W sumie też mi się ten temat przewija cały czas w tle, ale nie ogarnąłem jeszcze na tyle heat map w Pythonie żeby było warto o tym pisać. A widziałem że faktycznie Tableau nieźle sprawdza się w takich wizualizacjach. Zdecydowanie też coś takiego muszę przygotować w Pythonie i w R ;)
Ahoj #datascience i #machinelearning. Wy to pewnie mnożycie macierze w bazach danych i inne cuda robicie. Ale może jest wśród was #newbie który jeszcze nie miał do czynienia z bazami danych. I właśnie z myślą o osobach początkujących napisałem artykuł w którym dzielę się moimi przemyśleniami na temat używania baz danych w projektach data science. Od razu ostrzegam, że temat jest na poziomie bardzo początkującym. Ale jeśli będzie popyt to z
@ja_tu_czytam: Nie obrażam się ;). I mam pewien pomysł jak to ugryźć, ale jeszcze nie przetestowany - użyć modułu dask (https://dask.org/).
W samym artykule też piszę o tym, że możemy w ogóle nie zbudować ramki danych bo zabraknie nam pamięci ( ͡° ͜ʖ ͡°).

W sumie to jest to pomysł na artykuł na przyszłość. Może faktycznie w takiej sytuacji polegnę. Ale i tak będzie o czym