Wpis z mikrobloga

@Grzegiii widze ze kazdy kto zajmuje sie tym zawodowo uzywa mniej wiecej taki stack. I tu pytanie: gdzie automl typu h2o czy tpot polega ?

Nie pracuje zawodowo tylko hobbystycznie i powoli widze ze ograniczenia pojawiaja sie gdy chce zrobic bardziej zlozony stacek ensemble.
autoML, drivelessAI itp. twory też się pojawiają - ale bardziej do prototypowania - jak trzeba zbudować proces dla biznesu to już tworzy się dedykowany pipeline wykorzystując konkretny estymator i metody + wizualizacje, raportowanie itp.
@Grzegiii no rozumiem - ja sobie teraz na dataiku wrzucam i patrze jak sprawy sie maja. Pozniej h2o i... no nie zadowala mnie to wszedzie ograniczenia i malo algo.

Czyli tak jak w programowaniu - system szyty na miare buduje sie z malych klockow i nie ma drogi na skroty.

Dzieki za odpowiedz. Czas zbudowac notepada z random grid search na scikit learn pod wszystkie algo ;p no i tpota musze tez
@PhoenixPneuma: Nie jestem ekspertem, ale również słyszę od osób z większym stażem, że na produkcji AutoML raczej nie wchodzi. Dlatego też warto rzucić okiem na najnowsze algorytmy z naukowych papierów: Papers With Code.

Oprócz narzędzi wymienionych przez @Grzegiii, dość często zdarza mi się też używać VS Code. Bardzo polecam jego dokumentację, w której mają nawet sekcję: Data Science in Visual Studio Code.

Czasami też warto zajrzeć do Colaba,
@Pyxelr oj zdecydowanie ciekawe te prace naukowe - upatruje szanse w takich rzeczach na projekt ktory wyniesie mnie na innym poziom. Staram sie poznawac wiele domen i wierze ze ktoregos dnia cos mi sie sklei w tej glowie.

Co do vscode bardzo mozliwe ze sie skusze bo szczerze nie przepadam za jupyterlab.
@PhoenixPneuma: Python + PyCharm, conda jako menedżer wirtualnych środowisk

Do obliczeń kiedyś głównie TensorFlow (w wersji 1.x, od wersji 2.0 nie używałem), obecnie wyłącznie PyTorch.

Standardowe biblioteki + narzędzia (niekoniecznie pod ML, ale też do przetwarzania danych - generalnie to, czego najczęściej używam w pracy): NumPy, scikit-learn, Matplotlib, scikit-image, OpenCV, NLTK, (huggingface) Transformers, fastText, sciPy, Pillow, pdfminer, TensorBoard.

Do szybkich prototypów Jupyter Lab i czasem pandas.
Ja również używam wyżej wymienionych narzędzi (sklearn, pandas, numpy itp.). Prawda jest taka, że w biznesie liczą się raczej pieniądze i wyjaśnialność modeli. Możesz sobie zrobić model z jakiegoś paperu np. neuralODE, RL, Bayesian Networks, Probabilistic NN i tak dalej. Problem pojawia się ze wdrożeniem takiego czegoś na produkcję i wyjaśnieniem Twojemu szefowi, dlaczego model myśli tak, a nie inaczej ( ͡° ͜ʖ ͡°). Jeśli uczysz się hobbistycznie