autoML, drivelessAI itp. twory też się pojawiają - ale bardziej do prototypowania - jak trzeba zbudować proces dla biznesu to już tworzy się dedykowany pipeline wykorzystując konkretny estymator i metody + wizualizacje, raportowanie itp.
@Grzegiii no rozumiem - ja sobie teraz na dataiku wrzucam i patrze jak sprawy sie maja. Pozniej h2o i... no nie zadowala mnie to wszedzie ograniczenia i malo algo.
Czyli tak jak w programowaniu - system szyty na miare buduje sie z malych klockow i nie ma drogi na skroty.
Dzieki za odpowiedz. Czas zbudowac notepada z random grid search na scikit learn pod wszystkie algo ;p no i tpota musze tez
@PhoenixPneuma: Nie jestem ekspertem, ale również słyszę od osób z większym stażem, że na produkcji AutoML raczej nie wchodzi. Dlatego też warto rzucić okiem na najnowsze algorytmy z naukowych papierów: Papers With Code.
Oprócz narzędzi wymienionych przez @Grzegiii, dość często zdarza mi się też używać VS Code. Bardzo polecam jego dokumentację, w której mają nawet sekcję: Data Science in Visual Studio Code.
@Pyxelr oj zdecydowanie ciekawe te prace naukowe - upatruje szanse w takich rzeczach na projekt ktory wyniesie mnie na innym poziom. Staram sie poznawac wiele domen i wierze ze ktoregos dnia cos mi sie sklei w tej glowie.
Co do vscode bardzo mozliwe ze sie skusze bo szczerze nie przepadam za jupyterlab.
@PhoenixPneuma: Python + PyCharm, conda jako menedżer wirtualnych środowisk
Do obliczeń kiedyś głównie TensorFlow (w wersji 1.x, od wersji 2.0 nie używałem), obecnie wyłącznie PyTorch.
Standardowe biblioteki + narzędzia (niekoniecznie pod ML, ale też do przetwarzania danych - generalnie to, czego najczęściej używam w pracy): NumPy, scikit-learn, Matplotlib, scikit-image, OpenCV, NLTK, (huggingface) Transformers, fastText, sciPy, Pillow, pdfminer, TensorBoard.
Do szybkich prototypów Jupyter Lab i czasem pandas.
Ja również używam wyżej wymienionych narzędzi (sklearn, pandas, numpy itp.). Prawda jest taka, że w biznesie liczą się raczej pieniądze i wyjaśnialność modeli. Możesz sobie zrobić model z jakiegoś paperu np. neuralODE, RL, Bayesian Networks, Probabilistic NN i tak dalej. Problem pojawia się ze wdrożeniem takiego czegoś na produkcję i wyjaśnieniem Twojemu szefowi, dlaczego model myśli tak, a nie inaczej ( ͡°͜ʖ͡°). Jeśli uczysz się hobbistycznie
Nie pracuje zawodowo tylko hobbystycznie i powoli widze ze ograniczenia pojawiaja sie gdy chce zrobic bardziej zlozony stacek ensemble.
Czyli tak jak w programowaniu - system szyty na miare buduje sie z malych klockow i nie ma drogi na skroty.
Dzieki za odpowiedz. Czas zbudowac notepada z random grid search na scikit learn pod wszystkie algo ;p no i tpota musze tez
Oprócz narzędzi wymienionych przez @Grzegiii, dość często zdarza mi się też używać VS Code. Bardzo polecam jego dokumentację, w której mają nawet sekcję: Data Science in Visual Studio Code.
Czasami też warto zajrzeć do Colaba,
Co do vscode bardzo mozliwe ze sie skusze bo szczerze nie przepadam za jupyterlab.
Do obliczeń kiedyś głównie TensorFlow (w wersji 1.x, od wersji 2.0 nie używałem), obecnie wyłącznie PyTorch.
Standardowe biblioteki + narzędzia (niekoniecznie pod ML, ale też do przetwarzania danych - generalnie to, czego najczęściej używam w pracy): NumPy, scikit-learn, Matplotlib, scikit-image, OpenCV, NLTK, (huggingface) Transformers, fastText, sciPy, Pillow, pdfminer, TensorBoard.
Do szybkich prototypów Jupyter Lab i czasem pandas.