Wpis z mikrobloga

@obojetny_na_wszystko: > tyle że Python jest powolny przy obliczeniach
pytanie czy wolisz, żeby obliczenia trwały 2s krócej, czy może wolisz spędzić nad problemem połowę tego czasu co w Javie. No chyba że na prawdę masz do czynienia z dużą ilością danych, rzędu gigabajtów.
  • Odpowiedz
@askorek: @obojetny_na_wszystko: jak ktoś pisał wyżej, powolność pythona ma mały wpływ na narzędzia obliczeniowe dedykowane takim operacjom, bo są one często mocno oparte bindingach do c/c++ i tam odbywają się właściwe operacje (choćby scipy i numpy działają na takiej zasadzie, to pierwsze z czym warto się właśnie zapoznać, ja od siebie jeszcze polecam pandas), miałem okazję pracować z takimi gigabajtami danych, prawdziwy problem to potrzebna pamięć operacyjna przy większych zbiorach
  • Odpowiedz
@dog_meat jak wrzucasz gigabajty danych wejsciowych do wykresu albo algorytmu lm to raczej robisz to zle. Albo twoim wiekszym problemem nie bedzie ilosc danych ale zlozonosc obliczen.
  • Odpowiedz
@dog_meat a ja mowie o danych po przetworzeniu, autor wątku pyta o szybkosc obliczeń, a czystych logów raczej sie nie liczy. Co za znaczenie ma ilosc danych wejsciowych jak po obróbce mozesz raz miec 10x mniej a kiedy indziej 1000x mniej, zaleznie co zbierasz?
  • Odpowiedz