Aktywne Wpisy
![Wodkajakwodka](https://wykop.pl/cdn/c3397992/Wodkajakwodka_VIOW4gn8x5,q60.jpg)
Hejo #bezsennosc
Od dawna mam z bezsennością problem. Zaczęło się od depresji i mega obciążenia psychicznego w nowej pracy. Ale zostałam w niej kilka lat.
Najpierw nie mogłam zasnąć jak miałam do pracy na 4 rano.. Noc nieprzespana. Potem gdy miałam na popoludnie, też nie mogłam zasnąć. Na nocki też się bałam że się nie wyspie.
Zmieniłam tę robotę, ale teraz to już w ogóle nie mogę spać kiedy na następny dzień
Od dawna mam z bezsennością problem. Zaczęło się od depresji i mega obciążenia psychicznego w nowej pracy. Ale zostałam w niej kilka lat.
Najpierw nie mogłam zasnąć jak miałam do pracy na 4 rano.. Noc nieprzespana. Potem gdy miałam na popoludnie, też nie mogłam zasnąć. Na nocki też się bałam że się nie wyspie.
Zmieniłam tę robotę, ale teraz to już w ogóle nie mogę spać kiedy na następny dzień
![LordMrok](https://wykop.pl/cdn/c3397992/LordMrok_v5o0wl5E9N,q60.jpg)
LordMrok +1311
#python
Jak najlepiej zabrać się za naprawdę duży dataset?
Jeśli używasz Pandas do wczytywania danych, to spróbuj importować te jsony w częściach.
np. pd.read_json(r'../input/data.csv', chunksize=1000000)
Niemniej, polecam najpierw zastanowić się, co chcesz zrobić. Potem zrobić to na małej próbce. Następnie oczyszczać dane mnóstwo razy i próbować ponownie.
A jak wyjdzie już coś sensownego, to pandas.
I jeszcze zrzuć to do mniej pamięciożernego formatu. Csv może być, jeśli żadnej bazy danych nie używasz.
A Hdfs zostaw do faktycznie dużych danych.
Przeglądnij jakiś wycinek tego setu i zastanów się, co można by stamtąd wyrzucić, albo zmienić na coś "lżejszego", albo jeszcze inaczej zoptymalizować.
Co to są za dane ?
Komentarz usunięty przez autora