Aktywne Wpisy
MrMas +737
Zakazać trzymania psów powyżej 5 kg w blokach mieszkalnych i myślę że większość problemów z psiarzami i sfrustrowanymi psami się rozwiąże
A taki mały szczur to poleci jak się go kopnie więc problemu nie ma
Tak btw to uważam że trzymanie dużego psa w kawalerce to znęcanie się w pewnym stopniu
#psiarze
A taki mały szczur to poleci jak się go kopnie więc problemu nie ma
Tak btw to uważam że trzymanie dużego psa w kawalerce to znęcanie się w pewnym stopniu
#psiarze
ZenujacaDoomerka +339
Żadna kobieta urodzona po 1993 nie umie gotować, znają tylko McDonald, ładowanie telefonu,"twerkowanie", biseksualizm, jedzenie ostrych chrupkow, kłamanie
muszę je przefiltrować raz dziennie na podstawie kilku różnych warunków (m.in. ==, !=, len, regex)
plik 1 filtruję, na podstawie jego wyników filtruję 2 (mając dostęp do pojedynczego wyniku z 1), potem na wynikach z 2 filtruje 3, itd.
real life example: szukam serwera, do niego dopasowuję maszynę na której stoi, do maszyny dopasowuję jej zasoby i zliczam zużycie. wszystko zlicza się na podstawie filtrów zdefiniowanych w yamlu.
na początku robiłem to operując na zserializowanym do dicta (używając python-benedict) jsonie, gdzie iteruję po każdym wyniku i szukam dla niego wyników. dopóki miałem kilka megabajtów danych to było to wystarczająco szybkie. teraz dotarła lista partycji, która aktualnie ma 143MB i cały mój kod się zesrał, trwa to co najmniej 30 minut (po tylu anulowałem).
myślałem o przeniesieniu tego do jakiejś bazy i filtrowaniu tam, ale mam do wyboru jedynie mysql 5.7 (gówniane korpo wymogi), gdzie jsonquery było ledwo co wprowadzone.
próbowałem yaql, ale po załadowaniu dużego pliku nie chce odpowiadać na zapytania waląc wyjątkiem o zbyt dużym pliku.
myślę jeszcze o memcached/redisie
jakieś inne pomysły?
ew. może dałoby się to jakoś wczytać do dataframe i potem korzystanie z operacji wektorowych ktore są szybkie
https://docs.microsoft.com/en-us/sql/t-sql/functions/openjson-transact-sql?view=sql-server-ver15
@FantaZy: da się zrównoleglić, ale nadal skala tego będzie za duża. jeśli nie znajdę lepszego rozwiązania, to spróbuję tak, ale może czegoś nie znam. sprawdzę dataframesy.
@aloucie: muszę to pobrać z api, a potem nie mam żadnych większych ograniczeń.
@krasik01: nie mam dostępu do sqlserwera
zostanie tylko przekonać twórcę filtrów, żeby ogarnął nową składnię...