Wpis z mikrobloga

Mam taki projekt, w którym muszę przerzucić sporo rekordów (do 100 tys.) z pliku .csv do jakiegoś storage tak żeby mieć do niego dostęp w następnym requescie.

Obecnie robię tak, że wrzucam te rekordy do bazy MySQL z foreign key, ale jest to strasznie niewydajne. 50k rekordów insertują się 2 minuty, do tego mam poczucie marnowania zasobów, bo te dane po wykonaniu następnego requestu są mi niepotrzebne i tylko zalegają w bazie marnując sporo megabajtów.

Czego mogę użyć? Myślałem o #redis, ale redisa używałem tylko jako queue, a nie jako storage i nie mam pojęcia z czym to się je.

Jak myślicie, Redis jest odpowiedni do mojego problemu? Będzie wydajniejszy?

#programowanie
  • 8
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Nie znam redisa,ale brzmi spoko. Na pewno da się to zrobić. W sumie to nawet ttl możesz chyba ustawić,aby samo ci dane czyściło po określonym czasie. Ja użyłbym aerospike ale tylko dlatego że jest prosty i go znam.ale pewnie redis też da radę.
  • Odpowiedz