Wpis z mikrobloga

Hej #programowanie doradźcie! Z pewnego dużego portalu e-commerce (za pomocą #python najprawdopodobniej) będę zbierał dane o produktach - chcę sprawdzać cenę, ilość sprzedanych produktów i jeszcze kilka dodatkowych parametrów. Będę robił to cyklicznie, na dłuższą metę.

Wstępnie strzelam, że będzie ok 100k rekordów. Oczywiście z tych danych będę chciał generować jakieś zestawienia, analizy.

No i pytanie - stawiać własną bazę danych (jaką konkretną technologię wybrać?) czy korzystać z Azure czy Google Cloud, czy jakieś Heroku albo coś jeszcze innego?

Moje pojęcie o bazach danych nie jest duże a chcę wybrać mądrze na początku, żeby później nie musieć się męczyć.

Pozwolę sobie jeszcze zawołać #bigdata i #sql z racji rozeznania w temacie baz danych.
  • 21
Wstępnie strzelam, że będzie ok 100k rekordów. Oczywiście z tych danych będę chciał generować jakieś zestawienia, analizy.


@Dar_Q: Moja baza wszystkich linii i tras autobusowych mająca 1,5 mln rekordów w Sqlite zajmuje 32 MB więc to naprawdę mało na #bigdada
@Budek24: 100k spokojnie mieści się w Excelu; na lepszym komputerze dopiero koło 300k zaczyna mulić (zależy od danych), ale wymyślili teraz Power Pivot, który pozbywa się też ograniczenia 1M wierszy i to trochę taki Access ( ͡° ͜ʖ ͡°)
@JohnD0e Używam głównie do robienia statystyk komunikacyjnych dla siebie oraz dla wygenerowana takiego czegoś

Czas oczekiwania na Autobus

https://goo.gl/maps/4wzJWXGDqRS2

Z tym że lokalizację przystanków pobrałem z Open Street view

A co do drugiego pytania to mam skrypt co prosto ze strony przewoźnika pobiera wiele stron na raz o je przetwarza w kilku "wątkach"