Aktywne Wpisy
MarteenVaanThomm +47
Czy tylko ja mam wrażenie, że od 2-3 lat jest straszna posucha w grach AAA? Nie ma w co grać w ogóle.
Pykam sobie trochę od niechcenia w Mafię 2 i szczerze mówiąc nie wiem co dalej xD Starocie ogrywane w kółko te 7-10 lat temu dużo straciły, niektóre tylko stały się bardziej drewniane, ale niektóre za to praktycznie są do kosza.
Gothic Remake - nawet nie ma daty premiery, a po
Pykam sobie trochę od niechcenia w Mafię 2 i szczerze mówiąc nie wiem co dalej xD Starocie ogrywane w kółko te 7-10 lat temu dużo straciły, niektóre tylko stały się bardziej drewniane, ale niektóre za to praktycznie są do kosza.
Gothic Remake - nawet nie ma daty premiery, a po
Zawiera treści 18+
Ta treść została oznaczona jako materiał kontrowersyjny lub dla dorosłych.
Na każdy wiersz w głownej przypada jakiś 1Kb danych w tabeli powiązanej. Te dane to rozbity na części json, bo tak łatwiej coś "znaleźć"
Teraz pytanie czy nie lepiej (ze względu np na flasha/ssd, wydajność) zrobić 1 główna tabelę, w której będzie cały json i go w uaktualniać?
O transakcji pamiętam.
#programowanie
Które rozwiązanie lepsze
Bazy nosql też mają swój narzut danych.
Dzięki za wskazówkę
1. Częściej zmieniasz dane, czy częściej wyszukujesz?
2. Szukasz tylko po danym fragmencie? Po danym polu obiektu? Po kilku polach jednocześnie?
3. Modyfikujesz też tylko dany fragment czy częściej całość?
4. Ile operacji odczytu/zapisu na sekundę oczekujesz/spodziewasz się?
5. Czy koszt "pocięcia" tego na osobne wiersze w drugiej tabeli nie jest czasem tutaj głównym "spowalniaczem"?
6. Jakiego zapytania używasz do przeszukiwania?
1. chyba częściej dodaje dane - na każdy wiersz w tabeli głownej będzie kilka zapisów do pomocniczej
2. wyszukuję wszystkie dane z określonym id lub tylko najnowszy
3. najczęściej będzie dodanie do tabeli powiązanej, rzadko zmiana w głównej
4. na sekundę? myślę, że raz na kwadrans albo raz na godzinę będzie jedna transakcja - kilka insertów, może update. No ale ręcznie będzie można wymusić aktualizację
5. Danych jest niewiele, więc
Ja bym nie przekombinowywał i szedł w proste, a mniej problematyczne rozwiązanie. Namęczysz się tylko, a benefit z tego praktycznie żaden.
Zmierzyłem sobie ile zapisuje na dysku w czasie 1 inserta i wychodzi mi kilkanaście kilo.
Głowny plik sqlite ma powiedzmy 20kilo ale shm i wal (journal?) łącznie 10 razy tyle
W takim tempie przy 15 insertach co kwadrans mam prawie 30mb dziennie. Tragedii nie ma
Sprawdzę sobie w