Aktywne Wpisy
Alvarez17 +2
#przegryw mieliście osobę towarzyszącą na studniówce? Ja w sumie nawet nie miałbym kogo zapytać i poszedłem sam, a też jestem osobą która wolałaby umrzeć w samotności niż komuś zawracać Dupę i może dobrze zrobiłem, ale no sam fakt tego że nie miało się z kim jest przegrywowy
bencvallan +36
powitajcie nowego członka KRS - Krajowej Rady Sądownictwa
#polityka #sejm #prawo #logikarozowychpaskow #logikaniebieskichpaskow
#polityka #sejm #prawo #logikarozowychpaskow #logikaniebieskichpaskow
#comarch #optima #it #erp #software #bazydanych #sql #mssql
W kroku źródło trzeba zawęzić dane:
= PostgreSQL.Database("172.20.2.1",
Ale jest też tak jak mówisz - ten #!$%@? pobiera u mnie 1,5 miliona rekordów i później dopiero to obrabia. Wiesz może jak to obejść?
#!$%@? subskrypcja, która kręci się w nocy #!$%@? po 4GB ramu i na końcu, gdy plik excel ma ponad 1.5MB to się po 7godzinach (!) nie wykręca tylko wywala błąd.
To samo z normalnymi analizami - pobiera wszystko do RAM i tam cholera wie co z tym robi - kiedy zwykłe zapytanie na bazie w SSMS trwa 5 minut ...
Próbowałem wielu rzeczy,
Właśnie miałem ambitny plan zadzwonić do nich jutro i się zapytać czy ich #!$%@?ło. A ja myślałem że sobie przeniosę bazę na ssd i będzie git. Szef się dowie że analizy nie przyspieszyly to będzie #!$%@?
Serio nie masz żadnego rozwiązania? :(
Ja mam u siebie to w taki sposób zrobione, że mam dwie bazy.
Jedna jest właśnie na dysku SSD - są tam co prawda dane z dnia "wstecz", ale analizy BI szybciej działają.
Na bazie live działa to jak krew z nosa.
Spróbuj do nich zadzwonić - może trafisz na bardziej kumatą osobę. Ja po którymś razie odpuściłem i rozwiązałem to właśnie w taki sposób
A nie da się tego trigerem zrobić? Jako warunek odpalenia ustawić godzinę np 1 w nocy?
W BI można sobie podglądnąć skrypt, jaki generują te standardowe raporty. Przyglądnijcie się mu, i złapiecie się za głowę - te skrypty potrafią mieć po kilkaset linijek, i są skonstruowane tak, że najpierw wykonywane jest jedno zapytanie, potem dane z tego zapytania są sklejane w string, który tworzy zapytanie SQL, i ponownie ten sklejony string jest wykonywany.
W niektórych raportach jeszcze sobie biegają jakieś kursory, i
Co w tym jest złego? To że trzeba długo czekać aż te pierwsze zapytanie się zrobi? Wygląda mi to na to że do tego drugiego zapytania po prostu były potrzebne dane z pierwszego i inaczej się tego nie dało zrobić, chyba że