Aktywne Wpisy
mickpl +314
Prawilnie przypominam patent na natychmiastowe obniżenie cen mieszkań:
1. Wycofać się całkowicie z deklaracji dopłacania do kredytów, projekt wyrzucić do śmietnika w całości.
2. Zapowiedzieć opodatkowanie posiadaczy więcej niż 3 mieszkań - to jest promil obywateli, bo 98% właścicieli posiada tylko jedno mieszkanie.
Efekty będą widoczne od razu. Nie trzeba będzie nawet specjalnie nic robić XD
#nieruchomosci #mieszkanienastart #ekonomia #gospodarka #wkpinvestments
1. Wycofać się całkowicie z deklaracji dopłacania do kredytów, projekt wyrzucić do śmietnika w całości.
2. Zapowiedzieć opodatkowanie posiadaczy więcej niż 3 mieszkań - to jest promil obywateli, bo 98% właścicieli posiada tylko jedno mieszkanie.
Efekty będą widoczne od razu. Nie trzeba będzie nawet specjalnie nic robić XD
#nieruchomosci #mieszkanienastart #ekonomia #gospodarka #wkpinvestments
Jadę właśnie do pracy i uświadomiłam sobie, że jestem dokładnie takim człowiekiem i w takim miejscu w którym marzyłam kiedyś żeby być. Mam swoje mieszkanie, pracę którą kocham i w której rozwijam się i czerpię nie tylko hajs, mam wspaniałą rodzinę i przyjaciół na których mogę liczyć studiuje znów i rozwijam się a, z głupich i prozaicznych rzeczy mam materialne sprawy takie jak garmin czy katering że nie muszę już liczyć, wpisywać
Szefo w robocie sobie wymyślił, że razem z kumplem przepiszemy mu jeden pliczek z Excela na SQL, a moja znajomość tego tematu jest równa 0. Polećcie jakieś dobre książki i źródła, które opisują programowanie obliczeń, a nie wyciąganie danych z bazy itp. :)
Mniej więcej to działa tak, że podajesz numer części, on pobiera z bazy danych historię zamówień, ilość materiału w magazynach i złożone zamówienia, łączy to w całość, biorąc pod uwagę też dodatkowe
Bo podejrzewam ze działa to obecnie mniej więcej tak, że w arkuszu masz zapisane formuły i ręcznie klepiesz odpowiednie dane z bazy do odpowiednich pól żeby wyliczyć prognozę?
A 10 minut wykonywania się skryptu wydaje się być dość mocno niezoptymalizowane. Może powinieneś poszukać wąskich gardeł w algorytmie.
Nie wiem, ogólnie chodzi o to, że jedna część liczy się ok. 1-2 s, z czego większość czasu zabiera pobranie danych z bazy. Jednak w jednej części może być ich tak naprawdę nawet 500, i wtedy czas się wydłuża do tych 10 minut, bo każda musi być przeliczona osobno i dopiero
Mnie się wydaje, że przy tych setkach głównym problemem, poza czasem pobrania z bazy, który jednak jakimś ułamkiem sekundy jest (a każda część pobiera ok. 7-8 tabel, oczywiście wszystko na jednym połączeniu tworzonym na początku), to ociężałość samego Excela i jego obliczeń oraz sposobu prezentacji danych, który często opiera się na kopiowaniu zawartości komórek