Aktywne Wpisy
![LukasUK](https://wykop.pl/cdn/c3397992/LukasUK_xmkRScnc9I,q60.jpg)
LukasUK +556
![WielkiNos](https://wykop.pl/cdn/c3397992/WielkiNos_dTiY14auZf,q60.jpg)
WielkiNos +242
Nawet patrząc codziennie na instagramowe trendy wyglądu współczesnych kobiet od zawsze uważałam, że taki instagramowy klon nie ma w ogóle podjazdu do naturalnie wyglądającej wersji kobiety.
Ludzkie oko ma o wiele większą rozdzielczość niż aparat. Jak drastycznie musi to wyglądać na żywo?
#logikarozowychpaskow #fagata #looksmaxing #ladnapani #instagram
Ludzkie oko ma o wiele większą rozdzielczość niż aparat. Jak drastycznie musi to wyglądać na żywo?
#logikarozowychpaskow #fagata #looksmaxing #ladnapani #instagram
![WielkiNos - Nawet patrząc codziennie na instagramowe trendy wyglądu współczesnych kob...](https://wykop.pl/cdn/c3201142/ef215240f7571b18a473197f0f5c6efcc1605a11ccc80a0d88c4e3f246049a3b,w150.jpg?author=WielkiNos&auth=d4732655a1371074ce94e51144468384)
źródło: temp_file6757402230735283491
Pobierz
I teraz tak, muszę wyciągnąć i zrzucić do Excela wszystkie rekordy z tabeli A dla których istnieje przynajmniej jedno powiązanie z dowolnym rekordem z tabeli B (~9 mln rekordów, większość prawdopodobnie nie ma żadnego powiązania z A). I muszę zrobić to dla dwóch różnych baz posiadających taką samą strukturę. Wydaje się proste, realizuję to przez SELECT z A z klauzulą EXISTS ale problem jest tak, że o ile dla jednej bazy zapytanie wykonało się w 20 minut to drugie musiałem ubić po 23 godzinach bo i tak okazało się, że dane w B są nieaktualne i trzeba je najpierw odświeżyć.
Chciałbym to zrealizować zrzucając odnalezione rekordy na bieżąco do tabeli, którą bym sobie stworzył. Dzięki temu na bieżąco widziałbym jak to idzie (jak szybko przybywają rekordy), a w razie czego mógłbym to przerwać bez konieczności rozpoczynania wszystkiego od początku.
Problem taki, że nie bardzo wiem jak to zrobić. Jest jakiś sposób żeby zapytanie wykonywało się rekord po rekordzie zamiast wykonywać się w całości przy pierwszym FETCH-u? Czy może lepiej zrobić to skryptem z dwoma kursorami? Pierwszy kursor to by był w pętli SELECT PK FROM A, a drugi przyjmowałby parametr z wartością zwróconą przez pierwszy i w przypadku %FOUND robiłby INSERTA do mojej tabelki i COMMITA. Tylko czy to nie wydłużyłoby całego procesu jeszcze bardziej? Jakieś inne pomysły?
#oracle #plsql #bazydanych #sql
Explain nie jest jakiś strasznie gigantyczny, w najgorszym miejscu jest chyba z 5 mln bajtów. Ja bym bardziej winił tutaj nieaktualne statystyki czyli explain jest z dupy ale to już robota adminów. Właściwie całe zapytanie łączy się poprzez PK -> FK, a każdy FK jest u nas indexowny. Można by pokombinować z hintami żeby wymusić inne połączenie niż HASH JOIN ale przyznam szczerze, że nie jestem w
Po drugie to chyba może lepiej było zacząć od B, a następnie pogrupować (bo masz wyciągnąć A)
Jeżeli ani 1 ani 2 i o ile dobrze zrozumiałem to podziałałbym na C... najpierw pogrupował względem odwołań do A i B i potem wyciągnął z tego A, to powinno
I F zawiera pewnie z kilkadziesiąt milionów rekordów uzbieranych przez kilkanaście
@aaandrzeeey: Faktycznie okazało się to najlepszym rozwiązaniem.