Jako kolejny przykład dodałbym do tego przybliżenie na dynamicznie poruszającą się wodę np zbliżenie na wodospad. Najlepiej to widać na tych kanałach psuedo-HD typu Discovery Life. Pikselozę widać wtedy, że aż oczy bolą.
Temat dlaczego obraz się "psuje" wynika nie tylko z małej przepływności bitowej ale faktu, że obecne algorytmy kompresji wideo muszą być efektywne w pewnym zakresie złożoności. Nie ma zasadniczo żadnych ograniczeń, aby skonstruować algorytmy które poradzą sobie z kodowaniem takiego "losowego" ruchu na ekranie. Problem w tym, że enkoder musiałby operować na baaaardzo dużej ilości złożonych informacji i cała "losowość" musiałaby zostać opisana w jakiś sposób - a to rodzi po prostu
@grzegorz-sokol: Hej, przeglądnąłem Twojego bloga i przyznaję, że bardzo ładnie i przystępnie wyjaśnione. Brawo. Jak masz czas to kontynuuj swoje wpisy. Bardzo ciekawa wiedza. Polecam innym.
[...] jakość kompensacji ruchu i jakość kwantyzacji. Co do pierwszego, to kodeki z oszczędności CPU (albo GPU) nie przeprowadzają wyczerpujących poszukiwań najlepszego wektora ruchu dla każdego z bloków.
Jeśli nie mylę pojęć to np. w otwartej implementacji h.264 różnica między potrzebnym czasem CPU dla dwóch
Miałeś może na myśli adaptacyjną kwantyzację wewnątrz klatki
Miałem na myśli te części standardu, które w ogóle nie weszły do powszechnego użytku. Wiadomo, MPEG4 part 2 to stare dobre mpeg4-video, MPEG4 part 3 to AAC, MPEG4 part 10 to h.264 ale cały standard MPEG4 to wielka księga i tam kryją się takie kwiatki jak ten wspomniany przeze mnie VRML czy morphing.
Na tegorocznej Eurowizji było doskonale widać jak szybki ruch i migające światła sprawiają, że kodowanie się nie wyrabia - napisy na ekranie mimo, że statyczne stawały się zupełnie nieczytelne.
Dlatego kopie zapasowe odcinków w HD the walking dead tyle zajmują. Twórcy dodali jakiś filtr który powoduje że obraz jest ziarnisty i algorytmy kompresji nie wyrabiają.
To byłby ciekawy materiał na badania naukowe. Obecnie próbujemy wycisnąć ile się da z kompresji wideo przy dużej przepustowości, a fajnie by było opracować algorytm, który skupia się na tym co ważne, gdy przepustowości brakuje. Zgaduję, że przeżywające renesans sieci neuronowe mogłyby temu podołać - skoro m.in. potrafią zgeneralizować koncepcję stylu artystycznego, to znaczy że są już bardzo zaawansowane w przetwarzaniu obrazu.
Oglądałem ostatnio streamy z archiwizacji gier z NESa na #arhneu. Jak Archon wyciągał kartridże bez wyłączania konsoli a obraz z części podglądu gry szalał to na reszcie ekranu drastycznie spadała jakość.
Komentarze (85)
najlepsze
Komentarz usunięty przez moderatora
Jeśli nie mylę pojęć to np. w otwartej implementacji h.264 różnica między potrzebnym czasem CPU dla dwóch
Miałem na myśli te części standardu, które w ogóle nie weszły do powszechnego użytku.
Wiadomo, MPEG4 part 2 to stare dobre mpeg4-video, MPEG4 part 3 to AAC, MPEG4 part 10 to h.264 ale cały standard MPEG4 to wielka księga i tam kryją się takie kwiatki jak ten wspomniany przeze mnie VRML czy morphing.
Komentarz usunięty przez moderatora
Komentarz usunięty przez moderatora