Wytłumaczy mi ktoś o co chodzi z tym HDR w telewizorach i filmach?
Strasznie to promują, a nie wiem zupełnie o co chodzi. Jak mamy zdjęcie HDR, powstaje ono z minimum dwóch-trzech zdjęć o różnych czasach/poziomach naświetlenia.
Jak się ma to do filmów?
Przecież nie można tego powtórzyć w filmach, jeżeli tak to każda klatka która teraz jest naświetlana 1/30 sekundy (+-), będzie naświetlana 1/90 sekundy z pewnym plusem i minusem. Spowoduje to więcej ziarna i gorszą jakość filmów.
Poza tym, zakładając że w jakiś magiczny sposób mamy trzy odczyty z jednego naświetlania(po ~1/40, 1/35, 1/30 od początku) w jaki sposób telewizor może nie obsługiwać takiego "trybu" filmu?
Strasznie to promują, a nie wiem zupełnie o co chodzi. Jak mamy zdjęcie HDR, powstaje ono z minimum dwóch-trzech zdjęć o różnych czasach/poziomach naświetlenia.
Jak się ma to do filmów?
Przecież nie można tego powtórzyć w filmach, jeżeli tak to każda klatka która teraz jest naświetlana 1/30 sekundy (+-), będzie naświetlana 1/90 sekundy z pewnym plusem i minusem. Spowoduje to więcej ziarna i gorszą jakość filmów.
Poza tym, zakładając że w jakiś magiczny sposób mamy trzy odczyty z jednego naświetlania(po ~1/40, 1/35, 1/30 od początku) w jaki sposób telewizor może nie obsługiwać takiego "trybu" filmu?
Zależy mi w sumie na czymś co zmierzy przy zapętlonym filmie, pisaniu dokumentów i przy "symulacji" przeglądania internetu.