Daras muszę interweniować, bo djgromo sprzedaje Ci trochę za dużo teorii i prezentuje błędny obraz tego czym jest HDR.
W szerokiej rozpiętości tonalnej nie chodzi o ilość nitów. To kwestia czysto marketingowa podkreślana wyłącznie na potrzeby lepszej sprzedaży TV i sprowadzająca HDR do takiego trochę prymitywnego wabika dla Januszy; trochę mnie to nie dziwi, bo rzetelne wytłumaczenie przeciętnemu odbiorcy o co z tym HDRem chodzi nie jest takie proste, z drugiej strony jak poczytamy sobie opinie ludzi na forach wychodzą tego konsekwencje: a co ten obraz taki ciemny? Ale jak to? Przecież wersja Blu-ray jest jaśniejsza!
Przyczyny tego są dwie - w trybie SDR ludzie oglądają na nieprawidłowych ustawieniach (podświetlenie na maks co daje te 300-400 nitów zamiast 100) przez co w przypadku HDR konfrontowani są z obrazem ciemniejszym, bo prawidłowo odwzorowującym dolne jasności w filmie (w przeciętnej scenie nie ma wiele więcej ponad 100-200 nitów), albo mają po prostu kiepskie telewizory, a tutaj problemów może być tyle i mogą się tak na siebie nakładać, że zamiast lepszego obrazu faktycznie zobaczysz gorszy, bardziej wyprany, w skrajnych przypadkach ciemny na granicy oglądalności.
Wracając jednak do sedna: w HDR nie chodzi o ilość nitów i wspomniany Alita: Battle Angel jest tego doskonałym przykładem. Po pierwsze - teoretycznie rozpiętość tonalna nie jest imponująca, to prawda, ale w porównaniu do SDR rzeczywiście dostajemy więcej detali w najjaśniejszych partiach obrazu, po drugie - w HDR / Dolby Vision mamy zupełnie inną charakterystykę gammy. Teoretycznie Alita nie oferuje wiele ponad SDR, w rzeczywistości dostajemy obraz o przepięknym kontraście, głębii i plastyce - porównywałem (przypominam, że mam OLEDa) te same ujęcia na Blu-ray i UHD i różnica jest dramatyczna, a np. nocne ujęcie ulicy z wieloma źródłami światła, neonami itp. wygląda genialnie - OLED z jednej strony utrzymuje konkretne partie kadru w idealnej, niezakłóconej niczym ciemności (nie mylić z pełną czernią), z drugiej dzięki sąsiedztwie z cieniami właśnie źródła światła wydają się o wiele jaśniejsze niż są w teorii.
Inną kwestią są bardzo duże jasności szczytowe, które w niektórych przypadkach są niczym innym jak swego rodzaju, hmm, oszustwem. Film The Meg od Warnera co chwila atakuje jasnościami na poziomie 3000-4000 nitów albo i więcej, a w rzeczywistości wersja HDR / Dolby Vision wcale nie oferuje więcej detali niż Blu-ray. Oczywiście to w HDR film ten będzie wyglądać lepiej, wspomniana gamma, kolory i sam HDR zrobią swoje (zostawmy na razie kwestię mapowania tonów), ale nie ma absolutnie żadnego powodu, by aż tak sztucznie "rozciągać" film pod tym względem. Niestety w tym momencie moja wiedza się wyczerpuje i nie wiem jak to jest, że w jednym przypadku wersja SDR ma mnóstwo przepaleń w bielach i ucięte powyżej pewnego poziomu jasności detale które HDR odzyskuje, a w innym w SDR widać już wszystkie zarejestrowane detale. Trzeba by się zagłębić mocniej w kwestię masteringu.
Inna sprawa: to mit że 12-bitowe kodowanie kolorów w Dolby Vision nie ma sensu na telewizorach z 10-bitowymi matrycami, nic bardziej mylnego i na własne oczy przekonałem się jakie są tego korzyści - brak posteryzacji / bandingu i gładziutkie przejścia tonalne. Porównywałem Blade Runnera 2049 w HDR10 (na płycie UHD) i Dolby Vision (na iTunes) i abstrahując od samej jakości obrazu i ostrości, to wersja Dolby Vision wygląda lepiej. (Tutaj też sama gamma wypada o wiele lepiej niż na płycie) Pod koniec filmu jest scena w której Deckard i K wydostają się na brzeg - w HDR10 światła pojazdu powodują poświatę, która niezbyt ładnie odcina się od reszty kadru, podczas gdy w Dolby Vision przejścia tonalne w tym ujęciu są idealne.
Ilości nitów w specyfikacji TV nie zobaczysz, chyba że u Samsunga. Mój poprzedni LCD z podświetleniem krawędziowym (skutki tego w HDR byly katasteofalne, nawet jeśli filmy na UHD wielokrotnie mnie na nim zachwycały) miał symbol HDR1000 co oznaczało że TV potrafi osiągnąć 1000 nitów. Oczywiście tego że telewizor potrafi utrzymać tę wartość zaledwie przez kilka sekund i w trakcie oglądania filmu da się zauważyć bardzo wyraźne pulsowanie podświetlenia już nie podają. Na OLEDzie, przynajmniej moim, żadne tego typu rzeczy nie mają miejsca.
W szerokiej rozpiętości tonalnej nie chodzi o ilość nitów. To kwestia czysto marketingowa podkreślana wyłącznie na potrzeby lepszej sprzedaży TV i sprowadzająca HDR do takiego trochę prymitywnego wabika dla Januszy; trochę mnie to nie dziwi, bo rzetelne wytłumaczenie przeciętnemu odbiorcy o co z tym HDRem chodzi nie jest takie proste, z drugiej strony jak poczytamy sobie opinie ludzi na forach wychodzą tego konsekwencje: a co ten obraz taki ciemny? Ale jak to? Przecież wersja Blu-ray jest jaśniejsza!
Przyczyny tego są dwie - w trybie SDR ludzie oglądają na nieprawidłowych ustawieniach (podświetlenie na maks co daje te 300-400 nitów zamiast 100) przez co w przypadku HDR konfrontowani są z obrazem ciemniejszym, bo prawidłowo odwzorowującym dolne jasności w filmie (w przeciętnej scenie nie ma wiele więcej ponad 100-200 nitów), albo mają po prostu kiepskie telewizory, a tutaj problemów może być tyle i mogą się tak na siebie nakładać, że zamiast lepszego obrazu faktycznie zobaczysz gorszy, bardziej wyprany, w skrajnych przypadkach ciemny na granicy oglądalności.
Wracając jednak do sedna: w HDR nie chodzi o ilość nitów i wspomniany Alita: Battle Angel jest tego doskonałym przykładem. Po pierwsze - teoretycznie rozpiętość tonalna nie jest imponująca, to prawda, ale w porównaniu do SDR rzeczywiście dostajemy więcej detali w najjaśniejszych partiach obrazu, po drugie - w HDR / Dolby Vision mamy zupełnie inną charakterystykę gammy. Teoretycznie Alita nie oferuje wiele ponad SDR, w rzeczywistości dostajemy obraz o przepięknym kontraście, głębii i plastyce - porównywałem (przypominam, że mam OLEDa) te same ujęcia na Blu-ray i UHD i różnica jest dramatyczna, a np. nocne ujęcie ulicy z wieloma źródłami światła, neonami itp. wygląda genialnie - OLED z jednej strony utrzymuje konkretne partie kadru w idealnej, niezakłóconej niczym ciemności (nie mylić z pełną czernią), z drugiej dzięki sąsiedztwie z cieniami właśnie źródła światła wydają się o wiele jaśniejsze niż są w teorii.
Inną kwestią są bardzo duże jasności szczytowe, które w niektórych przypadkach są niczym innym jak swego rodzaju, hmm, oszustwem. Film The Meg od Warnera co chwila atakuje jasnościami na poziomie 3000-4000 nitów albo i więcej, a w rzeczywistości wersja HDR / Dolby Vision wcale nie oferuje więcej detali niż Blu-ray. Oczywiście to w HDR film ten będzie wyglądać lepiej, wspomniana gamma, kolory i sam HDR zrobią swoje (zostawmy na razie kwestię mapowania tonów), ale nie ma absolutnie żadnego powodu, by aż tak sztucznie "rozciągać" film pod tym względem. Niestety w tym momencie moja wiedza się wyczerpuje i nie wiem jak to jest, że w jednym przypadku wersja SDR ma mnóstwo przepaleń w bielach i ucięte powyżej pewnego poziomu jasności detale które HDR odzyskuje, a w innym w SDR widać już wszystkie zarejestrowane detale. Trzeba by się zagłębić mocniej w kwestię masteringu.
Inna sprawa: to mit że 12-bitowe kodowanie kolorów w Dolby Vision nie ma sensu na telewizorach z 10-bitowymi matrycami, nic bardziej mylnego i na własne oczy przekonałem się jakie są tego korzyści - brak posteryzacji / bandingu i gładziutkie przejścia tonalne. Porównywałem Blade Runnera 2049 w HDR10 (na płycie UHD) i Dolby Vision (na iTunes) i abstrahując od samej jakości obrazu i ostrości, to wersja Dolby Vision wygląda lepiej. (Tutaj też sama gamma wypada o wiele lepiej niż na płycie) Pod koniec filmu jest scena w której Deckard i K wydostają się na brzeg - w HDR10 światła pojazdu powodują poświatę, która niezbyt ładnie odcina się od reszty kadru, podczas gdy w Dolby Vision przejścia tonalne w tym ujęciu są idealne.
Ilości nitów w specyfikacji TV nie zobaczysz, chyba że u Samsunga. Mój poprzedni LCD z podświetleniem krawędziowym (skutki tego w HDR byly katasteofalne, nawet jeśli filmy na UHD wielokrotnie mnie na nim zachwycały) miał symbol HDR1000 co oznaczało że TV potrafi osiągnąć 1000 nitów. Oczywiście tego że telewizor potrafi utrzymać tę wartość zaledwie przez kilka sekund i w trakcie oglądania filmu da się zauważyć bardzo wyraźne pulsowanie podświetlenia już nie podają. Na OLEDzie, przynajmniej moim, żadne tego typu rzeczy nie mają miejsca.
(22-08-2019, 21:27)djgromo napisał(a):Sony ze swoim beznadziejnym, agresywnym ABLem i ciemnicą w Dolby Vision odpada.(22-08-2019, 20:28)Uatu_TheWatcher napisał(a): Byłbym wdzięczny za jakąś podpowiedź z waszej strony forumowicze. W grę wchodzi tylko i wyłącznie przekątna 65 cali.Z tych TV zastanawiałbym się między Sony, a LG. Sony ma lepszą płynność obrazu (lepszy processing), a LG znacznie lepszy system operacyjny i wygodniejszy pilot. Osobiście wziąłbym LG bo nie znoszę Android TV.
LG OLED 65" B8
Panasonic DP-UB820
Sony HT-ZF9
Apple TV 4K
Panasonic DP-UB820
Sony HT-ZF9
Apple TV 4K