Do założenia tematu skłoniły mnie opinie co poniektórych ekspertów, m. in. też z polskiego podwórka, którzy z różnych powodów deprecjonują znaczenie formatu Dolby Vision (w skrócie - DV) i ograniczają jego działanie do kwestii dynamicznych metadanych - przy okazji twierdząc, że np. na telewizorach od ok. 1000 nitów nie ma znaczenia czy posiada on wsparcie dla DV, czy też nie.
Nie chcę tutaj za bardzo poruszać kwestii statycznych vs dynamicznych metadanych. Napomknę tylko, że kompletnie nie zgadzam się z takim stawianiem sprawy, że od 1000 nitów dynamiczne metadane są niepotrzebne, a poniżej już tak.
Po pierwsze jest wiele filmów masterowanych na monitorach 4000 nitów, a wśród nich zarówno takie, które w rzeczywistości mają jasność nieprzekraczającą ~200-300 nitów przez większość filmu, jak i prawdziwe armaty świetlne, w których najjaśniejsze obszary obrazu często osiągają jasność ~4-6 tys nitów, a bywa, że i więcej. W obu tych scenariuszach dynamiczne metadane mogą zrobić sporą różnicę vs HDR10. Mogą, ale nie muszą - i nie chodzi tyle o możliwości wyświetlacza co do jego jasności szczytowej, a w dużo większym stopniu o algorytm mapowania tonów zastosowany w wyświetlaczu przez danego producenta. Jeśli tenże algorytm mapowania jest nieefektywny, tak jak np. na telewizorach OLED u pewnego koreańskiego producenta zaczynającego się na literę S i przede wszystkim bierze on pod uwagę parametr MDL (Mastering Display Luminance), który w praktyce nic nie mówi o prawdziwej jasności filmu, to niewiele mu da wysoka jasność szczytowa wyświetlacza. W konsekwencji, na poszczególnych filmach potrafi dać on paradoksalnie znacząco ciemniejszy lub poprzepalany obraz względem nie tylko wzorca, ale też konkurencji mogącej się poszczycić na papierze niższymi parametrami jasności obrazu.
Jednak DV to nie tylko dynamiczne metadane i właśnie na tym aspekcie się skupię.
Dla mało zorientowanych napiszę, że DV na płytach UHD BD występuje w dwóch wariantach:
1. DV MEL (Minimum Enhancement Layer), którego dodatkowa warstwa wnosi wyłącznie dynamiczne metadane. W praktyce obraz jest wciąż w 10 bitowej głębi koloru, tak jak choćby HDR10, z tym, że "silnik" podbija go do 12 bitów. Poniżej skrawek raportu BDInfo z filmu z DV MEL:
2. DV FEL (Full Enhancement Layer), w którym oprócz dynamicznych, otrzymujemy też natywny obraz o 12 bitowej głębi koloru. Poniżej skrawek raportu BDInfo z filmu z DV FEL:
Zauważcie różnice w przepływności dodatkowej warstwy pomiędzy jednym, a drugim wariantem - po tym właśnie najprościej można rozpoznać czy dany film został wydany w DV MEL, czy też DV FEL.
Dobrze, skoro mamy już to ogarnięte, to teraz co ta 12 bitowa głębia koloru w praktyce daje? Odpowiadam więc, że dzięki temu obraz może mieć, ale nie musi, lepsze przejścia tonalne w jakichś problematycznych scenach. Ktoś może mnie zagnie i napisze, że przecież konsumenckie wyświetlacze generalnie mają 10 bitowe panele (czy nawet 8 bitowe), więc co mi tutaj misfit wyskakujesz z jakimiś 12 bitami. Nie ma to większego znaczenia i np. tak jak na 8 bitowym wyświetlaczu mogą być zauważalne lepsze przejścia tonalne z filmów 10 bit, tak samo ma się sytuacja z filmami w 12 bitowej głębi koloru oglądanymi np. na TV z panelami 10 bit. W tym wypadku spore znaczenie ma też procesor i soft - innymi słowy na jakim poziomie prezentuje się obróbka obrazu w wyświetlaczu. Stąd też od jednego producenta różnice w przejściach tonalnych pomiędzy filmami w 8, 10 czy 12 bitowej głębi koloru mogą być mniejsze, a u innego większe.
Dla zobrazowania sytuacji, świetnym przykładem jest choćby film 1917 w wydaniu UK czy USA, gdzie w piątym rozdziale na moim LG OLED C7 w HDR10 co chwilę na niebie widoczne były problemy z przejściami tonalnymi, podczas gdy w DV (FEL) nic takiego nie miało miejsca. Ale już np. na LG OLED C2 (rok produkcji 2022) z włączoną opcją "smooth gradation" różnice pomiędzy HDR10, a DV są dużo mniejsze w tym aspekcie.
Te dodatkowe 10%, 20% czy 30% przepływności w DV FEL potrafi też znacząco poprawić sytuację w ujęciach, które w HDR10 zostały zbytnio skompresowane. Pewnie niewiele osób o tym wie, ale obraz w DV może też otrzymać znacznie wyższą jasność szczytową niż odpowiednik HDR10 znajdujący się na tej samej płycie. Przejdźmy jednak do konkretnych przypadków...
Szeregowiec Ryan (dystrybutor - Paramount Pictures)
DV w dużym stopniu redukuje widoczność problemów z chromą, czyli tzw. kolorowymi blokami obrazu, które raz po raz pojawiają się w strumieniu HDR10. Poniżej link z kilkoma przypadkami:
https://slow.pics/c/vqqWqs3Z
Aby być jednak sprawiedliwym, przyznam, że w tym wypadku, problemy z chromą nie są łatwe do zauważenia w ruchu, a to z powodu tego, że te przebarwienia zwykle pojawiają się w danym ujęciu tylko przez kilka klatek. Także to w jaki sposób film został nakręcony, sprawia, że niedoskonałości obrazu mogą umknąć uwadze.
W HDR10 zdarzają się też ogólne problemy z kompresją obrazu, które przykładowo w piątej minucie filmu są kilka razy zauważalne na niebie w obu moich OLED LG, a w DV pod tym względem jest znacząca poprawa. Na statycznych screenach niespecjalnie jednak widać te różnice, więc musicie mi uwierzyć na słowo.
Kolejna sprawa - różnice w jasności. Strumień HDR10 ma parametr MDL 1000 nitów, podczas gdy DV - 4000 nitów. W filmach od Paramount jest to często spotykana przypadłość - nie pytajcie mnie dlaczego. Poniżej kilka przykładowych kadrów ukazujących, że nie ma tutaj mowy o różnicach tylko na "papierze".
Po lewej heatmapy ze strumienia bazowego, tj. HDR10, a po prawej DV FEL:
![[Obrazek: MEMKDHN_t.jpg]](https://thumbs4.imagebam.com/d0/bc/ad/MEMKDHN_t.jpg)
![[Obrazek: MEMKDHP_t.jpg]](https://thumbs4.imagebam.com/80/d7/5b/MEMKDHP_t.jpg)
![[Obrazek: MEMKDHR_t.jpg]](https://thumbs4.imagebam.com/c9/8e/b8/MEMKDHR_t.jpg)
![[Obrazek: MEMKDHT_t.jpg]](https://thumbs4.imagebam.com/8c/d3/dd/MEMKDHT_t.jpg)
Na koniec całościowy wykres jasności strumienia DV:
![[Obrazek: IR0jJ8n.png]](https://i.imgur.com/IR0jJ8n.png)
A w następnym odcinku zajmę się The Fog (1980) od Studio Canal
Nie chcę tutaj za bardzo poruszać kwestii statycznych vs dynamicznych metadanych. Napomknę tylko, że kompletnie nie zgadzam się z takim stawianiem sprawy, że od 1000 nitów dynamiczne metadane są niepotrzebne, a poniżej już tak.
Po pierwsze jest wiele filmów masterowanych na monitorach 4000 nitów, a wśród nich zarówno takie, które w rzeczywistości mają jasność nieprzekraczającą ~200-300 nitów przez większość filmu, jak i prawdziwe armaty świetlne, w których najjaśniejsze obszary obrazu często osiągają jasność ~4-6 tys nitów, a bywa, że i więcej. W obu tych scenariuszach dynamiczne metadane mogą zrobić sporą różnicę vs HDR10. Mogą, ale nie muszą - i nie chodzi tyle o możliwości wyświetlacza co do jego jasności szczytowej, a w dużo większym stopniu o algorytm mapowania tonów zastosowany w wyświetlaczu przez danego producenta. Jeśli tenże algorytm mapowania jest nieefektywny, tak jak np. na telewizorach OLED u pewnego koreańskiego producenta zaczynającego się na literę S i przede wszystkim bierze on pod uwagę parametr MDL (Mastering Display Luminance), który w praktyce nic nie mówi o prawdziwej jasności filmu, to niewiele mu da wysoka jasność szczytowa wyświetlacza. W konsekwencji, na poszczególnych filmach potrafi dać on paradoksalnie znacząco ciemniejszy lub poprzepalany obraz względem nie tylko wzorca, ale też konkurencji mogącej się poszczycić na papierze niższymi parametrami jasności obrazu.
Jednak DV to nie tylko dynamiczne metadane i właśnie na tym aspekcie się skupię.
Dla mało zorientowanych napiszę, że DV na płytach UHD BD występuje w dwóch wariantach:
1. DV MEL (Minimum Enhancement Layer), którego dodatkowa warstwa wnosi wyłącznie dynamiczne metadane. W praktyce obraz jest wciąż w 10 bitowej głębi koloru, tak jak choćby HDR10, z tym, że "silnik" podbija go do 12 bitów. Poniżej skrawek raportu BDInfo z filmu z DV MEL:
Cytat:MPEG-H HEVC Video 48844 kbps 2160p / 23.976 fps / 16:9 / Main 10 Profile 5.1 High / 4:2:0 / 10 bits / HDR / BT.2020 /
* MPEG-H HEVC Video 66 kbps 1080p / 23.976 fps / 16:9 / Main 10 Profile 5.1 High / 4:2:0 / 10 bits / Dolby Vision / BT.2020 /
2. DV FEL (Full Enhancement Layer), w którym oprócz dynamicznych, otrzymujemy też natywny obraz o 12 bitowej głębi koloru. Poniżej skrawek raportu BDInfo z filmu z DV FEL:
Cytat:MPEG-H HEVC Video 55196 kbps 2160p / 23.976 fps / 16:9 / Main 10 @ Level 5.1 @ High / 10 bits / HDR10 / BT.2020
* MPEG-H HEVC Video 13877 kbps 1080p / 23.976 fps / 16:9 / Main 10 @ Level 5.1 @ High / 10 bits / Dolby Vision / BT.2020
Zauważcie różnice w przepływności dodatkowej warstwy pomiędzy jednym, a drugim wariantem - po tym właśnie najprościej można rozpoznać czy dany film został wydany w DV MEL, czy też DV FEL.
Dobrze, skoro mamy już to ogarnięte, to teraz co ta 12 bitowa głębia koloru w praktyce daje? Odpowiadam więc, że dzięki temu obraz może mieć, ale nie musi, lepsze przejścia tonalne w jakichś problematycznych scenach. Ktoś może mnie zagnie i napisze, że przecież konsumenckie wyświetlacze generalnie mają 10 bitowe panele (czy nawet 8 bitowe), więc co mi tutaj misfit wyskakujesz z jakimiś 12 bitami. Nie ma to większego znaczenia i np. tak jak na 8 bitowym wyświetlaczu mogą być zauważalne lepsze przejścia tonalne z filmów 10 bit, tak samo ma się sytuacja z filmami w 12 bitowej głębi koloru oglądanymi np. na TV z panelami 10 bit. W tym wypadku spore znaczenie ma też procesor i soft - innymi słowy na jakim poziomie prezentuje się obróbka obrazu w wyświetlaczu. Stąd też od jednego producenta różnice w przejściach tonalnych pomiędzy filmami w 8, 10 czy 12 bitowej głębi koloru mogą być mniejsze, a u innego większe.
Dla zobrazowania sytuacji, świetnym przykładem jest choćby film 1917 w wydaniu UK czy USA, gdzie w piątym rozdziale na moim LG OLED C7 w HDR10 co chwilę na niebie widoczne były problemy z przejściami tonalnymi, podczas gdy w DV (FEL) nic takiego nie miało miejsca. Ale już np. na LG OLED C2 (rok produkcji 2022) z włączoną opcją "smooth gradation" różnice pomiędzy HDR10, a DV są dużo mniejsze w tym aspekcie.
Te dodatkowe 10%, 20% czy 30% przepływności w DV FEL potrafi też znacząco poprawić sytuację w ujęciach, które w HDR10 zostały zbytnio skompresowane. Pewnie niewiele osób o tym wie, ale obraz w DV może też otrzymać znacznie wyższą jasność szczytową niż odpowiednik HDR10 znajdujący się na tej samej płycie. Przejdźmy jednak do konkretnych przypadków...
Szeregowiec Ryan (dystrybutor - Paramount Pictures)
DV w dużym stopniu redukuje widoczność problemów z chromą, czyli tzw. kolorowymi blokami obrazu, które raz po raz pojawiają się w strumieniu HDR10. Poniżej link z kilkoma przypadkami:
https://slow.pics/c/vqqWqs3Z
Aby być jednak sprawiedliwym, przyznam, że w tym wypadku, problemy z chromą nie są łatwe do zauważenia w ruchu, a to z powodu tego, że te przebarwienia zwykle pojawiają się w danym ujęciu tylko przez kilka klatek. Także to w jaki sposób film został nakręcony, sprawia, że niedoskonałości obrazu mogą umknąć uwadze.
W HDR10 zdarzają się też ogólne problemy z kompresją obrazu, które przykładowo w piątej minucie filmu są kilka razy zauważalne na niebie w obu moich OLED LG, a w DV pod tym względem jest znacząca poprawa. Na statycznych screenach niespecjalnie jednak widać te różnice, więc musicie mi uwierzyć na słowo.
Kolejna sprawa - różnice w jasności. Strumień HDR10 ma parametr MDL 1000 nitów, podczas gdy DV - 4000 nitów. W filmach od Paramount jest to często spotykana przypadłość - nie pytajcie mnie dlaczego. Poniżej kilka przykładowych kadrów ukazujących, że nie ma tutaj mowy o różnicach tylko na "papierze".
Po lewej heatmapy ze strumienia bazowego, tj. HDR10, a po prawej DV FEL:
Na koniec całościowy wykres jasności strumienia DV:
![[Obrazek: IR0jJ8n.png]](https://i.imgur.com/IR0jJ8n.png)
A w następnym odcinku zajmę się The Fog (1980) od Studio Canal
