(23-07-2022, 19:49)misfit napisał(a): Czyli brak dynamicznego mapowania tonów czy DV (w wyświetlaczach Sony i tak niewiele by to zmieniło, bo implementacja DV przez lata była zwalona w telewizorach tej firmy). Więc wszystko się rozchodzi o jakość algorytmu mapowania tonów dla statycznego HDR10. Wystarczy, że wyświetlacz podczas mapowania tonów nie bierze głównie pod uwagę wartości MaxCLL (która i tak często jest podawana z czapy), lecz to że film był masterowany na monitorku 4000 nit (m.in. Hobbity) i kłopoty gotowe. Nie wiem jak pod tym względem ma się ten Twój konkretny model, ale nie raz i nie dwa wychodziło, że u jednych osób w HDR10 4000 nit ABL jest sporo ciemniejszy niż na BD, u innych podobny, a u jeszcze innych - jaśniejszy (pozdrowienia dla Samsunga).
TV Sony jak najbardziej wspiera Dolby Vision, min. Netflix, Disney+, gry na PS5,itp to odtwarzacz Samsunga wspiera tylko HDR10. Ten model jako pierwszy na rynku nie wspiera ani Dolby Vision, ani Dolby Atmos.
Cytat:Sony XE93 wyposażono w procesor X1 Extreme, co zapewnia obsługę HDR w standardzie Dolby Vision.
Źródło: https://hdtvpolska.com/sony-xe93-test-kd-55xe9305-najwyzszy-model-led-lcd-4k-hdr-od-sony-z-dolby-vision/?showfull=1
(23-07-2022, 20:22)Gieferg napisał(a): Oczywiście, że były. A wcześniej już też wyglądały kiepsko, szczególnie B5A nawet w kinie waliła po oczach tragicznymi filtrami. Jak się ogląda dodatki, widac jak to zarżnęli. Np. Appendices 11, gdzieś tak 1:32:20 (i potem kilka razy) - surowy materiał wygląda zdecydowanie ładniej, niż to co mamy na filmie. Kręcili wiele scen w pięknych lokacjach, a potem tak obsrali to filtrami, że wygląda jak filmowane na greenscreenie. Nawet te byle nagrania z planu nad jeziorem Pukaki są ładniejsze niż sam film.
A najlepiej wyglądający Hobbit to chyba fanedit M4.
To nie jest czasami głównie wina tego, że Jackson uparł się w owym czasie na 3D? Do tego, więcej niż 24 kl/s, czego na szczęście w wydaniach płytowych nie ma. Niemniej, sama technologia 3D mocno wpłynęła na kolorystykę filmu i jego ogólny wygląd.