Filmozercy.com | Forum

Pełna wersja: Jaki telewizor wybrać? - Pytania i porady
Aktualnie przeglądasz uproszczoną wersję forum. Kliknij tutaj, by zobaczyć wersję z pełnym formatowaniem.
Polecam finał Aliena z mrugającymi światłami, mnie wczoraj bolały oczy Smile
Djgromo, generalnie takiej odpowiedzi oczekiwałem. Pasuje mi ona do teorii szkoły fotografii klasycznej, którą poznałem w latach 80 – tych na poziomie zawodowym. Pracując na tradycyjnych materiałach światłoczułych można było wyczarować prawie wszystko. Przykładowo, spece znający właściwości klisz / papierów (operując poziomami gradacji) bawili się w twórczość zwaną kiedyś Black in Black, czy White in White. Oczywiście termin HDR był mi obcy, ale właśnie tak dziś określiłbym potencjał tkwiący w profesjonalnej ciemni fotograficznej. Cool

Sprostuj jeśli coś nie tak rozumiem. Możliwości HDR widzę obecnie jakby dwupoziomowo:
1. Możliwość ujrzenia szerokiej palety barw na wyświetlaczach LED.
2. Zaleta podana w punkcie pierwszym plus „doskonały” kontrast dzięki wyświetlaczom OLED.

Czy powyższe ująłem poprawnie?

Napisz / napiszcie coś więcej o nitach. Czy takie dane podawane są w specyfikacji sprzętu? Jak można to zmierzyć? A może wartości wyrażone w nitach zdefiniowano jakoś w różnych wyświetlaczach (LCD, LED, OLED itp.)?

Uatu_TheWatcher

W październiku tego roku kupuję telewizor z matrycą OLED, o przekątnej 65 cali. Zastanawiam się nad dwoma, góra trzema modelami, dlatego proszę o poradę, który z nich mógłby być odpowiedni zarówno do grania na Ps4, oglądania filmów 4K i Blu-Ray na odtwarzaczu do tego dostosowanym, i w ogóle do cieszenia się każdą sekundą z doświadczania właściwości takiego telewizora: przykładowo kopiuję film na pendrive'a i wiem, że nawet zwykłe SD, czy HD będzie na odbiorniku OLED ,,przeskalowane" do nieziemskiej jakości; miałem telewizor LG 4K i wiem, że na takim sprzęcie odtwarzanie czegokolwiek o przeciętnym rozmiarze i jakości jest o dżylion dżylionów lepsze i wydatniejsze niż odtwarzanie takiego materiału na laptopie, czy zwykłym ,,fullhadeku". Oto typy telewizorów OLED 65 cali, które planuję kupić, i korzystając z okazji dodam, że nic innego oprócz poniższych przykładów, na ten moment nie rozważałem:

1) SONY BRAVIA OLED KD-65AF8

https://www.ceneo.pl/61665791#

2) PHILIPS 65OLED903 lub model z 2018 roku PHILIPS 65OLED803

https://www.ceneo.pl/69790397#

https://www.ceneo.pl/59276660

W przypadku zestawienia Philipsa kusi model tegoroczny, "903 OLED +". Ma najlepszy, bardzo wyraźny, ultra dokładny i głęboki dźwięk od "Bowers & Wilkins"!!!  Big Grin

3) LG OLED 65 C8

https://www.ceneo.pl/61270950

Byłbym wdzięczny za jakąś podpowiedź z waszej strony forumowicze. W grę wchodzi tylko i wyłącznie przekątna 65 cali.
(22-08-2019, 20:20)Daras napisał(a): [ -> ]Napisz / napiszcie coś więcej o nitach.

Jeśli weźmiemy pod uwagę górną półkę telewizorów LCD i Oled to ogólnie można stwierdzić:

* LCD mogą uzyskać wyższą szczytową jasność w trybie HDR (często ponad 1000 nitów), Oledy najczęściej zatrzymują się na 700 nitach lub mniej.
* zarówno Oledy i LCD mogą mieć bardzo dobre pokrycie palety barw i dobre odwzorowanie kolorów.
* Oledy mają fantastyczny kontrast (często określany jako nieskończoność:1), LCD ponieważ wymagają podświetlenia pod matrycą nie są w stanie osiągnąć idealnej czerni (czyli kontrast dla nich jest kilka rzędów wielkości mniejszy). Czasem pomaga zastosowanie podświetlenia strefowego, które wygasza podświetlenie pod fragmentami matrycy prezentującymi ciemny obraz.
* Oledy mają bardzo dobre kąty patrzenia, LCD najczęściej bardzo bledną jeśli patrzymy na nie pod kątem.
* Oledy mają mocno błyszczące matryce (stosują na nich filtry antyodblaskowe), łatwiej jest znaleźć LCD który mniej odbija światło.


Jasność matryc w HDR to temat rzeka. W bardzo dużym skrócie... W telewizorach stosuje się Automatic Brightness Limiter, który mierzy pobór prądu przez matrycę i przy wysokim poziomie jasności sceny ogranicza sztucznie jasność matrycy. Czyli ogólnie im ciemniejsza scena w filmie to fragmenty obrazu mogą się rozświetlić jaśniej. Na przykład jeśli jest scena w ciemnej piwnicy z jedną zapaloną świecą to telewizor będzie mógł rozświetlić płomień świecy jaśniej niż np. dla sceny w szpitalu gdzie dominuje jasny kolor w całym kadrze. Tam taka świeca będzie najczęściej świeciła trochę ciemniej. Ponieważ występuje taka zależność to umówiono się, że pomiary jasności TV w HDR dokonuje się dla specjalnej planszy testowej o nazwie L20. Jest to biały prostokąt na czarnym ekranie. Jego wielkość jest odgórnie narzucona.

[Obrazek: windowl20.png]

Dla Oledów ten pomiar wynosi najczęściej ok 700 nitów, ale jak wspomniałem wcześniej im jaśniejsza scena tym jej szczytowa wartość maleje. Dane te najczęściej nie są podawane w specyfikacji, jeśli są to często nie są mierzone dla planszy L20 czyli nie mówią nam nic. Pozostaje czytanie testów i porównywanie pomiarów w nich zrobionych. Tutaj zachowanie krzywej jasności dla trybu SDR na podstawie parametru APL sceny. Ten APL to taka średnia jakby policzyć jasność wszystkich pikseli w kadrze, a potem przerobić je na taki procent białych pikseli żeby średnia jasność sceny była zachowana. Ten APL to właśnie procent.

[Obrazek: apl-c9-1.png]

[Obrazek: LemfljJ.jpg]



Filmy HDR obecnie najczęściej są masterowane dla 1000 nitów lub 4000 nitów. Czyli najjaśniejszy punkt zakodowany w filmie może mieć którąś z tych wartości (lub mniej). Standard HDR i Dolby Vision wspierają maksymalnie jasność 10000 nitów. Obecnie nie ma tak jasnych matryc na rynku cywilnym, żeby to wykorzystać. I teraz cała sztuka polega na tym żeby TV ze słabszą (ciemniejszą matrycą) poprawnie zmapował jasności dla scen które są jaśniejsze niż możliwości danego TV. Niektóre marki stosują opcje dostosowujące jasność sceny żeby zachować dla nich jak najwięcej detali w światłach. Niektóre odtwarzacze (Panasonic) mają na pokładzie HDR Optimizer, który dostosowuje taki sygnał niezależnie od TV. Zdarzają się też filmy ze słabym HDR gdzie transfer nie robi się jaśniejszy niż np 200 nitów czyli bida z nędzą. Wtedy jakość matrycy (maksymalna jasność) nie jest w pełni wykorzystana i nie ma większego znaczenia jak jasną mamy matrycę na pokładzie. Zarówno topowe LCD i Oledy mają matryce 10-bitowe. Telewizory SDR miały matryce 8-bitowe. 8 bitów to 256 odcieni każdej z trzech kolorów składowych. Dla 10 bitów jest to już 1024 poziomy. Pomijając już nawet szeroką paletę barw liczba płynnych przejść między kolorami w matrycy 10-bitowej jest nieporównanie lepsza. Standard Dolby Vision (wspierany przez Oledy) wpiera kodowanie kolorów w 12 bitach. Takich matryc nie ma na rynku, ale posiadając już teraz film w Dolby Vision powinniśmy odczuć jeszcze przeskok jakości po odpaleniu go na 12-bitowej matrycy w porównaniu z 10-bitową.

Zdjęcia są z portalu HDTVPolska.

(22-08-2019, 20:28)Uatu_TheWatcher napisał(a): [ -> ]Byłbym wdzięczny za jakąś podpowiedź z waszej strony forumowicze. W grę wchodzi tylko i wyłącznie przekątna 65 cali.
Z tych TV zastanawiałbym się między Sony, a LG. Sony ma lepszą płynność obrazu (lepszy processing), a LG znacznie lepszy system operacyjny i wygodniejszy pilot. Osobiście wziąłbym LG bo nie znoszę Android TV.
Jesteś dobry, Djgromo. Potrafisz wyjaśnić sprawy złożone w sposób cierpliwy oraz przystępny (przynajmniej ja wszystko kumam). Zdobywając kilkadziesiąt lat temu państwowy dokument uprawniający do wykonywania zawodu musiałem zaliczyć gros wykładów i egzaminów. Tylko jeden prelegent potrafił opowiadać o sztuce fotografowania z nieudawaną pasją. Śmiało napiszę, że bardzo mi go przypominasz. Zatem nie pytaj kto dał Ci przed chwilą punkcik reputacyjny. Wink

Gwoli uczciwości przypomnę, że posiadam (jedynie) setki płyt BD. Choćby z tego powodu pełną przesiadkę na UHD uważam za problematyczną. Niemniej po wakacjach kupię swój pierwszy odtwarzacz 4K. Dyskusję na ten temat odbyłem w innym miejscu.

Jeśli nie jesteś jeszcze wykładowcą w jakiejś szkole technicznej, to pomyśl o zmianie profesji. Smile Wiem co piszę.

P.S.
No nic. Mam jeszcze trochę wolnego i zaraz odpalę swoje domowe kino. Pozostałym filmożercom mówię dobranoc. Sleepy
Daras muszę interweniować, bo djgromo sprzedaje Ci trochę za dużo teorii i prezentuje błędny obraz tego czym jest HDR.

W szerokiej rozpiętości tonalnej nie chodzi o ilość nitów. To kwestia czysto marketingowa podkreślana wyłącznie na potrzeby lepszej sprzedaży TV i sprowadzająca HDR do takiego trochę prymitywnego wabika dla Januszy; trochę mnie to nie dziwi, bo rzetelne wytłumaczenie przeciętnemu odbiorcy o co z tym HDRem chodzi nie jest takie proste, z drugiej strony jak poczytamy sobie opinie ludzi na forach wychodzą tego konsekwencje: a co ten obraz taki ciemny? Ale jak to? Przecież wersja Blu-ray jest jaśniejsza!

Przyczyny tego są dwie - w trybie SDR ludzie oglądają na nieprawidłowych ustawieniach (podświetlenie na maks co daje te 300-400 nitów zamiast 100) przez co w przypadku HDR konfrontowani są z obrazem ciemniejszym, bo prawidłowo odwzorowującym dolne jasności w filmie (w przeciętnej scenie nie ma wiele więcej ponad 100-200 nitów), albo mają po prostu kiepskie telewizory, a tutaj problemów może być tyle i mogą się tak na siebie nakładać, że zamiast lepszego obrazu faktycznie zobaczysz gorszy, bardziej wyprany, w skrajnych przypadkach ciemny na granicy oglądalności.

Wracając jednak do sedna: w HDR nie chodzi o ilość nitów i wspomniany Alita: Battle Angel jest tego doskonałym przykładem. Po pierwsze - teoretycznie rozpiętość tonalna nie jest imponująca, to prawda, ale w porównaniu do SDR rzeczywiście dostajemy więcej detali w najjaśniejszych partiach obrazu, po drugie - w HDR / Dolby Vision mamy zupełnie inną charakterystykę gammy. Teoretycznie Alita nie oferuje wiele ponad SDR, w rzeczywistości dostajemy obraz o przepięknym kontraście, głębii i plastyce - porównywałem (przypominam, że mam OLEDa) te same ujęcia na Blu-ray i UHD i różnica jest dramatyczna, a np. nocne ujęcie ulicy z wieloma źródłami światła, neonami itp. wygląda genialnie - OLED z jednej strony utrzymuje konkretne partie kadru w idealnej, niezakłóconej niczym ciemności (nie mylić z pełną czernią), z drugiej dzięki sąsiedztwie z cieniami właśnie źródła światła wydają się o wiele jaśniejsze niż są w teorii.

Inną kwestią są bardzo duże jasności szczytowe, które w niektórych przypadkach są niczym innym jak swego rodzaju, hmm, oszustwem. Film The Meg od Warnera co chwila atakuje jasnościami na poziomie 3000-4000 nitów albo i więcej, a w rzeczywistości wersja HDR / Dolby Vision wcale nie oferuje więcej detali niż Blu-ray. Oczywiście to w HDR film ten będzie wyglądać lepiej, wspomniana gamma, kolory i sam HDR zrobią swoje (zostawmy na razie kwestię mapowania tonów), ale nie ma absolutnie żadnego powodu, by aż tak sztucznie "rozciągać" film pod tym względem. Niestety w tym momencie moja wiedza się wyczerpuje i nie wiem jak to jest, że w jednym przypadku wersja SDR ma mnóstwo przepaleń w bielach i ucięte powyżej pewnego poziomu jasności detale które HDR odzyskuje, a w innym w SDR widać już wszystkie zarejestrowane detale. Trzeba by się zagłębić mocniej w kwestię masteringu.

Inna sprawa: to mit że 12-bitowe kodowanie kolorów w Dolby Vision nie ma sensu na telewizorach z 10-bitowymi matrycami, nic bardziej mylnego i na własne oczy przekonałem się jakie są tego korzyści - brak posteryzacji / bandingu i gładziutkie przejścia tonalne. Porównywałem Blade Runnera 2049 w HDR10 (na płycie UHD) i Dolby Vision (na iTunes) i abstrahując od samej jakości obrazu i ostrości, to wersja Dolby Vision wygląda lepiej. (Tutaj też sama gamma wypada o wiele lepiej niż na płycie) Pod koniec filmu jest scena w której Deckard i K wydostają się na brzeg - w HDR10 światła pojazdu powodują poświatę, która niezbyt ładnie odcina się od reszty kadru, podczas gdy w Dolby Vision przejścia tonalne w tym ujęciu są idealne.

Ilości nitów w specyfikacji TV nie zobaczysz, chyba że u Samsunga. Mój poprzedni LCD z podświetleniem krawędziowym (skutki tego w HDR byly katasteofalne, nawet jeśli filmy na UHD wielokrotnie mnie na nim zachwycały) miał symbol HDR1000 co oznaczało że TV potrafi osiągnąć 1000 nitów. Oczywiście tego że telewizor potrafi utrzymać tę wartość zaledwie przez kilka sekund i w trakcie oglądania filmu da się zauważyć bardzo wyraźne pulsowanie podświetlenia już nie podają. Na OLEDzie, przynajmniej moim, żadne tego typu rzeczy nie mają miejsca.

(22-08-2019, 21:27)djgromo napisał(a): [ -> ]
(22-08-2019, 20:28)Uatu_TheWatcher napisał(a): [ -> ]Byłbym wdzięczny za jakąś podpowiedź z waszej strony forumowicze. W grę wchodzi tylko i wyłącznie przekątna 65 cali.
Z tych TV zastanawiałbym się między Sony, a LG. Sony ma lepszą płynność obrazu (lepszy processing), a LG znacznie lepszy system operacyjny i wygodniejszy pilot. Osobiście wziąłbym LG bo nie znoszę Android TV.
Sony ze swoim beznadziejnym, agresywnym ABLem i ciemnicą w Dolby Vision odpada.
(22-08-2019, 20:28)Uatu_TheWatcher napisał(a): [ -> ]Byłbym wdzięczny za jakąś podpowiedź z waszej strony forumowicze.
Typ jest jeden - C8. Resztą kandydatów nie warto sobie zawracać głowy. Generalnie kupowanie oleda innego niż LG albo Panasonic jest ciężkie do uzasadnienia. Jeśli jednak chcesz czekać z zakupem do października, to może się okazać, że do tego czasu o C8 pozostanie już tylko wspomnienie...

(23-08-2019, 00:20)Mierzwiak napisał(a): [ -> ]w HDR nie chodzi o ilość nitów
Nie ulega jednak wątpliwości, że ma to fundamentalne znaczenie dla ogólnego odbioru tego formatu. Bo czy HDR na oledzie byłby tak samo zachwycający, gdyby ten nie przekraczał powiedzmy 500 nitów?
(23-08-2019, 01:34)Mr.Hankey napisał(a): [ -> ]Bo czy HDR na oledzie byłby tak samo zachwycający, gdyby ten nie przekraczał powiedzmy 500 nitów?
A co napisałem o Alicie? Ten film jak i wspomniany Blade Runner 2049 jasno (hehe) pokazują, że ilość nitów to tylko liczba bez większego znaczenia dla faktycznego wyglądu filmu i jego rozpiętości tonalnej. (choć w Alicie faktycznie niektóre detale, jak billboard w scenie pocałunku, są ucięte, ale już w BR2049 niczego nie brakuje)
Twój fragment wypowiedzi poniekąd wyjaśnia moją (teoretyczną) wątpliwość. Przypomnę o co pytałem:

(21-08-2019, 13:53)Daras napisał(a): [ -> ]1. Jak rozumieć dążenie do odwzorowania pełnej czerni skoro jednocześnie zależy nam na ujrzeniu szczegółów w ciemnych partiach obrazu (pytanie dotyczy jednego kadru)? Inaczej – czy czerń (np. kawałka węgla) powinna być smolista także wówczas gdy obok niej widać będzie ważne dla fabuły detale (np. w scenie nocnej)?

(23-08-2019, 00:20)Mierzwiak napisał(a): [ -> ]Teoretycznie Alita nie oferuje wiele ponad SDR, w rzeczywistości dostajemy obraz o przepięknym kontraście, głębii i plastyce - porównywałem (przypominam, że mam OLEDa) te same ujęcia na Blu-ray i UHD i różnica jest dramatyczna, a np. nocne ujęcie ulicy z wieloma źródłami światła, neonami itp. wygląda genialnie - OLED z jednej strony utrzymuje konkretne partie kadru w idealnej, niezakłóconej niczym ciemności (nie mylić z pełną czernią), z drugiej dzięki sąsiedztwie z cieniami właśnie źródła światła wydają się o wiele jaśniejsze niż są w teorii.

Inna sprawa:

(23-08-2019, 00:20)Mierzwiak napisał(a): [ -> ]Inna sprawa: to mit że 12-bitowe kodowanie kolorów w Dolby Vision nie ma sensu na telewizorach z 10-bitowymi matrycami, nic bardziej mylnego i na własne oczy przekonałem się jakie są tego korzyści - brak posteryzacji / bandingu i gładziutkie przejścia tonalne.

To ciekawe. Właśnie w tej kwestii spodziewałem się korzyści wynikających z konwersji w dół. Nie mam jednak odpowiedniego wyświetlacza i przyjmuję do wiadomości Twoje uwagi.
Daras pytał głównie o kwestię nitów (jasności) w temacie HDR. Na tym się skupiłem. HDR to dla mnie głównie lepsze kolory, a wyższe jasności to dodatek.

Z tym Dolby Vision kontra HDR (przejścia tonalne) to oczywiście zgoda. Podobnie obraz 4K skalowany w dół do FullHD będzie często lepszy niż natywny FullHD. Tu mi chodziło o to, że przy prawdziwej matrycy 12 bitowej ta różnica powinna być jeszcze bardziej odczuwalna.