30-12-2022, 09:21
To nie są tylko cyferki - jasność 100 czy 150 nitów w HDR oznacza ni mniej ni więcej, że wyświetlacz potrafi przyjąć sygnał HDR i go zmapować (lepiej lub gorzej) do granic SDR. Wciąż w takim przypadku mogą być widoczne korzyści w stosunku do BD SDR (coś o tym wiem bo na co dzień bawię się z madVR na monitorze SDR), ale trzeba mieć jednocześnie świadomość tego, że nawet na projektorze z zajebistym tone mappingiem (DMT i te sprawy) nie osiągnie się takiej rozpiętości tonalnej jak na telewizorze o wielokrotnie większej jasności. Jest to po prostu niemożliwe - nie da się wcisnąć 1000 nitów (i więcej) do 100-200 bez strat i kompromisów. Stąd też jeśli widzę recenzję 4K UHD od kogoś kto jedzie na projektorze to z automatu zaprzestaję jej czytania
Z kolei kontrast jest jednym z najważniejszych parametrów decydujących o atrakcyjności obrazu, stąd też wyświetlacze z wyższym kontrastem kosztują więcej. W tej kwestii w 99% projektorów to jest przepaść w stosunku do tego co oferuje OLED. Poza tym żenujące dla mnie jest to, że mój 16 letni Epson oferuje niewiele gorszy kontrast co tegoroczny laserowy flagowiec Epsona za ponad 20 tysi i który wciąż nie jest w natywnym 4K. Epson mógłby sobie w końcu dać spokój z technologią 3LCD, przynajmniej w wyższych modelach...
Z kolei kontrast jest jednym z najważniejszych parametrów decydujących o atrakcyjności obrazu, stąd też wyświetlacze z wyższym kontrastem kosztują więcej. W tej kwestii w 99% projektorów to jest przepaść w stosunku do tego co oferuje OLED. Poza tym żenujące dla mnie jest to, że mój 16 letni Epson oferuje niewiele gorszy kontrast co tegoroczny laserowy flagowiec Epsona za ponad 20 tysi i który wciąż nie jest w natywnym 4K. Epson mógłby sobie w końcu dać spokój z technologią 3LCD, przynajmniej w wyższych modelach...