TODOS son correctos, Capoeira. Bueno, matizo, ALGUNOS son más correctos que otros. El que más se acerque a la imagen vista en el monitor de masterizado, es el que claramente gana. Y como se ha demostrado, en el caso de LG, la imagen que ofrecen sus televisores en son los que más se acercan a él, ¿entonces, qué conclusión podemos sacar?.
El problema del HDR es que NO ES como el SDR, es un animal totalmente diferente, en el que hay unos nits máximos que son 10.000 y no hay display que llegue a ese nivel de producción de luz (bueno, el de Sony que se vió en el CES, pero eso es un "animal aparte"). Todos, absolutamente TODOS, tienen que realizar una adaptación (TONE MAPPING) de la imagen, para ser visualizada.
Es como cuando tienes un RAW en fotografía, que está con un rango dinámico más alto que la imagen que verá todo el mundo, pero quieres retener tanto las altas luces como el detalle en sombra. Pues tienes que realizar un TONE MAPPING, que tendrá más o menos fortuna (ese es el famoso HDR fotográfico) y que produce una compresión en la latitud para poder meterla en el formato de destino. Puedes elegir recortar la señal por arriba (clipping) o por abajo (black crush), o bien quedarte con los extremos a fuerza de ir recortando a lo largo de toda la señal, adaptándola (Tone Mapping).
El tema de los proyectores es otro, no es que tengan problemas con el HDR, es que el HDR en proyección no tiene el mismo concepto que en un televisor. De hecho, en cine digital el concepto de HDR no es tener unos brillos cegadores, sino tener un RANGO DINÁMICO mayor, y sobre todo, un suelo de negro comparable a OLED, cosa harto complicada.
La mejor imagen que uno puede obtener hoy día, es teniendo un emisor de luz por pixel de forma independiente. Punto. No hay comparación y la imagen se produce de forma absolutamente precisa, a nivel de pixel. El resto son inventos para tratar de atajar problemas heredados de la tecnología de la que venimos, que no logramos quitarnos ni para atrás. De aquellos polvos vienen estos lodos.
Y por supuesto que está verde la cosa en términos de HDR, pero el camino correcto es ese. Emisor de luz por pixel. Y luego ya, el que llegue a 20.000 nits es algo que habrá que ver como se hace sin que aquello no sea una tostadora. Porque SI, por si no lo sabéis, toda luz tiende a disipar calor cuanto más fuerte es. Es un problema muy gordo y que se trata de solucionar con diferentes métodos, usando reflectores, microlentes, concentradores de luz, etc...
Ya solo el famoso Dolby Pulsar que llega a los 4000 nits necesita un sistema de refrigeración del copón, y es capaz de calentar la sala donde se ubique, ¿de verdad queréis tener HORNOS en vuestros salones?. Así que no se trata de que los displays puedan llegar a esa tasa de nits, poque poder pueden, el problema es que hay que lidiar con el CALOR, y el consumo ELECTRICO que eso supone para poder disiparlo. ESE es el gran problema, no los nits.



LinkBack URL
About LinkBacks

Citar