Ya lo se, el problema de todo estos son los METADATOS. Estos se "inventaron" para comunicar el panel, la electrónica y la imagen, para adecuar la señal de origen a la de destino. En SDR no hay problema, todos los televisores cumplen al 100%, pero HDR ya es harina de otro costal y es un camino lleno de incertidumbres y aprendizaje.
Tú puedes tener un display de 1000 nits, y tener una peli en HDR con un pico máximo de 400 nits. La teoría dice que en ese caso NO debería haber Tone Mapping, sencillamente la tele es capaz de dar ese pico de 400 nits, porque tiene potencial para ellos.
Pero claro, inyectas una metadata diciendo que el "target" es de 4000 nits, aunque establezcas el pico de 400 nits, y ya la tienes liada. ¿Qué hace el televisor en esos casos?.
Pues lo que ya he repetido en innumerables ocasiones:
1) Se realiza un Tone Mapping a la imagen (la percepción es de imagen algo más oscura, puesto que se comprimen los highlights para que entren dentro de ese rango, aunque no se sobrepasen).
2) Se hace clipping a la parte más alta de la imagen.
3) Se generan nuevos metadatos al vuelo, ignorando por completo los que existen.
LG optó en principio por la primera solución, y el resultado es que no hay recortes, aunque la imagen puede ser un pelín más oscura por éste hecho. Sin embargo en los modelos 2018 se implementa el modo dinámico en tiempo real, que analiza la imagen y la adecúa a las propiedades físicas del panel, sean cuales sean. Esto se llama aprovechar al máximo la luminancia del panel, y es la base de Dolby Vision, en esencia.
De hecho, es la tendencia natural, hasta que los displays alcancen la mágica cifra de los 10.000 nits, y para entonces, la UHD Alliance se inventará otro nuevo tope, los 20.000 nits, porque hay que seguir haciendo evolucionar la imagen, a ver si os creéis que se van a parar en los 10.000.
Por supuesto, lo que nadie parece darse cuenta es que esos 10.000 nits nunca se han ligado a ver una imagen a toda pantalla con esa intensidad. Es absurdo, por otra parte. Si uno sale al exterior, en la calle, y mide con un aparato la cantidad de nits que refleja el mundo real, se daría cuenta de que en realidad, la horquilla está muy bien definida entre los 500 y 700 nits, obviando por supuesto brillos especulares, reflejos intensos, el Sol y fuentes lumínicas artificiales.
La obsesión por parte de mucha gente de tener un televisor "muy luminoso" es una mala jugada. No es eso, es el rango dinámico. Es la fidelidad de color, es que la imagen sea como debe ser, y no que sea muy luminosa. Hay que quitarse eso de la cabeza. Un display que te ofrezca 2000 nits en SDR no hace que sea MEJOR display, es un error garrafal de proporciones cósmicas!