Cita Iniciado por GSeoane Ver mensaje
Ni idea, hace mucho que no juego, pero solo tienes que poner alguna serie en HDR DVision de Netflix o algún documental que encuentres por la red en HDR real, muchos a 12 bits y si el proyector lo permite, cosa facil de comprobar, se nota.

No se si el compañero va a utilizar preferentemente BD, yo no me he referido a ellos. Pero ya sabemos que además de lo que indico, también se nota en algún juego.
Todo lo que notes es sugestión, no realidad.
Copio msj de un compañero que se dedica a edición profesional de video, muy aclaratoria:

“Todos los vídeos destinados al consumidor ¡TODOS!, están codificados en chroma 4:2:0 en componentes YCC. TODOS. A nivel profesional, los master pueden ir en 4:2:2, o 4:4:4, en RGB, con mil perfiles de color, etc, etc, etc, pero los destinados a mercado doméstico van así.

Incluyendo, por supuesto, los más nuevos 4K HDR, cuya única diferencia es que están en otro espacio de color (Rec.2020, aunque en realidad internamente el 100% son DCI P3 por limitaciones técnicas actuales), que pueden tener HDR y que tienen 10bits de profundidad de color. Lo de los 12bits de Dolby Vision es "HASTA". No existe ningún display actual que permita 12bits por componente. Y ninguno de los DV codificados están a 12bits, porque originalmente TODOS se codifican en 10bits como master para "Delivery" (sea DCP, Bluray o el que sea).

Partiendo de esa base, poner RGB444 es reservar un ancho de banda por HDMI tremendo, y puedes originar muchas interferencias porque es como si metes una autopista de 10 carriles para un tráfico de 2. Así que lo más lógico es YCC422 10bit, no necesitas más, y no fuerzas el ancho de banda.”

No confundamos al personal con profundidades de color inexistentes actualmente.