Uff,mas que off-topic es casi una pregunta para un master,porque la respuesta puede ser muy larga.Y ahora la pregunta, que igual es un poco absurda pero no me acaba de quedar claro, ¿cuál es la relación que existe entre YCbCr y RGB limitado/extendido? (un poco de off topic)
Sintetizando,la señal YCbCr se creo cuando surgio la tv en color como la mejor forma para,por una parte que las emisoras pudieran mantener la infraestructura que utilizaban para la emision en blanco y negro,y para que ademas los televisores que no eran a color fueran capaces de igual manera de trabajar con esa señal,la solucion fue crear un tipo de señal,que por una parte mantuviera un canal donde se transportara la informacion en blanco y negro Y(tambien llamado luma)y añadirle otros dos(Cb,Cr)donde se enviara la señal de chroma de la imagen(estas se submuestrean debido a la menor sensibilidad de nuestra vision al componente cromatico de la señal con respecto a la señal de luma)estas señales se multiplexaban juntas y se enviaban en formato de video compuesto(con un canal ademas para el sonido)tanto en ntsc como en pal.
Sobre la relacion que tiene este formato y el RGB limitado o extendido,lo sintetizaremos diciendo que las camaras de captura de los contenidos y nuestras pantallas trabajan en RGB(valores triestimulos)pero el almacenamiento se realliza en YCbCr porque este es mas efectivo,entre otras cosas debido al submuestreo del chroma(el RGB es siempre 4.4.4)
Para almacenar los contenidos captados en RGB,en los discos en YCbCr 4.2.0 se utilizan una serie de formulas llamadas matrices,estas son diferentes si el material es codificado en alta definicion o en definicion estandar,logicamente una vez la pantalla recupera la informacion completa despues de remuestrear el chroma(YCbCr 4,4,4)para pasarla a RGB de nuevo debe usar las mismas matrices que se utilizaron al principio pero a la inversa,y asi recuperar los valores triestimulos originales.
A este proceso se le llama decodificacion de color,y el control de ese mismo nombre actua sobre la señal de chroma,para intentar corregir posibles errores producidos durante ese proceso.
-A la primera pregunta,tengo que decirte que aunque siempre se nombra de esa manera(es decir almacenamiento en YCbCr 4.2.0,8 bits por canal)en mi entender los 24bits o sea 8 por color solo se recuperan una vez que se remuestrea el chroma es decir para mi(ya digo que es algo que no tengo tecnicamente claro)esa señal 4,2,0 seria de 12bits no de 24.Tengo claro que los formatos de video doméstico están codificados en 4:2:0, y que el que sea 4:2:0, 4:2:2 o 4:4:4 viene por la tasa de muestreo empleada para cada uno de los colores. Ahora las dudas:
- ¿Todos ellos son en 8 bits?
- Si en el BD,DVD están codificados en 4:2:0, ¿por qué hacia la pantalla se emiten en 4:2:2 (para poder hacerlo el reproductor tiene que hacer interpolado)? Imagino que por lo que comentas de que la pantalla trabaja o procesa nativamente la señal en 4:2:2.
- La pregunta inicial, ¿los distintos formatos YCbCr tienen alguna relación con el rango limitado/extendido o directamente son todos rango limitado?
-Si,ninguna pantalla procesa la imagen en 4,2,0 todos los reproductores deben enviar la senal como minimo en 4,2,2,obviamente para poder hacerlo la fuente tiene que remuestrear la señal de chroma(o si prefieres interpolarla)otra cosa,todas las pantallas a las que enviando una señal en RGB el control color sea utilizable,dos opciones,o bien este no hace lo que debiera,o lo mas normal,la pantalla convienrte nuevamente esa señal RGB a componentes para procesarla y permitirte tener acceso a ese control para posteriormente volver a pasarla a RGB.
Si es mejor ese doble procesamiento o enviar la señal en componentes eso dependera de la fuente y de la pantalla(hay patrones para comprobarlo en el spears and munsil)en este caso segun comenta kyoku parece que lo mejor es 4.2.2.
-Si existe la posibilidad de trabajar en componentes en rango extendido(es tecnicamente posible)pero no esta soportado por el estandar HDMI,de igual manera como estamos hablando de señales de video y estas se codifican en studio RGB siempre son en rango limitado(16-235) con espacio para el footroom(1-15)llamado BTB y el headroom(236-254)llamado WTW,el rango extendido se utiliza en entornos informaticos,y archivos fotograficos.Cuando se pasa una señal de componentes a RGB se puede hacer a rango limitado o extendido,pero lo propio es hacerlo a la primera opcion en contenidos de video.
Por cierto,una mayor profundidad de bits solo te valdria en el caso de bits de procesado,es decir por ejemplo un video procesador suele trabajar en una profundidad de 10 o 12bits (o incluso mas) ya que como la señal original es de menor profundidad para realizar operaciones como el remuestreo del chroma,el escalado,o la ampliacion o compresion del rango(pasar de limitado a extendido o vicevensa)esta mayor profundidad de bits supone evitar posibles erorores de redondeo en las operaciones matematicas a realizar.
Siempre es recomendable ajustar la escala de grises antes del gamut,ya que lo que hacemos es mezclar los colores primarios para un determinado punto blanco lo que hace que los secundarios(que no son mas que la mezcla de estos)se situen mas cerca de sus objetivos para ese gamut.
Saludos