Es un tema complejo que depende de varios factores incluida la compresión del archivo.
Pongamos una imagen de 8bits por canal que visualizadada en un display a 8 bits por canal no presenta dithering o posterización, al ser visualizada en 10 bits por canal podría manifestarlo, si las condiciones del degradado son las críticas para este efecto.

De la misma forma una imagen creada en 10 bits por canal si es mal comprimida o decodificada a 8 bits, por ejemplo por un panel que no disponga del número suficiente de tonos de degradado también puede presentar dithering.
Por este motivo a los paneles de alta calidad se les está dotando de procesos internos de 10 bits y una escala de degradados superior a la necesaria en 8 bits.
La regla sería que lo creado en 8 bits debe visionarse mejor en 8 bits y lo creado en 10 bits mejor en 10 bits.



¿Por que no hacen en 10/16 bits por canal las pantallas de plasma o LCD con destino a reproducir AV?...pues porque el problema al mostrar contenidos 8 bits por canal sería genérico. Necesitarían de un sistema operativo superior como las de nuestros pc para poder cambiar la profundidad de color rectificando los posibles errores en la interpretación de archivos

Así que han optado por una solución bastante efectiva que es la de que los procesos internos, no la visualización sea en 10 bits y aumentan la escala de tonos de degradado de entre los 4000/6000 suficientes para los 8 bits por canal a los 20.000 o más para que estos sean usados en caso de necesidad después del proceso interno del panel a 10 bits canal