El HDMI 2.0 si soporta 4K HDR a 60Hz, principalmente porque en tu explicación metes como unos valores Chroma fijos (4:4:4) que no se utilizan de forma real en ningún dispositivo doméstico.
Los valores estándar de luminancia, azul y rojo para la información de cada pixel (YUV) son 4:2:0, por lo que te sobra ancho de banda para mandar los 10 bits de profundidad de color necesarios para la denominación HDR (otra cosa es que los proyectores consigan los nits necesarios). Es la codificación utilizada para las películas comerciales que se compran por cualquier plataforma o medio físico.
Otra cosa es que alguien con pocos conocimientos remuestree un archivo a 4:4:4 pensando que gana algo más de calidad, pero solo añade información inventada y aumenta el tamaño del archivo para nada.
Cualquier reproductor multimedia tipo Dune, Zappiti o similares, y los reproductores UHD Blu-Ray, manejan esos archivos con un cable 2.0 y menos de 18 Gbps. Es tan fácil como ver la info de contenido del archivo reproducido.
Igual estoy equivocado en algún detalle de los conceptos, pero creo que básicamente esto es así. No me parece buena solución forzar a 4:4:4 (inventarse señal que no existe), bajar a 30Hz la velocidad de refresco, y usar el interpolado del proyector para volver a inventarse más fotogramas.
Un saludo a todos