El HDMI 2.1 supone una ventaja enorme no solo para los jugones. Ya simplemente el poder tener VFR (Variable Frame Rate) es una ventaja enorme. Adiós a los problemas de reproducción de contenidos de diferente frame rate sobre el que se ponga. Simplemente será una adaptación al vuelo, un verdadero frame rate adaptativo que supone eliminar el cambio de formato con el consiguiente pantallazo negro de por medio.

Ya solo por esa ventaja, merece la pena. Pero tiene más, claro. Y el 8K es irrelevante en cualquier caso.

Sobre el HDR, pues estamos en las mismas, y cito aquí a Marc Bach en el artículo que ha realizado la gente de Finalcutpro.es al respecto:

Hay que leer los scopes correctamente. El estándar de HDR10 es 1.000 nits como mínimo, así que es ahí donde debes ir aunque no lo veas correctamente en tu televisor. Es la TV la que hará lo que pueda para mostrarlo y no tú en la corrección de color ya que cada TV tiene especificaciones diferentes (de ahí la importancia de tener un monitor calibrado de 1000 nits, pero a falta de ello para eso están los scopes).

En 1.000 nits estarían el sol, reflejos y luces directas a la lente. La nubes tipo cúmulos rebotando la luz del sol hasta 500 nits. Estos valores son relativos, si nuestro techo fueran 2000 o 4000 nits deberíamos ajustarlos adecuadamente.

Por último, también nos cuenta Marc que los especialistas en Dolby no clipan a 4.000 nits. Dejan que las altas luces vayan hasta 10.000, aunque no lo vean, bajo la supervisión de los scopes por el colorista. Si miras los scopes en PQ, verás que de 4.000 a 10.000 hay muy poco margen.
Hasta que no surjan televisores que eliminen el PQ de la ecuación, seguirá habiendo un Tone Mapping y un ajuste por parte del televisor que darán resultados diferentes en función del modelo, gama, etc. Esto es imposible de eliminar y hay que aceptar que es así, y que lo que vemos realmente no es lo que realmente deberíamos ver (en HDR). Pero más tarde o más temprano, lo llegaremos a ver.

No hay que obsesionarse.