Es un tema super interesante, realmente.... Tienes razón en que afecta. El color subsampling, que es lo que comentas, forma parte de lo que comentaba de la calidad de imagen percibida, al margen de la resolución (no sólo de resolución vive el hombre).
Porque, insisto, la gráfica habla de capacidad para distinguir las diferencias entre píxeles, en función de la distancia a la que te sientes (ni colorimetría ni nada más, solo el tamaño de las cosas... si no eres capaz de distinguir el pixel A del B...).
Vuelvo al ejemplo original y lo complementamos con color subsampling (jugar con la información de color de cada pixel cercano, para reducir el tamaño de la información necesaria para representar una imagen, sin perder calidad y fidelidad al color original):
Si a 3m, sobre una pantalla de 65", tu agudeza visual da para distinguir objetos de 1cm2 sobre la pantalla, te da igual si en ese cm2 de la pantalla hay 1, 4, 16 o 100 píxeles (1080p, 4K, 8K...), todos los vas a ver como 1 único punto.
¿En que afecta el subsampling? ¿de qué color vas a ver lo que hay en ese cm2?... pues bien, un 4:4:4 significa el máximo de información de color posible (en una matriz de 4x4 píxeles, todos los píxeles tienen su información de luminancia-Y, azul-Cb y rojo-Cr...YUV). De este modo, no estamos ahorrando nada (bueno, con respecto a RGB sí, pero en YUV no), todos los píxeles tienen toda su información (seguir por AQUI, para conocer las diferencias entre YUV y RGB, baste adelantar que RGB lleva, por cada píxel, la información de Rojo-R, Verde-G y Azul-B y siendo que la información del verde es la que más consume, pues ya, para empezar, nos ahorramos algo con YUV, que no lleva verde y lo deduce por una fórmula a partir de los otros valores).
A partir de ahí se puede ir retirando información de color de los píxeles cercanos (4:2:2, 4:2:0, 4:1:1), intentando reducir aún más el tamaño de la información necesaria para representar la imagen (a menor información por pixel, menos consumo de datos, más fácil es trabajar con la imagen y transmitirla, porque consume menor ancho de banda), sin afectar al color percibido por el ojo humano, en base a la capacidad humana para asimilar colores distintos en píxeles cercanos.
Si en las condiciones del ejemplo, estás viendo 8K (16 píxeles en tu cm2 de agudeza visual), pues te da igual como esté configurado el color subsampling. Los 16 píxeles, para ti, son 1 sólo y tu cerebro hará el resto con el color. Si estás viendo 4K (4 píxeles), entonces el subsampling puede empezar a afectarte (aunque lo hará muy levemente). Si estás viendo 1080p (1 píxel), entonces el subsampling te aplica de lleno, ya que eres capaz de ver todos los píxeles de la matriz 4x4 y, por tanto, podrías ser capaz de distinguir las diferencias en colorimetría aplicadas por el color subsampling (complicado, porque son muy sutiles y difíciles de distinguir, pero.... posible si el subsampling es muy agresivo).
AQUI explican bien el subsampling. El cerebro humano suele "inventarse" la información visual (formas y colores) en ciertas circunstancias y entre eso y la propia capacidad visual del ojo, pues se puede jugar a ahorrarnos parte de la información real, porque no seremos capaces de darnos cuenta.
Dicho todo esto, lo primero es estar sentado a una distancia en que puedas distinguir las diferencias entre píxeles cercanos y ahora, ya podemos hablar de lo que comentaba de calidad percibida y que está influida por muchos otros elementos, que no son sólo la resolución, como por ejemplo el color subsampling.
Más material de referencia: Xataka: ¿donde estan los píxeles que no ves?