No hay una respuesta rápida ni certera a tu pregunta, porque depende de tantos factores que al final hay que ir caso por caso, sin contar otros factores.

Es decir, puedes tener películas actuales cuya grabación original puede haber sido en 6K en TODOS sus planos, y terminar con un master 2K de distribución, por la razón que fuese.

O puedes tener películas antiguas que proceden de negativo 70mm o 35mm (NEGATIVO, NO COPIA POSITIVADA), que pueden dar una definición muy buena (DEFINICIÓN, NO RESOLUCIÓN, son términos muy diferentes).

En cualquier caso, la gran mayoría de transfers procedentes de 35mm suelen tener grano, y éste es más visible cuanta más resolución se use en el escaneo (RESOLUCIÓN, NO DEFINICIÓN, aquí cambia la cosa).

Y al final de todo este trasiego, resulta que ese "plus" extra de resolución (analíticamente hablando) depende en gran medida del tamaño del televisor, y la distancia a la que estés.

Y para colmo, aún estando en la zona donde en la que es posible degustar una definición 4K en toda su grandeza, si el plano tiene desenfoque, grano, movimiento (motion blur), focal selectiva, etc...se perderá el 90% de esa percepción.

¿Qué nos queda?. Pues el hecho de que al usar un codec con un bitrate mayor, un gamut ampliado con más colores visibles y 10 bits de profundidad de los mismos, hace que aunque se esté viendo una peli actual que originalmente es 2K escalada, luzca excepcionalmente bien, aunque no percibamos esa definición per-se.

Mi consejo es NO rayarse sobre si "tal" peli es 4K real o no. Actualmente los cineastas y la industria no prestan atención a éste concepto, para ellos el 4K o 8K es una herramienta que les permite reencuadrar digitalmente sin perder definición (en el 90% de los casos es para lo que se usan).

Yo tengo un televisor OLED de 65" a 2.8 metros y me resulta muy dificil saber si lo que veo es 1080P o 4K. En muy pocos planos puedo llegar a notar esa definición, así que me centro en la calidad de imagen y el HDR, que son los factores más importantes hoy día.