Hola,
Lo poco que he podido ir viendo es que de las películas antiguas suelen tener mejores masters que las más modernas. Yo utilizo la lista de ésta página para saber si es real, fake o nearly. Te explican que master tienen, el sonido de la edición o si lleva HDR.
Simple List Breakdown | Real or Fake 4K
Salu2
TV: LG OLED 55C7V - Samsung 46D7000
AV: Denon AVR-X1300W
ALTAVOCES FRONTALES: Monitor Audio MR2
ALTAVOZ CENTRAL: Monitor Audio MR Centre
SW: Klipsch R-10SW
HDDVD: Toshiba EP-30
MULTIMEDIA: Mac Mini, Chromecast 1, Chromecast 2
CONSOLAS: Xbox One X, Xbox One Fat, Playstation 4 Slim, Nintendo Switch, SNES Mini Classic, NES Mini Classic
SATELITE: Engel RS4800HD
MANDO: Logitech Harmony Elite
No hay una respuesta rápida ni certera a tu pregunta, porque depende de tantos factores que al final hay que ir caso por caso, sin contar otros factores.
Es decir, puedes tener películas actuales cuya grabación original puede haber sido en 6K en TODOS sus planos, y terminar con un master 2K de distribución, por la razón que fuese.
O puedes tener películas antiguas que proceden de negativo 70mm o 35mm (NEGATIVO, NO COPIA POSITIVADA), que pueden dar una definición muy buena (DEFINICIÓN, NO RESOLUCIÓN, son términos muy diferentes).
En cualquier caso, la gran mayoría de transfers procedentes de 35mm suelen tener grano, y éste es más visible cuanta más resolución se use en el escaneo (RESOLUCIÓN, NO DEFINICIÓN, aquí cambia la cosa).
Y al final de todo este trasiego, resulta que ese "plus" extra de resolución (analíticamente hablando) depende en gran medida del tamaño del televisor, y la distancia a la que estés.
Y para colmo, aún estando en la zona donde en la que es posible degustar una definición 4K en toda su grandeza, si el plano tiene desenfoque, grano, movimiento (motion blur), focal selectiva, etc...se perderá el 90% de esa percepción.
¿Qué nos queda?. Pues el hecho de que al usar un codec con un bitrate mayor, un gamut ampliado con más colores visibles y 10 bits de profundidad de los mismos, hace que aunque se esté viendo una peli actual que originalmente es 2K escalada, luzca excepcionalmente bien, aunque no percibamos esa definición per-se.
Mi consejo es NO rayarse sobre si "tal" peli es 4K real o no. Actualmente los cineastas y la industria no prestan atención a éste concepto, para ellos el 4K o 8K es una herramienta que les permite reencuadrar digitalmente sin perder definición (en el 90% de los casos es para lo que se usan).
Yo tengo un televisor OLED de 65" a 2.8 metros y me resulta muy dificil saber si lo que veo es 1080P o 4K. En muy pocos planos puedo llegar a notar esa definición, así que me centro en la calidad de imagen y el HDR, que son los factores más importantes hoy día.
Buenas.
No diré que me haya quedado claro del todo, porque mentiría.
Según tenía más o menos entendido, la máxima resolución para cualquier película filmada en 35mm sería de 4K. De todos modos entiendo cómo citáis que hay otros múltiples factores.
Un saludo!
Eso es cierto a medias. Dependen muchos factores, pero en general:
1) El negativo ORIGINAL de 35mm teóricamente podría tener definición hasta 6K. TEORICAMENTE. El problema es que un medio ANALOGICO se debe medir de forma diferente a "contar pixeles", y aquí entran conceptos como:
1.1) El tipo de negativo usado (fabricante, referencia)
1.2) El ISO de ese negativo y su respuesta a él (sensibilidad)
Al final, existe un "conteo" de MTF (Modulation Transfer Function) que estima más o menos las líneas horizontales que es capaz de registrar ese negativo en concreto (Understanding resolution and MTF)
En conclusión, los haluros de plata contenidos en el negativo, que son los que sirven para poder establecer esa definición, hacen que finalmente esos 6K teóricos queden en 4K.
PERO (siempre hay un pero)
Hay más factores ANTES de que la imagen quede registrada en ese negativo.
La propia resolución y calidad de la lente es uno de los principales elementos que definen la calidad final de la imagen. Una lente con una resolución pobre, hará que la imagen registrada en el negativo (también en digital) sea difusa. Por otro lado, aberraciones cromáticas y deficiencias técnicas de la propia lente, harán que la separación de los colores sea mayor en los extremos que en el centro (considerado el punto dulce de cualquier lente).
Al final, la resolución final registrada en el negativo ORIGINAL podría ser de unos 3K con suerte, y usando uno de muy buena calidad, con lentes PRIME (algo complicado en decadas anteriores a los 90).
Y sin embargo, tenemos que no todas las películas tienen un NEGATIVO ORIGINAL. Muchos de los escaneados actuales proceden de una copia POSITIVADA.
En su día, Kodak llegó a la conclusión de que el negativo original de 35mm para cine después de 2000-2001 tenía una resolución equivalente a unos 6K. Pero también admitió que después de realizar el tradicional Interpositivo -> Internegativo -> Copia de proyección en el laboratorio, bajaba hasta 2K. Debido a la propia naturaleza del proyector a generar una imagen no muy estable más el menos-que-óptimo enfoque, la conclusión era que bajaba incluso de la resolución 1080P.
Las cosas, como se ven, no son tan tajantes como se puede afirmar...
Buenas.
Entonces ya lo tengo claro...para películas clásicas con un buen BDremux 1080p hay más que suficiente. Incluso aplicaré el mismo criterio para todo el material anterior al 2000.
Agradezco tu erudición. Un saludo!
Bueno...en realidad más que la resolución, las grandes ventajas que aportan el UHD Bluray son otras, como una colorimetría más exacta, ausencia casi total de banding y HDR (rango dinámico alto). No son desdeñables desde luego. La resolución es el eslabón más débil de toda la cadena.