A mí me ha decepcionado mucho el resultado porque ya tenía decidida la compra y ahora me lo estoy replanteando
Regístrate para eliminar esta publicidad
No es asi... El que el E6, se haya visto 'aplastando mucho detalle en las sombras' bajo el HDR Dolby, también ocurrio lo mismo en el momento de reproducir contenido HDR10 (donde todas las tvs, compartieron la misma señal reproducida del reproductor Panasonic DMP-UB900)... asi que no se trata que sea no sea 12-bit (que eso influye en el rango de color) sino se trata en su limitación de su ABL incorporado, que los restringe a los OLED a elevar sus picos luminancia como los hacen los LCD LED (que al hacer pantallas transmisivas 'que no incorporan un ABL', son libres a seguir evolucionando en sus picos de brillo máximos, para ampliar asi su rango dinámico, para cubrir toda la luminancia de los colores primarios del BT.2020 a futuro).
El tema de los picos, de los nits máximos influyente en la imagen HDR, no se trata de generar un blanco a 10,000 nits (a pantalla completa) sino quedariamos afectado a nuestra visión obviamente... sino se trata de recuperar el rango dinámico pérdido, en las distintas áreas de la imagen que lo necesita (que se pierde al standarizar en 100 nits), variando en cada zona distintos nits variables, como este ejemplo que los señalo:
Respecto a los tipos: HDR10 y HDR Dolby Vision, lo que se prevee, es que va suceder lo mismo que la viejas guerras de formatos anteriores: como el VHS que mató al Betamax, el DVD que mató al Laser Disc, el Mp3 portable que mató al MiniDisc, el Bluray que mató al HD DVD, de igual forma sucederá con estos tipos HDR, solo uno de ellos va sobrevivir.
En la actualidad, no existe ninguna tv consumer con panel de 12-bit nativo... solo hay disponibles paneles de 10-bit, en las principales Gamas Altas de los fabricantes... la ventaja del HDR10 es que es codigo abierto, que puede seguir siendo mejorado en sus características a través de un nuevo firmware 'cosa que el HDR Dolby no es posible de ello, es de codigo cerrado' (por lo que no hay esas restricciones de desarrollo a futuro), además el cuenta con el apoyo de la mayoría de fabricantes (UHD Alliance) lo que le hace bastante creciente sus expectativos, a imponerse como standar... en la actualidad nuestro mercado, el HDR10 esta avanzando más rápido, en su disponibilidad como formato físico, casi todos los Bluray 4K UHD están con HDR10.
Respecto al 3D sin lentes, como ya lo dije es una proyección a futuro que buscan los fabricantes sacarse esa espina clavada de su fracaso comercial del 3D Activo y Pasivo con lentes... sea por los hologramas o cualquier tipo de proyección tridimensional, ya sin uso de lentes... recuerden que el avance tecnólogico NO CONOCE DE DESCANSO y NO PARA, por lo que antes se pueda catalogar de imposible, conformen pasan los años de evolución se hace más factible de cumplir lo irreal, en cualquier tipo de dispositivo electrónico.
Saludos igualmente.
A mí me ha decepcionado mucho el resultado porque ya tenía decidida la compra y ahora me lo estoy replanteando
Yo creo que la diferencia debe estar en la G6 versus E6. Tiene mas "nits" de las narices y seguramente por eso lidia mejor con el HDR.
Ahora bien yo no me la compraria... en AV forums uno ha devuelto 4 o 5... por manchas, VB etc... por lo visto la G6 no lleva la buena uniformidad de la E6 B, C ...
Quizás en vez de fijarte en los Nits, deberías fijarte en otras cosas. En una imagen POTENTE no solo hay que tener en cuenta los NITS. Ponte las secuencias de la niña con fondo negro de Stranger Things de Netflix y flipa, flipa hasta niveles de chillar fuerte.
Ahora parece que lo importante son los NITS, cuando NUNCA lo fueron.
En AVF ya comentan que el HDR en las LG presentaba clipping, que LG ya ha comentado que lo arreglarán via firm. Por cierto, ese clipping no estaba en su versión Dolby Vision: https://www.avforums.com/threads/hdt...2041866/page-3
Y lo dicen dos chicos que estuvieron alli:
In a side by side comparison there was an obvious difference in one scene in Pan (mastered at 4000 nits) between the E6 and the others until the DV clip was introduced on to the E6Literalmente dice que cuando funcionan en DV "es cuando la E6 igualo a los led". Lógico al no haber clipping. Aunque también esta claro que no brillaria tanto.the same scene was introduced into the E6 using Dolby Vision then it was able to resolve the scene to match the LEDs
Está claro que los leds brillan mas y en HDR se nota mucho, pero como veis no "aplastan" a nadie, mas si leemos las opiniones en profundidad. Leed la de zAndy1 que tambien estuvo allí: https://www.avforums.com/threads/hdt...2041866/page-2
Vamos que a las OLED les faltan nits para HDR, que no tienen clipping en Dolby Vision y que las LED en HDR son espectaculares...a costa de que el nivel de negro sea horrible y aparezca bleeding y haloing. Normal, es el punto débil de ambas tecnologías (nits maximos en la OLED y bleeding/haloing/negros en las led).
Ahora vendrá gente que ni estuvo alli ni vio esas TVs a decir que no, que es mentira y blabla.
P.D voy a editar el título que estais muy delicaos algunos... si me sale
Como ya he llamado la atención me vale, pero espero que nadie se vaya de este hilo.
El que piense que es censura en ForoDVD ajo y agua que yo soy pro OLED.
"Haber abierto un hilo vosotros"
Lo sé, me refería a que las oled 2015 todavía saldrían peor paradas de la comparativa porque golpean con tan solo a 450 nits de brillo, y en ese caso el clipping sería mayor que en las 2016, siempre hablando de HDR, que es de lo que iba la comparativa. Me gustaría ver la comparativa entera, a ver qué se ha dicho del color.
Saludos
Here’s the problem: most 4K Blu-ray titles available to buy on the market at the moment are graded on 1000-nit mastering monitors, with a small handful mastered on 4000-nit Dolby PRM-4220 Professional Reference Monitor. When a 600-nit HDR TV is asked to display a 1000-nit HDR source video, there are three common ways this can be handled:
- The TV can follow the PQ curve closely up until 600 nits, and then discard the rest of the bright detail from 600 nits to 1000 nits. This is known as clipping.
- The TV can average down the entire source dynamic range from 0 to 1000 nits to be fitted within its 600-nit brightness capability, but the APL of the output will be lower than that of the source, and there’ll be compression (shadow detail/ specular highlights getting obscured).
- The TV can track the PQ curve closely until, say, 450 nits, and then spend the remaining 150 nits to display the detail between 450 and 1000 nits. This is the tone-mapping approach that most manufacturers are using. The highlight detail will still be present, but more compressed (and obviously less bright) than if the same content was displayed on a 1000-nit television with correct PQ implementation.
Aqui hablan en HDTVTEST de los problemas que tienen las teles por falta de nits respecto a las masterizaciones que se vienen haciendo.
Y como se produce el recorte y como se gestiona el recorte. O sea que haber lo haylo y para el HDR los nits son importantes nos guste o no.
En su día salieron bien paradas porque como vamos diciendo para HD y SD siguen barriendo a los LCD y ese año 2015 no existian UHDblu rays y por tanto se pasarian demos a titulo de curiosidad sin hacer un shottout .
Lo que si me interesa y teneis razón... que se me ha pasado por alto y de ahí también el cambio de título del post...
es la opinión de los expertos... que allí estuvieron.
A ver si HDTVTEST saca ya la noticia que mira que se están haciendo de rogar....
Nadie a dicho lo contrario. Pero los negros son igualmente importantes, porque si no el contraste de la escena se va al traste. Y de momento las OLED tienen que mejorar el pico máximo de nits y las LED el mínimo de negro.
Sobre lo resaltado en subrayado es el quid de la cuestión; las LG en HDR hacen clipping, de ahí que en el shootout perdiera bastante fuelle. En cambio, los mismos asistentes comentan que la misma película (Pan) en Dolby Vision las LG no presentan ese clipping. Vamos que lo que no funciona como debería es el HDR10, que incluso LG ha comentado que lo solucionarán en un firmware. Todo esto sin contar que si, que al tener menos nits máximos el HDR no luce tanto como un LED. Pero vamos que lo que ha arruinado el HDR en el shootout ha sido que clipeaba cuando no debería haberlo hecho (independientemente del brillo máximo).
Y no, allí no estuvo ningún experto, ya que era abierto al público. El shootout de expertos fue hecho hace un mes exacto, donde el OLED ganó hasta en el campo del HDR, como ya expliqué en mi post anterior.
Un saludo!
En la prueba de los expertos no estaba la Panasonic, así que no sabemos lo que hubieran preferido los expertos.
Me gustaria que vieras esa escena en cuarto oscuro en la DX900, ibas a quedarte muy sorprendido.........precisamente esas escenas "tipicas".....Sinister tambien tiene una, digo escenas tipicas de plena oscuridad con objeto en el centro las resuelve muy muy bien, hasta tal punto que viendolas de frente (ya sabemos la limitacion del panel VA) no se si la gente al 100x100 acertaria cual es cual.........lo digo en serio de verdad no es coña , lo tengo dia a dia en el salon de casa........otra cosa es escenas de casi penumbra (casi negro) con antorchas u otros puntos de iluminacion........ahi el localdimg se ven sus limitaciones......y el oled la barre
Pero escenas de "demos" tipicas......os sorprenderiais de lo bien que lo hace la DX900
Mis pantallas y consolas
Xbox one/ Xbox one Slim, xbox x , xbox scorpio , Xbox SERIE X x2 - PS5
PS4 x2 , Ps4 PRO
PC gamer i7 10700K /RTX 3080 palit , Repro Dune 4kpro 2, OPPO 203, Egreat A5 4k HDR , 65oled873
, Samsung Qled 65Q90R , Qled Q9FN, LG 65E9- Philips 804 - Panasonic 65HZ2000- Samsung Q80T , Sony OLED A8H, Oled 55CX , OLED LG 65G1 . OLED SONY 65A90J - Sony QD-OLED 65A95K - Samsung QD-OLED 65S95B - Samsung QLED 55QN95A miniled
Como ya lo he señalado en el foro Panasonic...
Esta claro que el tema picos de luminancia, es fundamental para ampliar el rango dinámico en el HDR... en eso los LCD LED tiene esa Gran Ventaja en sus manos, su brillo es innato (1000-1400 nits, lo que posee actualmente) y sin limites a seguir ampliando cada vez más sus picos de luminancia (ya que no incorpora un ABL, por lo que en nada afecta en su longevidad de panel de 55,000 horas... lo que el OLED lo necesita al ABL para proteger su display '600-700 nits, lo que posee actualmente' y asi no perjudica su corta durabilidad 'actualmente' de 25,000 horas)."el pico de brillo en "MÁXIMO NITS, ES MUY VITAL PARA EL HDR"... en eso los LCD LED tiene una GRAN VENTAJA DE ELLO (sigue avanzando en alejarse cada vez más, en su brillo innato y sin restricciones de ningun ABL incorporado, y además de seguir estrechando cada vez más la 'muy mínima diferencia' de su nivel negro máximo 'asi sea con ayudín', contra el OLED...) el LCD LED tiene rumbo sin limites a seguir aumentando los picos de luminancia hacia el objetivo de los 10,000 nits (nose como lo va ser el OLED W-RGB para resolver su restricción del ABL incorporado, para llegar a ese objetivo)".
Por eso cuando mencione esto, al inicio de mi réplica en este hilo...
Va al sentido > de que los LCD LED serán parte de la historia, solo fueran reemplazadas por otra tecnología nueva: AUTOEMISIVA y SIN ABL como lo son los CLEDIS y QLED (que combina el principal potencial del LCD LED 'Blanco Puro' y OLED 'Negro Puro', juntos) por eso cite si los OLED W-RGB no consigue resolver sus varias limitaciones propias, para eso tiempo! también va ser arrasado por estas tecnologías nuevas (CLEDIS y QLED) junto al LCD LED... En Japón ya se rumora que Sony esta planeando su salida masiva de su tecnologia CLEDIS en el 2017, a nuestro mercado consumer... y Samsung con su tecnología QLED, lo tiene proyectado para el 2018. Por eso, si aparecen esas dos tecnologías nuevas en nuestro mercado, entonces la suerte esta echada para ambos (LCD LED y OLED); y si en caso no diera luz esas tecnologías nuevas (antes de ese tiempo), la perspectiva a futuro del LCD LED se seguirá manteniendo vigente más allá del 2020; por eso todo depende si aparecen ó no esas tecnologías nuevas, en los próximos años."Lo que si me queda claro,que antes del 2020 los LCD LED ya serán historia (si los OLED no logran imponerse en el mercado, en ese tiempo... también correra con la misma suerte de los LCD LED) ya veremos si las nuevas tecnologías CLEDIS y QLED 'si es que salen a la luz' sean finalmente los que se impongan ó no".
Respecto a las excusas ó no, al resultado de votación del 'Shootout HDR' en darle ganador al LCD LED... de que si no fueron, ni votaron los 'dizque' Expertos, y solo lo hizo el público general... aquí cada uno cree lo que quiere, en mi caso yo le tengo más credibilidad a lo que decida y vea el publico en general 'que no tiene ningun interes comercial con ello' (donde más el 80% de sus votos, optaron por los LCD LED en el tema central del evento: HDR) que como ya les dí al indicio al incio de mi réplica en este hilo, los 'dizque' Expertos (solo opinan en base a su propio interes comercial, que tenga con su Auspiciador 'quienes le brinda esas tvs para realizar este tipo de evento, y también realizar sus respectiva reviews... OjO no voy generalizar a TODOS aquí, pero si hay varios de ellos 'Europa y América' con ese fin).
Que tengan un buen día.