las 950/960 aceleran HEVC pero les falta el HDR.
La alternativa a las RX4x0 de AMD son las GTX 10X0 de nvidia. Siendo la 1050 la mas barata situandose entre la RX460 y la RX470 en rango de precios.
las 950/960 aceleran HEVC pero les falta el HDR.
La alternativa a las RX4x0 de AMD son las GTX 10X0 de nvidia. Siendo la 1050 la mas barata situandose entre la RX460 y la RX470 en rango de precios.
Con tu permiso procedo a añadir las nvidia...
Exacto... A día de hoy no hay cables displayport 1.4 o superior (que es la versión de displayport que permite HDR) a HDMI 2.0a o superior...
Ocurre lo mismo con la sexta generación de intel Skylake, puede con HEVC pero solo llega a depth color 8 bits y sin HDR. Con películas 4K con depth color de 10 bits el procesador no acelera por hardware HEVC y necesitas un procesador muy potente para mover 4K y además utilizar DXVA2 (punto 1 de la explicación).
Entiendo que esto mismo le debe suceder a las GTX 950/960...
Hace falta tambien que la gráfica, s.o. y reproductor permitan el envio de los metadatos hdr a la tele y esto no es posible aun (por lo menos no tengo noticias de ello). Si hay rumores de que está en marcha.
Hay la opción de que estos metadatos sean interpretados por el renderer (madvr) y enviar el video ya sin metadatos pero el ajuste de los nits, color gamut, etc. hay que hacerlo a ojo. Es lo mismo que haría la tele (reducir el rango a lo que permita esta) pero hecho desde el htpc.
Está verde aun el tema.
buenas noches,
estoy liado de cambio de proyector, y mi centro multimedia es un htpc de hace unos 5 años. Para visualizar fullhd perfecto, ademas lo tengo con un ssd y todo perfecto.
De lo que he leido, he venido a entender que actualizando la tarjeta grafica, tengo mas que de sobra, me podeis recomendar alguna? no voy a jugar con el solo quiero que me de la mejor calidad de imagen y sonido posible.
El ultimo post me ha dejado intrigado, teniendo la tarjeta no puedo sacar el hdr por ejemplo con el kodi??
mil gracias.
Hay mucha diferencia entre 8bits y 10bits en cuanto a calidad?
La teoría dice que si, pero siempre que sale una tecnología, hace falta que los que generan los contenidos, en este caso, los directores de cine, se hagan a las bondades del nuevo formato, saquen todo el partido, después, que en el transporte del contenido no se pierda esa calidad, (compresión y bitrate limitados) y por último, que el televisor lo implemente bien.
Dentro tres años estara todo a mano.
¿Nuevo formato?. La "gente del cine" lleva trabajando con 4K y HDR hace más de 5 y 6 años. Y con 4K más de 10 como mínimo. Y los 10 bits están a la orden del día. Las cámaras registran en 4K desde hace muchos años, pero las diferencias entre 1080P y 4K son tan mínimas que no merece la pena meterse en tal fregado. Terminar una peli en 4K significa muchísimo trabajo del que apenas se verá nada. Está demostrado por decenas de pruebas reales con gente normal y corriente. La inmensa mayoría no percibe más calidad viendo 1080P a 4K (y me pasa a mí, salvo que esté a dos palmos del display).
He asistido a muchas charlas sobre ésto, y mucho blablablabla, pero al final, charlando con gente que está dentro de la industria, siguen teniendo muchas dudas, porque si ni ellos son capaces de verlo, ¿como lo va a ver la gente normal?. No hablo de autesugestionarse pensando que ese 1080P escalado es 4K real, es que las diferencias son ínfimas (a mí mismo me cuesta distinguir uno de otro en mi nueva tele de 65"). Frente al monitor (40" 4K) sí veo diferencias, pero es que lo tengo a 40 cm de la cara!!!
Sin embargo el HDR sí supone una mejora perceptiva (aunque estemos en los albores y aún no se sepa muy bien qué hacer y qué no hacer con él). Aunque sea en valores mínimos, se aprecia "algo" que da igual la resolución, ese "algo" es lo que la gente está empezando a tener más interés y es la espina dorsal de todo lo que vamos a ver a partir de ahora.
P.D: HDR no es 4K, HDR es agnóstico en cuanto a resolución, profundidad de bits, sistema de color o etc. HDR se puede aplicar a cualquier imagen que pueda ser compatible y cualquier display lo visualizará como es.
Depende de lo que entiendas por sacar el hdr, pero la respuesta corta es no.
Si entiendes que es mandar los metadatos hdr para que la tele se ajuste automaticamente en modo hdr, procese estos, etc. no es posible ahora. El año que viene powerdvd añade soporte ultrahd y veremos como lo implementan.
CyberLink Press Room
Si te refieres a que sea el htpc quien procese estos metadatos y procese la imagen en funcion de los nits, gamut, etc. y ajustes tu manualmente la tele (brillo, wcg, etc) si puedes utilizando kody dsplayer con el renderer madvr o un reproductor externo que use este renderer.
El problema es que no hay API que permita al renderer decir a la gráfica manda estos metadatos a la tele (nvidia creo que tiene una API para esto pero lo suyo es que haya una para los demas fabricantes, que supongo que ya está en desarrollo).
Mucho o poco es relativo pero por si no entiendes lo que significa mira esta imagen:
Cuantos mas bits hay mas columnas y estas son mas estrechas, menos banding y/o menos ruido (dithering) en la imagen. Tambien cuantos mas bits la diferencia va siendo cada vez menor. Mira esta otra imagen (es una recreacion):
Lo suyo es que veas una imagen 10 bits en un visualizador 10 bits y juzguen tus ojos. El resultado es menos banding pero que sea realmente visible depende de muchos factores y como te dice Cubster que nada en el proceso afecte a la imagen (no solo a nivel codec, tambien procesado en el repro, tele, etc.)
Me atrae la gtx 1050, por unos 200 euros tengo 4K y hdr. Iría a un proyector el epson eh-tw 7300 compatible 4K hdr
Se admiten sugerencias
Gracias