Pues según eso entonces sí que se puede, ¿qué proyector es?. Es que he leído que una tarjeta gráfica sin HDMI entrega 1080i (entrelazado) como máximo....
Pero eso importa menos, creo; puesto que al proyector le pasaré 1920x1080 ó 1440x900, pero no creo que muchas más....
Lo que me preocupa es saber si realmente me va funcionar el proyector en 1080p (será un Optoma HD20 casi con toda seguridad) a través del cable VGA al VGA de la tarjeta, o directamente compro una tarjeta HDMI y listo.
Sacado de wikipedia y corroborado, porque el estandar es asi.
Basicamente que por SVIDEO no estas mandando señal a tu proyector por 1080p ni siquiera da 720p.Código:Separate Video[1][2], more commonly known as S-Video, and sometimes incorrectly [3][4] referred to as Super Video[5] and also known as Y/C, is an analog video signal that carries video data as two separate signals: luma (luminance) and chroma (color). This differs from composite video, which carries picture information as a single lower-quality signal, and component video, which carries picture information as three separate higher-quality signals. S-Video carries standard definition video (typically at 480i or 576i resolution), but does not carry audio on the same cable.
Por VGA hasta lo que yo creo, si se puede, pero los aparatos no suelen aceptar conexiones de 1080p por VGA, suele ser por HDMI o DVI.
Un saludo
Tienes tarjetas muy solventes por menos de 50€. Además por VGA puedes sacar mayor resolución pero nunca desentrelazado. Por eso se hizo la salida de video digital DVI, y después nos metieron los de la SGAE la putada del HDMI, que es lo mismo que el DVI, pero con sonido y diezmil historias más de DHCP para hacernos la vida imposible
A ver si me entero, mi proyector no tiene HDMI, pero soporta hasta 1080i por VGA, mi pregunta es, como conecto el reproductor de Blu Ray al proyector para que por lo menos se vea a 1080i???
Última edición por El Minino; 26/12/2009 a las 03:06
Estas en un error. Por VGA la señal que mandas generalmente desde un ordenador es "progresiva". Hace la tralla de años vendían unos monitores CRT que daban mas resolución a base de entrelazado, pero el entrelazado lo metía el monitor a partir de una señal progresiva. Afortunadamente en poco tiempo se vio que eso era una basura para usos informáticos (no es lo mismo ver una peli en entrelazado que fijar la vista en leer documentos).
La razón de ser de la salida DVI es la aparición de los primeros monitores LCD. Los monitores CRT funcionan con una señal analógica que les llega por VGA, por lo que lógicamente la tarjeta gráfica tenia que hacer la conversion de la imagen digital que ya tenia a analógica. Sin embargo, los LCD funcionaban con imagen digital, por lo que tenían que coger la señal analógica que les llegaba por VGA y volver a pasarla a digital. Obviamente los fabricantes se dieron cuenta de que no tenia sentido meter una electrónica en las tarjetas para pasar la señal a analógica y otra electrónica en los monitores para pasarla de nuevo a digital. El DVI se diseño para ahorrarse esas dos conversiones y la electrónica adicional que llevan aparejada, pasando la señal directamente en digital del pc al monitor, y de paso ganando en calidad al eliminar conversiones innecesarias.
Saludos.