Este artículo busca definir la diferencia entre estos dos estándares de gráficos de pantalla.
Tabla de resumen
VGA | SVGA |
Capaz de resolución de pantalla de 640 × 480. | Puede mostrar una resolución de 800 × 600 píxeles cuando se lanza por primera vez. |
Desarrollado por IBM. | Desarrollado por varios fabricantes de hardware y monitores. |
Definiciones
VGA, o matriz de gráficos de video, es un estándar de visualización que se utilizó por primera vez en las computadoras IBM PS / 2 en 1987. Hace uso de señales analógicas, entregando pantallas de resolución de 640 × 480 con 16 colores a la vez y una frecuencia de actualización de 16 colores. Sin embargo, si la resolución se reduce a 320 × 200, un monitor VGA puede mostrar 256 colores. Una computadora que se inicia en Modo seguro generalmente mostrará esta resolución de pantalla. El término VGA también apunta al conector de 15 pines y al estándar de pantalla analógica.
VGA es el último estándar de gráficos de IBM que muchas computadoras usaron a fines de la década de 1990. IBM intentó seguirlo con XGA, o la matriz de gráficos extendida, estándar que ofrecía una resolución de 1024 × 768. Los estándares mejorados (llamados SVGA) fueron lanzados poco después por otros fabricantes y superaron a XGA. La interfaz analógica VGA puede manejar videos HD de 1080p (o superior) y todavía se usa en la actualidad. Es posible que se produzca cierta degradación de la calidad de la imagen, pero se puede evitar utilizando un cable de buena calidad y suficientemente largo.
Muchos fabricantes de gráficos y monitores pudieron desarrollar su propio estándar de visualización llamado SVGA (Super Video Graphics Array), también conocido como Ultra Video Graphics Array. Este grupo de estándares es un paso más alto que el VGA de IBM y puede mostrar resoluciones de 800 × 600 en 16 millones de colores en monitores de 14 pulgadas.
Dependiendo de la memoria de video instalada en la computadora, el sistema puede admitir 256 colores simultáneos o 16 millones de colores.
Las tarjetas SVGA aparecieron casi al mismo tiempo que VGA en 1987, pero no se estableció un punto de referencia para la programación de modos SVGA hasta 1989. La primera versión era capaz de mostrar 800 × 600 píxeles de 4 bits y se extendió a 1024 × 768 de 8 bits. píxeles y más en los años siguientes. Se suponía que el primer SVGA sería reemplazado por Super XGA, pero con los fabricantes eliminando los nombres únicos para cada actualización, la mayoría de los sistemas de visualización fabricados desde finales de los 90 hasta principios de los 2000 se llamaban SVGA.
VGA frente a SVGA
Entonces, ¿cuál es la diferencia entre VGA y SVGA? Aunque ambos estándares de visualización de video usan señales analógicas y los mismos puertos en una computadora, sus similitudes terminan ahí.
El estándar de pantalla VGA puede admitir una resolución máxima de 640 × 480 píxeles. Los monitores SVGA eran capaces de mostrar 800 × 600 píxeles cuando se introdujeron inicialmente y desde entonces han aumentado drásticamente sus capacidades de visualización. IBM desarrolló el estándar de pantalla VGA, que se convirtió en el estándar predeterminado en resolución de pantalla cuando se lanzó en 1987. SVGA es un término colectivo para las diversas actualizaciones de VGA desarrolladas por varios fabricantes de hardware y monitores.