tecnología de la grabación, procesamiento, almacenamiento, transmisión de imágenes y reconstrucción por medios electrónicos digitales o analógicos de una secuencia de imágenes que representan escenas en movimiento. Etimológicamente la palabra video proviene del verbo latino video, vides, videre, que se traduce como el verbo ‘ver’. Se suele aplicar este término a la señal de video y muchas veces se la denomina «el video» o «la video» a modo de abreviatura del nombre completo de la misma.

La tecnología de video fue desarrollada por primera vez para los sistemas de televisión, pero ha derivado en muchos formatos para permitir la grabación de video de los consumidores y que además pueda ser visto a través de Internet.

En algunos países se llama así también a una grabación de imágenes y sonido en cinta magnética o en disco óptico, aunque con la aparición de estos últimos dicho término se identifica generalmente con las grabaciones anteriores en cinta magnética, del tipo VHS, Betamax. Muchos videos se cuelgan en sitios web, como por ejemplo YouTube, que contiene diferentes tipos de reproducciones.

Inicialmente la señal de video está formada por un número de líneas agrupadas en varios cuadros y estos a la vez divididos en dos campos portan la información de luz y color de la imagen. El número de líneas, de cuadros y la forma de portar la información del color depende del estándar de televisión concreto. La amplitud de la señal de video es de 1Vpp (1 voltio de pico a pico) estando la parte de la señal que porta la información de la imagen por encima de 0V y la de sincronismos por debajo el nivel de 0V. La parte positiva puede llegar hasta 0,7V para el nivel de blanco, correspondiendo a 0V el negro y los sincronismos son pulsos que llegan hasta -0,3V. En la actualidad hay multitud de estándares diferentes, especialmente en el ámbito informático.

La imagen está formada por luz y color; la luz define la imagen en blanco y negro (es la información que se utiliza en sistemas de blanco y negro) y a esta parte de la señal de video se la llama luminancia.

Existen estándares diferentes para la codificación del color, NTSC (utilizado en casi toda América, dependencias estadounidenses, Corea, Japón y Myanmar), SECAM (Francia, sus dependencias y ex colonias; mayoría de Rusia) y PAL (resto de Europa; Argentina, Brasil, Groenlandia y Uruguay en América; mayoría de África, Asia y Oceanía).

Número de fotogramas por segundo
Velocidad de carga de las imágenes (cadencia): número de imágenes por unidad de tiempo de video, para viejas cámaras mecánicas cargas de seis a ocho fotogramas por segundo (fps) o 120 imágenes por segundo o más para las nuevas cámaras profesionales. Los estándares PAL (Europa, Asia, Australia, etc.) y SECAM (Francia, Rusia, partes de África, etc.) especifican 25 fps, mientras que NTSC (EE. UU., Canadá, Japón, etc.) especifica 29,97 fps.

El cine es más lento con una velocidad de 24fps, lo que complica un poco el proceso de transferir una película de cine a video. Para lograr la ilusión de una imagen en movimiento, la velocidad mínima de carga de las imágenes es de unas quince imágenes por segundo, sin embargo el ojo humano puede distinguir movimiento mucho más fluido por encima de los 48 fotogramas por segundo.

Relación de Aspecto
La relación de aspecto se expresa por la anchura de la pantalla en relación a la altura. El formato estándar hasta el momento en que se comenzó con la estandarización de la televisión de Alta resolución tenía una relación de aspecto de 4/3. El adoptado es de 16/9. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.

Una imagen de 4/3 que se vaya a ver en una pantalla de 16/9 puede presentarse de tres formas diferentes:
Con barras negra verticales a cada lado (letterbox). Manteniendo la relación de 4/3 pero perdiendo parte de la zona activa de la pantalla.
Agrandando la imagen hasta que ocupe toda la pantalla horizontalmente. Se pierde parte de la imagen por la parte superior e inferior de la misma.

Deformando la imagen para adaptarla al formato de la pantalla. Se usa toda la pantalla y se ve toda la imagen, pero con la geometría alterada (los círculos se ven elipses con el diámetro mayor orientado de derecha a izquierda).

Una imagen de 16/9 que se vaya a ver en una pantalla de 4/3, de forma similar, tiene tres formas de verse:
Con barras horizontales arriba y abajo de la imagen (letterbox). Se ve toda la imagen pero se pierde tamaño de pantalla (hay varios formatos de letterbox dependiendo de la parte visible de la imagen que se vea (cuanto más grande se haga más se recorta), se usan el 13/9 y el 14/9).

Agrandando la imagen hasta ocupar toda la pantalla verticalmente, perdiéndose las partes laterales la imagen.

Deformando la imagen para adaptarla a la relación de aspecto de la pantalla. se ve toda la imagen en toda la pantalla, pero con la geometría alterada (los círculos se ven elipses con el diámetro mayor orientado de arriba a abajo).

Calidad de video
La calidad de video se puede medir con métricas formales como PSNR o subjetivas con calidad de video usando la observación de expertos.

La calidad de video subjetiva de un sistema de procesamiento de video puede ser evaluada como sigue:
Elige las secuencias de video (el SRC) a usar para la realización del test.
Elige los ajustes del sistema a evaluar (el HRC).
Elige un método de prueba para presentar las secuencias de video a los expertos y recopilar su valoración.
– Invita a un número suficiente de expertos, preferiblemente un número no menor de 15.
– Realiza las pruebas.
– Calcula la media para cada HRC basándote en la valoración de los expertos o no expertos.

Hay muchos métodos de calidad de video subjetiva descritos en la recomendación BT.500. de la ITU-T. Uno de los métodos estandarizados es el Double Stimulus Impairment Scale (DSIS). En este método, cada experto ve una referencia intacta del video seguida de una versión dañada del mismo video. El experto valora entonces el video dañado utilizando una escala que va desde “los daños son imperceptibles” hasta “los daños son muy molestos”.

Método de compresión de video (sólo digital)
Se usa una amplia variedad de métodos para comprimir secuencias de video. Los datos de video contienen redundancia temporal, espacial y espectral. En términos generales, se reduce la redundancia espacial registrando diferencias entre las partes de una misma imagen (frame); esta tarea es conocida como compresión intraframe y está estrechamente relacionada con la compresión de imágenes. Así mismo, la redundancia temporal puede ser reducida registrando diferencias entre imágenes (frames); esta tarea es conocida como compresión interframe e incluye la compensación de movimiento y otras técnicas. Los estándares por satélite, y MPEG-4 usado para los sistemas de video domésticos.

Tasa de bits (sólo digital)
La tasa de bits es una medida de la tasa de información contenida en un flujo o secuencia de video. La unidad en la que se mide es bits por segundo (bit/s o bps) o también Megabits por segundo (Mbit/s o Mbps). Una mayor tasa de bits permite mejor calidad de video. Por ejemplo, el VideoCD, con una tasa de bits de cerca de 1Mbps, posee menos calidad que un DVD que tiene una tasa de alrededor de 20Mbps. La VBR (Variable Bit Rate – Tase de Bits Variable) es una estrategia para maximizar la calidad visual del video y minimizar la tasa de bits. En las escenas con movimiento rápido, la tasa variable de bits usa más bits que los que usaría en escenas con movimiento lento pero de duración similar logrando una calidad visual consistente. En los casos de vídeo streaming en tiempo real y sin buffer, cuando el ancho de banda es fijo (por ejemplo en videoconferencia emitida por canales de ancho de banda constante) se debe usar CBR (Constant Bit Rate – Tasa de Bits Constante).

Video Estereoscopio
El video estereoscopio requiere o de plástico rojo/cían proporcionan la forma de ver las imágenes discretamente para formar una vista espectroscópica del contenido. Los nuevos discos HD DVD y blu-ray mejorarán en gran medida el efecto 3D en los programas estéreo codificados por colores. Los primeros reproductores HD disponibles comercialmente se esperaba que debutaran en el NAB Show de abril del 2006 en Las Vegas.