Aparato para la transmisión y recepción de imágenes en movimiento y sonido a distancia que emplea un mecanismo de difusión.

La transmisión puede ser efectuada por medio de ondas de radio, por redes de televisión por cable, televisión por satélite o IPTV, los que existen en modalidades abierta y paga. El receptor de las señales es el televisor.
La palabra «televisión» es un híbrido de la voz griega τῆλε (tēle, «lejos») y la latina visiōnem (acusativo de visiō «visión»). El término televisión se refiere a todos los aspectos de transmisión y programación de televisión. A veces se abrevia como TV. Este término fue utilizado por primera vez en 1900 por Constantin Perskyi en el Congreso Internacional de Electricidad de París (CIEP).

La televisión es el medio de comunicación de masas por excelencia, de manera que la reflexión filosófica sobre ellos, se aplica a ésta.
El Día Mundial de la Televisión se celebra el 21 de noviembre en conmemoración de la fecha en que se celebró en 1996 el primer Foro Mundial de Televisión en las Naciones Unidas.

Los servicios de provisión de contenidos en la modalidad de Vídeo sobre Demanda y/o Internet Streaming no se clasifican como servicios de Televisión. La aparición de televisores que pueden conectarse a [[Internet ]] en los últimos años de la primera década del siglo XXI, abre la posibilidad de la denominada Televisión inteligente en donde se mezclan y conjugan contenidos de la transmisión convencional (broadcast) con otros que llegan vía Internet.

El concepto de televisión (visión a distancia) se puede rastrear hasta Galileo Galilei y su telescopio. Sin embargo no es hasta 1884, con la invención del Disco de Nipkow de Paul Nipkow cuando se hiciera un avance relevante para crear un medio. El cambio que traería la televisión tal y como hoy la conocemos fue la invención del iconoscopio de Vladímir Zvorykin y Philo Taylor Farnsworth. Esto daría paso a la televisión completamente electrónica, que disponía de una tasa de refresco mucho mejor, mayor definición de imagen y de iluminación propia.

En los orígenes de la televisión se expusieron diversas soluciones mecánicas, como el disco de Nipkow, en 1884; sin embargo, se desecharon estos sistemas mecánicos en beneficio de los sistemas de captación totalmente electrónicos actuales.

En 1925 el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando dos discos, uno en el emisor y otro en el receptor, que estaban unidos al mismo eje para que su giro fuera síncrono y separados por 2 mm.

Las primeras emisiones públicas de televisión las efectuó la BBC One en Inglaterra en 1936 la TF1 de Francia en 1935; y la CBS y NBC en Estados Unidos en 1930. En ambos casos se utilizaron sistemas mecánicos y los programas no se emitían con un horario regular.

La primera emisora con programación y horario regular fue creada en 1930 en Berlín por Manfred von Ardenne. En 1928, von Ardennse hizo cargo de su herencia con control total sobre cómo podría gastarse, y estableció su laboratorio de investigación privada Forschungslaboratorium für Elektronenphysik,1 en Berlin-Lichterfelde, para llevar a cabo su propia investigación en tecnología de radio y televisión y microscopía electrónica. Inventó el microscopio electrónico de barrido. En la Muestra de Radio de Berlín en agosto de 1931, Ardenne dio al mundo la primera demostración pública de un sistema de televisión utilizando un tubo de rayos catódicos para transmisión y recepción. (Ardenne nunca desarrollaron un tubo de cámara, usando la CRT en su lugar como un escáner de punto volante para escanear diapositivas y película.)

Ardenne logra su primera transmisión de imágenes de televisión de 24 de diciembre de 1933, seguido de pruebas para un servicio público de televisión en 1934. el primer servicio mundial de televisión electrónicamente escaneada comenzó en Berlín en 1935, que culminó con la emisión en directo de los Juegos Olímpicos de Berlín 1936 desde Berlin a lugares públicos en toda Alemania.

Las emisiones con programación se iniciaron en Inglaterra en 1936, y en Estados Unidos el día 30 de abril de 1939, coincidiendo con la inauguración de la Exposición Universal de Nueva York. Las emisiones programadas se interrumpieron durante la Segunda Guerra Mundial, reanudándose cuando terminó.

Televisión electrónica

En 1937 comenzaron las transmisiones regulares de TV electrónica en Francia y en el Reino Unido. Esto llevó a un rápido desarrollo de la industria televisiva y a un rápido aumento de telespectadores, aunque los televisores eran de pantalla pequeña y muy caros. Estas emisiones fueron posibles por el desarrollo del tubo de rayos catódicos y el iconoscopio.
Captación de imagen[editar]

El iconoscopio está basado en el principio de emisión fotoeléctrica: la imagen se proyecta sobre un mosaico formado por células fotoeléctricas que emiten electrones que originan la señal de imagen. Se usó en Estados Unidos entre 1936 y 1946.

El vidicón es un tubo de 2,2 cm de diámetro y 13,3 cm de largo basado en la fotoconductividad de algunas sustancias. La imagen óptica se proyecta sobre una placa conductora que, a su vez, es explorada por el otro lado mediante un rayo de electrones muy fino.

El plumbicón está basado en el mismo principio que el vidicón, sin embargo, su placa fotoconductora está formada por tres capas: la primera, en contacto con la placa colectora, y la tercera están formadas por un semiconductor; la segunda, por óxido de plomo. De este modo, se origina un diodo que se halla polarizado inversamente; debido a ello, la corriente a través de cada célula elemental, en ausencia de luz, es extraordinariamente baja y la sensibilidad del plumbicón, bajo estas características, muy elevada.

La señal de vídeo

La señal de vídeo es una señal eléctrica variable que contiene diferentes tensiones dependiendo de la luminosidad de la imagen a transmitir, y señales de sincronismo de línea y cuadro. Es una señal transducida de la imagen contiene la información de ésta de forma analógica, pero es necesario, para su recomposición, que haya un perfecto sincronismo entre la deflexión de exploración y la deflexión en la representación. En los sistemas empleados la tensión varía entre 0 y 1 V ( 0,7 para la señal de imagen y 0,3 para sincrónicos))

La exploración de una imagen se realiza mediante su descomposición, primero en fotogramas a los que se llaman cuadros y luego en líneas, leyendo cada cuadro. Para determinar el número de cuadros necesarios para que se pueda recomponer una imagen en movimiento así como el número de líneas para obtener una óptima calidad en la reproducción y la óptima percepción del color (en la TV en color) se realizaron numerosos estudios empíricos y científicos del ojo humano y su forma de percibir. Se obtuvo que el número de cuadros debía de ser al menos de 24 al segundo (luego se emplearon por otras razones 25 y 30) y que el número de líneas debía de ser superior a las 300.

La señal de vídeo la componen la propia información de la imagen correspondiente a cada línea (en la mayoría de países europeos y africanos 625 líneas y en gran parte de Asia y América 525 por cada cuadro) agrupadas en dos campos, las líneas impares y las pares de cada cuadro. A esta información hay que añadir la de sincronismo, tanto de cuadro como de línea, esto es, tanto vertical como horizontal. Al estar el cuadro dividido en dos campos tenemos por cada cuadro un sincronismo vertical que nos señala el comienzo y el tipo de campo, es decir, cuando empieza el campo impar y cuando empieza el campo par. Al comienzo de cada línea se añade el pulso de sincronismo de línea u horizontal (modernamente con la TV en color también se añade información sobre la dominante del color).

La codificación de la imagen se realiza entre 0 V para el negro y 0,7 V para el blanco. Para los sincronismos se incorporan pulsos de -0,3 V, lo que da una amplitud total de la forma de onda de vídeo de 1 V. Los sincronismos verticales están constituidos por una serie de pulsos de -0,3 V que proporcionan información sobre el tipo de campo e igualan los tiempos de cada uno de ellos. El sonido, llamado audio, es tratado por separado en toda la cadena de producción y luego se emite junto al vídeo en una portadora situada al lado de la encargada de transportar la imagen.

Desarrollo de la TV

Es a finales del siglo XX cuando la televisión se convierte en una verdadera bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. En 1953 se crea Eurovisión que asocia a muchos países de Europa conectando sus sistemas de TV mediante enlaces de microondas. Unos años más tarde, en 1960, se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo.

La producción de televisión se desarrolló con los avances técnicos que permitieron la grabación de las señales de vídeo y audio. Esto permitió la realización de programas grabados que podrían ser almacenados y emitidos posteriormente. A finales de los años 50 del siglo XX se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción.

En los años 70 se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el campo. Nacieron los equipos periodismo electrónico o ENG. Poco después se comenzó a desarrollar equipos basados en la digitalización de la señal de vídeo y en la generación digital de señales, nacieron de esos desarrollos los efectos digitales y las paletas gráficas. A la vez que el control de las máquinas permitían el montaje de salas de postproducción que, combinando varios elementos, podían realizar programas complejos.

El desarrollo de la televisión no se paró con la transmisión de la imagen y el sonido. Pronto se vio la ventaja de utilizar el canal para dar otros servicios. En esta filosofía se implementó, a finales de los años 80 del siglo XX el teletexto que transmite noticias e información en formato de texto utilizando los espacios libres de información de la señal de vídeo. También se implementaron sistemas de sonido mejorado, naciendo la televisión en estéreo o dual y dotando al sonido de una calidad excepcional, el sistema que logró imponerse en el mercado fue el NICAM.

La televisión en color

Ya en 1928 se desarrollaron experimentos de la transmisión de imágenes en color en los cuales también tomo parte el ingeniero escocés John Logie Baird. En 1940, el ingeniero mexicano del Instituto Politécnico Nacional Guillermo González Camarena desarrolló y patentó, tanto en México como en Estados Unidos, un Sistema Tricromático Secuencial de Campos. En 1948, el inventor estadounidense Peter Goldmark, quien trabajaba para Columbia Broadcasting System, basándose en las ideas de Baird y González Camarena, desarrolló un sistema similar llamado Sistema Secuencial de Campos, que la empresa adquirió para sus transmisiones televisivas.

Entre los primeros sistemas de televisión en color desarrollados, estuvo un sistema con transmisión simultánea de las imágenes de cada color con receptor basado en un tubo electrónico denominado trinoscope (trinoscopio, en español) desarrollado por la empresa Radio Corporation Of America (RCA).9 Las señales transmitidas por este sistema ocupaban tres veces más espectro radioeléctrico que las emisiones monocromáticas y, además, era incompatible con ellas a la vez que muy costoso. El elevado número de televisores en blanco y negro que ya había en Estados Unidos, exigía que el sistema de color que se desarrollara fuera compatible con los receptores monocromáticos. Esta compatibilidad debía realizarse en ambos sentidos, de modo que las emisiones en color fueran recibidas en receptores para blanco y negro y a la inversa. Este sistema fue abandonado.

Para el desarrollo de sistemas viables de televisión en color, surgieron los conceptos de luminancia y de crominancia. La primera representa la información del brillo de la imagen, lo que corresponde a la señal básica en blanco y negro, mientras que la segunda es la información del color. Estos conceptos habían sido expuestos anteriormente por el ingeniero francés Georges Valensi en 1938, cuando creó y patentó un sistema de transmisión de televisión en color, compatible con equipos para señales en blanco y negro.

En 1950, Radio Corporation of America desarrolló un nuevo tubo de imagen con tres cañones electrónicos, implementados en un solo elemento, que emitían haces que chocaban contra pequeños puntos de fósforo de color, llamados luminóforos, mediante la utilización de una máscara de sombras que permitía prescindir de los voluminosos trinoscopios, anteriormente desarrollados por la empresa. Los electrones de los haces al impactar contra los luminóforos emiten luz del color primario (azul, rojo y verde) correspondiente que mediante la mezcla aditiva genera el color original. En el emisor (la cámara) se mantenían los tubos separados, uno por cada color primario. Para la separación, se hacen pasar los rayos luminosos que conforman la imagen por un prisma dicroico que filtra cada color primario a su correspondiente captador.

Sistemas actuales de Televisión en Color

El primer sistema de televisión en color que respetaba la doble compatibilidad con la televisión monocroma fue desarrollado en 1951 por la empresa estadounidense Hazeltine Corporation, bajo la supervisión de Arthur Loughren, vicepresidente de la empresa y Charles Hirsch, Ingeniero Jefe de la División de Investigación. Este sistema fue adoptado en 1953 por la Federal Communications Commission (Comisión Federal de Comunicaciones de Estados Unidos) y se conoció como NTSC.10 El sistema tuvo éxito y se extendió a buena parte de los países americanos y algunos países asiáticos, como Japón.

Las señales básicas del sistema NTSC son la luminancia (Y) y las componentes de diferencia de color, R-Y y B-Y (es decir el rojo menos la luminancia y el azul menos la luminancia). Este par de componentes permite dar un tratamiento diferenciado al color y al brillo. El ojo humano es mucho más sensible a las variaciones y definición del brillo que a las del color y esto hace que los anchos de banda de ambas señales sean diferentes, lo cual facilita su transmisión ya que ambas señales se deben de implementar en la misma banda cuyo ancho es ajustado.

El sistema NTSC emplea dos señales portadoras de la misma frecuencia para los componentes de diferencia de color, aunque desfasadas en 90º, moduladas con portadora suprimida por modulación de amplitud en cuadratura. Al ser sumadas, la amplitud de la señal resultante indica la saturación del color y la fase es el tinte o tono del mismo. Esta señal se llama de crominancia. Los ejes de modulación, denominados I (en fase) y Q (en cuadratura) están situados de tal forma que se cuida la circunstancia de que el ojo es más sensible al color carne, esto es que el eje I se orienta hacia el naranja y el Q hacia el color magenta. Al ser la modulación con portadora suprimida, es necesario enviar una ráfaga o salva de la misma para que los generadores del receptor puedan sincronizarse con ella. Esta ráfaga suele ir en el pórtico anterior o inicio del pulso de sincronismo de línea. La señal de crominancia se suma a la de luminancia componiendo la señal total de la imagen. Las modificaciones en la fase de la señal de vídeo cuando ésta es transmitida producen errores de tinte.

El sistema de televisión cromática NTSC fue la base de la cual partieron otros investigadores, principalmente europeos. En Alemania un equipo dirigido por el ingeniero Walter Bruch desarrolló un sistema que subsanaba los errores de fase, y que fue denominado PAL (Phase Altenating Line, Línea de Fase Alternada, por sus siglas en inglés). Para lograr este cometido, la fase de la subportadora se alterna en cada línea. La subportadora que modula la componente R-Y, que en el sistema PAL se llama V, tiene una fase de 90º en una línea y de 270º en la siguiente. Esto hace que los errores de fase que se produzcan en la transmisión (y que afectan igual y en el mismo sentido a ambas líneas) se compensen a la representación de la imagen al verse una línea junto a la otra. Si la integración de la imagen para la corrección del color la realiza el propio ojo humano, entonces el sistema se denomina PAL S (PAL Simple) y si se realiza mediante un circuito electrónico, es el PAL D (PAL Delay, retardado).

En Francia, el investigador Henri de France desarrolló un sistema diferente, denominado SECAM (Siglas de SÉquentiel Couleur À Mémoire, Color secuencial con memoria, por sus siglas en francés) que basa su actuación en la trasmisión secuencial de cada componente de color que modula en FM de tal forma que en una línea aparece una componente de color y en la siguiente la otra. Luego, el receptor las combina para deducir el color de la imagen. El PAL fue propuesto como sistema de color paneuropeo en la Conferencia de Oslo de 1966. Pero no se llegó a un acuerdo y como resultado, los gobiernos de los países de Europa Occidental, con la excepción de Francia, adoptaron el PAL, mientras que los de Europa Oriental y Francia el SECAM.
Todos los sistemas tienen ventajas e inconvenientes. Mientras que el NTSC y el PAL dificultan la edición de la señal de vídeo por su secuencia de color en cuatro y ocho campos, respectivamente, el sistema SECAM hace imposible el trabajo de mezcla de señales de vídeo.

La alta definición

El sistema de televisión de definición estándar, conocido por la siglas «SD», tiene en su versión digital, una definición de 720×576 píxeles (720 puntos horizontales en cada línea y 576 puntos verticales que corresponden a las líneas activas de las normas de 625 líneas) con un total de 414.720 píxeles. En las normas de 525 líneas se mantienen los puntos por línea pero el número de líneas activas es solo de 480, lo que da un total de píxeles de 388.800 siendo los píxeles levemente anchos en PAL y levemente altos en NTSC.

Se han desarrollado 28 sistemas diferentes de televisión de alta definición. Hay diferencias en cuanto a relación de cuadros, número de líneas y pixeles y forma de barrido. Todos ellos se pueden agrupar en cuatro grandes grupos de los cuales dos ya han quedado obsoletos (los referentes a las normas de la SMPTE 295M, 240M y 260M) manteniéndose otros dos que difieren, fundamentalmente, en el número de líneas activas, uno de 1080 líneas activas (SMPT 274M) y el otro de 720 líneas activas (SMPT 269M).

En el primero de los grupos, con 1080 líneas activas, se dan diferencias de frecuencia de cuadro y de muestras por línea (aunque el número de muestras por tiempo activo de línea se mantiene en 1920) también la forma de barrido cambia, hay barrido progresivo o entrelazado. De la misma forma ocurre en el segundo grupo, donde las líneas activas son 720 teniendo 1280 muestras por tiempo de línea activo. En este caso la forma de barrido es siempre progresiva.

En el sistema de HD de 1080 líneas y 1920 muestras por línea tenemos 2.073.600 pixeles en la imagen y en el sistema de HD de 720 líneas y 1280 muestras por líneas tenemos 921.600 pixeles en la pantalla. En relación con los sistemas convencionales tenemos que la resolución del sistema de 1.080 líneas es 5 veces mayor que el del PAL y cinco veces y media que el del NTSC. Con el sistema de HD de 720 líneas es un 50% mayor que en PAL y un 66% mayor que en NTSC.

La alta resolución requiere también una redefinición del espacio de color cambiando el espacio de color a Rec.709.

Relación de Aspecto

En la década de 1990 se empezaron a desarrollar los sistemas de televisión de alta definición. Todos estos sistemas, en principio analógicos, aumentaban el número de líneas de la imagen y cambiaban la relación de aspecto (relación entre la anchura y la altura de la imagen) pasando del formato utilizado hasta entonces de 4:3, al de 16:9. Este nuevo formato, más agradable a la vista se estableció como norma, incluso en emisiones de definición estándar. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.

1. Una imagen de 4:3 que sea observada en una pantalla de 16:9 puede presentarse de tres formas diferentes:
Con barras negras verticales a cada lado (pillarbox), con lo que se mantiene la relación de 4:3 pero se pierde parte de la zona activa de la pantalla.

Agrandando la imagen hasta que ocupe toda la pantalla horizontalmente. Se pierde parte de la imagen por la parte superior e inferior de la misma.

Deformando la imagen para adaptarla al formato de la pantalla. Se usa toda la pantalla y se ve toda la imagen, pero con la geometría alterada, ya que los círculos se transforman en elipses con su eje mayor orientado horizontalmente.

2. Una imagen de 16:9 observada en pantallas de 4:3, de forma similar, puede ser presentada en tres formas:
Con barras horizontales arriba y abajo de la imagen (letterbox). Se ve toda la imagen pero se pierde tamaño de pantalla. Hay dos formatos de letterbox (13:9 y 14:9) y se usa uno u otro, dependiendo de la parte visible de la imagen observada: cuanto más grande se haga, más se recorta.

Agrandando la imagen hasta ocupar toda la pantalla verticalmente, perdiéndose las partes laterales de la imagen.

Deformando la imagen para adaptarla a la relación de aspecto de la pantalla. Como en el caso de la relación de 4:3 la geometría es alterada, ya que los círculos se convierten en elipses con su eje mayor orientado verticalmente.

La digitalización

A finales de los años 1980 se empezaron a desarrollar sistemas de digitalización. La digitalización en la televisión tiene dos partes bien diferenciadas. Por un lado está la digitalización de la producción y por el otro la de la transmisión.

En cuanto a la producción se desarrollaron varios sistemas de digitalización. Los primeros de ellos estaban basados en la digitalización de la señal compuesta de vídeo que no tuvieron éxito.

El planteamiento de digitalizar las componentes de la señal de vídeo, es decir la luminancia y las diferencias de color, fue el que resultó más idóneo. En un principio se desarrollaron los sistemas de señales en paralelo, con gruesos cables que precisaban de un hilo para cada bit, pronto se sustituyó ese cable por la transmisión multiplexada en tiempo de las palabras correspondientes a cada una de las componentes de la señal, además este sistema permitió incluir el audio, embebiéndolo en la información transmitida, y otra serie de utilidades.

Para el mantenimiento de la calidad necesaria para la producción de TV se desarrolló la norma de Calidad Estudio CCIR-601. Mientras que se permitió el desarrollo de otras normas menos exigentes para el campo de las producciones ligeras (EFP) y el periodismo electrónico (ENG).

La diferencia entre ambos campos, el de la producción en calidad de estudio y la de en calidad de ENG estriba en la magnitud el flujo binario generado en la digitalización de las señales.

La reducción del flujo binario de la señal de vídeo digital dio lugar a una serie de algoritmos, basados todos ellos en la transformada discreta del coseno tanto en el dominio espacial como en el temporal, que permitieron reducir dicho flujo posibilitando la construcción de equipos más accesibles. Esto permitió el acceso a los mismos a pequeñas empresas de producción y emisión de TV dando lugar al auge de las televisiones locales.

En cuanto a la transmisión, la digitalización de la misma fue posible gracias a las técnicas de compresión que lograron reducir el flujo a menos de 5 Mbit/s, hay que recordar que el flujo original de una señal de calidad de estudio tiene 270 Mbit/s. Esta compresión es la llamada MPEG-2 que produce flujos de entre 4 y 6 Mbit/s sin pérdidas apreciables de calidad subjetiva.
Las transmisiones de TV digital tienen tres grandes áreas dependiendo de la forma de la misma aún cuando son similares en cuanto a tecnología. La transmisión se realiza por satélite, cable y vía radiofrecuencia terrestre, ésta es la conocida como TDT.

El avance de la informática, tanto a nivel del hardware como del software, llevaron a sistemas de producción basados en el tratamiento informático de la señal de televisión. Los sistemas de almacenamiento, como los magnetoscopios, pasaron a ser sustituidos por servidores informáticos de vídeo y los archivos pasaron a guardar sus informaciones en discos duros y cintas de datos.
Los ficheros de vídeo incluyen los metadatos que son información referente a su contenido.

El acceso a la información se realiza desde los propios ordenadores donde corren programas de edición de vídeo de tal forma que la información residente en el archivo es accesible en tiempo real por el usuario. En realidad los archivos se estructuran en tres niveles, el on line, para aquella información de uso muy frecuente que reside en servidores de discos duros, el near line, información de uso frecuente que reside en cintas de datos y éstas están en grandes librerías automatizadas, y el archivo profundo donde se encuentra la información que está fuera de línea y precisa de su incorporación manual al sistema. Todo ello está controlado por una base de datos en donde figuran los asientos de la información residente en el sistema.

La incorporación de información al sistema se realiza mediante la denominada función de ingesta. Las fuentes pueden ser generadas ya en formatos informáticos o son convertidas mediante conversores de vídeo a ficheros informáticos. Las captaciones realizadas en el campo por equipos de ENG o EFP se graban en formatos compatibles con el del almacenamiento utilizando soportes diferentes a la cinta magnética, las tecnologías existentes son DVD de rayo azul (de Sony), grabación en memorias ram (de Panasonic) y grabación en disco duro (de Ikegami).

La existencia de los servidores de vídeo posibilita la automatización de las emisiones y de los programas de informativos mediante la realización de listas de emisión.

Difusión Digital

Estas formas de difusión se han mantenido con el nacimiento de la televisión digital con la ventaja de que el tipo de señal es muy robusta a las interferencias y la norma de emisión está concebida para una buena recepción. También hay que decir que acompaña a la señal de televisión una serie de servicios extras que dan un valor añadido a la programación y que en la normativa se ha incluido todo un campo para la realización de la televisión de pago en sus diferentes modalidades.

La difusión de la televisión digital se basa en el sistema DVB Digital Video Broadcasting y es el sistema utilizado en Europa. Este sistema tiene una parte común para la difusión de satélite, cable y terrestre. Esta parte común corresponde a la ordenación del flujo de la señal y la parte no común es la que lo adapta a cada modo de transmisión. Los canales de transmisión son diferentes, mientras que el ancho de banda del satélite es grande el cable y la vía terrestre lo tienen moderado, los ecos son muy altos en la difusión vía terrestre mientas que en satélite prácticamente no existen y en el cable se pueden controlar, las potencias de recepción son muy bajas para el satélite (llega una señal muy débil) mientras que en el cable son altas y por vía terrestre son medias, la misma forma tiene la relación señal-ruido.

Los sistemas utilizados según el tipo de canal son los siguientes, para satélite el DVB-S, para cable el DVB-C y para terrestre (también llamando terrenal) DVB-T. Muchas veces se realizan captaciones de señales de satélite que luego son metidas en cable, para ello es normal que las señales sufran una ligera modificación para su adecuación a la norma del cable.

En EE.UU. se ha desarrollado un sistema diferente de televisión digital, el ATSC Advanced Television System Committee que mientras que en las emisiones por satélite y cable no difiere mucho del europeo, en la TDT es totalmente diferente. La deficiencia del NTSC ha hecho que se unifique lo que es televisión digital y alta definición y el peso de las compañías audiovisuales y cinematográficas ha llevado a un sistema de TDT característico en el que no se ha prestado atención alguna a la inmunidad contra los ecos.

Televisión terrestre

La difusión analógica por vía terrestre, por radio, está constituida de la siguiente forma; del centro emisor se hacen llegar las señales de vídeo y audio hasta los transmisores principales situados en lugares estratégicos, normalmente en lo alto de alguna montaña dominante. Estos enlaces se realizan mediante enlaces de microondas punto a punto. Los transmisores principales cubren una amplia zona que se va rellenando, en aquellos casos que haya sombras, con reemisores. La transmisión se realiza en las bandas de UHF y VHF, aunque esta última está prácticamente extinguida ya que en Europa se ha designado a la aeronáutica y a otros servicios como la radio digital.

La difusión de la televisión digital vía terrestre, conocida como TDT se realiza en la misma banda de la difusión analógica. Los flujos de transmisión se han reducido hasta menos de 6 Mb/s lo que permite la incorporación de varios canales. Lo normal es realizar una agrupación de cuatro canales en un Mux el cual ocupa un canal de la banda (en analógico un canal es ocupado por un programa). La característica principal es la forma de modulación. La televisión terrestre digital dentro del sistema DVB-T utiliza para su transmisión la modulación OFDM Orthogonal Frecuency Division Multiplex que le confiere una alta inmunidad a los ecos, aún a costa de un complicado sistema técnico.

La OFDM utiliza miles de portadoras para repartir la energía de radiación, las portadoras mantienen la ortogonalidad en el dominio de la frecuencia. Se emite durante un tiempo útil al que sigue una interrupción llamada tiempo de guarda. Para ello todos los transmisores deben estar síncronos y emitir en paralelo un bit del flujo de la señal. El receptor recibe la señal y espera el tiempo de guarda para procesarla, en esa espera se desprecian los ecos que se pudieran haber producido. La sincronía en los transmisores se realiza mediante un sistema de GPS.

La televisión digital terrestre en los EE. UU., utiliza la norma ATSC Advanced Television System Committee que deja sentir la diferente concepción respecto al servicio que debe tener la televisión y el peso de la industria audiovisual y cinematográfica estadounidense. La televisión norteamericana se ha desarrollado a base de pequeñas emisoras locales que se unían a una retransmisión general para ciertos programas y eventos, al contrario que en Europa donde han primado las grandes cadenas nacionales. Esto hace que la ventaja del sistema europeo que puede crear redes de frecuencia única para cubrir un territorio con un solo canal no sea apreciada por los norteamericanos. El sistema americano no ha prestado atención a la eliminación del eco. La deficiencia del NTSC es una de las causas de las ansias para el desarrollo de un sistema de TV digital que ha sido asociado con el de alta definición.

EL ATSC estaba integrado por empresas privadas, asociaciones e instituciones educativas. La FCC Federal Communication Commission aprobó la norma resultante de este comité como estándar de TDT en EE. UU. el 24 de diciembre de 1996. Plantea una convergencia con los ordenadores poniendo énfasis en el barrido progresivo y en el píxel cuadrado. Han desarrollado dos jerarquías de calidad, la estándar (se han definido dos formatos, uno entrelazado y otro progresivo, para el entrelazado usan 480 líneas activas a 720 píxeles por línea y el progresivo 480 líneas con 640 píxeles por línea, la frecuencia de cuadro es la de 59,94 y 60 Hz y el formato es de 16/9 y 3/4) y la de alta definición (en AD tienen dos tipos diferentes uno progresivo y otro entrelazado, para el primero se usan 720 líneas de 1.280 pixeles, para el segundo 1.080 líneas y 1.920 pixeles por línea a 59,94 y 60 cuadros segundo y un formato de 16/9 para ambos). Han desarrollado dos jerarquías de calidad, la estándar y la de alta definición. Utiliza el ancho de banda de un canal de NTSC para la emisión de televisión de alta definición o cuatro en calidad estándar.

Los sistemas de difusión digitales están llamados a sustituir a los analógicos, se prevé que se dejen de realizar emisiones en analógico, en Europa está previsto el apagón analógico para el 2012 y en EE. UU. se ha decretado el 17 de febrero de 2009 como la fecha límite en la que todas las estaciones de televisión dejen de transmitir en sistema analógico y pasen a transmitir exclusivamente en sistema digital. El día 8 de septiembre de 2008 al mediodía se realizó la primera transición entre sistemas en el poblado de Wilmington, Carolina del Norte.

Televisión por cable

La televisión por cable surge por la necesidad de llevar señales de televisión y radio, de índole diversa, hasta el domicilio de los abonados, sin necesidad de que éstos deban disponer de diferentes equipos receptores, reproductores y sobre todo de antenas.
Precisa de una red de cable que parte de una «cabecera» en donde se van embebiendo, en multiplicación de frecuencias, los diferentes canales que tienen orígenes diversos. Muchos de ellos provienen de satélites y otros son creados ex profeso para la emisión por cable.
La ventaja del cable es la de disponer de un canal de retorno, que lo forma el propio cable, que permite el poder realizar una serie de servicios sin tener que utilizar otra infraestructura.
La dificultad de tender la red de cable en lugares de poca población hace que solamente los núcleos urbanos tengan acceso a estos servicios.
La transmisión digital por cable está basada en la norma DVB-C, muy similar a la de satélite, y utiliza la modulación QAM.

Televisión por satélite

La difusión vía satélite se inició con el desarrollo de la industria espacial que permitió poner en órbita geoestacionaria satélites con transductores que emiten señales de televisión que son recogidas por antenas parabólicas.

El alto coste de la construcción y puesta en órbita de los satélites, así como la vida limitada de los mismos, se ve aliviado por la posibilidad de la explotación de otra serie de servicios como son los enlaces punto a punto para cualquier tipo de comunicación de datos. No es desdeñable el uso militar de los mismos, aunque parte de ellos sean de aplicaciones civiles, ya que buena parte de la inversión está realizada con presupuesto militar.

La ventaja de llegar a toda la superficie de un territorio concreto, facilita el acceso a zonas muy remotas y aisladas. Esto hace que los programas de televisión lleguen a todas partes.
La transmisión vía satélite digital se realiza bajo la norma DVB-S, la energía de las señales que llegan a las antenas es muy pequeña aunque el ancho de banda suele ser muy grande.

Televisión IP (IPTV)

El desarrollo de redes IP administradas, basadas en accesos de los clientes a las mismas mediante XDSL o fibra óptica, que proporcionan gran ancho de banda, así como el aumento de las capacidades de compresión de datos de los algoritmos tipo MPEG, ha hecho posible la distribución de la señal de televisión de forma digital encapsulada en mediante tecnología IP.

Han surgido así, a partir del año 2003, plataformas de distribución de televisión IP (IPTV) soportadas tanto en redes del tipo XDSL, o de fibra óptica para visualización en televisor, como para visualización en computadoras y teléfonos móviles.

Es frecuente emplear de forma equivocada el término IPTV para con cualquier servicio de vídeo que utiliza el Protocolo de Internet IP. En términos formales debe utilizarse únicamente para redes gestionadas de IP. No es el caso de una red de tipo «best-effort» como Internet.

La televisión de 3D

La visión estereoscópica o estereovisión es una técnica ya conocida y utilizada en la fotografía de principios del siglo XX. A finales de ese mismo siglo el cine en 3D, en tres dimensiones, era ya habitual y estaba comercializado. A finales de la primera década del siglo XXI comienzan a verse los primeros sistemas comerciales de televisión en 3D basados en la captación, transmisión y representación de dos imágenes similares desplazadas la una respecto a la otra y polarizadas. Aunque se experimentó algún sistema sin que se necesitaran gafas con filtros polarizados para ver estas imágenes en tres dimensiones, como el de la casa Philips, los sistemas existentes, basados en el mismo principio que el cine en 3D, precisan de la utilización de filtros de color, color rojo para el ojo derecho y cian para el ojo izquierdo,

El sistema de captación está compuesto por dos cámaras convencionales o de alta resolución debidamente adaptadas y sincronizadas controlando los parámetros de convergencia y separación así como el monitoreado de las imágenes captadas para poder corregir en tiempo real los defectos propios del sistema. Normalmente se realiza una grabación y una posterior postproducción en donde se corrigen los defectos inherentes a este tipo de producciones (aberraciones, diferencias de colorimetría, problemas de convergencia, etc.).

Tipos de Televisores

Se conoce como televisor al aparato electrodoméstico destinado a la recepción de la señal de televisión. Suele constar de un sintonizador y de los mandos y circuitos necesarios para la conversión de las señales eléctricas, bien sean analógicas o digitales, en representación de las imágenes en movimiento en la pantalla y el sonido por los altavoces. Muchas veces hay servicios asociados a la señal de televisión que el televisor debe procesar, como el teletexto o el sistema NICAM de audio.

Desde los receptores mecánicos hasta los modernos televisores planos ha habido todo un mundo de diferentes tecnologías.

El tubo de rayos catódicos, que fue el que proporcionó el gran paso en el desarrollo de la televisión, se resiste a desaparecer al no encontrarse, todavía, quien lo sustituya, manteniendo la calidad de imagen y el precio de producción que éste proporciona. Las pantallas planas de cristal líquido o de plasma no han logrado sustituirlo al dar una imagen de inferior calidad y tener un elevado precio, su gran ventaja es la línea moderna de su diseño. Los televisores preparados para la alta definición tampoco están abriéndose paso al carecer de horas de programación en esa calidad y al contentarse el usuario con la calidad de la emisión estándar.

A poco tiempo del llamado «apagón analógico» todavía son escasos los televisores y otros electrodomésticos que se usan en televisión, como grabadores, que incluyen el sintonizador TDT o los decodificadores para la recepción de cable y satélite.

Algunos tipos de televisores
Televisor blanco y negro: la pantalla sólo muestra imágenes en blanco y negro.
Televisor en color: la pantalla es apta para mostrar imágenes en color. (Puede ser CRT, LCD, Plasma o LED)
Televisor pantalla LCD: plano, con pantalla de cristal líquido (o LCD)
Televisor pantalla de plasma: plano, usualmente se usa esta tecnología para formatos de mayor tamaño.
Televisor LED: Plano, con una pantalla constituida por LEDs.
Televisor Holográfico: Proyector que proyecta una serie de imágenes en movimiento sobre una pantalla transparente.

Durante una conferencia de prensa en Berlín, dentro de la feria de muestras industriales y electrónica de consumo IFA 2009, Sony anunció sus planes de presentar avances en la experiencia de visualización 3D para los hogares. Sony se refiere a la tecnología 3D de algunos de sus televisores, como BRAVIA, que además de su pantalla LCD incorporaría un sistema para reproducir contenidos en alta definición, las imágenes 3D se verían mediante unas gafas especiales o sin estas.

Sony desarrolló la compatibilidad de la tecnología 3D en otros modelos de televisores, además de otras unidades como productos relacionados con Blu-ray, VAIO o la consola de videojuegos PlayStation, de modo que sea posible ver imágenes 3D en una variedad de contenidos multimedia reproducidos desde el televisor del hogar, como películas, series o incluso videojuegos. Aunque empezó como avance aprovechando la feria IFA alemana, en el año 2010 ya salieron a la venta los primeros modelos.

Compilado por Fabián Sorrentino
Fuente Narrativa: Wikipedia.