1. RESUELVA SUS DUDAS SOBRE TV DIGITAL EN COLOMBIA
Con el objeto de solucionar las dudas sobre la TV digital, Latin America Pay Televisión
Service responde las preguntas más comunes del tema.
Aumento en capacidad de transporte.
La primer y principal ventaja es la emisión de múltiples canales de televisión en el
lugar que ocupa hoy en día un canal convencional. Los costos son menores, dado que
se utiliza la tecnología de compresión para la multiplicidad de canales. Sabemos que el
ancho de banda de un canal de televisión es de 6 MHz en nuestra región. En Televisión
Digital, con la tecnología de compresión, se pueden alojar múltiples canales. Si los
canales son de deportes, cuyos movimientos de la imagen son rápidos, la capacidad de
canales a alojar en un ancho de banda de 6 MHz es la de un canal de Alta Definición
(HDTV) y hasta tres canales estándar (SDTV). Si los canales a emitir son de películas, o
sea de movimientos moderados, la capacidad de canales a alojar en un ancho de banda
de 6 MHz es de hasta 6 canales estándar o más.
Mayor Calidad de video e imagen.
Gracias a la digitalización y posterior compresión del video es posible aumentar la
resolución y la información adicional del video logrando así más calidad de imagen. Lo
mismo pasa con el audio, logrando transportar mejor calidad de sonido y múltiples
canales.
Inmunidad al ruido.
En la señal analógica el contenido se ve degradado en redes de distribución en forma
paulatina, es decir, a medida que las redes se extienden sin un correcto control, o los
conectores o equipos por los que pasa son de pobre calidad, la señal se degradara en
el usuario final apareciendo efectos como “lloviznas”, “nieve” o “barridos” en la
pantalla. Al digitalizar las señales las mismas llegarán al abonado como dígitos
binarios (0 ó 1) para su decodificación y el traslado a la pantalla. Así, si la señal se
degrada, mientras respete ciertos límites de tolerancia, será decodificada tal cual fue
transmitida. De esta manera, la señal que llegará a todos los abonados será de la
misma calidad siempre con la cual fue concebida. También los sistemas de
codificación emplean métodos de detección y corrección de errores (FEC) por los
cuales si la distorsión es excesiva, tratará de corregir los dígitos que podrían estar
errados.
Combate la piratería.
La TV digital requiere de equipos decodificadores en el hogar para su reproducción, ya
que los sintonizadores incluidos en los equipos de TV tradicionales no logran
decodificar la señal. Además los contenidos contarán con sistemas de seguridad. Por
2. esto, cualquier persona que quiera “colgarse” del cable, no logrará sintonizar las
señales.
Posibilidad de ofrecer servicios adicionales.
Al aumentar la capacidad y digitalizar la señal televisiva a datos, los sistemas podrán
incluir servicios adicionales como ser: VOD (Video On Demand), PPV (Pay Per View),
nVOD (near Video On Demand), canales de música, sistemas de compra venta, etc.
Interactividad.
Podrán utilizarse canales de retorno para que el usuario logre una absoluta
interactividad con el centro de emisión y así solicitar la información que quiera, a la
hora que quiera.
Nuevas plataformas y medios de distribución.
La señal digitalizada permite ser transportada y llegar a nuevos equipos terminales de
reproducción de video (celulares, Ipods, reproductores portátiles de video, etc.) y
también ser distribuida sobre nuevas redes (Internet, Telefónicas, etc.)
¿Qué facilidades brinda la televisión digital en la transmisión del audio?
La televisión digital brinda otras ventajas como, por ejemplo canales de audio con
calidad de CD digital. Por ejemplo, si en 6Mhz transmitimos un canal de alta definición
y tres canales estándar, podemos acompañar a estos con una cantidad de 12 a 15
canales de audio de alta calidad. Al beneficiarnos con múltiples canales de audio será
posible emitir señales con formatos de audio de 5 o mas vías.
¿A qué sistemas se aplica la televisión digital?
La televisión digital se viene utilizando en Sistemas Satelitales desde sus inicios. Es
bien conocida la tecnología de alojar en un “trasponder” de satélite convencional de 36
MHz, muchos canales de televisión estándar. También la televisión digital se está
utilizando en DTH, (Direct To Home) que requiere un usuario con receptor de TV. Pero
la digitalización del contenido de la señal permite ser transportado luego en cualquier
sistema de distribución: Operadores por cable, TV Terrestre Abierta (VHF), TV Terrestre
Paga (MMDS o UHF), Internet o Redes de par de cobre (Telefónicas),
¿Cómo se implementa esta tecnología en los sistemas?
La televisión digital, requiere para su implementación, comprimir las señales en la
estación emisora. Además, con la disponibilidad de mayor cantidad de canales en el
espectro que ocupa un canal convencional, se implementará la codificación de parte o
todas las señales emitidas. La novedad de la codificación se da mejor en los canales
aéreos de VHF (Canales de televisión abiertos o públicos). Por su parte, los canales de
3. UHF se emiten como canales abiertos, o sea sin codificar. Al implementar la Televisión
Digital, estos canales se codificarán en forma parcial o total, para lo cual se requerirá
un equipo decodificador (set top box) en el hogar.
¿A qué se llama sistema simulcast?
Este sistema comprende la emisión, en un mismo ancho de banda, de señales de
televisión estándar y señales para HDTV.
¿Qué se conoce como televisión analógica tradicional a color?
La televisión a color tradicional que todos conocemos abarca los tres sistemas
conocidos en el mundo; NTSC (USA), PAL (Europa) y SECAM (Francia). Cada país adoptó
una de estas normas para generar y emitir contenidos televisivos en sus regiones.
Estas normas eran 100% compatibles a la TV blanco y negro que ya existía.
¿Qué se entiende por Televisión Digital Standard (SDTV)?
La SDTV es justamente la codificación de la señal analógica con definición Standard,
muy parecida a la TV a color tradicional. Los beneficios que esto originó fueron ya
explicados anteriormente sobre la digitalización de la televisión.
¿Qué es la Televisión de Alta Definición?
HDTV significa HIGH DEFINITION TELEVISION, Televisión de Alta Definición. Este
sistema se basa fundamentalmente en: AUMENTO DEL FORMATO DE LA PANTALLA EN
RESOLUCIÓN Y RELACIÓN DE ASPECTO. Esto significa, por un lado, el aumento
considerable de píxeles (puntos en pantalla) tanto verticales como horizontales (se
llega a un sistema de 1920 verticales por 1080 horizontales). Por otro lado, existe un
aumento en la Relación de Aspecto (Aspect Ratio). La televisión convencional ó STV,
(TELEVISIÓN STANDARD), tiene una relación de aspecto de 4/3 (4 fracciones de ancho
por 3 de alto, si tomamos medidas en cms. de ejemplo tendríamos por cada 4cm de
ancho, 3 de alto). En cambio en HDTV la relación de aspecto de la pantalla es de 16/9.
Esto significa un ancho de pantalla de un 33% más que la televisión convencional.
Estudios realizados indican que la adopción de un formato más ancho de pantalla
provoca un mayor grado de participación del espectador en la escena. Este fenómeno
es debido a que el espectador no ve toda la pantalla de una sola vez, sino que elige la
parte de la imagen que desea ver. Además, el formato 16/9, tiene una relación
cuadrática con el formato de televisión convencional o estándar de 4/3. El CCIR
(Comité Consultivo Internacional de Radiodifusión) define que con respecto al formato
de 16/9 -más amplio-, el grado de atención de los observadores con respecto a las
imágenes aumenta exponencialmente.
4. ¿Qué son las normas de Televisión Digital ATSC, DVB y ISDB?
Como las normas NTSC, PAL y SECAM normaron la generación, emisión y recepción de
la televisión analógica color, algo similar ocurre con el transporte del contenido digital.
Así, por un lado, la Comunidad Europea creó la norma DVB; Estados Unidos ideó su
propio estándar ATSC y Japón la norma ISDB. Cada una de estas normas tiene sus
respectivos anexos a cada medio de distribución existente (Terrestre, Cable, Satelital,
etc.) siempre y cuando el sistema permita incluir su contenido en esa red.
¿Qué es Velocidad Binaria?
Al digitalizar el contenido, un programa de televisión pasa a tener una tasa binaria
(bits 0 y 1) y, para que la imagen se forme en la pantalla del televidente, la misma
deberá llegar con cierta velocidad garantizada. Así, aparecen los conceptos conocidos
ya por las redes de computación como “bits por segundo” (bps). De acuerdo al grado
de cambios y movimientos que posea la imagen ésta requerirá más o menos velocidad
de llegada para su reproducción correcta. Si no se garantiza la velocidad requerida, la
imagen comenzará a congelarse o “pixelarse” (concepto de cuadriculación, o
generación de los llamados “artefactos”, en donde porciones de la pantalla dejan de
actualizar las imágenes).
¿Cuáles son las velocidades binarias para los diferentes servicios?
Una señal de Televisión Digital se comprime con la codificación de imagen, a fin de
lograr una velocidad de datos inferior. La transmisión se efectúa mediante una
modulación digital en un canal convencional de 6 MHz. Además de la imagen, también
deben comprimirse el audio, servicios auxiliares de datos y la corrección de errores
para la codificación. Las velocidades binarias promedio requeridas para los distintos
servicios son: Video de bajo dinamismo: 2 Mbits/Seg. Video de alto dinamismo: 4
Mbits/Seg. Audio 64 Kbits/Seg. o menos. La velocidad indicada para el audio
corresponde a 5 canales mono simultáneos. Los datos no tienen límite de capacidad.
¿Qué significan los términos Codificación de la Fuente y Compresión?
Al digitalizar el contenido un programa de televisión pasa a tener una tasa binaria (bits
0 y 1), la cual en estado puro no entraría nunca en el espacio de canalización existente
de 6Mhz. Para solucionar esto el contenido digitalizado deberá ser comprimido.
También se lo conoce como técnica de reducción de datos. Para esto se idearon
normas como JPEG para imágenes estáticas o MPEG para video.
¿Qué es el sistema de compresión JPEG?
Estas siglas corresponden a Joint Photographic Experts Group (Grupo Conjunto de
Expertos en Fotografía). Este sistema de compresión fue el primero en desarrollarse.
Como fue concebido para comprimir imágenes fotográficas, no incluía el audio en el
sistema de compresión. La imagen de entrada tiene el estándar 4:2:2. Esto significa
5. que las imágenes están muestreadas en forma horizontal, pero no vertical. La
capacidad de las imágenes transmitidas es de hasta 65.536 píxeles. Este sistema
resulta pobre para comprimir imágenes de video, debido a su baja velocidad binaria.
Sólo fue concebido para la transferencia de imágenes fotográficas. En aplicaciones de
video, cada campo o cuadro se lo trata como si fuera una imagen.
¿Qué es el sistema de compresión MPEG1?
Este sistema de compresión sucesor del JPEG, fue desarrollado en 1988. Es un estándar
de compresión de video con una velocidad binaria de 1,5 Mbps (Mega bits por
segundo) y el audio a 250 kbps (Kilo bits por segundo). El MPEG1, resulta también
pobre para comprimir imágenes de video. Su desarrollo fue para compresión de
imágenes en CD. El MPEG1 tiene la particularidad de que cuando la señal de entrada es
digital, (Componentes 4:2:2), codifica descartando uno de los dos campos. La
reducción a un campo implica reducir la velocidad binaria a la mitad. Por ende no
existe el entrelazado. La exploración resultante, es una exploración progresiva de 25 ó
30 cuadros por segundo. El efecto de descartar un campo implica dividir por dos la
resolución vertical en imágenes fijas y también dividir por dos la resolución horizontal
mediante el submuestreo a 360 píxeles de luminancia por línea. Las señales de croma
se submuestrean horizontalmente a 180 píxeles por línea y también se submuestrean
verticalmente. De esta forma, en líneas alternadas no habrá píxeles de croma.
¿Qué es el sistema de compresión MPEG2?
El sistema de compresión o estándar MPEG2, fue desarrollado en 1990. En 1991 el
MPEG realizó un programa de pruebas oficiales con 32 algoritmos de codificación
provenientes de USA, Europa y Extremo Oriente. El algoritmo elegido responde a la
“Transformación Discreta del Coseno” (DCT). En julio de 1993 quedaron concluidas en
Nueva York Las especificaciones de MPEG2. Esta norma da cabida a: 1) Imágenes con
exploración entrelazada y progresiva. 2) Esquemas de muestreo 4:2:0 y 4:2:2. 3)
Diversas resoluciones de imágenes. 4) Flexibilidad y escalabilidad en la compresión.
Las normas MPEG no son especificaciones para fabricación de equipos, sino que son
descripciones genéricas en cuanto a la forma en que se comprimen las señales de
video, audio y datos y se multiplexan en un tren de paquetes digitalizados. MPEG2 es
utilizado hoy día en todas las aplicaciones de compresión de video broadcast. El
estándar MPEG2 utiliza toda la tecnología del MPEG1, pero con notables mejoras en el
formato de entrada. Este sistema admite formatos de pantalla variable, o sea que el
decoder puede seleccionar un formato 4:3 de una imagen transmitida en 16:9. El
MPEG2 no es un único estándar. Es un conjunto normalizado de procesos, que pueden
combinarse de muchas maneras. Pueden representarse los niveles 4:2:0, 4:2:2 y 4:4:4.
La frecuencia de imagen no es necesariamente submuestreada y admite entradas de
señales con exploración entrelazada. El sistema MPEG4 es el último estándar publicado
y en auge. Permite mas capacidad de compresión del video logrando reducir la
velocidad binaria requerida para la reproducción del contenido.
6. ¿Qué significa 4:4:4, 4:2:2 y 4:1:1?
Estos términos se utilizan para especificar la relación de muestreo y estructuras de las
señales por componentes digitales. Para componentes análogos, la frecuencia de
muestreo para la señal de luminancia (Y), está estandarizada universalmente en 13,5
MHz. Esta relación de frecuencia de muestreo es necesaria para digitalizar la señal de
video. Para las señales diferencia de color, la frecuencia de muestreo es menor, debido
al bajo ancho de banda de estas señales. Así en una señal 4:4:4, la frecuencia de
muestreo para la señal de luminancia (Y), es de 13,5 MHz. Para cada señal diferencia
de color, Pr y Pb, Las frecuencias de muestreo también son de 13, 5 MHz. Para una
señal identificada como 4:2:2 la frecuencia de muestreo de la señal de luminancia es
de 13, 5 MHz y para cada señal diferencia de color es la mitad o sea 6,75 MHz. Una
señal identificada como 4:1:1, la frecuencia de muestreo de la señal de luminancia es
de 13,5 MHz, mientras que las frecuencias de muestreo de las señales diferencia de
color serán la cuarta parte de la señal de luminancia o sea 3,375 MHz.
¿Cuáles son las normas de exploración de video?
Las normas definidas de exploración son:
FORMATOS ESPACIALES. Resoluciones en pantalla (píxeles o puntos verticales x
horizontales) 1920 x 1152 - 1920 x 1080 -1920 x 1035 - 1440 x 1152 - 1280 x 720
960 x 576 - 720 x 576 - 720 x 480 - 704 x 480 - 640 x 480 - 352 x 240.
FORMATOS TEMPORALES. Frecuencia de muestreo de los frames o cuadros (imágenes)
23.98, 24, 25, 29.97, 30, 50, 59.94 y 60 cuadros por segundo. Esto incluye los 2
distintos métodos de exploración: entrelazado o progresivo.
¿A qué se llama Acceso Condicional?
El acceso condicional es un servicio de protección de alta seguridad para la
distribución de programas al usuario final autorizado. Esto requiere un control de
acceso muy seguro. Mediante el uso de interfaces flexibles debe permitir la
confirmación y autorización al usuario. El corazón principal del acceso condicional es
un software de alta seguridad. Permite autorizar al abonado distintos tipos de
programas y su confirmación a la estación emisora para la posterior facturación.
¿Qué es la IPTV?
Este concepto se refiere a la transmisión del contenido televisivo a través del protocolo
de Internet (IP). La señal es codificada y se agrupa en paquetes llamados “datagramas”
de la misma manera como se maneja Internet. Estos paquetes además del contenido
llevan un “header” o cabecera donde se identifica el o los destinatarios del mismo.
Cada receptor tomará sólo los paquetes identificados con su “identificador” (número IP)
para formar la señal de televisión que ha solicitado. En redes de este estilo toda la
información (TV, Datos y Audio) viajaran en los mismos paquetes. Como sabemos que
7. el canal de TV requiere una tasa binaria garantizada para su correcta distribución, el
proveedor deberá suministrar un ancho de banda razonable para el video. En este
esquema aparece un concepto nuevo en el mercado televisivo y es el Multicast
(distribución a un grupo). Hasta ahora el concepto de las redes televisivas era el de
Broadcast (distribución a todos), pero con la incursión la IPTV, las imágenes empiezan
a viajar identificadas con un número que corresponde a uno o varios usuarios que
solicitan ese contenido televisivo. IPTV es adoptado por la distribución de señales de
TV por ADSL (TV a través del par de cobre de las redes de las empresas telefónicas).
¿Qué es el VoD (Video on Demand)?
El “video on demand” o video por demanda es un servicio donde el operador pone a
disposición de usuario películas o eventos que pueden ser elegidos por el abonado en
cualquier momento. De esta manera el operador genera un nuevo negocio de venta de
contenidos personalizados y el usuario se beneficia de un servicio de películas a la
carta. Para este sistema el abonado deberá estar provisto de un equipo decodificador
con cierto almacenamiento para poder reproducir el contenido comprado. El mismo irá
bajando y le posibilitará al usuario realizar opciones de parada, adelanto, retroceso o
pausa (tal cual un video reproductor). El equipo “set top box” que contiene esta
capacidad se denomina DVR (Digital Video Recorder)
¿Qué se requiere para acceder al contenido de TV digital?
Los programadores deberán producir contenidos digitales los cuales serán ofrecidos a
los operadores. Estos últimos deberán hacer inversiones en nuevo equipamiento en las
salas de control de emisión y en la provisión de “set top box” digitales a los abonados.
Así los usuarios deberán contar con la respectiva caja decodificadora en su hogar para
ver los canales.