3. Señal de Video
El vídeo es la técnica que engloba la captura, el almacenaje y la
reproducción de imágenes en movimiento. Es un proceso
electrónico que puede ser analógico o digital. La sucesión de
imágenes fijas crea la sensación de movimiento que capta,
almacena y reproduce el vídeo.
La señal de vídeo analógica se produce tras convertir los cambios
de la intensidad de la luz en señales eléctricas. Estas señales son
impresas en materiales fotosensibles como las cintas de vídeo.
Las imágenes fijas del vídeo son conocidas como frames. La
frecuencia a la que son reproducidas estas imágenes se
denomina framerate y viene dado en frames por segundo (fps).
4. Video Analógico
La señal de vídeo analógico se consigue a través del muestreo
periódico de la información que llega a la cámara. Este proceso es
conocido como barrido o scanning. A través de él se obtienen los
datos de luminancia y crominancia.
La luminancia es la señal que dará la información sobre la
intensidad de la luz. La crominancia es la portadora de la
información acerca de los colores del objeto. El sistema de vídeo
compuesto es el que tiene ambas señales. Su calidad es menor ya
que las señales se deterioran con facilidad aunque es el más
habitual.
En vídeo analógico la calidad de la señal dependerá de la calidad
del grabador, del soporte y del reproductor. Esta calidad se
reducirá en función del número de veces que sea reproducido.
5. Soportes de Video Analógico
Los diferentes soportes de vídeo analógico son muy similares a
los de audio analógico. Son cintas electromagnéticas protegidas
por una carcasa plástica.
El soporte de vídeo analógico más popular es la cinta VHS.
También han existido soportes como el Betamax, el U-Matic, el
Betacam o el Super 8. La mayor parte de ellos están en desuso.
6. Sistemas de Codificación
En vídeo analógico y en vídeo digital existen dos sistemas o
normas de codificación y transmisión de señal básicos. Surgen
como respuesta a la necesidad de ampliación del sistema de
televisión en blanco y negro al entrar la televisión en color.
7. Sistemas de Codificación
NTSC
El sistema NTSC (siglas de National Televisión System Commitee)
surge alrededor de 1940 con la televisión analógica. Este sistema
transmite 30 imágenes por segundo. Está compuesto por 525
líneas horizontales aunque sólo 486 son visibles. Cada una de sus
líneas tiene 648 píxels. La norma NTSC nos ofrece estas 525
líneas a través de dos campos entrelazados compuestos de 262,5
líneas.
Su uso está extendido sobretodo en América del Norte, América
Central y Japón. Las televisiones que emiten en NTSC utilizan 6
Mhz de ancho de banda. De esos 6 Mhz sólo 4,25 son útiles. Con
esta norma el sonido se emite con modulación de frecuencia y su
aspecto de ratio es de 4:3.
8. Sistemas de Codificación
PAL
PAL son las siglas de Phase Alternating Line. Surge en 1963
como derivado del sistema NTSC usado en América con el fin de
optimizarlo. Su principal avance fue la mejora en cuanto a la
señal de crominancia. Este avance permitió una imagen de más
calidad con lo que se pudieron aumentar las líneas hasta 625. Su
tasa de refresco es de 25 imágenes por segundo.
Es usado en gran parte de Asia, África y Europa y algunos países
de América del sur. Tiene un aspecto de ratio 4:3. Los sistemas
PAL y NTSC son totalmente incompatibles entre sí.
9. Sistemas de Codificación
SECAM
SECAM significa Séquentiel Couleur à Mémoire. Es la norma para
la codificación desarrollada y usada en Francia. Es compatible con
el sistema PAL ya que tiene el mismo número de líneas y la misma
tasa de refresco. Se diferencian por su forma de codificar el color.
Es usado, además de en
Francia, en la Unión Soviética,
en algunos países de la
Europa del Este y África.
11. Sistemas de Codificación
ATSC
Advanced Television Systems Committee (ATSC, Comité de Sistemas
de Televisión Avanzada) es el grupo encargado del desarrollo de los
estándares de la televisión digital en los Estados Unidos.
ATSC fue creada para reemplazar en los Estados Unidos el sistema de
televisión analógica de color NTSC.Las normas del ATSC son:
El ATSC para la televisión digital terrestre
ATSC-M/H para la televisión digital terrestre en equipos portátiles o
móviles.
La televisión de alta definición es definida por la ATSC, como una
imagen panorámica pantalla ancha con una relación de aspecto de
16:9 con una resolución de 1920x1080 pixeles.
12. Sistemas de Codificación
ATSC
ATSC también contiene audio de calidad "teatral" mediante el
sistema Dolby Digital con formato AC-3 que provee 5.1 canales de
audio.
En los países que han adoptado la norma digital, se está llevando a
cabo un proceso de transición hasta que los televisores analógicos
hayan sido reemplazados por digitales o conectados a
decodificadores de señal.
Mientras tanto, las estaciones televisoras transmiten dos señales:
una analógica, que frecuentemente se halla en la banda de
frecuencias VHF y otra digital, transmitida en la banda UHF.
13. Sistemas de Codificación
DVB-T
DVB-T, siglas de Digital Video Broadcasting – Terrestrial, en
español: Difusión de Video Digital - Terrestre, es el estándar para la
transmisión de televisión digital terrestre (TDT) creado por la
organización europea Digital Video Broadcasting (DVB).
Este sistema transmite audio, video y otros datos a través de un
flujo MPEG-2, usando una modulación de “Multiplexación por
División de Frecuencia Ortogonal Codificada”
14. Sistemas de Codificación
ISDB-T
ISDB (Integrated Services Digital Broadcasting) o Radiodifusión Digital
de Servicios Integrados es un conjunto de normas creado por Japón
para las transmisiones de radio digital y televisión digital.
Como la norma europea DVB, ISDB está conformado por una familia
de componentes. La más conocida es la de televisión digital terrestre
(ISDB-T e ISDB-Tb) pero también lo conforman la televisión satelital
(ISDB-S), la televisión por cable (ISDB-C), servicios multimedia (ISDB-
Tmm) y radio digital (ISDB-Tsb).
Además de transmisión de audio y video, ISDB también define
conexiones de datos (transmisión de datos) con Internet como un canal
de retorno sobre varios medios y con diferentes protocolos. Esto se
usa, por ejemplo, para interfaces interactivas como la transmisión de
datos y guías electrónicas de programas de TV.
15. Sistemas de Codificación
ISDB-T
DTMB (Digital Terrestrial Multimedia Broadcast) es el estándar de
Televisión para terminales fijos y móviles utilizado en la República
Popular China, Hong Kong, Macao y Cuba. A
pesar de que en un principio este estándar recibió el nombre de
DMB-T/H (Digital Multimedia Broadcast-Terrestrial/Handheld), el
nombre oficial que se le asignó es DTMB.
16. Video digital
El vídeo digital convierte la imagen real captada por la cámara
en lenguaje binario de 1 y 0. La señal eléctrica que recibe la
cámara ya no es plasmada en un soporte electromagnético. En
vídeo digital la información en sistema de bits se puede
almacenar en discos duros o en soportes digitales.
17. Calidad de la imagen digital
Cada imagen del vídeo digital está compuesta de un número concreto
de pixels. Los pixels serán, por tanto, la unidad mínima y
determinarán la calidad de la imagen digital. Éstos tendrán la
información del color y de la disposición de la imagen según su
codificación en sistema binario.
La resolución de la imagen del vídeo digital se mide en pixels por
pulgada o dpi (dots per inch). A mayor resolución mayor calidad de
imagen.
Los dispositivos de captura han reducido su tamaño
considerablemente en comparación con las cámaras analógicas. La
calidad del dispositivo digitalizador resulta primordial para obtener una
imagen óptima.
La digitalización de vídeo está al alcance de cualquiera y puede
manipularse y editarse de forma no lineal. Los soportes digitales y los
18.
19. Bitrate
El bitrate o flujo de datos es la cantidad de información por
segundo transmitida por una imagen digital.
Ésta imagen será de mayor calidad cuanto mayor sea su
bitrate.
El vídeo digital no pierde calidad en función del número de
reproducciones.
Los soportes son más pequeños y manejables que los
analógicos por lo que su almacenaje es más fácil
El bit rate se expresa en kbps
20. Soportes de video digital
Los vídeos digitales pueden ser almacenados en multitud de
soportes. Los medios físicos más habituales suelen ser
ópticos. Éstos necesitan un reproductor láser para ser leídos y
algunos, poco a poco, van cayendo en desuso.
Los soportes de vídeo digital supusieron un gran avance frente
a los de vídeo analógico. Esto se debe a que el uso, la
reproducción y el paso del tiempo no deterioran la calidad de
la imagen.
21. DVD
El Digital Video Disc o Digital Versatil Disc (DVD) es el formato
óptico más extendido. Fue fabricado por primera vez en 1995 y
desarrollado por marcas como Philips, Sony y Panasonic. Los
DVD tienen el mismo tamaño que los CD y se convirtieron en
los sustitutos del VHS.
El DVD necesita un reproductor capaz de decodificar archivos
en formato MPEG-2**. También almacenan el audio
acompañante al vídeo en formato MPEG y pueden contener
más de un canal. Pueden ser de capa simple o de doble capa.
Tienen una capacidad estándar de 4,7 GB. La velocidad de
transferencia de los datos de un DVD viene dada en múltiplos
de 1,35 Mbps. Un DVD con una velocidad 4x transmitirá 5,4
MB/s.
**Moving Pictures Experts Group 2
22. Blu-ray
El Blu-ray Disc tiene un formato idéntico a los CD y DVD. Su
principal diferencia con los DVD es el laser empleado para su
lectura.
Los reproductores Blue Ray usan un laser azul con una longitud
de onda corta.
Esto hace que el soporte tenga una mayor capacidad de
almacenaje.
En sus 25 GB de capacidad puede contener hasta 6 horas de
vídeo en alta definición.
También existe el Blu-ray Disc de doble capa.
23.
24. Compresión de Video
La digitalización de vídeo analógico requiere de mucho espacio
donde almacenarlo. La gran cantidad de datos recibidos hace
que sea necesaria su compresión para que los archivos tengan
tamaños razonables.
Para que un vídeo digital resulte fluido necesita alrededor de 25
imágenes por segundo. Si el vídeo no está comprimido estas
imágenes ocuparán 1 Mb, aproximadamente. Si nuestro vídeo
genera una frecuencia de 30 Mbps necesitaremos una capacidad
de 1,5 Gb por minuto.
25. Códecs de video digital
Exiten algoritmos de codificación que reducen
considerablemente el tamaño de los archivos de vídeo.
Esto los hace más manejables y fácilmente almacenables. Son
los llamados Códecs.
Su nombre deriva de las palabras compresión y descompresión.
Al igual que en el sonido digital existen formatos de compresión
con pérdida de calidad y sin ella.
26. Compresión inter-frame &
intra-frame
Compresión Intra-frame: Es conocida también como
compresión espacial.
Comprime cada uno de los frames de manera individual sin
tener en cuenta su relación con las imágenes que le rodean.
Se basa en la redundancia espacial y devuelven vídeos con
suficiente calidad.
El formato por compresión Intra-frame más extendido es el
*.avi.
27. Compresión inter-frame &
intra-frame
Compresión Inter-frame: Este tipo de compresión de vídeo se
basa en la similitud temporal entre los distintos cuadros de
imagen o frames.
Es conocida también como compresión temporal.
Los archivos resultantes son de menor tamaño ya que
desecha mucha más información.
El formato por compresión Inter-frame más extendido es el
*.mpeg-2.
28. Video con compresión
Intra-frame
Los vídeos digitales que se comprimen usando el sistema
intra-frame devuelven mucha más calidad que los
comprimidos con el sistema inter-frame. A cambio, su tamaño
es mucho mayor.
29. Formato AVI
AVI son las siglas de Audio Video Interleave. Es el formato más
extendido con compresión intra-frame.
Fue desarrollado por Microsoft para su sistema operativo
Windows en 1992.
El *.avi es conocido como un formato contenedor, ya que puede
soportar tanto vídeo como audio en cualquier formato.
El vídeo y el audio están grabados en distintas capas y se van
alternando. Esto es lo que se conoce como "interleave".
Los archivos *.avi pueden contener varias pistas de audio. En el
reproductor de vídeo se seleccionará uno u otro canal.
30. Formato MOV
El formato QuickTime Movie (MOV), creado por Apple en 1991,
es multiplataforma y en sus versiones más recientes permite
interactuar con películas en 3D y realidad virtual.
Contiene las mismas características
que el formato AVI.
Es nativo de la plataforma MAC
(OSX), pero es un formato
multiplataforma.
31. Formatos DV
DV: Son las siglas de Digital Video.
Es un formato estándar de compresión desarrollado por
empresas como Panasonic, Sony y JVC. También es conocido
como DVC (Digital Video Casette). Tiene una resolución de 720 x
480 para NTSC y 720 x 576 para PAL.
El formato DV tiene una frecuencia de transmisión de datos de 25
Mbps. Las pistas de audio son almacenadas sin comprimir. El
soporte básico de este formato son las cintas de vídeo de ¼ de
pulgada.
Su duración máxima de grabación es de 120 min y su velocidad
de 18,81 mm. por segundo.
33. Formatos DV
DVC Pro
Es un tipo de formato desarrollado por Panasonic. Forma parte
de una de las variantes del formato DV y su uso suele ser
profesional. Su resolución es la misma que el formato DV.
La diferencia principal entre ambos formatos es que el DVC Pro
añade una pista de audio longitudinal analógica (llamada cue) y
otra pista de control.
Su soporte básico son las cintas de partículas de metal que
duran más que las DV. Tienen una velocidad de 32,82 mm. por
segundo y una duración máxima de 184 min.
34. Formatos DV
DV Cam
Es la variante del formato DV desarrollada por Sony.
Comparte con su formato originario su resolución. Se
diferencia en el ancho de la pista y en la velocidad de las
cintas. Éstas son de partículas de metal evaporado. Su
velocidad de grabación es de 28,21 mm. por segundo.
35. Video con compresión
Inter-frame
El formato de compresión de vídeo digital más extendido es el
MPEG. Este formato fue desarrollado por el Moving Picture
Experts Group (Grupo de Expertos en Imágenes en
Movimiento) para producir patrones estándar de compresión de
vídeo y audio.
El método utilizado para comprimir la imagen se basa en la
similitud de contenidos y utiliza técnicas estadísticas. De esta
manera se consigue una reducción de espacio a cambio de una
cierta degradación de la imagen (pérdida de calidad) que
dependerá de la complejidad de la escena y del algoritmo de
compresión utilizado.
Desde 1988 hasta la actualidad se han normalizado distintos
formatos de compresión:
36. Formatos MPG
MPEG-1:
Es un formato creado para comprimir un vídeo digital lo
suficiente como para caber en un cd-rom.
El audio es comprimido en formato mp3.
Es el formato más extendido en la red y tiene una resolución
limitada a 352 x 240.
Su calidad es similar al vídeo VHS y su velocidad de
transmisión de datos es de 1,3 Mbps.
37. Formatos MPG
MPEG-2
Este estándar fue creado en 1992 y está dedicado a la
televisión digital.
Ofrece una calidad de imagen muy alta. Su velocidad de
transmisión de datos oscila entre los 1.3 y los 10 Mbps. La
resolución mayor alcanzada es de 1920 x 1152.
Puede tener hasta 5 canales de audio. También es utilizado
en los DVD de vídeo.
MPEG-3
No llegó a buen término debido a su similitud con el MPEG-2.
38. Formatos MPG
MPEG-4
Es utilizado para codificar los datos multimedia. Resulta muy
apropiado para los contenidos web. Ofrece muy buena calidad
con una compresión mucho mayor que otros formatos. Los
Códecs más utilizados con este formato son los DivX. Su
resolución máxima es de 1920 x 1080 pixels.
Existen otros formatos MPEG como el MPEG-7 o el MPEG-21
que aún están en desarrollo y que configurarán nuevos estándar.
39. Formatos MPG
H.264 o MPEG-4 parte 10
Es una norma que define un códec de vídeo de alta
compresión, desarrollada conjuntamente por el ITU-T Video
Coding Experts Group (VCEG) y el ISO/IEC Moving Picture
Experts Group (MPEG).
La intención del proyecto H.264/AVC fue la de crear un
estándar capaz de proporcionar una buena calidad de imagen
con tasas binarias notablemente inferiores a los estándares
previos (MPEG-2, H.263 o MPEG-4 parte 2), además de no
incrementar la complejidad de su diseño.
40. Grabación de Video Digital
Para grabar vídeo digital necesitamos un dispositivo capaz de
capturar imágenes de forma contínua. El sistema de grabación
más extendido es la videocámara.
Las cámaras de vídeo digitales tienen el mismo sistema de
captura que las cámaras de fotos digitales.
41. Consejos a la hora de adquirir
una cámara digital
A la hora de adquirir una cámara de video digital, tendremos en
cuenta una serie de factores primordiales:
1.- El sensor: El sensor de imagen es un chip electrónico
fotosensible. Capta la luz y la codifica a través del sistema de bits
en una señal eléctrica.
Está compuesto por filas y columnas que conforman pequeñas
celdas.
Cada una de esas celdas equivale a un pixel. El tamaño y la
calidad del sensor determinan la calidad y tamaño de la imagen.
Existen varios tipos de sensores como el CCD o el CMOS.
42. Consejos a la hora de adquirir
una cámara digital
2.- El formato: Las cámaras pueden tener un formato de
grabación estándar o grabar en alta definición (HD o High
Definition).
El formato estándar va cayendo poco a poco en desuso. Tiene
una dimensión aproximada de 720 x 480 con un ratio de 4:3. El
HD graba a 1280 x 780 y con una proporción de 16:9.
También pueden tener un formato full HD que es la máxima
resolución posible. Su tamaño es de 1920 x 1080 pixels.
43. Consejos a la hora de adquirir
una cámara digital
3.- El sistema de grabación: Las cámaras digitales que graban en
cintas tienden a desaparecer. Las cámaras de vídeo actuales
suelen incorporar un disco duro para almacenar las imágenes.
También existen cámaras que graban en tarjetas de memoria, en
pendrives o en soportes como los dvd y mini-dvd.
En la actualidad se puede grabar vídeo con otros tipos de
aparatos que lleven un sistema de grabación incorporado. Los
ejemplos más comunes son algunos teléfonos móviles o
cámaras de fotos. Éstas últimas han alcanzado una calidad de
imagen igual o superior a la que ofrecen muchas videocámaras.
44.
45. Teoría y práctica audiovisual
3er. Semestre LCI
LCMM E. Vladimir Guerrero Cortés
vladimir.guerrero@edu.uaa.mx