Este documento trata sobre diferentes temas relacionados con el video digital, incluyendo códecs de video y audio, formatos de video como AVI, WMV, FLV y MPEG, y conceptos como streaming de video y velocidad de transmisión. Explica brevemente lo que son los códecs de video y audio, y describe algunos de los formatos y estándares de video más comunes como AVI, WMV, FLV y MPEG. También cubre conceptos clave como streaming de video y la importancia de la velocidad de transmisión o bitrate para la calidad del video
2. Códec de video
Un códec de video es un tipo de códec que permite comprimir y
descomprimir video digital. Normalmente los algoritmos de
compresión empleados conllevan una pérdida de información.
Su finalidad es obtener un almacenamiento sustancialmente menor
de la información de vídeo.
3. Códec de audio
Es un códec que incluye
un conjunto
de algoritmos que
permiten codificar y deco
dificar los datos auditivos,
lo cual significa reducir la
cantidad de bits que
ocupa el fichero de audio.
Sirve
para comprimir señales o
ficheros de audio con
un flujo de datos (stream)
con el objetivo de que
ocupan el menor espacio
posible, consiguiendo una
buena calidad final, y
descomprimiendolos para
reproducirlos o
manipularlos en
un formato más
apropiado. Se implementa
en software, hardware o
una combinación de
ambos.
5. AVI
Permite almacenar simultáneamente un flujo de datos de vídeo y varios flujos
de audio.
Para que todos los flujos puedan ser reproducidos simultáneamente es
necesario que se almacenen de manera entrelazada. De esta manera, cada
fragmento de archivo tiene suficiente información como para reproducir
unos pocos fotogramas junto con el sonido correspondiente.
Codecs más utilizados:
Cinepack
Indeo 3.2; 5.1
RLE XviD x264
Mpeg1
WMV
H263
Huffyuv
FFV1
LCL DivX
6. ASF
Es otro de los formatos de Windows. De forma idéntica al Real
System (.rm) nos permite comprimir vídeo con un escaso tamaño de
archivo, y al mismo tiempo conseguir un vídeo de alta calidad.
Soporta la mayoría de codecs que soporta el formato AVI
7. WMV
Es un nombre genérico que se da al conjunto de algoritmos de compresión
ubicados en el set propietario de tecnologías de vídeo desarrolladas por
Microsoft, que forma parte del framework Windows Media.
WMV no se construye sólo con tecnología interna de Microsoft. Desde la
versión 7 (WMV1), Microsoft ha utilizado su propia versión no estandarizada
de MPEG-4. El vídeo a menudo se combina con sonido en formato
Windows Media Audio.
El vídeo WMV se empaqueta normalmente en algún contenedor
multimedia, como pueden ser AVI o ASF. Los ficheros resultantes reciben la
extensión .avi si el contenedor es de este tipo, .wmv si es un fichero de sólo
vídeo (.wma sería el equivalente para sonido) o .asf si se trata de un
contenedor ASF, con contenido de audio y vídeo.
8. FLV
Es un formato de archivo propietario usado para transmitir vídeo sobre
internet usando Adobe Flash Player (anteriormente conocido como
Macromedia Flash Player), desde la versión 6 a la 10. Los contenidos
FLV pueden ser incrustados dentro de archivos SWF. Entre los sitios
más notables que utilizan el formato FLV se encuentran YouTube,
Vimeo, Reuters.com, Yahoo! Vídeo y MySpace.
Flash Vídeo puede ser visto en la mayoría de los sistemas operativos,
mediante Adobe Flash Player, el plugin extensamente disponible para
navegadores web, o de otros programas de terceros como MPlayer, VLC
media player, o cualquier reproductor que use filtros DirectShow (tales
como Media Player Classic, Windows Media Player, y Windows Media
Center) cuando el filtro ffdshow está instalado.
9. MPEG
El MPEG (Moving Picture Experts Group –
Grupo de Expertos en Imagenes en
Movimiento) utiliza codecs (codificadores-
decodificadores) de compresión con bajas
pérdidas, usando codecs de transformación.
MPEG ha normalizado los siguientes
formatos de compresión y normas auxiliares:
MPEG-1: estándar inicial de compresión de
audio y vídeo. Usado después como la
norma para CD de vídeo, incluye el popular
formato de compresión de audio Capa 3
(MP3).
MPEG-2: normas para audio y vídeo para
difusión de calidad de televisión. Utilizado
para servicios de TV por satélite como
DirecTV (Cadena estadounidense de
televisión vía satélite de difusión directa),
señales de televisión digital por cable y (con
ligeras modificaciones) para los discos de
vídeo DVD.
MPEG-3: diseñado originalmente para
HDTV (Televisión de Alta Definición), pero
abandonado posteriormente en favor de
MPEG-2.
MPEG-4: expande MPEG-1 para soportar
“objetos” audio/vídeo, contenido 3D,
codificación de baja velocidad binaria y
soporte para gestión de derechos digitales
(protección de copyright).
MPEG-7: sistema formal para la descripción
de contenido multimedia
MPEG-21: MPEG describe esta norma
futura como un “marco multimedia”.
10. OGM
Es un contenedor multimedia cuya función es contener el audio
(normalmente en formato Vorbis), el vídeo (usualmente DivX o
Xvid) y subtítulos.
Fue desarrollado por Tobias Waldvogel debido a que él quería usar
el formato de audio “Ogg Vorbis” junto con vídeo MPEG-4 en un
AVI, pero era prácticamente imposible obtener sincronización
debido a la arquitectura del AVI, por lo que en vez de insertar el
audio Vorbis en un AVI, decidió insertar el vídeo en un Ogg
modificado y así surgió el OGM.
Los principales codecs que utiliza son:
VP3 / Theora
Mpeg 4
XviD
11. 3GP
Formato de archivos usado por teléfonos móviles para almacenar
información de medios múltiples(audio y vídeo). Este formato de
archivo, creado por 3GPP (3rd Generation Partnership Project), es
una versión simplificada del “ISO 14496-1 Media Format”, que es
similar al formato de Quicktime. 3GP guarda vídeo como MPEG-4
o H.263. El audio es almacenado en los formatos AMR-NB o AAC-
LC.
Los principales codecs que soporta son:
H263
Mpeg 4
12. POST-
PRODUCCIÓN
DE VIDEO
El proceso conocido como
post-producción de video,
inicia a partir del momento
en que se culminan la
grabación de las escenas,
inserciones, referencias de
ubicación y audios
incidentales que en
conjunto, conforman el
material para esta última
fase de trabajo donde el
producto audiovisual,
tomará su forma final.
13. 1. Calificación
La etapa de calificación es precisamente la
comprobación de que lo establecido en la pre-
producción, haya sido logrado y adicionalmente,
ofrece la posibilidad de incorporar algunos
elementos creativos que pudieran haber resultado
de hallazgos e improvisaciones surgidas durante la
producción.
Durante la calificación además de establecer los
códigos de entrada y salida (cues) de cada
segmento, siempre es recomendable anotar
observaciones sobre la calidad del material para
que en caso necesario, pueda ser sometido
posteriormente a una etapa de corrección.
14. 2. Ingesta
Actualmente los materiales de audio y video grabados
previamente, son procesados en suites digitales que en un
sólo sistema, pueden contener todos los programas
necesarios para la tarea. Todavía pueden encontrarse
algunas tarjetas para captura analógica y digital de
medios procedentes de cinta o discos ópticos, aunque la
gran mayoría de las cámaras modernas profesionales y
semi-profesionales, almacenan la información en tarjetas
de memoria que pueden ser leídas directamente en las
computadoras, por lo que el proceso conocido como
ingesta, se ha ido transformando propiamente en un
simple traslado de archivos desde los dispositivos de
registro a los de proceso.
La gran variedad de codecs propietarios que se utilizan
actualmente, pueden obligar a que el material, a pesar
de estar contenido en un archivo digital, sufra una de-
codificación para volverse compatible con alguna
plataforma específica. En el mejor de los casos, este
proceso de transducción, no implica necesariamente una
pérdida en la calidad original de la información ni altera
el formato.
15. 3. Niveles y corrección
Con el material capturado o simplemente
trasladado a la unidad de memoria de la estación
de edición, de acuerdo a las anomalías observadas
durante la etapa de calificación, el material
seleccionado puede ser sometido en caso necesario
a procesos correctivos como rectificar el balance de
color, establecer en normas los niveles de brillo y
negro, la saturación del audio, la presencia de
inducciones o cualquier otro defecto que pueda
comprometer la calidad técnica del material,
especialmente cuando el producto final, va a ser
transmitido y debe cumplir con estándares estrictos
establecidos por la mayoría de las cadenas
comerciales.
16. 4. Edición
Durante la edición y de acuerdo a la secuencia
establecida durante la pre-producción, se ordenan
los diferentes clips de audio y video para que la
estructura narrativa del producto, vaya cobrando
forma. Las modernas suites de edición facilitan esta
labor en líneas de tiempo, donde los cortes y
modificaciones a la duración de cada clip, pueden
realizarse con un simple comando y deshacerse en
caso de error.
La edición a corte directo (Rough cut) es una
primera fase donde solamente se da orden a la
secuencia por medio de cortes simples.
Posteriormente, en una especie de segunda edición,
pueden incorporarse transiciones más sofisticadas
que correspondan al carácter dramático que se
pretende en el estilo de la narración.
17. Streaming
El streaming es la
distribución
de multimedia a
través de una red de
computadoras de
manera que el usuario
consume el producto
al mismo tiempo que
se descarga.
18. Streaming
La palabra streaming se refiere a: una
corriente continua (sin interrupción).
Este tipo de tecnología funciona
mediante un búfer de datos que va
almacenando lo que se va
descargando en la estación del
usuario para luego mostrarle el
material descargado.
19. Streaming
Esto se contrapone al mecanismo
de descarga de archivos, que requiere
que el usuario descargue por completo
los archivos para poder acceder a su
contenido.
20. Streaming
El término se aplica habitualmente a la
difusión de audio o vídeo. El streaming
requiere una conexión por lo menos de
igual ancho de banda que la tasa de
transmisión del servicio. El streaming de
vídeo se popularizó a fines de la década
de 2000, cuando el ancho de banda se
hizo lo suficientemente barato para gran
parte de la población.
21. ¿ Que necesitamos?
Basicamente son cuatro los elementos que se
necesitan para realizar una transmision de video
por internet.
Un computador o equipo de transmision con
conexión a internet (la conexión debe contar con
un minimo de ancho de banda recomendado de
600kbps de subida para una emision exitosa)
Una camara o dispositivo de captura de video que
pueda ser conectada al equipo usando puertos
USB, RCA (mediante tarjeta importadora) o FireWire
(1394).
22. Un servicio de Transmision de video (Video
Streaming) contratado con CeHis Ltda o con el
sistema de google streaming YOUTUBE, o el
famoso twitcam de twitter.
Un sitio web o portal en donde se ubicara el
reproductor flash para que accedan sus visitantes
y vean en tiempo real su transmision por internet.
23. Velocidad de
transmisión (bitrate)
Al igual que la resolución y
el formato final del video
digital, otro de los factores
determinantes para
obtener una excelente
calidad en una imagen de
este tipo es, sin dudas, el
bitrate.
24. Bitrate
El bitrate define la cantidad de espacio físico
(en bits) que ocupa un segundo de duración
de ese video. El video tendrá más calidad
cuanto mayor sea su bitrate y el archivo que
lo contiene tendrá mayor peso. El bitrate
puede ser fijo o variable. El bitrate variable
consigue mayor calidad de imagen porque
recoge más calidad en escenas muy
cargadas o con mucho movimiento y ahorra
en aquellas más estáticas.