SlideShare una empresa de Scribd logo
1 de 18
Descargar para leer sin conexión
VÍDEO DIGITAL
APUNTES DE MEDIOS
AUDIOVISUALES 2º
INTRODUCCIÓN
La producción audiovisual desde sus inicios ha contempla-
do la necesidad de estructurarse en tres distintas etapas,
la planificación, la producción y los procesos de selección,
ordenamiento, arreglo y construcción del material con-
seguido para así crear la pieza audiovisual que transmita
un mensaje o bien simplemente exponga alguna idea o
pensamiento que el autor quiere expresar o comunicar. La
tercera etapa de la producción es quizás la que más liga-
da se encuentre a la tecnología como tal, no quiere decir
que los avances tecnológicos no toquen a los procesos de
producción durante el rodaje, todo lo contrario, pero es en
la etapa de postproducción que toda esa evolución tecno-
lógica se evidencia aún más, desde la calidad del material
codificado y comprimido hasta la forma en cómo se alma-
cena la información, ha cambiado drásticamente.
Es importante entonces estudiar y conocer cuáles son los
principales cambios, cómo han afectado a los procesos de
creación en la etapa de edición y montaje de piezas audiovi-
suales, deteniéndose para poder determinar qué beneficios
trae y cuál es la mejor manera de aprovecharlos.
TELEVISIÓN Y
VIDEO ANALÓGICOS
La tecnología analógica de video descompone la informa-
ción de cada uno de los frames en dos tipos: el nivel de luz
en cada punto de imagen (luminancia) y los tonos de color
(crominancia).
Luminancia y crominancia
Luminancia: guarda la información de la intensidad luminosa
y se representa en una imagen en blanco y negro con todos
los tonos de grises. No contiene información sobre los colo-
res de la imagen. Es una información que ya estaba presente
en la televisión en Blanco y Negro y que continuó con la
televisión en color analógica.
Crominancia: Comprende los canales RGB, es decir rojo, ver-
de y azul, representa la combinación de los tres colores pri-
marios. Para obtener el blanco máximo se debe cumplir que
la luminancia sea (Y) igual a 1, para lo cual se deben mezclar
los colores con proporción de: 30% de rojo, 59% de verde
y 11% de azul.
Soportes
Los soportes en los que se registra, se almacena y se repro-
duce el video analógico es la cinta magnética, en diferentes
formatos según las tecnologías: Cinta abierta, U-matic, be-
tacam, VHS, etc.
Eso hacía vulnerable la preservación de material de archivo,
que corría riesgos de deteriorarse, además de implicar el ma-
nejo de grandes volúmenes de cintas e imponía un techo a
la calidad del video.
Edición
La edición de video analógico, y eso es una clara desventaja
sobre el digital, era lineal, lo que implicaba trabajar en tiem-
po real la visualización y regrabación, e importaba pérdida
de calidad de imagen en el proceso.
Señal de vídeo analógico.
La señal de vídeo analógica es una señal eléctrica que varía
con el tiempo y que se obtiene a partir de muestrear, de
forma periódica, la información que llega a una cámara: un
patrón de distribución espacial de intensidad luminosa cam-
biante con el tiempo. Este proceso se conoce como barrido
scanning). De esta forma se recoge la información acerca de
la distribución luminosa a través de unas líneas predefinidas
de muestreo, así como la información de control (sincronis-
mos) acerca de la posición horizontal y vertical del punto de
barrido en cada momento. El punto de reconocimiento de
la imagen va trazando líneas casi horizontales de izquierda a
derecha, volviendo a la izquierda y así sucesivamente hasta
completar la pantalla.
Los métodos de barrido más comúnmente usados son: el
progresivo y el entrelazado.
Sistema de barrido
Entrelazado: Una particularidad del video analógico y de la
televisión en general es que el pasaje de un frame a otro no
se produce por completo, sino que dos cuadros sucesivos
se entrelazan dibujándose un cuadro distinto en cada una
de las 625 líneas horizontales, o dos semicuadros simultá-
neamente. Uno de los campos contiene las líneas pares, se
le denomina “campo par”, mientras que el otro contiene
la impares, se le denomina “campo impar” al comienzo de
cada uno de ellos se sitúa el sincronismo vertical. Con eso
se evita un efecto de parpadeo en la imagen, aunque eso
implica que la resolución real de cada frame es de la mitad,
es decir 312 líneas aproximadamente.
Progresivo: Implica una mejora en la calidad ya que en cada
período se actualizan todas las líneas de cada cuadro, pero
no es soportado por los sistemas de televisión analógico.
RELACIÓN DE ASPECTO
O PROPORCIÓN
La relación de aspecto es un par de números que expresa el
achatamiento de una imagen o video. Los videos digitales
así como las emisiones de televisión digital han modificado
la relación de aspecto de la televisión y los videos analógi-
cos a las proporciones “panorámicas” más cercana al cine.
Se denomina relación de aspecto a la proporción entre an-
cho y largo de las imágenes. Los estándares de la industria
confirieron a la televisión, y luego al video analógico, una
proporción 4:3, que le da a la pantalla chica esa imagen
“casi cuadrada”, superada ahora por los LCD y LEDs digi-
tales, adaptados a la relación 16:9.
Los números describen sencillamente que en un caso la
pantalla tiene cuatro partes de ancho por tres de alto. Es
decir que si, por ejemplo, midiera 40 centímetros de an-
cho, deberá tener un alto de 30 centímetros. Esa relación
se amplía a 16 partes de ancho contra 9 de alto para el
caso de la perspectiva panorámica.
La falta de atención a esas dos relaciones básicas de pro-
porción hace que en ocasiones algunos videos en la web se
vean “angostos” como comprimidos en los laterales, con
personas y objetos delgados y altos. O a la inversa, cuando
un video 4:3 se fuerza a 16:9, las imágenes se verán más
anchas que lo normal. En ocasiones, para evitar esa distor-
sión se completa la pantalla con barras negras horizontales
o verticales según el caso, o se aplican acercamientos sobre
la imagen hasta completar la pantalla, aunque a costa de
perder parte de la imagen en los laterales.
Adicionalmente, hay un tercer formato que se ha popu-
larizado en el cine aún más panorámico, con una relación
21:9, que fuerza la aparición de franjas negras horizontales
aún en los modernos televisores de alta definición.
Para hallar la relación de aspecto de un video o una imagen,
simplemente mide su ancho y altura. La relación de aspec-
to puede ser expresada como anchura:altura. Si la imagen
tiene 24cm de ancho y 18cm de alto, la relación de aspecto
se puede expresar como 24:18. Es decir, 24 dividido 18, lo
que da un resultado de 1,33, igual a 4 dividido 3. Es decir
que una pantalla de 24:18 tiene una relación de 4:3
La relación de aspecto se expresa en términos de las dimen-
siones pretendidas en pantalla. La resolución de la imagen
en pixels no es siempre un buen indicador de la relación
de aspecto.
El modo más fácil de comparar relaciones de aspecto es
reducirlas a común denominador haciendo una simple di-
visión:
24 / 18 = 1,33 4 / 3 = 1,33 16 / 9 = 1,78
Las dos primeras relaciones de aspecto son equivalentes
a 1,33:1. Ambas son más estrechas que la relación de as-
pecto de pantalla panorámica 1,78:1. La reducción de las
relaciones de aspecto a un común denominador hace más
sencilla la comparación.
Comparación de las tres relacio-
nes de aspecto más comunes. La
azul (2,39:1) y la verde (1,85:1)
son las más usadas en el cine.
Por su parte, el recuadro rojo
(4:3) solía ser la relación más
normal en televisión. Actual-
mente el estándar utilizado es
el denominado «panorámico»
(16:9)
SISTEMAS DE
TRANSMISIÓN
TELEVISIVOS
ANALÓGICOS:
NTSC, PAL Y SECAM
Con la llegada de la televisión a color se impusieron a
nivel mundial tres normas, el NTSC, PAL y SECAM.
La diferencia sustancial entre ellos estriba en la velocidad
en la que se emiten los fotogramas y su resolución.
Cada país adoptó para sí uno de los tres sistemas de
transmisión televisiva. Todos los aparatos utilizados, cáma-
ras de filmación de video, televisores, etc., deben compar-
tir el sistema de transmisión estándar propio de cada país.
•	 NTSC: National Television Systems Commitee definido
en el 1952 se utiliza principalmente en Norte América
y Japón.
•	 PAL: Phase Alternation Line se desarrolló en 1960 y se
utiliza mayormente en Europa.
•	 SECAM: Systeme Electronique Color Avec Memoire,
utilizado en Francia y Rusia.
•	 HDTV:High-definition television se define como dos
veces mayor en resolución que la televisión conven-
cional, con una relación 16:9 de aspecto, una fre-
cuencia de barrido de cuadro de 24 Hz. O mayor y,
por lo menos, dos canales de audio de calidad CD.
Es usual encontrar los sistemas anteriores descritos como
combinación de sus características de líneas, frecuencia y
modo de barrido, como:
CÓMO SE FORMAN
LAS IMÁGENES
ANALÓGICAS
El televisor consta de un tubo catódico, este emite una se-
rie de rayos de electrones que barren la pantalla, de arriba
hacia abajo y de izquierda a la derecha. Estos rayos de
electrones van formando una serie de líneas en el televisor
horizontales y verticales, escaneando toda la pantalla, a
una determinada frecuencia por segundo.
Tubo de rayos catódicos:
El tubo de la imagen en color, lleva incorporados tres
cañones de electrones, uno para cada color primario, rojo,
verde y azul. La ráfaga emitida por cada cañón, pasa por
un soporte perforado que lo dirige a cada punto luminis-
cente de su correspondiente color y hacerlo activo con su
distinto nivel de brillo
VÍDEO DIGITAL
La revolución digital de las últimas dos décadas ha
impulsado la tecnología existente hasta el punto de que
es posible realizar sonido e imagen de alta calidad en
computadores personales, hasta el punto de que se puede
considerar el vídeo (digital) como una forma más de infor-
mación (datos) que es capaz de manejar el computador.
Tomando la idea del vídeo analógico, lo único que tiene
que añadir el digital es la conversión de la señal eléctrica
a bits, mediante el proceso de digitalización o muestreo,
que consiste en discretizar primero el tiempo (sampling)
y después representar la amplitud con un valor discreto
(quantizing), en lo que se denomina conversión analógi-
co-digital (A/D).
Esto produce una aproximación a la señal original, pero a
partir de ahí (si la digitalización tiene la precisión suficien-
te) se puede simplemente copiar cuantas veces sea ne-
cesario los valores originales sin perder calidad (cosa que
ocurre con cada copia analógica). Para ello es necesario
que la frecuencia de muestreo sea al menos el doble que
la mayor frecuencia posible que la onda original (teorema
de Nyquist), y que el número de bits utilizado para cada
valor sea suficiente para la calidad deseada.
Las ventajas de realizar el tratamiento en formato digital
son:
•	 Robustez de la señal, es menos sensible a interferen-
cias y errores en la transmisión.
•	 También admite procesos de comprobación de la
integridad de la señal.
•	 Es posible el acceso aleatorio a los contenidos de la
secuencia, facilitando la edición y/o impresión de imá-
genes individuales de la secuencia grabada.
•	 Es posible realizar la captura (grabación) al tiempo
que otros procesos de tratamiento de la imagen.
•	 No hay necesidad de pulsos de sincronismo y apaga-
do del haz en los mismos, puesto que se conoce la
longitud de cada línea y dónde empieza y termina.
Señal de vídeo digital.
Casi todos los sistemas de vídeo digital se ajustan al están-
dar de componentes de vídeo para representar la señal de
color (o niveles de gris). La mayoría de cámaras de vídeo
proporcionan salidas RGB que se digitalizan de forma in-
dividual. En los casos en que se necesita transmitir la señal
a cierta distancia de su origen esta se realiza en modo
de vídeo compuesto, como es el caso de los equipos de
reproducción de vídeo y cámaras analógicas. En estos
casos, se convierte primero la señal de vídeo compuesto
a componentes de vídeo que después de digitalizan de
forma individual.
Las áreas de ajuste horizontal y vertical de la señal de
vídeo analógico desaparecen y ahora nos referiremos al
número de pixels por línea y el número de líneas por cua-
dro. La pérdida de resolución espacial en el caso analógico
comporta un efecto de desenfoque o emborronamiento
en el sentido que se produzca esa pérdida de resolución.
En el caso digital el efecto que se produce es el de alia-
sing. Este consiste en que se hace visible la naturaleza “pi-
xelada” de una imagen, fundamentalmente en los bordes
de los objetos: en lugar de verlos de forma continua, se
aprecia un efecto de escalera. En función de las caracterís-
ticas del monitor y la distancia del usuario este efecto se
aprecia en mayor o menor medida.
La calidad de color deseable se alcanzaría con 24 bits de
color (8 bits de cada canal RGB), aunque a menudo se usa
una solución de compromiso para disminuir los requisitos
de tamaño de 16 bits (5 bits R, 6 bits G, 5 bits B, ya que el
ojo humano parece ser más receptivo al verde), o bien se
define el color mediante paleta.
Resoluciones 16:9 Resoluciones 4:3 4K standard Otras Resoluciones
•	 128x72
•	 256x144
•	 384x216
•	 512x288
•	 640x360
•	 768x432
•	 800x450 - no divisible por 8
•	 800x480 - 16:9 en tablets,
teléfonos móviles, etc. (no
usar en vídeos)
•	 852x480 - 480p 16:9, reso-
lución nativa en TV plasma
de 42 pulgadas
•	 896x504
•	 1024x576
•	 1152x648
•	 1365x768 - resolución
nativa en TV plasma de 50
pulgadas
•	 1408x792
•	 1280x720 - 720p HD
•	 1536x864
•	 1600x900 - no divisible
por 8
•	 1664x936
•	 1792x1008
•	 1920x1080 - 1080p HD
•	 2560x1440 - 1440p QHD
(Quad HD) / WQHD (Wide
Quad HD) - resolución
nativa en determinados
monitores de 27 pulgadas
(ejemplo: Apple Thunder-
bolt 27”)
•	 640x480
•	 800x600
•	 1024x768
•	 1152x864
•	 1280x960
•	 1400x1050
•	 1600x1200
•	 2048x1536
•	 3200x2400
•	 4000x3000
•	 6400x4800
•	 3840x1600 - UW4K (12:5)
(2.4:1) (21.6:9) (ultra-wide)
(Ultra HD Blu-ray)
•	 3840x2160 - 2160p 4K
UHD-1 / UHDTV (1.78:1)
(16:9) [8.3 megapixels]
•	 4096x2160 - DCI 4K
(256:135) (1.9:1) [4K en
cines] [8.8 megapixels]
•	 2048x1080 - DCI 2K nativo
(256:135) (~17:9)
•	 1998x1080 - DCI 2K recor-
tado (1.85:1)
•	 2048x858 - DCI 2K Cine-
maScope recortado (2.39:1)
•	 4096x2160 - DCI 4K nativo
(1.90:1) (256:135)
•	 3996x2160 - DCI 4K recor-
tado (1.85:1) (999:540)
•	 4096x1716 - DCI 4K Cine-
maScope recortado (2.39:1)
(1024:429)
Resoluciones 16:10 8K standard
•	 1440x900
•	 1680x1050
•	 1920x1200
•	 2560x1600
•	 3840x2400
•	 7680x4800
•	 7680x4320 - 4320p
(1.78:1) (16:9) [soportado
por YouTube] [33.2 mega-
pixels]
•	 8192x4320 - (1.89:1) (17:9)
•	 8192x5120 - (1.60:1)
(16:10)
•	 8192x8192 - (1.00:1) (1:1)
[8K FULLDOME en plane-
tarios]
El cuadro de trabajo de vídeo digital en
PAL es de 768 x 576. El hecho de que
sea tan habitual trabajar en 320 x 240 o
160 x 120 es que son divisores direc-
tos de 640 x 480, que es la resolución
NTSC.
El problema con el vídeo digital es el
requerimiento de memoria que impone
al sistema, tanto para su almacenamien-
to como para su transmisión. Por esto,
la viabilidad del vídeo digital está en
función del uso de los métodos de com-
presión. En lo que sigue se va a describir
una serie de estándares de formato de
vídeo digital y de estándares de técnicas
de compresión utilizadas en este campo.
Píxeles y relación de aspecto
La resolución de un video, como en el
caso de una fotografía, está condiciona-
da a las condiciones de captura original
de esas imágenes, y más precisamente
a la cantidad de píxeles en los que des-
compuso la toma el CCD de la cáma-
ra, que es el es el sensor con células
fotoeléctricas que registran la imagen.
Es decir que remite directamente a la
cantidad de píxeles dispuestos a lo an-
cho por la cantidad de píxeles a lo alto.
Los estándares de la industria para la
captura de video están relacionados con
la relación de aspecto de cada tecnolo-
gía, pero no se deben confundir ambos
conceptos: se puede tener diferentes
resoluciones posibles en una misma
relación de aspecto.
Por ejemplo, un video grabado en 640 x 480 tiene una
relación de aspecto de 4:3 (640/480 = 4/3 = 1,33). Del
mismo modo, un video captado a 1280 x 960 tendrá una
relación de aspecto 4:3 (1280/960=1,33). Sin embargo el
primero tendrá una calidad estándar y el segundo será de
alta definición.
Ocurre que las normas desarrolladas para la televisión
digital optaron por cambiar la relación de 4:3 a 16:9 para
acercarla a la visión panorámica del cine, por lo que se sue-
le asociar erróneamente relación de aspecto con calidad.
Recordemos que para el caso del video o la TV analógica la
resolución no se mide en píxeles sino en líneas horizontales
(ver barrido), aunque se ha logrado desarrollar procedi-
mientos que traducen la información entrelazada del video
analógico al formato digital.
Tamaños estándar de resolución de video en píxeles:
•	 640x480 Archivo de calidad estándar para computado-
ra, con relación de aspecto 4:3 (1,33)
•	 720x480 Formato de calidad estándar para TV (SDTV),
con relación de aspecto 4:3 en sistema NTSC
•	 720x576 Formato de calidad estándar para TV (SDTV),
con relación de aspecto 4:3 en sistema PAL
•	 1280x720 Formato de alta calidad (HD Ready), para TV
digital, con relación de aspecto 1,5 (DVD)
•	 1920x1080 Formato de muy alta calidad (HD Full),
para TV digital, con relación de aspecto 16:9 (1,77)
•	 3840×2160 Formato de calidad superior (4K), para TV
digital, con relación de aspecto 16;9
Tamaño y profundidad de color
Como en la fotografía, la profundidad de color remite al
número de colores distintos que pueden ser representados
por un pixel y, como sabemos, depende del número de bits
por pixel. A mayor cantidad de bits por píxel, mayor can-
tidad posible de colores a representar, con el consiguiente
efecto en el tamaño final del archivo.
También en este caso, el tamaño del archivo de video será
el producto de la cantidad de píxeles, por la cantidad de
bits que informa a cada uno, pero multplicado por la can-
tidad de frames por segundo, por la cantidad de segundos
que dura el video
Tasa de transferencia
De la elevada cantidad de bits que requiere un archivo de
video surge la importancia de la tasa de transferencia, tam-
bién denominada tasa de bits o bitrate.
Se trata de una forma de medir la cantidad de información
contenida en un flujo o secuencia de video para su repro-
ducción, atendiendo a que el tiempo en que se reproduce
es un dato central para el caso de un video en la medida
en que, por ejemplo, un videoclip de 3 minutos, debe ser
reproducido necesariamente en ese tiempo.
Es decir, el tiempo que demora un sistema para reprodu-
cir una fotografía puede ser mayor o menor, pero nunca
afecta a la exhibición misma de la imagen, toda vez que no
requiere un tiempo establecido de visualización.
Distinto es el caso de los archivos de video o audio, los
que deben respetar el tiempo de su duración durante la
reproducción, lo que exige que el soporte sea capaz de
transmitir, procesar y/o reproducir el contenido del archivo
en tiempo real.
Así, si la tasa de transferencia que admite el soporte es
inferior a la tasa de transferencia que requiere el archivo
para reproducirse en tiempo real su visualización adecuada
se tornará imposible. De tal modo que la tasa de transfe-
rencia pasa a ser una condición inherente al propio archivo
de video.
La información surgirá de multiplicar píxeles por bits por
fotogramas por segundo, lo que arrojará una cifra que
se medirá en bits por segundo (bps) o en sus múltiplos,
como megabits.
COMPRESIÓN DE VIDEO
Con semejantes números queda claro que es necesario
aplicar eficientes algoritmos de compresión para tornar
manipulables los archivos de video digital.
Métodos de compresión de video:
Existen básicamente dos métodos de compresión de
video, que apuntan a desechar los datos que contengan
información redundante tanto espacial como temporal:
Intraframe e interframe.
Intraframe: se trata de un sistema de compresión similar al
que aplica el formato jpg en las imágenes estáticas. Bási-
camente encuentra información similar en un conjunto de
píxeles que promedia y unifica, quitando leves diferencias
de color que no son detectadas por la percepción huma-
na. Así, cada frame termina teniendo un tamaño muy
inferior al original.
Interframe: deja de lado datos redundantes entre diferen-
tes frames o cuadros de una imagen. Así, cuando detecta
que la información no cambia, como una pared detrás de
un entrevistado, la repite entre cada cuadro, renovando
exclusivamente la información de los píxeles que sí sufren
modificaciones, como los del rostro de la persona que
habla. Es decir que sólo se guarda la información de los
píxeles que difieren entre un frame y otro.
La compresión temporal entonces implica analizar una se-
cuencia de video de modo que no sea necesario transmitir
todos los fotogramas consecutivos, sino que se codifique
un fotograma y luego sólo la diferencia entre éste y sus
fotogramas cercanos.
Esto permite que las secuencias en donde los datos son
redundantes (porque existen muy pocas variaciones entre
fotogramas consecutivos) se consigan factores de com-
presión muy elevados, ya que la diferencia entre ellos es
prácticamente nula.
La mayoría de las técnicas de compresión temporal tam-
bién incluyen la predicción del frame siguiente, lo que
disminuye considerablemente el peso del archivo.
CÓDECS Y FORMATOS CONTENEDORES
DE ARCHIVO DE VIDEO
Aunque los códecs, y los formatos contenedores de archi-
vos no son equivalentes, a menudo se confunden entre
sí. El formato contenedor define cómo se almacenan los
metadatos junto con los datos audio y de video y suele
darle nombre a la extensión. No define ni la codificación
ni la compresión de los datos. El códec sí define el modo
en que se comprime y se codifica la información de video.
Formatos contenedores de archivos de video
Los videos digitales se pueden guardar en archivos de
distintos formatos. Cada uno se corresponde con una
extensión específica del archivo que lo contiene. Existen
muchos tipos de formatos de video. Aquí se citan algunos
de los más utilizados. Asimismo cada tipo de archivo ad-
mite en cada momento un códec de compresión distinto.
AVI (Audio Video Interleaved = Audio y Video Intercalado)
•	 Es el formato estándar para almacenar video digital.
•	 Cuando se captura video desde una cámara digital al
ordenador, se suele almacenar en este formato con el
códec DV (Digital Video).
•	 El archivo AVI puede contener video con una calidad
excelente. Sin embargo el peso del archivo resulta
•	 siempre muy elevado.
•	 Admite distintos códecs de compresión como CinePak,
Intel Indeo 5, DV, etc. Los de mayor capacidad de com-
presión y una calidad aceptable son DivX y XviD.
•	 El formato AVI puede ser visualizado con la mayoría de
reproductores: Windows Media, QuickTime, etc. siem-
pre y cuando se encuentren instalados en el equipo los
adecuados códecs para cada tipo de reproductor.
•	 Es ideal para guardar videos originales que han sido
capturados de la cámara digital (codificados con DV).
•	 No es recomendable publicarlos en Internet en este
formato por su enorme peso.
•	 Los códecs CinePak, Intel Indeo, DV, etc. no ofrecen
una gran compresión. Los códecs DivX y XviD por el
contrario consiguen una óptima compresión aunque se
suelen destinar sobre todo a la codificación de películas
de larga duración.
MPEG (Moving Pictures Expert Group = Grupo de Expertos
de Películas)
•	 Es un formato estándar para la compresión de video
digital.
•	 Son archivos de extensión *.MPG ó *.MPEG.
•	 Admite distintos tipos de códecs de compresión:
MPEG-1 (calidad CD), MPEG-2 (calidad DVD) y MPEG-
4 (más orientado a la web).
MOV
•	 Es el formato de video y audio desarrollado por
Apple.
•	 Utiliza un códec propio que evoluciona en versiones
con bastante rapidez.
•	 Este tipo de archivos también pueden tener extensión
*.QT
•	 Se recomienda utilizar el reproductor de QuickTime.
Existe una versión gratuita del mismo que se puede
descargar de Internet.
•	 Es ideal para publicar videos en Internet por su razo-
nable calidad/peso.
•	 Admite streaming.
WMV
•	 Ha sido desarrollado por Microsoft.
•	 Utiliza el códec MPEG-4 para la compresión de video.
•	 También puede tener extensión *.ASF
•	 Sólo se puede visualizar con una versión actualizada
de Windows Media 7 o superior. Esta aplicación viene
integrada dentro de Windows.
•	 Es ideal para publicar videos en Internet por razonable
calidad/peso.
•	 Admite streaming.
RM
•	 Es la propuesta de Real Networks para archivos de
video.
•	 Utiliza un códec propio para comprimir el audio.
•	 Este tipo de archivos tiene extensión *.RM y *.RAM.
•	 Se visualiza con un reproductor específico: Real Player.
Existe una versión gratuita del mismo que sepuede
descargar de Internet.
•	 Se puede utilizar para publicar videos en Internet por
su aceptable calidad/peso.
•	 Admite streaming.
FLV
•	 Es un formato que utiliza el reproductor Adobe Flash
para visualizar video en Internet.
•	 Utiliza el códec Sorenson Spark y el códec On2 VP6.
Ambos permiten una alta calidad visual con bitrates
•	 reducidos.
•	 Son archivos de extensión *.FLV.
•	 Se pueden reproducir desde distintos reproductores
locales: MPlayer, VLC media player, Riva, Xine, etc.
•	 Opción recomendada para la web por su accesibili-
dad. Al visualizarse a través del reproductor de Flash
es accesible desde la mayoría de los sistemas operati-
vos y navegadores web.
•	 Los repositorios de video más conocidos en Internet
utilizan este formato para la difusión de videos: You-
Tube, Google Video, iFilm, etc.
•	 Permite configurar distintos parámetros del video
para conseguir una aceptable calidad/peso.
•	 Admite streaming.
CÓDECS DE COMPRESIÓN
MPEG
•	 Este estándar de compresión fue desarrollado por
Moving Picture Experts Group, o dicho de otra forma,
expertos en imágenes en movimiento.
•	 El método de compresión que utiliza es el de similitud
de contenidos, si percibe una parte común a todo
guarda un ejemplar eliminando el resto. De esta ma-
nera se consigue una reducción de espacio.
•	 Este formato se clasifica en: MPEG-1, MEPG-2,
MEPG-3 Y MPEG-4
MPEG1
•	 Surgió durante el año 1991. Su calidad se parece al
del sistema VHS.
•	 La principal finalidad de este tipo de compresión fue
el de poder colocar el video digital en un soporte muy
conocido para todos nosotros, el CD-ROM.
•	 Requiere de un ancho de banda de 1,5 mega bits por
segundo y se presentaba a una resolución de 352 x
240 píxeles NTSC o 352 x 288 en PAL.
•	 Actualmente este formato se utiliza bastante para
visualizar videos por internet.
MPEG2, utilizado por la televisión digital y el DVD
•	 El MPEG2 aparece en 1994 y es uno de los códec de
compresión que ofrece mayor calidad de imagen.
Funciona con una tasa de transferencia de 3 a 10
Mbps.
•	 Este formato ofrece la transmisión de ficheros de
video digital a pantalla completa o broadcast.
•	 El MPEG2, es el utilizado por la televisión digital y por
el DVD para la codificación de video
•	 Trabaja con resoluciones desde 352 x 480 y 1920 x
1080 píxeles o 720x576 (PAL) y 720x480 (NTSC).
MPEG3
•	 El MPEG3, se desarrolló para la televisión digital de
alta calidad aunque el formato MPEG2 también cum-
plía perfectamente esta función.
•	 El formato MPEG3 tiene mayor ancho de banda que
el MPEG2 y se optó por la utilización finalmente del
formato MPEG2. Por este motivo el proyecto orienta-
do en el MPEG3 se abandonó.
MPEG4
Uno de los códecs utilizados en este formato son los famo-
sos, DivX y XviD. Una de las grandes ventajas que ofrece
este formato es una muy buena calidad, muy parecida al
del formato DVD, a cambio de un factor de compresión
mucho más elevado que otros formatos, dando como
resultado archivos o ficheros más comprimidos que otros e
ideales para poder transmitir los datos a través de Internet.
MPEG-4 parte 10, también conocido como MPEG-4
AVC/H.264 o Codificación de video avanzada, es utilizados
por el códec x264, y video de alta definición en los medios
como el Blu-Ray
MPEG-4 trata más de agrupar los estándares ya existentes
que de crear nuevos formatos (formato de formatos). Se
trata de una especie de meta-formato que engloba tanto la
posibilidad de almacenar imágenes y sonidos comprimidos,
como la de añadir objetos sintéticos, interpretar (decodifi-
car y renderizar) y representar una composición de escena a
partir de múltiples objetos.
Además, describe la forma en que debe transmitirse y
sincronizarse el envío de los datos, bien sea a través de una
red o bien en un soporte físico local y también se encarga
de la posible interacción del usuario con las escenas descri-
tas.
Dispone de un conjunto de tecnologías para satisfacer las
necesidades de los autores de productos multimedia, los
proveedores de servicios de red y los usuarios finales:
Autores de productos multimedia:
Les permite combinar varias tecnologías en una sola con
mayor flexibilidad. o Les otorga una mayor reutilización de
sus creaciones al trabajar con objetos
Proveedores de servicios de red:
Controlarán mejor el tráfico, puesto que el estándar con-
templa el envío de señales de control.
Define unos niveles mínimos de calidad de servicio (QoS)
para que cada operador garantice un servicio de calidad
según los requerimientos del cliente y del canal a utilizar.
Se puede optimizar el flujo de datos en función de su tipo
y relevancia.
Usuario final:
Le ofrece televisión digital, aplicaciones gráficas y multi-
media interactivas, comunicación en tiempo real, vigilan-
cia a distancia, etc.
Las escenas audiovisuales MPEG-4 están compuestas
por multitud de objetos multimedia de forma jerárquica.
Estandariza el número de objetos multimedia primitivos
que pueden ser de dos o tres dimensiones. Por ejemplo:
si pensamos en una persona hablando en una clase y
queremos transmitir esta información de forma audiovi-
sual, podemos descomponer la escena en varios objetos
diferentes, como: imágenes estáticas (pizarra, fondo, etc),
objetos de vídeo (la animación de la persona hablando),
objetos audio (la voz de esa persona), etc.
Las escenas son agrupaciones de objetos multimedia. Los
objetos que componen la escena se agrupan en árboles
y subárboles. Esta idea se basa en el concepto de escena
empleado en el lenguaje VRML (Virtual Reality Modeling
Language o Lenguaje de Modelado de Realidad Virtual).
La idea básica es que los objetos multimedia primitivos
se agrupan para formar objetos multimedia más comple-
jos de forma jerárquica. De esta manera, el autor puede
construir escenas tan complejas como sea necesario y el
usuario puede interactuar con un grupo de objetos como
si de uno sólo se tratara.
Debido a la presencia de varios objetos es un solo bloque,
es necesario tener en cuenta las necesidades de ancho de
banda de cada objeto para no tener que esperar al más
lento. Esto se consigue mediante una capa de sincroni-
zación (capa de sincronización de flujos) que se dedica
exclusivamente a la gestión y control de los objetos que se
necesitan representar.
Los objetos multimedia se transmiten en los que llama-
remos flujos de datos. Los flujos de datos se componen
de flujos elementales de datos (elementary stream, ES).
Así pues, los objetos multimedia pueden necesitar varios
flujos de datos, que pueden ser de diferente naturaleza
y que son transportados en uno o mas flujos elementa-
les. Un objeto descriptor identificará los flujos asociados
a un objeto multimedia. Los descriptores pueden llevar
indicaciones del nivel de calidad (QoS) apropiado que se
requiere para la transmisión (p.e., la máxima tasa de bit, la
tasa de bit de error, la prioridad, etc). La capa de sincroni-
zación se encarga de sincronizar los flujos elementales. La
sintaxis de esta capa de sincronización es configurable en
multitud de modos por lo que se puede usar en distintos
tipos de sistemas.
Generalmente, el usuario final verá la escena tal cual el
autor la ha creado, aunque este pueda permitir cierto gra-
do de interacción con la escena si la diseña de este modo.
Entre otras cosas, el usuario podrá:
•	 Cambiar los puntos de vista o audición (navegar por
la escena).
•	 Mover objetos de la escena a distintas posiciones.
•	 Arrancar y detener el flujo de eventos (ej: iniciar y
detener el vídeo).
•	 Elegir el lenguaje que desea emplear, caso de que se
ofrezca soporte para varios.
MPEG7
MPEG7, este formato está en proyecto, cómo el estándar
que más se utilizará en Internet y televisiones interactivas.
Este formato codificará además de la imagen y sonido
datos en lenguaje XML.
MPEG7 servirá de gran ayuda para el avance de la nueva
televisión interactiva con introducción de buscadores de
contenidos, búsquedas de audiovisuales etc.
Otros codecs
Cinepak
El codec más utilizado si lo que interesa es el espacio.
Permite definir el espacio entre cuadros llave y la calidad
interframe, eliminando más o menos información en cada
uno de los fotogramas relativos. También se suele poner
definir la velocidad de transferencia de datos máxima
soportada, de modo que Cinepak reducirá la calidad hasta
permitir que los datos necesarios no sean superiores.
SorensonVideo
Parece que va a ser el sustituto natural de Cinepak. Tiene
una gran calidad incluso con tasas de transmisión míni-
mas, con lo que se está convirtiendo en una de las princi-
pales opciones para transmisión de vídeo en Web.
También es tremendamente asimétrico, como Cinepak.
Animation
Es el codec más utilizado para comprimir películas gene-
radas por ordenador (2 o 3-d), por ejemplo una anima-
ción generada con Macromedia Director. Utiliza también
compresión interframe.
DIVX/XVID
La razón de la existencia de los formatos DivX y XviD es su
excelente capacidad de almacenar vídeo de alta calidad en
un fichero de tamaño reducido que podamos insertar en
un CD de 650-700-800 o 900 MB de los llamados con-
sumibles. El proceso de compresión de vídeo se hace en
MPEG 4 por lo que esta versión de MPEG y el códec DivX
van ya unidas dentro de la terminología de los consumi-
dores de archivos DivX y Xvid. Por lo tanto, al contrario
que los ficheros de DVD que van con compresión de vídeo
en MPEG 2, el DivX y el Xvid utilizan el la compresión en
MPEG 4.
•	 Resolución PAL (generalmente): 640x480 o menor
•	 Compresión vídeo: MPEG 4
•	 Compresión de audio: MP3, Ogg, WMA
•	 Bitrate de vídeo: 300-1000 kbps
•	 Tamaño/minuto: 1-10 MB/min.
Streaming de video
En la navegación por Internet es necesario descargar
previamente el archivo (página HTML, imagen JPG, audio
MP3, etc.) desde el servidor remoto al cliente local para
luego visualizarlo en la pantalla de este último.
La tecnología de streaming se utiliza para optimizar la
descarga y reproducción de archivos de audio y video que
suelen tener un cierto peso.
El streaming funciona de la siguiente forma:
•	 Conexión con el servidor. El reproductor cliente
conecta con el servidor remoto y éste comienza a
enviarle el archivo.
•	 Buffer. El cliente comienza a recibir el fichero y cons-
truye un buffer o almacén donde empieza a guardar-
lo.
•	 Inicio de la reproducción. Cuando el buffer se ha
llenado con una pequeña fracción inicial del archivo
original, el reproductor cliente comienza a mostrarlo
mientras continúa en segundo plano con el resto de
la descarga.
•	 Caídas de la velocidad de conexión. Si la conexión
experimenta ligeros descensos de velocidad durante
la reproducción, el cliente podría seguir mostrando
el contenido consumiendo la información almacena-
da en el buffer. Si llega a consumir todo el buffer se
detendría hasta que se volviera a llenar.
El streaming puede ser de dos tipos dependiendo de la
tecnología instalada en el servidor:
•	 Descarga progresiva. Se produce en servidores web
que disponen de Internet Information Server (IIS),
Apache, Tomcat, etc. El archivo de video o audio soli-
citado por el cliente es liberado por el servidor como
cualquier otro archivo utilizando el protocolo HTTP.
Sin embargo, si el archivo ha sido especialmente em-
paquetado para streaming, al ser leído por el repro-
ductor cliente, se iniciará en streaming en cuanto se
llene el buffer.
•	 Transmisión por secuencias. Se produce en servidores
multimedia que disponen de un software especial
para gestionar más óptimamente el streaming de
audio y video: Windows Media Server, Flash Com-
munication Server, etc. La utilización de un servidor
multimedia ofrece múltiples ventajas frente al servidor
web.
Las más destacadas son:
•	 Mayor rapidez en la visualización de este tipo de
contenidos.
•	 La comunicación entre servidor/cliente se pue-
de realizar por protocolos alternativos al HTTP.
Tiene el inconveniente del bloqueo impuesto
por Firewalls pero tiene la ventaja de una mayor
rapidez.
•	 Mejor gestión del procesador y ancho de banda
de la máquina del servidor ante peticiones simul-
táneas de varios clientes del mismo archivo de
audio o video.
•	 Control predefinido sobre la descarga que pue-
den realizar los clientes: autentificada, filtrada por
IP, sin almacenarla en la caché del cliente, etc.
•	 Mayor garantía de una reproducción ininterrum-
pida gracias al establecimiento de una conexión
de control inteligente entre servidor y cliente.
•	 Posibilidad de distribución de transmisiones de
audio y video en directo.
Optimización de archivos de video
Para optimizar el peso del archivo de video será necesario
editarlo para establecer alguno o algunos de los siguien-
tes parámetros:
En el Audio:
•	 El códec de compresión de audio utilizado: MPEG
Layer 1, MPEG Layer 2, MP3, etc.
•	 Resolución. Establecer resoluciones más pequeñas:
32-bits, 16-bits, 8-bits, 4-bits, etc.
•	 Tasa de muestreo. Definir valores inferiores: 44100
Hz., 22050 Hz., 11025 Hz, etc.
•	 Velocidad de transmisión (bitrate). Configurar bitra-
tes más bajos: 128 Kbps, 96 Kbps, 64 Kbps, etc. 5)
Calidad estéreo/mono. Reducir la calidad de “stereo”
a “mono”
En el Video:
•	 El códec de compresión de video utilizado: MPEG-1,
MPEG-2, MPEG-4, Intel Indeo, Cinepak, DivX, etc.
•	 Método de BitRate. Utilizar un bitrate variable VBR
puede optimizar la calidad del video y repercutir en
el peso final del archivo frente a un bitrate constante
CBR.
•	 Velocidad de transmisión (bitrate). Configurar bitrates
más bajos: 1000 Kbps, 768 kbps, 360 Kbps, etc.
•	 Dimensiones. Cuanto más pequeña sea la altura y
anchura en píxeles de los fotogramas de un video,
menos tamaño ocupará su archivo.
•	 Velocidad de fotogramas. Se puede reducir el número
de fotogramas por segundo que mostrará el video:
30, 24, 20, 16, etc.
•	 Fotogramas Clave. Durante la compresión también se
puede indicar cada cuánto se guardará un fotograma
completo (fotograma clave): 24, 48, 96, 128, etc.
Cuanto mayor sea esta cadencia más bajo será el
peso del archivo resultante.
Otros elementos que inciden en la optimiza-
ción:
•	 Duración. Cuanto más corto es un video,
menos peso ocupa su archivo. En ocasiones
puede resultar interesante fraccio-
nar un archivo de video en sus
escenas para facilitar su descarga.
•	 Formato de archivo.
Los archivos *.WMV, *.MOV,
*.RM y *.FLV son los
más adecuados
para publicar
un video en
Internet por su
adecuada rela-
ción calidad/peso
y porque admiten
streaming. Los
archivos *.AVI con códecs de compresión baja son
ideales para guardar los videos originales. Los archi-
vos *.AVI con códecs DiVX-XviD son apropiados para
videos de películas de cierta duración. Los archivos
*.MPG con códec MPEG-1 se utilizan para crear
Video-CDs. Los archivos *.MPG con códec MPEG-2 se
utilizan como fuente para montar un DVD.
VIDEOCÁMARAS DIGITALES
La parte óptica de una cámara digital se encarga de
recoger la luz con la mayor precisión y calidad posible.
Suelen ser lentes zoom de unos 10x. En algunas Sony, son
Carl Zeiss, mítico fabricante alemán de óptica Es impor-
tante disponer de un buen zoom ya que el zoom digital
deteriora la imagen. Mucho más importante, aunque
los aficionados siempre lo olvidan, es tener una buena
apertura gran angular. En este sentido es difícil elegir ya
que no está muy claro este dato en los folletos. En cuanto
al diámetro de la rosca para filtros, el tema es caótico.
Cada fabricante, incluso cada modelo, puede tener uno
distinto. Si se prevé el uso de filtros hay que tener muy en
cuenta la posible disponibilidad.
Es importante que el autofocus sea rápido y preciso. Algu-
nas cámaras llevan un anillo giratorio que facilita el enfo-
que manual. Os aseguro que es muy útil, aunque tienen
un tacto no muy bueno ( en realidad, controlan indirecta-
mente el motor del focus). Viene muy bien disponer de un
modo de “bloqueo del focus”. En condiciones difíciles, los
autofocus enloquecen un poco. Lo profesionales siempre
trabajan con enfoque manual.
Todas incorporan un iris para ajustar la exposición. Tam-
bién juegan con la ganancia electrónica del CCD para
controlar la exposición. Normalmente es posible trabajar
en modo manual, pero pocos modelos ofrecen un control
total del iris ( suele haber un ajuste para subir o bajar la
sensibilidad pero no un ajuste absoluto de la apertura del
iris independiente de la ganancia electrónica). Es intere-
sante que tengan, al menos, bloqueo de la exposición,
para evitar cambios bruscos al hacer un barrido de paisa-
jes con diferente luminosidad.
Algunos modelos de la gama alta disponen de un filtro de
densidad neutra, sumamente útil para evitar la saturación
del CCD en tomas con exceso de luz (playa,nieve) o para
resaltar efectos estéticos (disminuir la profundidad de
campo usando aperturas muy grandes). Sólo las mejores
cámaras incorporan el “zebra pattern” : indicación en el
visor de las zonas sobreexpuestas [aunque en todas las
Sony es posible habilitar esta función conociendo ciertos
códigos]
Otro detalle a tener en cuenta es el control de balance de
blanco. Debido a las distintas fuentes de luz, con distinta
composición cromática, es necesario ajustar dicha com-
posición. Las cámaras suelen tener un ajuste automático,
pero nunca está de más ( es muy interesante ) un control
manual. Con él, basta poner una cartulina blanca delan-
te del objetivo y activar el ajuste. La cámara almacenará
este nuevo valor cromático. Es también útil para realizar
efectos y cambiar el tono de las tomas artificialmente. Hay
alguna cámara que no tiene control manual ( las menos )
que deben ser evitadas.
La velocidad de obturación se controla electrónicamente
en el propio CCD, es decir, no existe unas “cortinillas”
realmente. Variando las frecuencias de control del CCD se
consigue variar la velocidad de exposición. Evidentemente,
el formato PAL impone ofrecer 25 imágenes por segundo
( 50 cuadros de mitad de resolución, entrelazados) , cada
uno de ellos expuesto el tiempo que se haya seleccionado
( ya sea manualmente o auto).
Tal como ocurre en el campo de la fotografía, el juego de
velocidad y exposición determina el resultado final de la
imagen. Las velocidades de obturación altas se deben usar
al filmar objetos en movimiento rápido, sobre todo si se
quiere que la cámara lenta o la pausa brinden imágenes
bien definidas. Normalmente, en modo auto, las cámaras
trabajan a 1/100. De la misma manera, la apertura permi-
te controlar la profundidad de campo ( área de la imagen
enfocada). Aperturas pequeñas dan la máxima profundi-
dad de campo a costa de menor luminosidad. Y viceversa:
apertura grande implica poca profundidad de campo.
Esto permite resultados estéticos remarcables, sobre todo
al efectuar retratos, en los que queda muy bien un fondo
desenfocado ( por tanto, habrá que ajustar una apertura
máxima y usar un zoom bastante potente, tanto para
resaltar el efecto como para lograr suavizar los contornos
de la cara). Pero bueno, estas disquisiciones tienen más
que ver con aspectos de “técnicas de filmación”, etc) De
todos modos, estos ajustes lo suelen hacer automática-
mente las cámaras dotadas de “modos de operación”
( retrato, deportes, etc ). La mejor manera de saber los
resultados es la experimentación. Antes del CCD, se an-
tepone un filtro óptico para eliminar la parte del espectro
no visible. Vamos, que se elimina el infrarojo y el ultravio-
leta. Las cámaras con “Night Shot” ( visión nocturna por
infrarojos) deben quitar este filtro.
Las imágenes capturadas por las lentes son transformadas
en señales eléctricas por el CCD ( Charge Coupled Device)
. Ëste está compuesto por miles de puntos sensibles a la
luz ( más de 500.000 ).
El CCD en sí mismo, siempre es monocromo. Se antepo-
nen unos filtros con los colores primarios para obtener
la información de color. En los modelos de alta gama y
profesionales se usan tres CCD, uno para cada color.
Apuntes de Video digital

Más contenido relacionado

Similar a Apuntes de Video digital

Similar a Apuntes de Video digital (20)

Exposicion video
Exposicion videoExposicion video
Exposicion video
 
Video digital
Video digitalVideo digital
Video digital
 
Presentación Fundamentos técnicos de la televisións
Presentación Fundamentos técnicos de la televisiónsPresentación Fundamentos técnicos de la televisións
Presentación Fundamentos técnicos de la televisións
 
Presentacion de hardware
Presentacion de hardwarePresentacion de hardware
Presentacion de hardware
 
zareth veronica pacanchique
zareth veronica pacanchiquezareth veronica pacanchique
zareth veronica pacanchique
 
Funcionamiento de la t.v. parte 1
Funcionamiento de la t.v.  parte 1Funcionamiento de la t.v.  parte 1
Funcionamiento de la t.v. parte 1
 
Funcionamiento de la t.v. parte 1
Funcionamiento de la t.v.  parte 1Funcionamiento de la t.v.  parte 1
Funcionamiento de la t.v. parte 1
 
El monitor
El monitorEl monitor
El monitor
 
Blog ! =) monitor trc o crt
Blog ! =) monitor trc o crtBlog ! =) monitor trc o crt
Blog ! =) monitor trc o crt
 
Blog ! =) monitor trc o crt
Blog ! =) monitor trc o crtBlog ! =) monitor trc o crt
Blog ! =) monitor trc o crt
 
REGISTRO ELECTRONICO Y VIDEO
REGISTRO ELECTRONICO Y VIDEOREGISTRO ELECTRONICO Y VIDEO
REGISTRO ELECTRONICO Y VIDEO
 
Tipos De Monitores
Tipos De MonitoresTipos De Monitores
Tipos De Monitores
 
Presentación1
Presentación1Presentación1
Presentación1
 
Pantalla plasma blog
Pantalla plasma blogPantalla plasma blog
Pantalla plasma blog
 
Monitores crt y lcd
Monitores crt y lcdMonitores crt y lcd
Monitores crt y lcd
 
Azuniga trabajo2
Azuniga trabajo2Azuniga trabajo2
Azuniga trabajo2
 
Video
VideoVideo
Video
 
MONITORES
MONITORESMONITORES
MONITORES
 
Parametros y princicpios2
Parametros y princicpios2 Parametros y princicpios2
Parametros y princicpios2
 
PANTALLAS
PANTALLAS PANTALLAS
PANTALLAS
 

Más de Roger Crunch

Apuntes Medios Audiovisuales: El sonido
Apuntes Medios Audiovisuales: El sonido Apuntes Medios Audiovisuales: El sonido
Apuntes Medios Audiovisuales: El sonido Roger Crunch
 
Apuntes teo publi_01
Apuntes teo publi_01Apuntes teo publi_01
Apuntes teo publi_01Roger Crunch
 
Apuntes documental
Apuntes documentalApuntes documental
Apuntes documentalRoger Crunch
 
Apuntes lenguaje audiovisual
Apuntes lenguaje audiovisualApuntes lenguaje audiovisual
Apuntes lenguaje audiovisualRoger Crunch
 
Apuntes multimedia 02
Apuntes multimedia 02Apuntes multimedia 02
Apuntes multimedia 02Roger Crunch
 
Apuntes multimedia 01
Apuntes multimedia 01Apuntes multimedia 01
Apuntes multimedia 01Roger Crunch
 
Apuntes foto artistica 02
Apuntes foto artistica 02Apuntes foto artistica 02
Apuntes foto artistica 02Roger Crunch
 
Apuntes Fotografía Artística
Apuntes Fotografía ArtísticaApuntes Fotografía Artística
Apuntes Fotografía ArtísticaRoger Crunch
 
Los Géneros Fotográficos
Los Géneros FotográficosLos Géneros Fotográficos
Los Géneros FotográficosRoger Crunch
 
Apuntes fotonovela
Apuntes fotonovelaApuntes fotonovela
Apuntes fotonovelaRoger Crunch
 
Apuntes Narrativa y Guión
Apuntes Narrativa y GuiónApuntes Narrativa y Guión
Apuntes Narrativa y GuiónRoger Crunch
 
Modelo de analisis fotográfico
Modelo de analisis fotográficoModelo de analisis fotográfico
Modelo de analisis fotográficoRoger Crunch
 
Fundamentos del diseño gráfico para web e interactivos
Fundamentos del diseño gráfico para web e interactivosFundamentos del diseño gráfico para web e interactivos
Fundamentos del diseño gráfico para web e interactivosRoger Crunch
 
Apuntes medios audiovisuales 01
Apuntes medios audiovisuales 01Apuntes medios audiovisuales 01
Apuntes medios audiovisuales 01Roger Crunch
 
La naturaleza del caos
La naturaleza del caosLa naturaleza del caos
La naturaleza del caosRoger Crunch
 
Portfolio Roger Crunch
Portfolio Roger CrunchPortfolio Roger Crunch
Portfolio Roger CrunchRoger Crunch
 
Apuntes Diseño Gráfico
Apuntes Diseño GráficoApuntes Diseño Gráfico
Apuntes Diseño GráficoRoger Crunch
 

Más de Roger Crunch (17)

Apuntes Medios Audiovisuales: El sonido
Apuntes Medios Audiovisuales: El sonido Apuntes Medios Audiovisuales: El sonido
Apuntes Medios Audiovisuales: El sonido
 
Apuntes teo publi_01
Apuntes teo publi_01Apuntes teo publi_01
Apuntes teo publi_01
 
Apuntes documental
Apuntes documentalApuntes documental
Apuntes documental
 
Apuntes lenguaje audiovisual
Apuntes lenguaje audiovisualApuntes lenguaje audiovisual
Apuntes lenguaje audiovisual
 
Apuntes multimedia 02
Apuntes multimedia 02Apuntes multimedia 02
Apuntes multimedia 02
 
Apuntes multimedia 01
Apuntes multimedia 01Apuntes multimedia 01
Apuntes multimedia 01
 
Apuntes foto artistica 02
Apuntes foto artistica 02Apuntes foto artistica 02
Apuntes foto artistica 02
 
Apuntes Fotografía Artística
Apuntes Fotografía ArtísticaApuntes Fotografía Artística
Apuntes Fotografía Artística
 
Los Géneros Fotográficos
Los Géneros FotográficosLos Géneros Fotográficos
Los Géneros Fotográficos
 
Apuntes fotonovela
Apuntes fotonovelaApuntes fotonovela
Apuntes fotonovela
 
Apuntes Narrativa y Guión
Apuntes Narrativa y GuiónApuntes Narrativa y Guión
Apuntes Narrativa y Guión
 
Modelo de analisis fotográfico
Modelo de analisis fotográficoModelo de analisis fotográfico
Modelo de analisis fotográfico
 
Fundamentos del diseño gráfico para web e interactivos
Fundamentos del diseño gráfico para web e interactivosFundamentos del diseño gráfico para web e interactivos
Fundamentos del diseño gráfico para web e interactivos
 
Apuntes medios audiovisuales 01
Apuntes medios audiovisuales 01Apuntes medios audiovisuales 01
Apuntes medios audiovisuales 01
 
La naturaleza del caos
La naturaleza del caosLa naturaleza del caos
La naturaleza del caos
 
Portfolio Roger Crunch
Portfolio Roger CrunchPortfolio Roger Crunch
Portfolio Roger Crunch
 
Apuntes Diseño Gráfico
Apuntes Diseño GráficoApuntes Diseño Gráfico
Apuntes Diseño Gráfico
 

Último

LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxdanalikcruz2000
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfManuel Molina
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdfEstrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdfAlfredoRamirez953210
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxYeseniaRivera50
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfMapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfvictorbeltuce
 
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIATRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIAAbelardoVelaAlbrecht1
 
Unidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteUnidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteJuan Hernandez
 
c3.hu3.p1.p3.El ser humano como ser histórico.pptx
c3.hu3.p1.p3.El ser humano como ser histórico.pptxc3.hu3.p1.p3.El ser humano como ser histórico.pptx
c3.hu3.p1.p3.El ser humano como ser histórico.pptxMartín Ramírez
 
TEST DE RAVEN es un test conocido para la personalidad.pdf
TEST DE RAVEN es un test conocido para la personalidad.pdfTEST DE RAVEN es un test conocido para la personalidad.pdf
TEST DE RAVEN es un test conocido para la personalidad.pdfDannyTola1
 
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxPPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxOscarEduardoSanchezC
 
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Baker Publishing Company
 

Último (20)

LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdfEstrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfMapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
 
Unidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDIUnidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDI
 
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIATRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
 
Unidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteUnidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parte
 
c3.hu3.p1.p3.El ser humano como ser histórico.pptx
c3.hu3.p1.p3.El ser humano como ser histórico.pptxc3.hu3.p1.p3.El ser humano como ser histórico.pptx
c3.hu3.p1.p3.El ser humano como ser histórico.pptx
 
TEST DE RAVEN es un test conocido para la personalidad.pdf
TEST DE RAVEN es un test conocido para la personalidad.pdfTEST DE RAVEN es un test conocido para la personalidad.pdf
TEST DE RAVEN es un test conocido para la personalidad.pdf
 
Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdfTema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
 
Sesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdfSesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdf
 
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxPPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
 
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
 
VISITA À PROTEÇÃO CIVIL _
VISITA À PROTEÇÃO CIVIL                  _VISITA À PROTEÇÃO CIVIL                  _
VISITA À PROTEÇÃO CIVIL _
 

Apuntes de Video digital

  • 1. VÍDEO DIGITAL APUNTES DE MEDIOS AUDIOVISUALES 2º
  • 2.
  • 3. INTRODUCCIÓN La producción audiovisual desde sus inicios ha contempla- do la necesidad de estructurarse en tres distintas etapas, la planificación, la producción y los procesos de selección, ordenamiento, arreglo y construcción del material con- seguido para así crear la pieza audiovisual que transmita un mensaje o bien simplemente exponga alguna idea o pensamiento que el autor quiere expresar o comunicar. La tercera etapa de la producción es quizás la que más liga- da se encuentre a la tecnología como tal, no quiere decir que los avances tecnológicos no toquen a los procesos de producción durante el rodaje, todo lo contrario, pero es en la etapa de postproducción que toda esa evolución tecno- lógica se evidencia aún más, desde la calidad del material codificado y comprimido hasta la forma en cómo se alma- cena la información, ha cambiado drásticamente. Es importante entonces estudiar y conocer cuáles son los principales cambios, cómo han afectado a los procesos de creación en la etapa de edición y montaje de piezas audiovi- suales, deteniéndose para poder determinar qué beneficios trae y cuál es la mejor manera de aprovecharlos.
  • 4. TELEVISIÓN Y VIDEO ANALÓGICOS La tecnología analógica de video descompone la informa- ción de cada uno de los frames en dos tipos: el nivel de luz en cada punto de imagen (luminancia) y los tonos de color (crominancia). Luminancia y crominancia Luminancia: guarda la información de la intensidad luminosa y se representa en una imagen en blanco y negro con todos los tonos de grises. No contiene información sobre los colo- res de la imagen. Es una información que ya estaba presente en la televisión en Blanco y Negro y que continuó con la televisión en color analógica. Crominancia: Comprende los canales RGB, es decir rojo, ver- de y azul, representa la combinación de los tres colores pri- marios. Para obtener el blanco máximo se debe cumplir que la luminancia sea (Y) igual a 1, para lo cual se deben mezclar los colores con proporción de: 30% de rojo, 59% de verde y 11% de azul. Soportes Los soportes en los que se registra, se almacena y se repro- duce el video analógico es la cinta magnética, en diferentes formatos según las tecnologías: Cinta abierta, U-matic, be- tacam, VHS, etc. Eso hacía vulnerable la preservación de material de archivo, que corría riesgos de deteriorarse, además de implicar el ma- nejo de grandes volúmenes de cintas e imponía un techo a la calidad del video. Edición La edición de video analógico, y eso es una clara desventaja sobre el digital, era lineal, lo que implicaba trabajar en tiem- po real la visualización y regrabación, e importaba pérdida de calidad de imagen en el proceso. Señal de vídeo analógico. La señal de vídeo analógica es una señal eléctrica que varía con el tiempo y que se obtiene a partir de muestrear, de forma periódica, la información que llega a una cámara: un patrón de distribución espacial de intensidad luminosa cam- biante con el tiempo. Este proceso se conoce como barrido scanning). De esta forma se recoge la información acerca de la distribución luminosa a través de unas líneas predefinidas de muestreo, así como la información de control (sincronis- mos) acerca de la posición horizontal y vertical del punto de barrido en cada momento. El punto de reconocimiento de la imagen va trazando líneas casi horizontales de izquierda a derecha, volviendo a la izquierda y así sucesivamente hasta completar la pantalla. Los métodos de barrido más comúnmente usados son: el progresivo y el entrelazado. Sistema de barrido Entrelazado: Una particularidad del video analógico y de la televisión en general es que el pasaje de un frame a otro no se produce por completo, sino que dos cuadros sucesivos se entrelazan dibujándose un cuadro distinto en cada una de las 625 líneas horizontales, o dos semicuadros simultá- neamente. Uno de los campos contiene las líneas pares, se le denomina “campo par”, mientras que el otro contiene la impares, se le denomina “campo impar” al comienzo de cada uno de ellos se sitúa el sincronismo vertical. Con eso se evita un efecto de parpadeo en la imagen, aunque eso implica que la resolución real de cada frame es de la mitad, es decir 312 líneas aproximadamente. Progresivo: Implica una mejora en la calidad ya que en cada período se actualizan todas las líneas de cada cuadro, pero no es soportado por los sistemas de televisión analógico.
  • 5. RELACIÓN DE ASPECTO O PROPORCIÓN La relación de aspecto es un par de números que expresa el achatamiento de una imagen o video. Los videos digitales así como las emisiones de televisión digital han modificado la relación de aspecto de la televisión y los videos analógi- cos a las proporciones “panorámicas” más cercana al cine. Se denomina relación de aspecto a la proporción entre an- cho y largo de las imágenes. Los estándares de la industria confirieron a la televisión, y luego al video analógico, una proporción 4:3, que le da a la pantalla chica esa imagen “casi cuadrada”, superada ahora por los LCD y LEDs digi- tales, adaptados a la relación 16:9. Los números describen sencillamente que en un caso la pantalla tiene cuatro partes de ancho por tres de alto. Es decir que si, por ejemplo, midiera 40 centímetros de an- cho, deberá tener un alto de 30 centímetros. Esa relación se amplía a 16 partes de ancho contra 9 de alto para el caso de la perspectiva panorámica. La falta de atención a esas dos relaciones básicas de pro- porción hace que en ocasiones algunos videos en la web se vean “angostos” como comprimidos en los laterales, con personas y objetos delgados y altos. O a la inversa, cuando un video 4:3 se fuerza a 16:9, las imágenes se verán más anchas que lo normal. En ocasiones, para evitar esa distor- sión se completa la pantalla con barras negras horizontales o verticales según el caso, o se aplican acercamientos sobre la imagen hasta completar la pantalla, aunque a costa de perder parte de la imagen en los laterales. Adicionalmente, hay un tercer formato que se ha popu- larizado en el cine aún más panorámico, con una relación 21:9, que fuerza la aparición de franjas negras horizontales aún en los modernos televisores de alta definición. Para hallar la relación de aspecto de un video o una imagen, simplemente mide su ancho y altura. La relación de aspec- to puede ser expresada como anchura:altura. Si la imagen tiene 24cm de ancho y 18cm de alto, la relación de aspecto se puede expresar como 24:18. Es decir, 24 dividido 18, lo que da un resultado de 1,33, igual a 4 dividido 3. Es decir que una pantalla de 24:18 tiene una relación de 4:3 La relación de aspecto se expresa en términos de las dimen- siones pretendidas en pantalla. La resolución de la imagen en pixels no es siempre un buen indicador de la relación de aspecto. El modo más fácil de comparar relaciones de aspecto es reducirlas a común denominador haciendo una simple di- visión: 24 / 18 = 1,33 4 / 3 = 1,33 16 / 9 = 1,78 Las dos primeras relaciones de aspecto son equivalentes a 1,33:1. Ambas son más estrechas que la relación de as- pecto de pantalla panorámica 1,78:1. La reducción de las relaciones de aspecto a un común denominador hace más sencilla la comparación. Comparación de las tres relacio- nes de aspecto más comunes. La azul (2,39:1) y la verde (1,85:1) son las más usadas en el cine. Por su parte, el recuadro rojo (4:3) solía ser la relación más normal en televisión. Actual- mente el estándar utilizado es el denominado «panorámico» (16:9)
  • 6. SISTEMAS DE TRANSMISIÓN TELEVISIVOS ANALÓGICOS: NTSC, PAL Y SECAM Con la llegada de la televisión a color se impusieron a nivel mundial tres normas, el NTSC, PAL y SECAM. La diferencia sustancial entre ellos estriba en la velocidad en la que se emiten los fotogramas y su resolución. Cada país adoptó para sí uno de los tres sistemas de transmisión televisiva. Todos los aparatos utilizados, cáma- ras de filmación de video, televisores, etc., deben compar- tir el sistema de transmisión estándar propio de cada país. • NTSC: National Television Systems Commitee definido en el 1952 se utiliza principalmente en Norte América y Japón. • PAL: Phase Alternation Line se desarrolló en 1960 y se utiliza mayormente en Europa. • SECAM: Systeme Electronique Color Avec Memoire, utilizado en Francia y Rusia. • HDTV:High-definition television se define como dos veces mayor en resolución que la televisión conven- cional, con una relación 16:9 de aspecto, una fre- cuencia de barrido de cuadro de 24 Hz. O mayor y, por lo menos, dos canales de audio de calidad CD. Es usual encontrar los sistemas anteriores descritos como combinación de sus características de líneas, frecuencia y modo de barrido, como:
  • 7. CÓMO SE FORMAN LAS IMÁGENES ANALÓGICAS El televisor consta de un tubo catódico, este emite una se- rie de rayos de electrones que barren la pantalla, de arriba hacia abajo y de izquierda a la derecha. Estos rayos de electrones van formando una serie de líneas en el televisor horizontales y verticales, escaneando toda la pantalla, a una determinada frecuencia por segundo. Tubo de rayos catódicos: El tubo de la imagen en color, lleva incorporados tres cañones de electrones, uno para cada color primario, rojo, verde y azul. La ráfaga emitida por cada cañón, pasa por un soporte perforado que lo dirige a cada punto luminis- cente de su correspondiente color y hacerlo activo con su distinto nivel de brillo
  • 8. VÍDEO DIGITAL La revolución digital de las últimas dos décadas ha impulsado la tecnología existente hasta el punto de que es posible realizar sonido e imagen de alta calidad en computadores personales, hasta el punto de que se puede considerar el vídeo (digital) como una forma más de infor- mación (datos) que es capaz de manejar el computador. Tomando la idea del vídeo analógico, lo único que tiene que añadir el digital es la conversión de la señal eléctrica a bits, mediante el proceso de digitalización o muestreo, que consiste en discretizar primero el tiempo (sampling) y después representar la amplitud con un valor discreto (quantizing), en lo que se denomina conversión analógi- co-digital (A/D). Esto produce una aproximación a la señal original, pero a partir de ahí (si la digitalización tiene la precisión suficien- te) se puede simplemente copiar cuantas veces sea ne- cesario los valores originales sin perder calidad (cosa que ocurre con cada copia analógica). Para ello es necesario que la frecuencia de muestreo sea al menos el doble que la mayor frecuencia posible que la onda original (teorema de Nyquist), y que el número de bits utilizado para cada valor sea suficiente para la calidad deseada. Las ventajas de realizar el tratamiento en formato digital son: • Robustez de la señal, es menos sensible a interferen- cias y errores en la transmisión. • También admite procesos de comprobación de la integridad de la señal. • Es posible el acceso aleatorio a los contenidos de la secuencia, facilitando la edición y/o impresión de imá- genes individuales de la secuencia grabada. • Es posible realizar la captura (grabación) al tiempo que otros procesos de tratamiento de la imagen. • No hay necesidad de pulsos de sincronismo y apaga- do del haz en los mismos, puesto que se conoce la longitud de cada línea y dónde empieza y termina. Señal de vídeo digital. Casi todos los sistemas de vídeo digital se ajustan al están- dar de componentes de vídeo para representar la señal de color (o niveles de gris). La mayoría de cámaras de vídeo proporcionan salidas RGB que se digitalizan de forma in- dividual. En los casos en que se necesita transmitir la señal a cierta distancia de su origen esta se realiza en modo de vídeo compuesto, como es el caso de los equipos de reproducción de vídeo y cámaras analógicas. En estos casos, se convierte primero la señal de vídeo compuesto a componentes de vídeo que después de digitalizan de forma individual. Las áreas de ajuste horizontal y vertical de la señal de vídeo analógico desaparecen y ahora nos referiremos al número de pixels por línea y el número de líneas por cua- dro. La pérdida de resolución espacial en el caso analógico comporta un efecto de desenfoque o emborronamiento en el sentido que se produzca esa pérdida de resolución. En el caso digital el efecto que se produce es el de alia- sing. Este consiste en que se hace visible la naturaleza “pi- xelada” de una imagen, fundamentalmente en los bordes de los objetos: en lugar de verlos de forma continua, se aprecia un efecto de escalera. En función de las caracterís- ticas del monitor y la distancia del usuario este efecto se aprecia en mayor o menor medida. La calidad de color deseable se alcanzaría con 24 bits de color (8 bits de cada canal RGB), aunque a menudo se usa una solución de compromiso para disminuir los requisitos de tamaño de 16 bits (5 bits R, 6 bits G, 5 bits B, ya que el ojo humano parece ser más receptivo al verde), o bien se define el color mediante paleta.
  • 9. Resoluciones 16:9 Resoluciones 4:3 4K standard Otras Resoluciones • 128x72 • 256x144 • 384x216 • 512x288 • 640x360 • 768x432 • 800x450 - no divisible por 8 • 800x480 - 16:9 en tablets, teléfonos móviles, etc. (no usar en vídeos) • 852x480 - 480p 16:9, reso- lución nativa en TV plasma de 42 pulgadas • 896x504 • 1024x576 • 1152x648 • 1365x768 - resolución nativa en TV plasma de 50 pulgadas • 1408x792 • 1280x720 - 720p HD • 1536x864 • 1600x900 - no divisible por 8 • 1664x936 • 1792x1008 • 1920x1080 - 1080p HD • 2560x1440 - 1440p QHD (Quad HD) / WQHD (Wide Quad HD) - resolución nativa en determinados monitores de 27 pulgadas (ejemplo: Apple Thunder- bolt 27”) • 640x480 • 800x600 • 1024x768 • 1152x864 • 1280x960 • 1400x1050 • 1600x1200 • 2048x1536 • 3200x2400 • 4000x3000 • 6400x4800 • 3840x1600 - UW4K (12:5) (2.4:1) (21.6:9) (ultra-wide) (Ultra HD Blu-ray) • 3840x2160 - 2160p 4K UHD-1 / UHDTV (1.78:1) (16:9) [8.3 megapixels] • 4096x2160 - DCI 4K (256:135) (1.9:1) [4K en cines] [8.8 megapixels] • 2048x1080 - DCI 2K nativo (256:135) (~17:9) • 1998x1080 - DCI 2K recor- tado (1.85:1) • 2048x858 - DCI 2K Cine- maScope recortado (2.39:1) • 4096x2160 - DCI 4K nativo (1.90:1) (256:135) • 3996x2160 - DCI 4K recor- tado (1.85:1) (999:540) • 4096x1716 - DCI 4K Cine- maScope recortado (2.39:1) (1024:429) Resoluciones 16:10 8K standard • 1440x900 • 1680x1050 • 1920x1200 • 2560x1600 • 3840x2400 • 7680x4800 • 7680x4320 - 4320p (1.78:1) (16:9) [soportado por YouTube] [33.2 mega- pixels] • 8192x4320 - (1.89:1) (17:9) • 8192x5120 - (1.60:1) (16:10) • 8192x8192 - (1.00:1) (1:1) [8K FULLDOME en plane- tarios] El cuadro de trabajo de vídeo digital en PAL es de 768 x 576. El hecho de que sea tan habitual trabajar en 320 x 240 o 160 x 120 es que son divisores direc- tos de 640 x 480, que es la resolución NTSC. El problema con el vídeo digital es el requerimiento de memoria que impone al sistema, tanto para su almacenamien- to como para su transmisión. Por esto, la viabilidad del vídeo digital está en función del uso de los métodos de com- presión. En lo que sigue se va a describir una serie de estándares de formato de vídeo digital y de estándares de técnicas de compresión utilizadas en este campo. Píxeles y relación de aspecto La resolución de un video, como en el caso de una fotografía, está condiciona- da a las condiciones de captura original de esas imágenes, y más precisamente a la cantidad de píxeles en los que des- compuso la toma el CCD de la cáma- ra, que es el es el sensor con células fotoeléctricas que registran la imagen. Es decir que remite directamente a la cantidad de píxeles dispuestos a lo an- cho por la cantidad de píxeles a lo alto. Los estándares de la industria para la captura de video están relacionados con la relación de aspecto de cada tecnolo- gía, pero no se deben confundir ambos conceptos: se puede tener diferentes resoluciones posibles en una misma relación de aspecto.
  • 10. Por ejemplo, un video grabado en 640 x 480 tiene una relación de aspecto de 4:3 (640/480 = 4/3 = 1,33). Del mismo modo, un video captado a 1280 x 960 tendrá una relación de aspecto 4:3 (1280/960=1,33). Sin embargo el primero tendrá una calidad estándar y el segundo será de alta definición. Ocurre que las normas desarrolladas para la televisión digital optaron por cambiar la relación de 4:3 a 16:9 para acercarla a la visión panorámica del cine, por lo que se sue- le asociar erróneamente relación de aspecto con calidad. Recordemos que para el caso del video o la TV analógica la resolución no se mide en píxeles sino en líneas horizontales (ver barrido), aunque se ha logrado desarrollar procedi- mientos que traducen la información entrelazada del video analógico al formato digital. Tamaños estándar de resolución de video en píxeles: • 640x480 Archivo de calidad estándar para computado- ra, con relación de aspecto 4:3 (1,33) • 720x480 Formato de calidad estándar para TV (SDTV), con relación de aspecto 4:3 en sistema NTSC • 720x576 Formato de calidad estándar para TV (SDTV), con relación de aspecto 4:3 en sistema PAL • 1280x720 Formato de alta calidad (HD Ready), para TV digital, con relación de aspecto 1,5 (DVD) • 1920x1080 Formato de muy alta calidad (HD Full), para TV digital, con relación de aspecto 16:9 (1,77) • 3840×2160 Formato de calidad superior (4K), para TV digital, con relación de aspecto 16;9 Tamaño y profundidad de color Como en la fotografía, la profundidad de color remite al número de colores distintos que pueden ser representados por un pixel y, como sabemos, depende del número de bits por pixel. A mayor cantidad de bits por píxel, mayor can- tidad posible de colores a representar, con el consiguiente efecto en el tamaño final del archivo. También en este caso, el tamaño del archivo de video será el producto de la cantidad de píxeles, por la cantidad de bits que informa a cada uno, pero multplicado por la can- tidad de frames por segundo, por la cantidad de segundos que dura el video Tasa de transferencia De la elevada cantidad de bits que requiere un archivo de video surge la importancia de la tasa de transferencia, tam- bién denominada tasa de bits o bitrate. Se trata de una forma de medir la cantidad de información contenida en un flujo o secuencia de video para su repro- ducción, atendiendo a que el tiempo en que se reproduce es un dato central para el caso de un video en la medida en que, por ejemplo, un videoclip de 3 minutos, debe ser reproducido necesariamente en ese tiempo. Es decir, el tiempo que demora un sistema para reprodu- cir una fotografía puede ser mayor o menor, pero nunca afecta a la exhibición misma de la imagen, toda vez que no requiere un tiempo establecido de visualización. Distinto es el caso de los archivos de video o audio, los que deben respetar el tiempo de su duración durante la reproducción, lo que exige que el soporte sea capaz de transmitir, procesar y/o reproducir el contenido del archivo en tiempo real. Así, si la tasa de transferencia que admite el soporte es inferior a la tasa de transferencia que requiere el archivo para reproducirse en tiempo real su visualización adecuada se tornará imposible. De tal modo que la tasa de transfe- rencia pasa a ser una condición inherente al propio archivo de video.
  • 11. La información surgirá de multiplicar píxeles por bits por fotogramas por segundo, lo que arrojará una cifra que se medirá en bits por segundo (bps) o en sus múltiplos, como megabits. COMPRESIÓN DE VIDEO Con semejantes números queda claro que es necesario aplicar eficientes algoritmos de compresión para tornar manipulables los archivos de video digital. Métodos de compresión de video: Existen básicamente dos métodos de compresión de video, que apuntan a desechar los datos que contengan información redundante tanto espacial como temporal: Intraframe e interframe. Intraframe: se trata de un sistema de compresión similar al que aplica el formato jpg en las imágenes estáticas. Bási- camente encuentra información similar en un conjunto de píxeles que promedia y unifica, quitando leves diferencias de color que no son detectadas por la percepción huma- na. Así, cada frame termina teniendo un tamaño muy inferior al original. Interframe: deja de lado datos redundantes entre diferen- tes frames o cuadros de una imagen. Así, cuando detecta que la información no cambia, como una pared detrás de un entrevistado, la repite entre cada cuadro, renovando exclusivamente la información de los píxeles que sí sufren modificaciones, como los del rostro de la persona que habla. Es decir que sólo se guarda la información de los píxeles que difieren entre un frame y otro. La compresión temporal entonces implica analizar una se- cuencia de video de modo que no sea necesario transmitir todos los fotogramas consecutivos, sino que se codifique un fotograma y luego sólo la diferencia entre éste y sus fotogramas cercanos. Esto permite que las secuencias en donde los datos son redundantes (porque existen muy pocas variaciones entre fotogramas consecutivos) se consigan factores de com- presión muy elevados, ya que la diferencia entre ellos es prácticamente nula. La mayoría de las técnicas de compresión temporal tam- bién incluyen la predicción del frame siguiente, lo que disminuye considerablemente el peso del archivo. CÓDECS Y FORMATOS CONTENEDORES DE ARCHIVO DE VIDEO Aunque los códecs, y los formatos contenedores de archi- vos no son equivalentes, a menudo se confunden entre sí. El formato contenedor define cómo se almacenan los metadatos junto con los datos audio y de video y suele darle nombre a la extensión. No define ni la codificación ni la compresión de los datos. El códec sí define el modo en que se comprime y se codifica la información de video. Formatos contenedores de archivos de video Los videos digitales se pueden guardar en archivos de distintos formatos. Cada uno se corresponde con una extensión específica del archivo que lo contiene. Existen muchos tipos de formatos de video. Aquí se citan algunos de los más utilizados. Asimismo cada tipo de archivo ad- mite en cada momento un códec de compresión distinto. AVI (Audio Video Interleaved = Audio y Video Intercalado) • Es el formato estándar para almacenar video digital. • Cuando se captura video desde una cámara digital al ordenador, se suele almacenar en este formato con el códec DV (Digital Video). • El archivo AVI puede contener video con una calidad excelente. Sin embargo el peso del archivo resulta • siempre muy elevado. • Admite distintos códecs de compresión como CinePak, Intel Indeo 5, DV, etc. Los de mayor capacidad de com- presión y una calidad aceptable son DivX y XviD. • El formato AVI puede ser visualizado con la mayoría de reproductores: Windows Media, QuickTime, etc. siem- pre y cuando se encuentren instalados en el equipo los adecuados códecs para cada tipo de reproductor. • Es ideal para guardar videos originales que han sido capturados de la cámara digital (codificados con DV). • No es recomendable publicarlos en Internet en este formato por su enorme peso. • Los códecs CinePak, Intel Indeo, DV, etc. no ofrecen una gran compresión. Los códecs DivX y XviD por el contrario consiguen una óptima compresión aunque se suelen destinar sobre todo a la codificación de películas de larga duración.
  • 12. MPEG (Moving Pictures Expert Group = Grupo de Expertos de Películas) • Es un formato estándar para la compresión de video digital. • Son archivos de extensión *.MPG ó *.MPEG. • Admite distintos tipos de códecs de compresión: MPEG-1 (calidad CD), MPEG-2 (calidad DVD) y MPEG- 4 (más orientado a la web). MOV • Es el formato de video y audio desarrollado por Apple. • Utiliza un códec propio que evoluciona en versiones con bastante rapidez. • Este tipo de archivos también pueden tener extensión *.QT • Se recomienda utilizar el reproductor de QuickTime. Existe una versión gratuita del mismo que se puede descargar de Internet. • Es ideal para publicar videos en Internet por su razo- nable calidad/peso. • Admite streaming. WMV • Ha sido desarrollado por Microsoft. • Utiliza el códec MPEG-4 para la compresión de video. • También puede tener extensión *.ASF • Sólo se puede visualizar con una versión actualizada de Windows Media 7 o superior. Esta aplicación viene integrada dentro de Windows. • Es ideal para publicar videos en Internet por razonable calidad/peso. • Admite streaming. RM • Es la propuesta de Real Networks para archivos de video. • Utiliza un códec propio para comprimir el audio. • Este tipo de archivos tiene extensión *.RM y *.RAM. • Se visualiza con un reproductor específico: Real Player. Existe una versión gratuita del mismo que sepuede descargar de Internet. • Se puede utilizar para publicar videos en Internet por su aceptable calidad/peso. • Admite streaming. FLV • Es un formato que utiliza el reproductor Adobe Flash para visualizar video en Internet. • Utiliza el códec Sorenson Spark y el códec On2 VP6. Ambos permiten una alta calidad visual con bitrates • reducidos. • Son archivos de extensión *.FLV. • Se pueden reproducir desde distintos reproductores locales: MPlayer, VLC media player, Riva, Xine, etc. • Opción recomendada para la web por su accesibili- dad. Al visualizarse a través del reproductor de Flash es accesible desde la mayoría de los sistemas operati- vos y navegadores web. • Los repositorios de video más conocidos en Internet utilizan este formato para la difusión de videos: You- Tube, Google Video, iFilm, etc. • Permite configurar distintos parámetros del video para conseguir una aceptable calidad/peso. • Admite streaming.
  • 13. CÓDECS DE COMPRESIÓN MPEG • Este estándar de compresión fue desarrollado por Moving Picture Experts Group, o dicho de otra forma, expertos en imágenes en movimiento. • El método de compresión que utiliza es el de similitud de contenidos, si percibe una parte común a todo guarda un ejemplar eliminando el resto. De esta ma- nera se consigue una reducción de espacio. • Este formato se clasifica en: MPEG-1, MEPG-2, MEPG-3 Y MPEG-4 MPEG1 • Surgió durante el año 1991. Su calidad se parece al del sistema VHS. • La principal finalidad de este tipo de compresión fue el de poder colocar el video digital en un soporte muy conocido para todos nosotros, el CD-ROM. • Requiere de un ancho de banda de 1,5 mega bits por segundo y se presentaba a una resolución de 352 x 240 píxeles NTSC o 352 x 288 en PAL. • Actualmente este formato se utiliza bastante para visualizar videos por internet. MPEG2, utilizado por la televisión digital y el DVD • El MPEG2 aparece en 1994 y es uno de los códec de compresión que ofrece mayor calidad de imagen. Funciona con una tasa de transferencia de 3 a 10 Mbps. • Este formato ofrece la transmisión de ficheros de video digital a pantalla completa o broadcast. • El MPEG2, es el utilizado por la televisión digital y por el DVD para la codificación de video • Trabaja con resoluciones desde 352 x 480 y 1920 x 1080 píxeles o 720x576 (PAL) y 720x480 (NTSC). MPEG3 • El MPEG3, se desarrolló para la televisión digital de alta calidad aunque el formato MPEG2 también cum- plía perfectamente esta función. • El formato MPEG3 tiene mayor ancho de banda que el MPEG2 y se optó por la utilización finalmente del formato MPEG2. Por este motivo el proyecto orienta- do en el MPEG3 se abandonó. MPEG4 Uno de los códecs utilizados en este formato son los famo- sos, DivX y XviD. Una de las grandes ventajas que ofrece este formato es una muy buena calidad, muy parecida al del formato DVD, a cambio de un factor de compresión mucho más elevado que otros formatos, dando como resultado archivos o ficheros más comprimidos que otros e ideales para poder transmitir los datos a través de Internet. MPEG-4 parte 10, también conocido como MPEG-4 AVC/H.264 o Codificación de video avanzada, es utilizados por el códec x264, y video de alta definición en los medios como el Blu-Ray MPEG-4 trata más de agrupar los estándares ya existentes que de crear nuevos formatos (formato de formatos). Se trata de una especie de meta-formato que engloba tanto la posibilidad de almacenar imágenes y sonidos comprimidos, como la de añadir objetos sintéticos, interpretar (decodifi- car y renderizar) y representar una composición de escena a partir de múltiples objetos. Además, describe la forma en que debe transmitirse y sincronizarse el envío de los datos, bien sea a través de una red o bien en un soporte físico local y también se encarga de la posible interacción del usuario con las escenas descri- tas. Dispone de un conjunto de tecnologías para satisfacer las necesidades de los autores de productos multimedia, los proveedores de servicios de red y los usuarios finales: Autores de productos multimedia: Les permite combinar varias tecnologías en una sola con mayor flexibilidad. o Les otorga una mayor reutilización de sus creaciones al trabajar con objetos Proveedores de servicios de red: Controlarán mejor el tráfico, puesto que el estándar con- templa el envío de señales de control. Define unos niveles mínimos de calidad de servicio (QoS) para que cada operador garantice un servicio de calidad según los requerimientos del cliente y del canal a utilizar. Se puede optimizar el flujo de datos en función de su tipo y relevancia. Usuario final: Le ofrece televisión digital, aplicaciones gráficas y multi- media interactivas, comunicación en tiempo real, vigilan- cia a distancia, etc. Las escenas audiovisuales MPEG-4 están compuestas por multitud de objetos multimedia de forma jerárquica. Estandariza el número de objetos multimedia primitivos que pueden ser de dos o tres dimensiones. Por ejemplo: si pensamos en una persona hablando en una clase y queremos transmitir esta información de forma audiovi- sual, podemos descomponer la escena en varios objetos diferentes, como: imágenes estáticas (pizarra, fondo, etc), objetos de vídeo (la animación de la persona hablando), objetos audio (la voz de esa persona), etc.
  • 14. Las escenas son agrupaciones de objetos multimedia. Los objetos que componen la escena se agrupan en árboles y subárboles. Esta idea se basa en el concepto de escena empleado en el lenguaje VRML (Virtual Reality Modeling Language o Lenguaje de Modelado de Realidad Virtual). La idea básica es que los objetos multimedia primitivos se agrupan para formar objetos multimedia más comple- jos de forma jerárquica. De esta manera, el autor puede construir escenas tan complejas como sea necesario y el usuario puede interactuar con un grupo de objetos como si de uno sólo se tratara. Debido a la presencia de varios objetos es un solo bloque, es necesario tener en cuenta las necesidades de ancho de banda de cada objeto para no tener que esperar al más lento. Esto se consigue mediante una capa de sincroni- zación (capa de sincronización de flujos) que se dedica exclusivamente a la gestión y control de los objetos que se necesitan representar. Los objetos multimedia se transmiten en los que llama- remos flujos de datos. Los flujos de datos se componen de flujos elementales de datos (elementary stream, ES). Así pues, los objetos multimedia pueden necesitar varios flujos de datos, que pueden ser de diferente naturaleza y que son transportados en uno o mas flujos elementa- les. Un objeto descriptor identificará los flujos asociados a un objeto multimedia. Los descriptores pueden llevar indicaciones del nivel de calidad (QoS) apropiado que se requiere para la transmisión (p.e., la máxima tasa de bit, la tasa de bit de error, la prioridad, etc). La capa de sincroni- zación se encarga de sincronizar los flujos elementales. La sintaxis de esta capa de sincronización es configurable en multitud de modos por lo que se puede usar en distintos tipos de sistemas. Generalmente, el usuario final verá la escena tal cual el autor la ha creado, aunque este pueda permitir cierto gra- do de interacción con la escena si la diseña de este modo. Entre otras cosas, el usuario podrá: • Cambiar los puntos de vista o audición (navegar por la escena). • Mover objetos de la escena a distintas posiciones. • Arrancar y detener el flujo de eventos (ej: iniciar y detener el vídeo). • Elegir el lenguaje que desea emplear, caso de que se ofrezca soporte para varios. MPEG7 MPEG7, este formato está en proyecto, cómo el estándar que más se utilizará en Internet y televisiones interactivas. Este formato codificará además de la imagen y sonido datos en lenguaje XML. MPEG7 servirá de gran ayuda para el avance de la nueva televisión interactiva con introducción de buscadores de contenidos, búsquedas de audiovisuales etc. Otros codecs Cinepak El codec más utilizado si lo que interesa es el espacio. Permite definir el espacio entre cuadros llave y la calidad interframe, eliminando más o menos información en cada uno de los fotogramas relativos. También se suele poner definir la velocidad de transferencia de datos máxima soportada, de modo que Cinepak reducirá la calidad hasta permitir que los datos necesarios no sean superiores. SorensonVideo Parece que va a ser el sustituto natural de Cinepak. Tiene una gran calidad incluso con tasas de transmisión míni- mas, con lo que se está convirtiendo en una de las princi- pales opciones para transmisión de vídeo en Web. También es tremendamente asimétrico, como Cinepak. Animation Es el codec más utilizado para comprimir películas gene- radas por ordenador (2 o 3-d), por ejemplo una anima- ción generada con Macromedia Director. Utiliza también compresión interframe. DIVX/XVID La razón de la existencia de los formatos DivX y XviD es su excelente capacidad de almacenar vídeo de alta calidad en un fichero de tamaño reducido que podamos insertar en un CD de 650-700-800 o 900 MB de los llamados con- sumibles. El proceso de compresión de vídeo se hace en MPEG 4 por lo que esta versión de MPEG y el códec DivX van ya unidas dentro de la terminología de los consumi- dores de archivos DivX y Xvid. Por lo tanto, al contrario que los ficheros de DVD que van con compresión de vídeo en MPEG 2, el DivX y el Xvid utilizan el la compresión en MPEG 4. • Resolución PAL (generalmente): 640x480 o menor • Compresión vídeo: MPEG 4 • Compresión de audio: MP3, Ogg, WMA • Bitrate de vídeo: 300-1000 kbps • Tamaño/minuto: 1-10 MB/min.
  • 15. Streaming de video En la navegación por Internet es necesario descargar previamente el archivo (página HTML, imagen JPG, audio MP3, etc.) desde el servidor remoto al cliente local para luego visualizarlo en la pantalla de este último. La tecnología de streaming se utiliza para optimizar la descarga y reproducción de archivos de audio y video que suelen tener un cierto peso. El streaming funciona de la siguiente forma: • Conexión con el servidor. El reproductor cliente conecta con el servidor remoto y éste comienza a enviarle el archivo. • Buffer. El cliente comienza a recibir el fichero y cons- truye un buffer o almacén donde empieza a guardar- lo. • Inicio de la reproducción. Cuando el buffer se ha llenado con una pequeña fracción inicial del archivo original, el reproductor cliente comienza a mostrarlo mientras continúa en segundo plano con el resto de la descarga. • Caídas de la velocidad de conexión. Si la conexión experimenta ligeros descensos de velocidad durante la reproducción, el cliente podría seguir mostrando el contenido consumiendo la información almacena- da en el buffer. Si llega a consumir todo el buffer se detendría hasta que se volviera a llenar. El streaming puede ser de dos tipos dependiendo de la tecnología instalada en el servidor: • Descarga progresiva. Se produce en servidores web que disponen de Internet Information Server (IIS), Apache, Tomcat, etc. El archivo de video o audio soli- citado por el cliente es liberado por el servidor como cualquier otro archivo utilizando el protocolo HTTP. Sin embargo, si el archivo ha sido especialmente em- paquetado para streaming, al ser leído por el repro- ductor cliente, se iniciará en streaming en cuanto se llene el buffer. • Transmisión por secuencias. Se produce en servidores multimedia que disponen de un software especial para gestionar más óptimamente el streaming de audio y video: Windows Media Server, Flash Com- munication Server, etc. La utilización de un servidor multimedia ofrece múltiples ventajas frente al servidor web. Las más destacadas son: • Mayor rapidez en la visualización de este tipo de contenidos. • La comunicación entre servidor/cliente se pue- de realizar por protocolos alternativos al HTTP. Tiene el inconveniente del bloqueo impuesto por Firewalls pero tiene la ventaja de una mayor rapidez. • Mejor gestión del procesador y ancho de banda de la máquina del servidor ante peticiones simul- táneas de varios clientes del mismo archivo de audio o video. • Control predefinido sobre la descarga que pue- den realizar los clientes: autentificada, filtrada por IP, sin almacenarla en la caché del cliente, etc. • Mayor garantía de una reproducción ininterrum- pida gracias al establecimiento de una conexión de control inteligente entre servidor y cliente. • Posibilidad de distribución de transmisiones de audio y video en directo.
  • 16. Optimización de archivos de video Para optimizar el peso del archivo de video será necesario editarlo para establecer alguno o algunos de los siguien- tes parámetros: En el Audio: • El códec de compresión de audio utilizado: MPEG Layer 1, MPEG Layer 2, MP3, etc. • Resolución. Establecer resoluciones más pequeñas: 32-bits, 16-bits, 8-bits, 4-bits, etc. • Tasa de muestreo. Definir valores inferiores: 44100 Hz., 22050 Hz., 11025 Hz, etc. • Velocidad de transmisión (bitrate). Configurar bitra- tes más bajos: 128 Kbps, 96 Kbps, 64 Kbps, etc. 5) Calidad estéreo/mono. Reducir la calidad de “stereo” a “mono” En el Video: • El códec de compresión de video utilizado: MPEG-1, MPEG-2, MPEG-4, Intel Indeo, Cinepak, DivX, etc. • Método de BitRate. Utilizar un bitrate variable VBR puede optimizar la calidad del video y repercutir en el peso final del archivo frente a un bitrate constante CBR. • Velocidad de transmisión (bitrate). Configurar bitrates más bajos: 1000 Kbps, 768 kbps, 360 Kbps, etc. • Dimensiones. Cuanto más pequeña sea la altura y anchura en píxeles de los fotogramas de un video, menos tamaño ocupará su archivo. • Velocidad de fotogramas. Se puede reducir el número de fotogramas por segundo que mostrará el video: 30, 24, 20, 16, etc. • Fotogramas Clave. Durante la compresión también se puede indicar cada cuánto se guardará un fotograma completo (fotograma clave): 24, 48, 96, 128, etc. Cuanto mayor sea esta cadencia más bajo será el peso del archivo resultante. Otros elementos que inciden en la optimiza- ción: • Duración. Cuanto más corto es un video, menos peso ocupa su archivo. En ocasiones puede resultar interesante fraccio- nar un archivo de video en sus escenas para facilitar su descarga. • Formato de archivo. Los archivos *.WMV, *.MOV, *.RM y *.FLV son los más adecuados para publicar un video en Internet por su adecuada rela- ción calidad/peso y porque admiten streaming. Los archivos *.AVI con códecs de compresión baja son ideales para guardar los videos originales. Los archi- vos *.AVI con códecs DiVX-XviD son apropiados para videos de películas de cierta duración. Los archivos *.MPG con códec MPEG-1 se utilizan para crear Video-CDs. Los archivos *.MPG con códec MPEG-2 se utilizan como fuente para montar un DVD. VIDEOCÁMARAS DIGITALES La parte óptica de una cámara digital se encarga de recoger la luz con la mayor precisión y calidad posible. Suelen ser lentes zoom de unos 10x. En algunas Sony, son Carl Zeiss, mítico fabricante alemán de óptica Es impor- tante disponer de un buen zoom ya que el zoom digital deteriora la imagen. Mucho más importante, aunque los aficionados siempre lo olvidan, es tener una buena apertura gran angular. En este sentido es difícil elegir ya que no está muy claro este dato en los folletos. En cuanto al diámetro de la rosca para filtros, el tema es caótico. Cada fabricante, incluso cada modelo, puede tener uno distinto. Si se prevé el uso de filtros hay que tener muy en cuenta la posible disponibilidad. Es importante que el autofocus sea rápido y preciso. Algu- nas cámaras llevan un anillo giratorio que facilita el enfo- que manual. Os aseguro que es muy útil, aunque tienen un tacto no muy bueno ( en realidad, controlan indirecta- mente el motor del focus). Viene muy bien disponer de un modo de “bloqueo del focus”. En condiciones difíciles, los autofocus enloquecen un poco. Lo profesionales siempre trabajan con enfoque manual. Todas incorporan un iris para ajustar la exposición. Tam- bién juegan con la ganancia electrónica del CCD para controlar la exposición. Normalmente es posible trabajar en modo manual, pero pocos modelos ofrecen un control total del iris ( suele haber un ajuste para subir o bajar la sensibilidad pero no un ajuste absoluto de la apertura del iris independiente de la ganancia electrónica). Es intere-
  • 17. sante que tengan, al menos, bloqueo de la exposición, para evitar cambios bruscos al hacer un barrido de paisa- jes con diferente luminosidad. Algunos modelos de la gama alta disponen de un filtro de densidad neutra, sumamente útil para evitar la saturación del CCD en tomas con exceso de luz (playa,nieve) o para resaltar efectos estéticos (disminuir la profundidad de campo usando aperturas muy grandes). Sólo las mejores cámaras incorporan el “zebra pattern” : indicación en el visor de las zonas sobreexpuestas [aunque en todas las Sony es posible habilitar esta función conociendo ciertos códigos] Otro detalle a tener en cuenta es el control de balance de blanco. Debido a las distintas fuentes de luz, con distinta composición cromática, es necesario ajustar dicha com- posición. Las cámaras suelen tener un ajuste automático, pero nunca está de más ( es muy interesante ) un control manual. Con él, basta poner una cartulina blanca delan- te del objetivo y activar el ajuste. La cámara almacenará este nuevo valor cromático. Es también útil para realizar efectos y cambiar el tono de las tomas artificialmente. Hay alguna cámara que no tiene control manual ( las menos ) que deben ser evitadas. La velocidad de obturación se controla electrónicamente en el propio CCD, es decir, no existe unas “cortinillas” realmente. Variando las frecuencias de control del CCD se consigue variar la velocidad de exposición. Evidentemente, el formato PAL impone ofrecer 25 imágenes por segundo ( 50 cuadros de mitad de resolución, entrelazados) , cada uno de ellos expuesto el tiempo que se haya seleccionado ( ya sea manualmente o auto). Tal como ocurre en el campo de la fotografía, el juego de velocidad y exposición determina el resultado final de la imagen. Las velocidades de obturación altas se deben usar al filmar objetos en movimiento rápido, sobre todo si se quiere que la cámara lenta o la pausa brinden imágenes bien definidas. Normalmente, en modo auto, las cámaras trabajan a 1/100. De la misma manera, la apertura permi- te controlar la profundidad de campo ( área de la imagen enfocada). Aperturas pequeñas dan la máxima profundi- dad de campo a costa de menor luminosidad. Y viceversa: apertura grande implica poca profundidad de campo. Esto permite resultados estéticos remarcables, sobre todo al efectuar retratos, en los que queda muy bien un fondo desenfocado ( por tanto, habrá que ajustar una apertura máxima y usar un zoom bastante potente, tanto para resaltar el efecto como para lograr suavizar los contornos de la cara). Pero bueno, estas disquisiciones tienen más que ver con aspectos de “técnicas de filmación”, etc) De todos modos, estos ajustes lo suelen hacer automática- mente las cámaras dotadas de “modos de operación” ( retrato, deportes, etc ). La mejor manera de saber los resultados es la experimentación. Antes del CCD, se an- tepone un filtro óptico para eliminar la parte del espectro no visible. Vamos, que se elimina el infrarojo y el ultravio- leta. Las cámaras con “Night Shot” ( visión nocturna por infrarojos) deben quitar este filtro. Las imágenes capturadas por las lentes son transformadas en señales eléctricas por el CCD ( Charge Coupled Device) . Ëste está compuesto por miles de puntos sensibles a la luz ( más de 500.000 ). El CCD en sí mismo, siempre es monocromo. Se antepo- nen unos filtros con los colores primarios para obtener la información de color. En los modelos de alta gama y profesionales se usan tres CCD, uno para cada color.