SlideShare una empresa de Scribd logo
1 de 11
Descargar para leer sin conexión
INTRODUCCIÓN AL VIDEO Y LA EDICIÓN DIGITAL:


Nociones básicas de la imagen en movimiento:


FORMATOS DE IMAGEN:


*Mapas de bits (archivos raster)
*Imágenes vectoriales


Mapas de bits (Bitmaps):
Los mapas de bits descomponen una imagen en un conjunto de puntos de color. A
cada uno de esos puntos se le denomina píxel. Este tipo de imágenes puede ser
cambiado de tamaño, pero ello afecta a su calidad. Porque cuando la imagen es
reducida lo que se hace es eliminar información (eliminar píxeles). Por el contrario,
cuando la imagen se amplía, hay que añadir unos píxeles que realmente no están.
Para ello, cada programa de tratamiento de imágenes utiliza un procedimiento
distinto para suponer cómo deben ser los píxeles que hay que añadir. A este
procedimiento se le denomina interpolación de píxeles, y, dependiendo del programa
que lo haga, la imagen resultante tendrá mayor o menor calidad. En todo caso,
siempre habrá menos calidad que la que tenía la imagen original.

Imágenes vectoriales:
Los gráficos vectoriales funcionan de otra manera. En ellos la imagen se define
como un conjunto de objetos matemáticos (curvas, elipses, cuadrados, rectángulos,
etc), definidos por sus propiedades geométricas (radio del círculo, longitud del
cateto, etc.). De esta manera, cuando hay que cambiar el tamaño de la imagen,
basta con cambiar las medidas de las figuras geométricas y por lo tanto los cambios
de tamaño no afectan a la calidad de la imagen. Un ejemplo claro de este tipo de
imágenes son las fuentes True Type, que podemos representar a cualquier tamaño
sin deterioro de la calidad.


TAMAÑO DE LA IMAGEN:
El tamaño de la imagen, en un mapa de bits, se define como el número de
píxeles de que dicha imagen consta, lo cual se indica, no mediante un número
absoluto, sino mediante dos números: el ancho y el largo. Así, por ejemplo, si
leemos que una imagen tiene un tamaño de 600 x 400, queremos decir que dicha
imagen tiene 600 píxeles de ancho y 400 de largo, con lo que además de saber el
número total de píxeles que tiene (600 x 400 = 240.000), sabremos también el
tamaño del rectángulo en donde hay que mostrarla.
Como regla general After Effects puede manejar imágenes con una resolución
máxima de 30.000 x 30.000. Aunque esta regla tiene algunas excepciones para
ciertos formatos específicos, y así:



• Archivos PICT: 4.000 x 4.000.
• Archivos BMP: 16.000 x 30.000.
• Archivos PXR : 30.000 x 16.000.
Como es lógico, cuanto mayor sea el tamaño de una imagen, más memoria RAM
necesita y será mayor el tiempo de proceso. De tal manera que el tamaño máximo
de las imágenes que After Effects puede manejar muchas veces se ve reducido por
falta de memoria RAM. Para cargar en memoria una imagen necesitamos tantos
bytes de memoria como número de píxeles tenga la imagen, multiplicado por el
número de bytes necesario para manejar el color de cada píxel, aparte de la
memoria adicional necesaria para procesar la imagen.

PROPORCIÓN DE ASPECTO (ASPECT RATIO):
Se llama aspect ratio a la relación entre el ancho y el alto de una imagen, de tal
manera que aunque podamos reproducir la imagen a distintos tamaños, para evitar
su deformación, siempre tendremos que mantener su proporción.
Así, imaginemos que disponemos de distintas pantallas cada una de ellas con un
tamaño diferente, y que intentamos proyectar una imagen para llenar cada una de
esas pantallas. Si la imagen tiene una proporción de, por ejemplo, 4:3, que es la
proporción estándar de los televisores clásicos, cuando enfoquemos nuestro
proyector en una pantalla que mida 40 centímetros de ancho y 30 de alto,
llenaremos por completo la pantalla. Exactamente igual podremos llenar por
completo la pantalla si esta tiene cuatro metros de ancho por tres de alto. Pero si la
pantalla tiene 5 metros de ancho y dos de alto, será imposible, por mucho que
intentemos centrar nuestro proyector, que la imagen llene por completo la pantalla
sin salirse de ella.
La noción de aspect ratio se aplica en varios sentidos:

• Aspect Ratio de una imagen.

• Aspect Ratio de la pantalla en que reproducimos la imagen.
Si queremos que la imagen llene toda la pantalla, el aspect ratio entre ambos debe
coincidir. Y así, por ejemplo, si trabajamos en imágenes que serán reproducidos en
un televisor, hay que tener en cuenta que las pantallas de los televisores normales
tienen un aspect ratio de 4:3 (cuatro unidades de ancho por tres de alto), mientras
que en televisión de alta definición el aspect ratio es de 16:9 (aumenta
exponencialmente).

• aspect ratio del píxel.
Podría pensarse que, como el píxel es un punto, carece de tamaño y, por lo tanto,
de forma y de aspect ratio. Al menos así es como se define en la geometría clásica a
los puntos. Sin embargo, el píxel no es un verdadero punto porque no es una
medida material, sino una medida lógica. Cuando decimos que una pantalla, por
ejemplo, tiene una resolución de 1024 x 768 píxeles, queremos decir que es capaz
de representar todos esos puntos, con independencia de su tamaño físico. De
manera que cuanto más grande sea la pantalla, más grandes serán los puntos, pero
no habrá más de ellos. Es decir: los píxeles sí tienen tamaño y forma.
Su tamaño depende del tamaño de la pantalla en la que se represente una imagen.
La forma puede ser cuadrada o rectangular. Las pantallas y monitores pueden
admitir píxeles cuadrados o rectangulares y los programas de tratamiento de
imágenes pueden generar imágenes con píxeles cuadrados o rectangulares. Esto es
lo que hace que en ocasiones ciertas imágenes no se vean correctamente en
determinados monitores, porque si en un monitor de píxeles cuadrados se reproduce
una imagen construida con píxeles rectangulares, la imagen aparecerá distorsionada
y así, por ejemplo, los círculos se mostrarán como óvalos, lo cual no es un fallo de la
imagen, sino una incompatibilidad entre la construcción interna de dicha imagen y el
monitor en donde se representa: esa misma imagen, en otro monitor, se verá
correctamente.
Cuando un píxel no es cuadrado, sino rectangular, se habla de su aspect ratio para
hacer referencia a la forma del rectángulo. Es decir: un píxel cuyo aspect ratio sea
4:3, tendrá cuatro unidades de ancho por tres de alto, cualquiera que sea el tamaño
de dicha unidad. El aspect ratio del píxel es importante cuando se trabaja con
imágenes digitales, porque determinados formatos estándar exigen una proporción
determinada, de tal modo que si no se respeta, la imagen se verá distorsionada; o
simplemente el dispositivo al que hay que enviar la imagen no la recibirá
correctamente. After Effects necesita además conocer el aspect ratio del píxel de
una imagen, para realizar las correcciones necesarias que impidan su distorsión al
ser reproducida en un determinado monitor.

COLOR, PROFUNDIDAD DEL COLOR Y CANALES DE COLOR:
Existen varias formas para representar la información sobre el color de una imagen
(HLS, RGB, CMYK, CIE, etc). De todas ellas After Effects utiliza el sistema
denominado RGB que es posiblemente el más extendido, y cuyo nombre viene de
las siglas, en inglés, de las palabras Rojo, Verde, Azul (Red, Green, Blue).
El sistema RGB se basa en la consideración de que un amplio porcentaje del
espectro de colores visible se puede representar combinando luz de color rojo, verde
y azul (RGB) en distintas proporciones e intensidades. Debido a que los colores
RGB se combinan para crear el blanco, también se denominan colores aditivos. La
suma de todos los colores produce el blanco, es decir, se transmite toda la luz al ojo.
Los colores aditivos se usan para iluminación, vídeo y monitores. El monitor, por
ejemplo, crea color mediante la emisión de luz a través de fósforos de color rojo,
verde y azul.




Los archivos que utilizan este sistema de representación del color, almacenan la
información para cada píxel, en tres bytes de la memoria del ordenador: El primer bit
representa al valor de rojo de dicho píxel, el segundo el valor de verde y el tercero el
valor de azul. Y como un byte admite un rango de valores entre 0 y 255, mediante
este sistema pueden representarse hasta 16.777.215 colores diferentes (2553).
Como un byte tiene ocho bits, en estos casos se dice que se está utilizando una
profundidad de color de ocho bits. Algunos programas pueden, no obstante, generar
imágenes con una profundidad de color de 16 bits, lo que significa que, para cada
color (verde, rojo, azul), se utiliza no un byte, sino dos bytes. Ello hace que el
número de colores distintos que puede haber en la imagen llegue hasta
281.462.092.005.375. Aunque After Effects por defecto trabaja con una profundidad
de color de 8 bits, puede trabajar con una profundidad de 16 bits, aunque, en este
caso, algunos efectos de los que After Effects puede aplicar, no funcionarán
correctamente. Por otro lado, si el color de un píxel concreto se representa mediante
tres valores (valor de rojo, valor de verde y valor de azul), es posible descomponer la
imagen para representar solamente los valores de rojo, los de verde o los de azul.
En estos casos se habla de “canales de color”. Toda imagen cuyo color se
represente mediante el sistema RGB tiene un canal rojo, otro verde y otro azul.

OTROS SISTEMAS DE REPRESENTACIÓN DEL COLOR:
El modelo RGB no es el único modelo posible para representar colores. Existen
otros modelos, de los que proceden nociones que es necesario comprender para
entender el funcionamiento de los efectos de color incorporados en After Effects, así
como, en gran medida, las claves de transparencia y los mates.
Un sistema de representación de colores bastante popular es el conocido como
Modelo HLS (siglas, en inglés de Hue (Tono), Lightness (Brillo), Saturation
(saturación)). En este sistema existe una rueda de colores estándar en la que los
distintos colores se mezclan. Pues bien: partiendo de dicha rueda estándar, se
distinguen las siguientes nociones.

• Hue: Es el color reflejado o transmitido a través de un objeto. Este concepto
coincide con el concepto normal de color. Así hay un tono azul, o amarillo, o naranja,
etc. El tono se mide como un radio en la rueda de colores estándar y se expresa en
grados entre 0 y 360.

• Ligthness: Es la luminosidad u oscuridad relativa del color y se suele medir como
un porcentaje comprendido entre el 0% (negro) y el 100% (blanco). Las emisiones
televisivas, por su parte, utilizan el modelo YUV en el que la señal se descompone
en tres partes. De un lado la llamada Luminancia o intensidad (Y), en segundo
lugar la componente de color azul (U), o crominancia azul, y, finalmente, la
componente de color rojo (V) o crominancia roja. Aunque After Effects utiliza
internamente el sistema RGB, es capaz de convertir entre RGB y los demás
sistemas, de tal manera que muchos efectos se apoyan en las componentes de
color de sistemas de representación del color distintos de RGB.

• Saturation: También denominado cromatismo. Representa la fuerza o pureza del
color, la cual depende de la cantidad de gris que existe en proporción al tono. La
saturación se mide como un porcentaje comprendido entre el 0% (gris) y el 100% (la
saturación completa). En la rueda de colores estándar, la saturación aumenta
conforme nos acercamos al borde y disminuye conforme nos acercamos al centro.



ZONAS TRANSPARENTES (CANAL ALFA):
Algunas aplicaciones permiten incluir en una imagen ciertas partes que sean total o
parcialmente transparentes. Eso significa que cuando dicha imagen se coloque
sobre otra imagen, a través de las partes transparentes podrá verse a la imagen que
está debajo; lo cual es extremadamente útil en composición de efectos especiales
para video, pues permite superponer dos imágenes de tal manera que se vean
ambas. La información sobre transparencia de la imagen se realiza de modo
análogo a la información sobre el color: para cada píxel de la imagen se almacena,
en un byte (o en dos bytes si se trabaja a una profundidad de color de 16 bits), un
valor representativo de su nivel de transparencia. Y del mismo modo que se habla
de canales de color (rojo, verde o azul), se habla también del canal de transparencia,
normalmente denominado canal “alfa”.
Por otra parte, los programas capaces de crear imágenes con zonas transparentes,
pueden almacenar la información sobre la transparencia de dos maneras:
De manera directa en un canal alfa simple, o de manera enmascarada. En el primer
caso se habla de canal alfa directo (Straight alpha channel), o de canal alfa no
enmascarado. En el segundo caso se habla de canal alfa premultiplicado
(Premultiplied alpha channel), o canal alfa enmascarado. En las imágenes con un
canal alfa premultiplicado, la información sobre transparencia se almacena en dos
lugares distintos:

• En el canal alfa propiamente dicho.

• En los canales de color rojo, verde y azul.
Esto se hace asignando un color a la transparencia absoluta (normalmente el blanco
o el negro), y multiplicando el valor de rojo, verde, y azul por un valor igual al nivel de
transparencia que el píxel posea. De esta manera la información sobre la
transparencia se encuentra no solo en el canal alfa, sino también en los canales rojo,
verde y azul.
Cuando After Effects lee un archivo que incorpore un canal alfa, para interpretarlo
correctamente necesita saber dos cosas:

• Si se trata de un canal alfa directo o premultiplicado.

• En el caso de ser un canal alfa premultiplicado, qué color se utilizó para la
premultiplicación. Esta es la razón de que cuando en After Effects se importa un
archivo que contiene un canal alfa, si en el propio archivo no se contiene información
sobre el tipo de canal alfa de que se trata, After Effects muestre el cuadro de diálogo
de interpretación de clips, para que el usuario le indique cómo debe interpretar dicho
canal alfa.

Nota: Muchas veces al canal alfa se le denomina mate; aunque se trata de dos
técnicas distintas que tienen en común el que ambas sirven para crear una
transparencia. La diferencia está en que el canal alfa incorpora la transparencia al
archivo. No obstante, cuando se hable de los efectos de transparencia se verá hasta
qué punto la terminología es variable.

ARCHIVOS CON IMÁGENES EN MOVIMIENTO:
Un sistema informático logra producir la sensación de que una imagen se mueve por
el simple procedimiento de reproducir a una velocidad determinada, varias imágenes
entre las cuales hay pequeñas variaciones: la sensación final es la de que la imagen
se mueve. En este principio se basan el cine, la televisión, o los dibujos animados.
Existen muchas modalidades de archivos con imágenes en movimiento, por ejemplo:
Archivos de video (extensión AVI, MPG, MOV), gifs animados, Macromedia Flash,
etc.. After Effects es capaz de crear archivos en la mayoría de estos formatos.

FRAMES (Fotogramas) Y FIELDS (Campos):
Si un archivo de video reproduce a cierta velocidad un número de imágenes, cada
una de dichas imágenes se denomina frame.
En video para computador, así como en cine, para cada imagen hay exactamente un
frame. Ahora bien, en los sistemas televisivos, junto al concepto frame se encuentra
el concepto field:
Para entender la noción de field hay que tener en cuenta que los televisores, para
mostrar un frame, realizan un barrido de arriba a abajo; es decir: van dibujando las
líneas horizontales desde la primera hasta la última. Sin embargo, para mantener la
estabilidad de la imagen, el barrido no es uniforme, sino que primero se dibujan las
líneas impares (odd lines) y luego las pares (even lines) o al revés. A este
procedimiento se le denomina video entrelazado o interlaced y se consigue
dividiendo cada frame en dos campos o fields distintos:
uno contiene las líneas horizontales pares (even) de la imagen y el otro las líneas
horizontales impares (odd).
Lo anterior significa que, por ejemplo en un sistema PAL, donde se muestran 25
frames por segundo, habrá 50 fields por segundo. El field, sin embargo, no se puede
tratar de forma independiente, porque no es un frame. No podemos, por ejemplo,
editar un field para hacer en él cambios, tendremos que editar el frame entero.
El video interlaced se utiliza sólo en televisión. Por lo tanto cuando capturamos video
que procede de la televisión (o de una cinta de video) nuestro archivo tendrá video
interlaced. Asimismo, cuando realizamos un trabajo cuyo destino es la televisión,
tendremos que generar un archivo de video con fields. Pero si el destino no es la
televisión, es preferible trabajar con video no entrelazado o non interlaced video,
pues así aumenta la calidad y estabilidad de la imagen. Por lo tanto, con After
Effects es posible:

• Separar los campos entrelazados, para convertir el video interlaced en non
interlaced.

• Generar fields y entrelazarlos partiendo de vídeo non interlaced. Al procedimiento
por el que se muestra video no entrelazado (sin fields) se le denomina también
Exploración progresiva (progressive scan); y algunas cámaras de video son capaces
de utilizar tal procedimiento.

VELOCIDAD:
Como se ha dicho, la sensación de movimiento se obtiene reproduciendo los
distintos frames a cierta velocidad. La velocidad de reproducción (playback speed)
es pues, una característica fundamental de estos archivos. La velocidad de
reproducción se suele medir en Frames Por Segundo (FPS). Normalmente, a mayor
velocidad, más fluidez tendrá el movimiento pero el archivo ocupará un mayor
espacio en disco (porque almacenará más frames) y requerirá un equipo más
potente, porque tendrá que cargar y descargar en memoria muchos más datos.
Aunque podemos darle a nuestro archivo de video la velocidad que queramos,
normalmente se utilizan ciertas velocidades estándar:

• Para gifs animados y flash se suele utilizar una velocidad de entre 10 y 15 FPS.

• El cine utiliza la velocidad de 24 FPS.

• La televisión y el video PAL utilizan la velocidad de 25 FPS.

• La televisión y el video NTSC utilizan la velocidad de 29’97 FPS.

Indicación de la velocidad en After Effects:
Respecto del tratamiento de la velocidad de frames en After Effects, hay que tener
en cuenta lo siguiente:

• Velocidad de frames original del clip.

• Velocidad de frames con la que After Effects interpreta el clip

• Velocidad de frames de la composición.

• Velocidad de frames de un clip dentro de una composición.

• Velocidad de frames del archivo final.
En teoría todas estas magnitudes pueden ser diferentes. Es decir: Podemos, por
ejemplo, importar al proyecto un clip cuya velocidad de frames es de 15 FPS. En el
proyecto indicar que queremos interpretar dicho clip a una velocidad de 24 FPS. Más
tarde incorporarlo a una composición con una velocidad de 25 FPS. Dentro de la
composición, alterar el clip mediante algún efecto para que su velocidad pase a ser
de 12 FPS, y, finalmente, exportar la composición a un archivo con una velocidad de
30 FPS.
Todo esto es posible, pero normalmente se traducirá en una reproducción con poca
fluidez. Y aunque After Effects proporciona una utilidad para evitar esa falta de
fluidez (la mezcla de frames o frame blending), lo preferible es utilizar siempre que
sea posible la misma velocidad en todos los casos.

MEDICIÓN Y VISUALIZACIÓN DEL TIEMPO:
Normalmente contamos el tiempo mediante unidades más o menos grandes (siglos,
años, meses ... minutos, segundos) según para qué lo estemos contando.
Cuando se trata de medir la velocidad a la que se proyectan los frames para producir
sensación de movimiento, es claro que la unidad “segundo” es demasiado grande,
pues si se reprodujera un video o una película a la velocidad de un frame por
segundo no habría sensación alguna de movimiento. Por ello se han ideado otros
sistemas de cuenta del tiempo, de los que After Effects puede manejar los
siguientes:

• Sistema SMPTE (Society of Motion Picture and Television Engineers): Es el
sistema que emplea After Effects por defecto, también llamado Timecode. Con este
sistema el tiempo se cuenta por horas, minutos, segundos y frames, separando
todas estas magnitudes, normalmente, mediante el signo de los dos puntos (:). Así,
por ejemplo: 01:10:01:03 se refiere al tercer frame del primer segundo del décimo
minuto de la primera hora de reproducción.

• Frames: Este sistema cuenta exclusivamente frames. Por lo tanto para relacionarlo
con el tiempo real, debemos saber a qué velocidad se reproducen los frames. Es
decir: la cuenta 00529, en un video emitido a 25 FPS (frames por segundo), se
refiere al cuarto frame del segundo 21; pero esa misma cuenta en un video emitido a
30 FPS, se refiere al frame nº 19 del segundo nº 17.

• Pies y frames: Es una medida de tiempo basada en la longitud de una película
cinematográfica. En las películas cinematográficas de 35 mm, en un pie (medida
anglosajona -Foot) caben 16 frames; mientras que si la película es de 16 mm, en un
pie caben 40 frames. Pues bien: con este sistema de medición se indica el nº de
pies y el nº de frames. Así por ejemplo la medida 002+11 indicará dos pies y once
frames del tercer pie. Eso significa, si la película es de 25 mm, un total de 43 frames;
y si la película es de 16 mm, un total de 91 frames.
El sistema usado por After Effects por defecto, llamado Timecode o SMTPE, no sólo
es el más claro y el de uso mas extendido, sino el único que nos permite hacernos
una idea real de la duración. Se utiliza por ejemplo, en las cámaras digitales de
video y en general en los dispositivos de captura de video. Las cintas de video digital
lo incorporan en una pista aparte. Por ello, salvo que haya razones importantes, no
conviene cambiarlo.
Nota sobre como escribir medidas de tiempo en After Effects.
Siempre que en After Effects haya que escribir una medida de tiempo, si el sistema
de medición del tiempo es el Timecode, podemos introducir el tiempo deseado sin
necesidad de escribir los dos puntos que se usan como separadores en dicho
sistema.
Asimismo el número introducido se interpretará siempre de derecha a izquierda,
asumiendo que las partes no introducidas tienen un valor de cero. Así, por ejemplo,
si introducimos como valor 102, After Effects interpretará que se ha querido
introducir 0:00:01:02. Es decir: la cifra introducida se interpreta de derecha a
izquierda considerando que las dos últimas cifras se refieren a los frames, las dos
cifras anteriores a los frames se refieren a los segundos, etc.
Si introducimos un número imposible de minutos, segundos o de frames, After
Effects realizará los cálculos necesarios. Así, por ejemplo, si introducimos el número
7500, After Effects, en lugar de interpretar 0:00:75:00, como un minuto no puede
tener 75 segundos, considerará que se ha introducido 0:01:15:00 (porque 75
segundos equivalen a un minuto y quince segundos).

SISTEMAS DE TELEVISIÓN: NTSC, PAL Y SECAM:
Cuando estamos trabajando en un archivo de video cuyo destino es ser reproducido
en un televisor, es imprescindible tener en cuenta que en el mundo existen dos
estándares televisivos diferentes: el NTSC (National Television System Committee) y
el PAL (Phase Alternation Line). El primero se usa en Estados Unidos y Japón. El
segundo en Europa. El resto del mundo adopta uno de ambos estándares. Muy
parecido al sistema PAL es el sistema SECAM (SECuentielle A Mémoire), utilizado
en Francia y en gran parte de la Europa del Este. Las diferencias entre ambos
sistemas son puramente técnicas, pero desde el punto de vista informático, los
archivos PAL y SECAM son idénticos. Por esta razón a lo largo de esta guía no se
volverá a hablar del sistema SECAM: todo lo que se diga para el sistema PAL vale
también para el SECAM. Las diferencias entre NTSC y PAL se cifran en los
siguientes aspectos:

• Velocidad de frame: 29’97 en NTSC y 25 en PAL.

• Tamaño de frame: 720 x 480 en NTSC y 720 x 576 en PAL

• Rango de colores admisibles: Restringido en NTSC y mucho más amplio en PAL.

• Proporción de aspecto de píxel: 0’9 en NTSC y 1.067 en PAL.

El resultado de estas diferencias es el de que un archivo de video construido para
uno de los sistemas, no podrá verse correctamente en el otro. Por lo tanto, a la hora
de hacer nuestros trabajos con After Effects es imprescindible tener en cuenta cuál
es el sistema de televisión de nuestro país, o de los países en los que se piensa
difundir nuestro video.

VIDEO ANALÓGICO Y VIDEO DIGITAL (DV):
Desde un punto de vista estricto, todo archivo de video constituye video digital. Sin
embargo, en la práctica esta denominación se reserva para un tipo de archivos muy
específicos: los que fueron grabados con un dispositivo digital de acuerdo con un
estándar denominado DV que (en sistemas NTSC) admite un subformato
denominado D1. Este estándar implica que en tamaño de frame, velocidad y
proporción de aspecto de píxel, el archivo se debe ajustar a uno de los dos
estándares: NTSC o PAL.
Desde el punto de vista interno estos archivos utilizan un codec específico que
mantiene un flujo constante de datos de 3.6 MB por segundo. El video análogo, por
el contrario, ha sido grabado mediante un dispositivo análogo; es decir: un
dispositivo que transmite la información sobre la imagen y el sonido creando
variaciones en una señal electromagnética. Antes de poder usar cualquiera de
ambos tipos de video en un proyecto de After Effects tendremos que importarlo al
computador, para lo cual será preciso algún dispositivo que nos permita conectar el
computador con el dispositivo reproductor del video. Este dispositivo puede ser, para
el video digital, una tarjeta firewire (también llamada i.link, o puerto IEEE 1394). Para
digitalizar el video analógico necesitaremos una tarjeta capturadora de video.
Es en este punto en el que se observa la principal diferencia entre el video análogo y
el video digital, porque mientras el proceso de captura del video digital transmite al
computador EXACTAMENTE el video grabado, sin pérdida alguna de calidad, la
captura de video análogo mediante tarjeta casi siempre implica una mayor o menor
pérdida de calidad, dependiendo de la calidad de la tarjeta y de la potencia del
equipo. Hay además otras diferencias significativas. Así el video digital lleva
incorporado su propio código de tiempo, por lo que es posible realizar sobre él
operaciones con precisión de frame incluso aunque se encuentre en la cinta.
Los distintos formatos de DV/D1 han de cumplir los siguientes estándares:

• DV/D1 NTSC:
. Tamaño de frame: 720 x 480 (720 x 486 en D1)
. Proporción de aspecto de píxel: 0’9, o 1’2 en modo panorámico
. Velocidad de frames: 29’97 FPS.
. Codec: Microsoft DV o algún codec específico para DV

• DV PAL:
. Tamaño de frame: 720 x 576
. Proporción de aspecto de píxel: 1’0666, ó 1’422 en modo panorámico
. Velocidad de frames: 25 FPS.
. Codec: Microsoft DV o algún codec específico para DV.

Los formatos analógicos, sin embargo, son mucho más flexibles en cuanto a tamaño
de frame (siempre que se mantenga el aspect ratio del frame de 4:3, propio de la
televisión.

CINE: PELÍCULAS DIGITALIZADAS Y MÉTODO 3:2 PULLDOWN:
Obviamente, desde un computador no podemos generar directamente una película
cinematográfica; pero si podemos generar un archivo preparado para ser convertido,
mediante los procedimientos adecuados, a película cinematográfica.
Las características que debe tener en cuenta un archivo que pretenda ser convertido
en película cinematográfica son las siguientes:

• Tamaño del frame: Debe tener la proporción 4:3 o 16:9, que son las resoluciones
estándar. La segunda es la adecuada para el llamado cinemascope o HDTV.

• Velocidad de frames: Debe ser de 24 FPS.

• El video no debe ser interlaced. Si se trabaja en NTSC también hay que tener en
cuenta el método 3:2 pulldown. Este método se utiliza cuando se transfiere una
película cinematográfica (con una velocidad estándar de 24 FPS) a video NTSC (con
una velocidad de 29’97 FPS). Para llevar a cabo dicha conversión, los frames de la
película se distribuyen entre los fields de video según un patrón repetido de 3:2; es
decir, el primer frame del film se copia en los fields 1 y 2 del primer frame de video, y
también en el field 1 del segundo frame de video. El segundo frame de la película es
también copiado en los dos fields de video siguiente (field 2 del segundo frame y
field 1 del tercer frame de video); y así sucesivamente, de tal manera que cuatro
frames de la película ocuparán cinco frames de video.
El método 3:2 pulldown genera frames completos (representados por una W) y
frames partidos (representados por una S). Un frame completo es el que contiene
dos fields con el mismo frame (tres de cada cinco frames de video). Un frame partido
(dos de cada cinco) contiene en cada field un frame distinto (aunque adyacentes
entre sí).
Se denomina fase 3:2 al punto en el que los dos frames partidos se encuentran
dentro de los cinco primeros frames del metraje. Esta fase es el resultado de dos
conversiones que ocurren durante la aplicación del método:

Como con este método los 24 frames de la película se convierten en treinta, es
preciso en primer lugar, reducir la velocidad en un 0.1% para ajustarla a la velocidad
estándar NTSC de 29.97. En segundo lugar, cada frame de la película es repetido
según un patrón especial y emparejado con los fields de video.

NOTA: Este método sólo se utiliza cuando se trabaja con video NTSC. Ello es
porque este procedimiento es preciso para ajustar una velocidad de 24 FPS a la
velocidad de 29.97 NTSC; lo que obliga a generar un frame adicional (dos fields) por
cada cuatro frames originales y además reducir la velocidad 1.8 segundos por hora.
Por el contrario, en los sistemas PAL, a 25 FPS, sólo hay que generar un frame
extra por cada 24 frames originales, lo cual se puede hacer, simplemente acelerando
la película un 4% de su velocidad original, y así conseguir el sincronismo.
Claro que esto hace que la película en PAL dure 2 minutos 24 segundos menos por
hora que el original y que las voces suenen cerca de medio tono más altas.

COMPRESIÓN Y CODEC:
Si se tiene en cuenta lo dicho hasta ahora sobre imágenes (tamaño y canales de
color), y video (imágenes por segundo), se comprobará que un archivo de video
puede llegar a ser muy grande. Así, por ejemplo, en diez minutos de video, en un
sistema PAL estándar, tenemos 600 segundos, o, lo que es lo mismo, 15.000
frames. Si cada frame tiene un tamaño de 720 x 576 (= 414.720 píxeles), y para
almacenar cada píxel necesitamos cuatro bytes (u ocho bytes con una profundidad
de color de 16 bits), resultará que esos diez minutos de video ocuparían más de 23
GB de espacio en disco.
Obviamente eso no es operativo. Por ello los distintos formatos de video (también
muchos formatos de imagen), aplican ciertos algoritmos de compresión, de tal
manera que la información que se almacena en el disco sea reducida. La
compresión del video se hace en el momento de grabarlo en el disco. Cuando las
imágenes son leídas, necesitan ser descomprimidas. De ello se ocupa el programa
reproductor o manipulador del archivo de video.
En todo caso una cosa es clara: cuando un archivo de video es comprimido se
pierde información. Ello, en una primera instancia, puede no afectar a la calidad.
Pero si a un mismo archivo se le aplica varias veces la compresión, la calidad se irá
deteriorando progresivamente. El programa que se ocupa de comprimir y
descomprimir el video se denomina codec (acrónimo de COmpresor/DECompresor).
La peculiaridad de los codecs estriba en que deben encontrarse instalados en el
computador para poder manipular o reproducir cierto tipo de archivos de video. Hay
codecs que se instalan con el sistema operativo; otros hay que instalarlos
expresamente y otros son instalados por ciertas aplicaciones. El codec es importante
por varios aspectos:
• De él depende la calidad final de nuestro video, ya que en el proceso de
compresión puede perderse más o menos calidad de imagen. No olvidemos que, al
comprimir, lo que hacemos es eliminar información.

• Dependiendo del codec elegido, cada vez que editemos y modifiquemos nuestro
video, podemos deteriorar aun más la imagen. Así ocurre, por ejemplo, con todos los
sistemas de compresión basados en MPEG, que proporcionan muy buenos
resultados de compresión, pero que son muy poco adecuados para la edición de
video, pues cada modificación que hagamos en el archivo deteriorará sensiblemente
su calidad, aparte de que con ellos puede ser extremadamente difícil trabajar a nivel
de frames, debido al peculiar sistema de compresión que utilizan.

• Algunos formatos de video requieren la utilización de un codec específico. Por
ejemplo el llamado Digital Video (DV).

• Algunas tarjetas capturadoras de video, trabajan con un codec específico, de tal
manera que, para, por ejemplo, enviar a través de dicha capturadora un video
creado por nosotros, el codec tendrá que ser necesariamente el de dicha tarjeta.




Información compilada Por: Sergio Ceballos Tobón
Diseñador Gráfico/ Animador Digital
Email: ceballos.sergio@gmail.com

Más contenido relacionado

La actualidad más candente

Pyc imagenes digitales y contexto
Pyc imagenes digitales y contextoPyc imagenes digitales y contexto
Pyc imagenes digitales y contextoAlx Marroquin
 
Introduccion a la imagen
Introduccion a la imagenIntroduccion a la imagen
Introduccion a la imagenLucyGV99
 
Resolucion de la imagen
Resolucion de la imagenResolucion de la imagen
Resolucion de la imagenedwinmo
 
Imagen De Mapa De Bits(1)
Imagen De Mapa De Bits(1)Imagen De Mapa De Bits(1)
Imagen De Mapa De Bits(1)Natu CT
 
El histograma una imagen digital
El histograma una imagen digitalEl histograma una imagen digital
El histograma una imagen digitaljcbp_peru
 
Imagenes vectoriales y software de tratamiento
Imagenes vectoriales y software de tratamientoImagenes vectoriales y software de tratamiento
Imagenes vectoriales y software de tratamientoEdgar Quezada
 
Imagen digital
Imagen digitalImagen digital
Imagen digitalDiegodegg
 
Tratamiento digital de imagenes
Tratamiento digital de imagenesTratamiento digital de imagenes
Tratamiento digital de imagenesvfortea
 
Creación y tratamiento de imágenes digitales: color digital
Creación y tratamiento de imágenes digitales: color digitalCreación y tratamiento de imágenes digitales: color digital
Creación y tratamiento de imágenes digitales: color digitalAplicaciones Gráficas
 
Tratamiento Digital De ImáGenes
Tratamiento Digital De ImáGenesTratamiento Digital De ImáGenes
Tratamiento Digital De ImáGenestecnoeducahoy
 

La actualidad más candente (19)

Pyc imagenes digitales y contexto
Pyc imagenes digitales y contextoPyc imagenes digitales y contexto
Pyc imagenes digitales y contexto
 
Pixel
PixelPixel
Pixel
 
Introduccion a la imagen
Introduccion a la imagenIntroduccion a la imagen
Introduccion a la imagen
 
Imagen digital
Imagen digitalImagen digital
Imagen digital
 
Resolucion de la imagen
Resolucion de la imagenResolucion de la imagen
Resolucion de la imagen
 
Imagen De Mapa De Bits(1)
Imagen De Mapa De Bits(1)Imagen De Mapa De Bits(1)
Imagen De Mapa De Bits(1)
 
El histograma una imagen digital
El histograma una imagen digitalEl histograma una imagen digital
El histograma una imagen digital
 
Mapas de bits
Mapas de bitsMapas de bits
Mapas de bits
 
Imagenes vectoriales y software de tratamiento
Imagenes vectoriales y software de tratamientoImagenes vectoriales y software de tratamiento
Imagenes vectoriales y software de tratamiento
 
La imagen digital
La imagen digitalLa imagen digital
La imagen digital
 
Imagen digital
Imagen digitalImagen digital
Imagen digital
 
Tratamiento digital de imagenes
Tratamiento digital de imagenesTratamiento digital de imagenes
Tratamiento digital de imagenes
 
Creación y tratamiento de imágenes digitales: color digital
Creación y tratamiento de imágenes digitales: color digitalCreación y tratamiento de imágenes digitales: color digital
Creación y tratamiento de imágenes digitales: color digital
 
Ejercicios
EjerciciosEjercicios
Ejercicios
 
Tema 2
Tema 2 Tema 2
Tema 2
 
La imagen digital
La imagen digitalLa imagen digital
La imagen digital
 
Imagen Digital
Imagen DigitalImagen Digital
Imagen Digital
 
Formatos de Imagen
Formatos de ImagenFormatos de Imagen
Formatos de Imagen
 
Tratamiento Digital De ImáGenes
Tratamiento Digital De ImáGenesTratamiento Digital De ImáGenes
Tratamiento Digital De ImáGenes
 

Similar a Introducción al video y la edición digital

Similar a Introducción al video y la edición digital (20)

Imágenes de vectores y pixeles
Imágenes de vectores y pixelesImágenes de vectores y pixeles
Imágenes de vectores y pixeles
 
Características de la Imagen Digital
Características de la Imagen DigitalCaracterísticas de la Imagen Digital
Características de la Imagen Digital
 
La imagen digital
La imagen digitalLa imagen digital
La imagen digital
 
La Imagen Digital[1]
La Imagen Digital[1]La Imagen Digital[1]
La Imagen Digital[1]
 
2. la imagen digital
2. la imagen digital2. la imagen digital
2. la imagen digital
 
3. la imagen digital y su formacion
3. la imagen digital y su formacion3. la imagen digital y su formacion
3. la imagen digital y su formacion
 
Renderizado
RenderizadoRenderizado
Renderizado
 
Imagen digital - caracteristicas de la imagen digital
Imagen digital - caracteristicas de la imagen digitalImagen digital - caracteristicas de la imagen digital
Imagen digital - caracteristicas de la imagen digital
 
Que se entiende por pixel
Que se entiende por pixelQue se entiende por pixel
Que se entiende por pixel
 
Scastillo.pptx
Scastillo.pptxScastillo.pptx
Scastillo.pptx
 
M2 caracteristicas de_la_imagen_digital
M2 caracteristicas de_la_imagen_digitalM2 caracteristicas de_la_imagen_digital
M2 caracteristicas de_la_imagen_digital
 
Actividad
ActividadActividad
Actividad
 
Actividad
ActividadActividad
Actividad
 
Preprensa digital
Preprensa digitalPreprensa digital
Preprensa digital
 
Introduccion a la imagen digital
Introduccion a la imagen digitalIntroduccion a la imagen digital
Introduccion a la imagen digital
 
Actividad
ActividadActividad
Actividad
 
ObtencióN De Imagenes Resolucion Y TamañO
ObtencióN De Imagenes   Resolucion Y TamañOObtencióN De Imagenes   Resolucion Y TamañO
ObtencióN De Imagenes Resolucion Y TamañO
 
Tema 2: Imagen Digital
Tema 2: Imagen DigitalTema 2: Imagen Digital
Tema 2: Imagen Digital
 
Imágenes de vectores y pixeles
Imágenes de vectores y pixelesImágenes de vectores y pixeles
Imágenes de vectores y pixeles
 
Introduccion a la imagen digital
Introduccion a la imagen digitalIntroduccion a la imagen digital
Introduccion a la imagen digital
 

Más de sergio ceballos

Televisión de alta definición
Televisión de alta definiciónTelevisión de alta definición
Televisión de alta definiciónsergio ceballos
 
Caracteristicas del video digital
Caracteristicas del video digitalCaracteristicas del video digital
Caracteristicas del video digitalsergio ceballos
 
Resuelva sus dudas sobre tv digital en colombia
Resuelva sus dudas sobre tv digital en colombiaResuelva sus dudas sobre tv digital en colombia
Resuelva sus dudas sobre tv digital en colombiasergio ceballos
 
After Effects Curvas Bezier
After Effects Curvas BezierAfter Effects Curvas Bezier
After Effects Curvas Beziersergio ceballos
 

Más de sergio ceballos (7)

Televisión de alta definición
Televisión de alta definiciónTelevisión de alta definición
Televisión de alta definición
 
Caracteristicas del video digital
Caracteristicas del video digitalCaracteristicas del video digital
Caracteristicas del video digital
 
Resuelva sus dudas sobre tv digital en colombia
Resuelva sus dudas sobre tv digital en colombiaResuelva sus dudas sobre tv digital en colombia
Resuelva sus dudas sobre tv digital en colombia
 
After Effects Mascaras
After Effects MascarasAfter Effects Mascaras
After Effects Mascaras
 
After Effects Curvas Bezier
After Effects Curvas BezierAfter Effects Curvas Bezier
After Effects Curvas Bezier
 
Storyboard Part02
Storyboard Part02Storyboard Part02
Storyboard Part02
 
Storyboard Part01
Storyboard Part01Storyboard Part01
Storyboard Part01
 

Último

CATALOGO 2024 DIA DE LA MADRE, presentación.pdf
CATALOGO 2024 DIA DE LA MADRE, presentación.pdfCATALOGO 2024 DIA DE LA MADRE, presentación.pdf
CATALOGO 2024 DIA DE LA MADRE, presentación.pdftortillasdemaizjf2
 
Portafolio Santiago Agudelo Duran 2024 -30
Portafolio Santiago Agudelo Duran 2024 -30Portafolio Santiago Agudelo Duran 2024 -30
Portafolio Santiago Agudelo Duran 2024 -30SantiagoAgudelo47
 
Espacios únicos creados por nuestros clientes
Espacios únicos creados por nuestros clientesEspacios únicos creados por nuestros clientes
Espacios únicos creados por nuestros clientesespejosflorida
 
Apuntes de criterios estrcuturales, calculo de trabes y contratrabes de concr...
Apuntes de criterios estrcuturales, calculo de trabes y contratrabes de concr...Apuntes de criterios estrcuturales, calculo de trabes y contratrabes de concr...
Apuntes de criterios estrcuturales, calculo de trabes y contratrabes de concr...chechei12040303
 
Triptico de los derechos humanos pe señorees jaja
Triptico de los derechos humanos pe señorees jajaTriptico de los derechos humanos pe señorees jaja
Triptico de los derechos humanos pe señorees jajadayannanicolzuluetab
 
Arquitectos del Movimiento Moderno Pt. 2.pdf
Arquitectos del Movimiento Moderno Pt. 2.pdfArquitectos del Movimiento Moderno Pt. 2.pdf
Arquitectos del Movimiento Moderno Pt. 2.pdfLeonardoDantasRivas
 
Slaimen Barakat - SLIDESHARE TAREA 3.pdf
Slaimen Barakat - SLIDESHARE TAREA 3.pdfSlaimen Barakat - SLIDESHARE TAREA 3.pdf
Slaimen Barakat - SLIDESHARE TAREA 3.pdfslaimenbarakat
 
Torre agbar analisis arquitectonico.....
Torre agbar analisis arquitectonico.....Torre agbar analisis arquitectonico.....
Torre agbar analisis arquitectonico.....estefaniaortizsalina
 
Manual de Construcción TATAMI - 2024.pdf
Manual de Construcción TATAMI - 2024.pdfManual de Construcción TATAMI - 2024.pdf
Manual de Construcción TATAMI - 2024.pdfGermnBelzunce1
 
414414508-Diseno-de-Coberturas-Metalicas.pptx
414414508-Diseno-de-Coberturas-Metalicas.pptx414414508-Diseno-de-Coberturas-Metalicas.pptx
414414508-Diseno-de-Coberturas-Metalicas.pptxeldermishti
 
cabildo abierto forma de participación ciudadana
cabildo abierto forma de participación ciudadanacabildo abierto forma de participación ciudadana
cabildo abierto forma de participación ciudadanaMarsielMendoza1
 
Afiche de arquitectura manierista Paola Perez
Afiche de arquitectura manierista Paola PerezAfiche de arquitectura manierista Paola Perez
Afiche de arquitectura manierista Paola PerezPaola575380
 
PLAN DE MANTENIMIENTO DE SISTEMAS DE AGUA CHONTAYOC.docx
PLAN DE MANTENIMIENTO DE SISTEMAS DE AGUA CHONTAYOC.docxPLAN DE MANTENIMIENTO DE SISTEMAS DE AGUA CHONTAYOC.docx
PLAN DE MANTENIMIENTO DE SISTEMAS DE AGUA CHONTAYOC.docxLeo Florez
 
PLANTILLA UNAD JJAJJJJJWRBJHGURGERRTERTRTRY
PLANTILLA UNAD JJAJJJJJWRBJHGURGERRTERTRTRYPLANTILLA UNAD JJAJJJJJWRBJHGURGERRTERTRTRY
PLANTILLA UNAD JJAJJJJJWRBJHGURGERRTERTRTRYkarendaza9506
 
140254879-Triptico-Color-Dia-de-La-Madre.doc
140254879-Triptico-Color-Dia-de-La-Madre.doc140254879-Triptico-Color-Dia-de-La-Madre.doc
140254879-Triptico-Color-Dia-de-La-Madre.docilvrosiebp
 
CLASE 2 PSICOTERAPIA COGNITIVO CONDUCTUAL.pdf
CLASE 2 PSICOTERAPIA COGNITIVO CONDUCTUAL.pdfCLASE 2 PSICOTERAPIA COGNITIVO CONDUCTUAL.pdf
CLASE 2 PSICOTERAPIA COGNITIVO CONDUCTUAL.pdfDanielaPrezMartnez3
 
Introduccion-a-los-numeros-en-ingles.pptx
Introduccion-a-los-numeros-en-ingles.pptxIntroduccion-a-los-numeros-en-ingles.pptx
Introduccion-a-los-numeros-en-ingles.pptxcalc5597
 
DIAGNÓSTICO AMBIENTAL Y URBANO. POTOCOS.
DIAGNÓSTICO AMBIENTAL Y URBANO. POTOCOS.DIAGNÓSTICO AMBIENTAL Y URBANO. POTOCOS.
DIAGNÓSTICO AMBIENTAL Y URBANO. POTOCOS.Alessia_027
 
Fundamentos de la Ergonomía y sus características principales
Fundamentos de la Ergonomía y sus características principalesFundamentos de la Ergonomía y sus características principales
Fundamentos de la Ergonomía y sus características principalesLuis Fernando Salgado
 
ARQUITECTURA ESCOLAR PÚBLICA COMO PATRIMONIO MODERNO EN CHILE
ARQUITECTURA ESCOLAR PÚBLICA COMO PATRIMONIO MODERNO EN CHILEARQUITECTURA ESCOLAR PÚBLICA COMO PATRIMONIO MODERNO EN CHILE
ARQUITECTURA ESCOLAR PÚBLICA COMO PATRIMONIO MODERNO EN CHILEhayax3
 

Último (20)

CATALOGO 2024 DIA DE LA MADRE, presentación.pdf
CATALOGO 2024 DIA DE LA MADRE, presentación.pdfCATALOGO 2024 DIA DE LA MADRE, presentación.pdf
CATALOGO 2024 DIA DE LA MADRE, presentación.pdf
 
Portafolio Santiago Agudelo Duran 2024 -30
Portafolio Santiago Agudelo Duran 2024 -30Portafolio Santiago Agudelo Duran 2024 -30
Portafolio Santiago Agudelo Duran 2024 -30
 
Espacios únicos creados por nuestros clientes
Espacios únicos creados por nuestros clientesEspacios únicos creados por nuestros clientes
Espacios únicos creados por nuestros clientes
 
Apuntes de criterios estrcuturales, calculo de trabes y contratrabes de concr...
Apuntes de criterios estrcuturales, calculo de trabes y contratrabes de concr...Apuntes de criterios estrcuturales, calculo de trabes y contratrabes de concr...
Apuntes de criterios estrcuturales, calculo de trabes y contratrabes de concr...
 
Triptico de los derechos humanos pe señorees jaja
Triptico de los derechos humanos pe señorees jajaTriptico de los derechos humanos pe señorees jaja
Triptico de los derechos humanos pe señorees jaja
 
Arquitectos del Movimiento Moderno Pt. 2.pdf
Arquitectos del Movimiento Moderno Pt. 2.pdfArquitectos del Movimiento Moderno Pt. 2.pdf
Arquitectos del Movimiento Moderno Pt. 2.pdf
 
Slaimen Barakat - SLIDESHARE TAREA 3.pdf
Slaimen Barakat - SLIDESHARE TAREA 3.pdfSlaimen Barakat - SLIDESHARE TAREA 3.pdf
Slaimen Barakat - SLIDESHARE TAREA 3.pdf
 
Torre agbar analisis arquitectonico.....
Torre agbar analisis arquitectonico.....Torre agbar analisis arquitectonico.....
Torre agbar analisis arquitectonico.....
 
Manual de Construcción TATAMI - 2024.pdf
Manual de Construcción TATAMI - 2024.pdfManual de Construcción TATAMI - 2024.pdf
Manual de Construcción TATAMI - 2024.pdf
 
414414508-Diseno-de-Coberturas-Metalicas.pptx
414414508-Diseno-de-Coberturas-Metalicas.pptx414414508-Diseno-de-Coberturas-Metalicas.pptx
414414508-Diseno-de-Coberturas-Metalicas.pptx
 
cabildo abierto forma de participación ciudadana
cabildo abierto forma de participación ciudadanacabildo abierto forma de participación ciudadana
cabildo abierto forma de participación ciudadana
 
Afiche de arquitectura manierista Paola Perez
Afiche de arquitectura manierista Paola PerezAfiche de arquitectura manierista Paola Perez
Afiche de arquitectura manierista Paola Perez
 
PLAN DE MANTENIMIENTO DE SISTEMAS DE AGUA CHONTAYOC.docx
PLAN DE MANTENIMIENTO DE SISTEMAS DE AGUA CHONTAYOC.docxPLAN DE MANTENIMIENTO DE SISTEMAS DE AGUA CHONTAYOC.docx
PLAN DE MANTENIMIENTO DE SISTEMAS DE AGUA CHONTAYOC.docx
 
PLANTILLA UNAD JJAJJJJJWRBJHGURGERRTERTRTRY
PLANTILLA UNAD JJAJJJJJWRBJHGURGERRTERTRTRYPLANTILLA UNAD JJAJJJJJWRBJHGURGERRTERTRTRY
PLANTILLA UNAD JJAJJJJJWRBJHGURGERRTERTRTRY
 
140254879-Triptico-Color-Dia-de-La-Madre.doc
140254879-Triptico-Color-Dia-de-La-Madre.doc140254879-Triptico-Color-Dia-de-La-Madre.doc
140254879-Triptico-Color-Dia-de-La-Madre.doc
 
CLASE 2 PSICOTERAPIA COGNITIVO CONDUCTUAL.pdf
CLASE 2 PSICOTERAPIA COGNITIVO CONDUCTUAL.pdfCLASE 2 PSICOTERAPIA COGNITIVO CONDUCTUAL.pdf
CLASE 2 PSICOTERAPIA COGNITIVO CONDUCTUAL.pdf
 
Introduccion-a-los-numeros-en-ingles.pptx
Introduccion-a-los-numeros-en-ingles.pptxIntroduccion-a-los-numeros-en-ingles.pptx
Introduccion-a-los-numeros-en-ingles.pptx
 
DIAGNÓSTICO AMBIENTAL Y URBANO. POTOCOS.
DIAGNÓSTICO AMBIENTAL Y URBANO. POTOCOS.DIAGNÓSTICO AMBIENTAL Y URBANO. POTOCOS.
DIAGNÓSTICO AMBIENTAL Y URBANO. POTOCOS.
 
Fundamentos de la Ergonomía y sus características principales
Fundamentos de la Ergonomía y sus características principalesFundamentos de la Ergonomía y sus características principales
Fundamentos de la Ergonomía y sus características principales
 
ARQUITECTURA ESCOLAR PÚBLICA COMO PATRIMONIO MODERNO EN CHILE
ARQUITECTURA ESCOLAR PÚBLICA COMO PATRIMONIO MODERNO EN CHILEARQUITECTURA ESCOLAR PÚBLICA COMO PATRIMONIO MODERNO EN CHILE
ARQUITECTURA ESCOLAR PÚBLICA COMO PATRIMONIO MODERNO EN CHILE
 

Introducción al video y la edición digital

  • 1. INTRODUCCIÓN AL VIDEO Y LA EDICIÓN DIGITAL: Nociones básicas de la imagen en movimiento: FORMATOS DE IMAGEN: *Mapas de bits (archivos raster) *Imágenes vectoriales Mapas de bits (Bitmaps): Los mapas de bits descomponen una imagen en un conjunto de puntos de color. A cada uno de esos puntos se le denomina píxel. Este tipo de imágenes puede ser cambiado de tamaño, pero ello afecta a su calidad. Porque cuando la imagen es reducida lo que se hace es eliminar información (eliminar píxeles). Por el contrario, cuando la imagen se amplía, hay que añadir unos píxeles que realmente no están. Para ello, cada programa de tratamiento de imágenes utiliza un procedimiento distinto para suponer cómo deben ser los píxeles que hay que añadir. A este procedimiento se le denomina interpolación de píxeles, y, dependiendo del programa que lo haga, la imagen resultante tendrá mayor o menor calidad. En todo caso, siempre habrá menos calidad que la que tenía la imagen original. Imágenes vectoriales: Los gráficos vectoriales funcionan de otra manera. En ellos la imagen se define como un conjunto de objetos matemáticos (curvas, elipses, cuadrados, rectángulos, etc), definidos por sus propiedades geométricas (radio del círculo, longitud del cateto, etc.). De esta manera, cuando hay que cambiar el tamaño de la imagen, basta con cambiar las medidas de las figuras geométricas y por lo tanto los cambios de tamaño no afectan a la calidad de la imagen. Un ejemplo claro de este tipo de imágenes son las fuentes True Type, que podemos representar a cualquier tamaño sin deterioro de la calidad. TAMAÑO DE LA IMAGEN: El tamaño de la imagen, en un mapa de bits, se define como el número de píxeles de que dicha imagen consta, lo cual se indica, no mediante un número absoluto, sino mediante dos números: el ancho y el largo. Así, por ejemplo, si leemos que una imagen tiene un tamaño de 600 x 400, queremos decir que dicha imagen tiene 600 píxeles de ancho y 400 de largo, con lo que además de saber el número total de píxeles que tiene (600 x 400 = 240.000), sabremos también el tamaño del rectángulo en donde hay que mostrarla. Como regla general After Effects puede manejar imágenes con una resolución máxima de 30.000 x 30.000. Aunque esta regla tiene algunas excepciones para ciertos formatos específicos, y así: • Archivos PICT: 4.000 x 4.000. • Archivos BMP: 16.000 x 30.000. • Archivos PXR : 30.000 x 16.000.
  • 2. Como es lógico, cuanto mayor sea el tamaño de una imagen, más memoria RAM necesita y será mayor el tiempo de proceso. De tal manera que el tamaño máximo de las imágenes que After Effects puede manejar muchas veces se ve reducido por falta de memoria RAM. Para cargar en memoria una imagen necesitamos tantos bytes de memoria como número de píxeles tenga la imagen, multiplicado por el número de bytes necesario para manejar el color de cada píxel, aparte de la memoria adicional necesaria para procesar la imagen. PROPORCIÓN DE ASPECTO (ASPECT RATIO): Se llama aspect ratio a la relación entre el ancho y el alto de una imagen, de tal manera que aunque podamos reproducir la imagen a distintos tamaños, para evitar su deformación, siempre tendremos que mantener su proporción. Así, imaginemos que disponemos de distintas pantallas cada una de ellas con un tamaño diferente, y que intentamos proyectar una imagen para llenar cada una de esas pantallas. Si la imagen tiene una proporción de, por ejemplo, 4:3, que es la proporción estándar de los televisores clásicos, cuando enfoquemos nuestro proyector en una pantalla que mida 40 centímetros de ancho y 30 de alto, llenaremos por completo la pantalla. Exactamente igual podremos llenar por completo la pantalla si esta tiene cuatro metros de ancho por tres de alto. Pero si la pantalla tiene 5 metros de ancho y dos de alto, será imposible, por mucho que intentemos centrar nuestro proyector, que la imagen llene por completo la pantalla sin salirse de ella. La noción de aspect ratio se aplica en varios sentidos: • Aspect Ratio de una imagen. • Aspect Ratio de la pantalla en que reproducimos la imagen. Si queremos que la imagen llene toda la pantalla, el aspect ratio entre ambos debe coincidir. Y así, por ejemplo, si trabajamos en imágenes que serán reproducidos en un televisor, hay que tener en cuenta que las pantallas de los televisores normales tienen un aspect ratio de 4:3 (cuatro unidades de ancho por tres de alto), mientras que en televisión de alta definición el aspect ratio es de 16:9 (aumenta exponencialmente). • aspect ratio del píxel. Podría pensarse que, como el píxel es un punto, carece de tamaño y, por lo tanto, de forma y de aspect ratio. Al menos así es como se define en la geometría clásica a los puntos. Sin embargo, el píxel no es un verdadero punto porque no es una medida material, sino una medida lógica. Cuando decimos que una pantalla, por ejemplo, tiene una resolución de 1024 x 768 píxeles, queremos decir que es capaz de representar todos esos puntos, con independencia de su tamaño físico. De manera que cuanto más grande sea la pantalla, más grandes serán los puntos, pero no habrá más de ellos. Es decir: los píxeles sí tienen tamaño y forma. Su tamaño depende del tamaño de la pantalla en la que se represente una imagen. La forma puede ser cuadrada o rectangular. Las pantallas y monitores pueden admitir píxeles cuadrados o rectangulares y los programas de tratamiento de imágenes pueden generar imágenes con píxeles cuadrados o rectangulares. Esto es lo que hace que en ocasiones ciertas imágenes no se vean correctamente en determinados monitores, porque si en un monitor de píxeles cuadrados se reproduce una imagen construida con píxeles rectangulares, la imagen aparecerá distorsionada y así, por ejemplo, los círculos se mostrarán como óvalos, lo cual no es un fallo de la imagen, sino una incompatibilidad entre la construcción interna de dicha imagen y el monitor en donde se representa: esa misma imagen, en otro monitor, se verá correctamente.
  • 3. Cuando un píxel no es cuadrado, sino rectangular, se habla de su aspect ratio para hacer referencia a la forma del rectángulo. Es decir: un píxel cuyo aspect ratio sea 4:3, tendrá cuatro unidades de ancho por tres de alto, cualquiera que sea el tamaño de dicha unidad. El aspect ratio del píxel es importante cuando se trabaja con imágenes digitales, porque determinados formatos estándar exigen una proporción determinada, de tal modo que si no se respeta, la imagen se verá distorsionada; o simplemente el dispositivo al que hay que enviar la imagen no la recibirá correctamente. After Effects necesita además conocer el aspect ratio del píxel de una imagen, para realizar las correcciones necesarias que impidan su distorsión al ser reproducida en un determinado monitor. COLOR, PROFUNDIDAD DEL COLOR Y CANALES DE COLOR: Existen varias formas para representar la información sobre el color de una imagen (HLS, RGB, CMYK, CIE, etc). De todas ellas After Effects utiliza el sistema denominado RGB que es posiblemente el más extendido, y cuyo nombre viene de las siglas, en inglés, de las palabras Rojo, Verde, Azul (Red, Green, Blue). El sistema RGB se basa en la consideración de que un amplio porcentaje del espectro de colores visible se puede representar combinando luz de color rojo, verde y azul (RGB) en distintas proporciones e intensidades. Debido a que los colores RGB se combinan para crear el blanco, también se denominan colores aditivos. La suma de todos los colores produce el blanco, es decir, se transmite toda la luz al ojo. Los colores aditivos se usan para iluminación, vídeo y monitores. El monitor, por ejemplo, crea color mediante la emisión de luz a través de fósforos de color rojo, verde y azul. Los archivos que utilizan este sistema de representación del color, almacenan la información para cada píxel, en tres bytes de la memoria del ordenador: El primer bit representa al valor de rojo de dicho píxel, el segundo el valor de verde y el tercero el valor de azul. Y como un byte admite un rango de valores entre 0 y 255, mediante este sistema pueden representarse hasta 16.777.215 colores diferentes (2553). Como un byte tiene ocho bits, en estos casos se dice que se está utilizando una profundidad de color de ocho bits. Algunos programas pueden, no obstante, generar imágenes con una profundidad de color de 16 bits, lo que significa que, para cada color (verde, rojo, azul), se utiliza no un byte, sino dos bytes. Ello hace que el número de colores distintos que puede haber en la imagen llegue hasta 281.462.092.005.375. Aunque After Effects por defecto trabaja con una profundidad de color de 8 bits, puede trabajar con una profundidad de 16 bits, aunque, en este caso, algunos efectos de los que After Effects puede aplicar, no funcionarán correctamente. Por otro lado, si el color de un píxel concreto se representa mediante tres valores (valor de rojo, valor de verde y valor de azul), es posible descomponer la
  • 4. imagen para representar solamente los valores de rojo, los de verde o los de azul. En estos casos se habla de “canales de color”. Toda imagen cuyo color se represente mediante el sistema RGB tiene un canal rojo, otro verde y otro azul. OTROS SISTEMAS DE REPRESENTACIÓN DEL COLOR: El modelo RGB no es el único modelo posible para representar colores. Existen otros modelos, de los que proceden nociones que es necesario comprender para entender el funcionamiento de los efectos de color incorporados en After Effects, así como, en gran medida, las claves de transparencia y los mates. Un sistema de representación de colores bastante popular es el conocido como Modelo HLS (siglas, en inglés de Hue (Tono), Lightness (Brillo), Saturation (saturación)). En este sistema existe una rueda de colores estándar en la que los distintos colores se mezclan. Pues bien: partiendo de dicha rueda estándar, se distinguen las siguientes nociones. • Hue: Es el color reflejado o transmitido a través de un objeto. Este concepto coincide con el concepto normal de color. Así hay un tono azul, o amarillo, o naranja, etc. El tono se mide como un radio en la rueda de colores estándar y se expresa en grados entre 0 y 360. • Ligthness: Es la luminosidad u oscuridad relativa del color y se suele medir como un porcentaje comprendido entre el 0% (negro) y el 100% (blanco). Las emisiones televisivas, por su parte, utilizan el modelo YUV en el que la señal se descompone en tres partes. De un lado la llamada Luminancia o intensidad (Y), en segundo lugar la componente de color azul (U), o crominancia azul, y, finalmente, la componente de color rojo (V) o crominancia roja. Aunque After Effects utiliza internamente el sistema RGB, es capaz de convertir entre RGB y los demás sistemas, de tal manera que muchos efectos se apoyan en las componentes de color de sistemas de representación del color distintos de RGB. • Saturation: También denominado cromatismo. Representa la fuerza o pureza del color, la cual depende de la cantidad de gris que existe en proporción al tono. La saturación se mide como un porcentaje comprendido entre el 0% (gris) y el 100% (la saturación completa). En la rueda de colores estándar, la saturación aumenta conforme nos acercamos al borde y disminuye conforme nos acercamos al centro. ZONAS TRANSPARENTES (CANAL ALFA): Algunas aplicaciones permiten incluir en una imagen ciertas partes que sean total o parcialmente transparentes. Eso significa que cuando dicha imagen se coloque sobre otra imagen, a través de las partes transparentes podrá verse a la imagen que está debajo; lo cual es extremadamente útil en composición de efectos especiales para video, pues permite superponer dos imágenes de tal manera que se vean ambas. La información sobre transparencia de la imagen se realiza de modo análogo a la información sobre el color: para cada píxel de la imagen se almacena, en un byte (o en dos bytes si se trabaja a una profundidad de color de 16 bits), un valor representativo de su nivel de transparencia. Y del mismo modo que se habla de canales de color (rojo, verde o azul), se habla también del canal de transparencia, normalmente denominado canal “alfa”. Por otra parte, los programas capaces de crear imágenes con zonas transparentes, pueden almacenar la información sobre la transparencia de dos maneras: De manera directa en un canal alfa simple, o de manera enmascarada. En el primer caso se habla de canal alfa directo (Straight alpha channel), o de canal alfa no enmascarado. En el segundo caso se habla de canal alfa premultiplicado
  • 5. (Premultiplied alpha channel), o canal alfa enmascarado. En las imágenes con un canal alfa premultiplicado, la información sobre transparencia se almacena en dos lugares distintos: • En el canal alfa propiamente dicho. • En los canales de color rojo, verde y azul. Esto se hace asignando un color a la transparencia absoluta (normalmente el blanco o el negro), y multiplicando el valor de rojo, verde, y azul por un valor igual al nivel de transparencia que el píxel posea. De esta manera la información sobre la transparencia se encuentra no solo en el canal alfa, sino también en los canales rojo, verde y azul. Cuando After Effects lee un archivo que incorpore un canal alfa, para interpretarlo correctamente necesita saber dos cosas: • Si se trata de un canal alfa directo o premultiplicado. • En el caso de ser un canal alfa premultiplicado, qué color se utilizó para la premultiplicación. Esta es la razón de que cuando en After Effects se importa un archivo que contiene un canal alfa, si en el propio archivo no se contiene información sobre el tipo de canal alfa de que se trata, After Effects muestre el cuadro de diálogo de interpretación de clips, para que el usuario le indique cómo debe interpretar dicho canal alfa. Nota: Muchas veces al canal alfa se le denomina mate; aunque se trata de dos técnicas distintas que tienen en común el que ambas sirven para crear una transparencia. La diferencia está en que el canal alfa incorpora la transparencia al archivo. No obstante, cuando se hable de los efectos de transparencia se verá hasta qué punto la terminología es variable. ARCHIVOS CON IMÁGENES EN MOVIMIENTO: Un sistema informático logra producir la sensación de que una imagen se mueve por el simple procedimiento de reproducir a una velocidad determinada, varias imágenes entre las cuales hay pequeñas variaciones: la sensación final es la de que la imagen se mueve. En este principio se basan el cine, la televisión, o los dibujos animados. Existen muchas modalidades de archivos con imágenes en movimiento, por ejemplo: Archivos de video (extensión AVI, MPG, MOV), gifs animados, Macromedia Flash, etc.. After Effects es capaz de crear archivos en la mayoría de estos formatos. FRAMES (Fotogramas) Y FIELDS (Campos): Si un archivo de video reproduce a cierta velocidad un número de imágenes, cada una de dichas imágenes se denomina frame. En video para computador, así como en cine, para cada imagen hay exactamente un frame. Ahora bien, en los sistemas televisivos, junto al concepto frame se encuentra el concepto field: Para entender la noción de field hay que tener en cuenta que los televisores, para mostrar un frame, realizan un barrido de arriba a abajo; es decir: van dibujando las líneas horizontales desde la primera hasta la última. Sin embargo, para mantener la estabilidad de la imagen, el barrido no es uniforme, sino que primero se dibujan las líneas impares (odd lines) y luego las pares (even lines) o al revés. A este procedimiento se le denomina video entrelazado o interlaced y se consigue dividiendo cada frame en dos campos o fields distintos: uno contiene las líneas horizontales pares (even) de la imagen y el otro las líneas horizontales impares (odd).
  • 6. Lo anterior significa que, por ejemplo en un sistema PAL, donde se muestran 25 frames por segundo, habrá 50 fields por segundo. El field, sin embargo, no se puede tratar de forma independiente, porque no es un frame. No podemos, por ejemplo, editar un field para hacer en él cambios, tendremos que editar el frame entero. El video interlaced se utiliza sólo en televisión. Por lo tanto cuando capturamos video que procede de la televisión (o de una cinta de video) nuestro archivo tendrá video interlaced. Asimismo, cuando realizamos un trabajo cuyo destino es la televisión, tendremos que generar un archivo de video con fields. Pero si el destino no es la televisión, es preferible trabajar con video no entrelazado o non interlaced video, pues así aumenta la calidad y estabilidad de la imagen. Por lo tanto, con After Effects es posible: • Separar los campos entrelazados, para convertir el video interlaced en non interlaced. • Generar fields y entrelazarlos partiendo de vídeo non interlaced. Al procedimiento por el que se muestra video no entrelazado (sin fields) se le denomina también Exploración progresiva (progressive scan); y algunas cámaras de video son capaces de utilizar tal procedimiento. VELOCIDAD: Como se ha dicho, la sensación de movimiento se obtiene reproduciendo los distintos frames a cierta velocidad. La velocidad de reproducción (playback speed) es pues, una característica fundamental de estos archivos. La velocidad de reproducción se suele medir en Frames Por Segundo (FPS). Normalmente, a mayor velocidad, más fluidez tendrá el movimiento pero el archivo ocupará un mayor espacio en disco (porque almacenará más frames) y requerirá un equipo más potente, porque tendrá que cargar y descargar en memoria muchos más datos. Aunque podemos darle a nuestro archivo de video la velocidad que queramos, normalmente se utilizan ciertas velocidades estándar: • Para gifs animados y flash se suele utilizar una velocidad de entre 10 y 15 FPS. • El cine utiliza la velocidad de 24 FPS. • La televisión y el video PAL utilizan la velocidad de 25 FPS. • La televisión y el video NTSC utilizan la velocidad de 29’97 FPS. Indicación de la velocidad en After Effects: Respecto del tratamiento de la velocidad de frames en After Effects, hay que tener en cuenta lo siguiente: • Velocidad de frames original del clip. • Velocidad de frames con la que After Effects interpreta el clip • Velocidad de frames de la composición. • Velocidad de frames de un clip dentro de una composición. • Velocidad de frames del archivo final. En teoría todas estas magnitudes pueden ser diferentes. Es decir: Podemos, por ejemplo, importar al proyecto un clip cuya velocidad de frames es de 15 FPS. En el
  • 7. proyecto indicar que queremos interpretar dicho clip a una velocidad de 24 FPS. Más tarde incorporarlo a una composición con una velocidad de 25 FPS. Dentro de la composición, alterar el clip mediante algún efecto para que su velocidad pase a ser de 12 FPS, y, finalmente, exportar la composición a un archivo con una velocidad de 30 FPS. Todo esto es posible, pero normalmente se traducirá en una reproducción con poca fluidez. Y aunque After Effects proporciona una utilidad para evitar esa falta de fluidez (la mezcla de frames o frame blending), lo preferible es utilizar siempre que sea posible la misma velocidad en todos los casos. MEDICIÓN Y VISUALIZACIÓN DEL TIEMPO: Normalmente contamos el tiempo mediante unidades más o menos grandes (siglos, años, meses ... minutos, segundos) según para qué lo estemos contando. Cuando se trata de medir la velocidad a la que se proyectan los frames para producir sensación de movimiento, es claro que la unidad “segundo” es demasiado grande, pues si se reprodujera un video o una película a la velocidad de un frame por segundo no habría sensación alguna de movimiento. Por ello se han ideado otros sistemas de cuenta del tiempo, de los que After Effects puede manejar los siguientes: • Sistema SMPTE (Society of Motion Picture and Television Engineers): Es el sistema que emplea After Effects por defecto, también llamado Timecode. Con este sistema el tiempo se cuenta por horas, minutos, segundos y frames, separando todas estas magnitudes, normalmente, mediante el signo de los dos puntos (:). Así, por ejemplo: 01:10:01:03 se refiere al tercer frame del primer segundo del décimo minuto de la primera hora de reproducción. • Frames: Este sistema cuenta exclusivamente frames. Por lo tanto para relacionarlo con el tiempo real, debemos saber a qué velocidad se reproducen los frames. Es decir: la cuenta 00529, en un video emitido a 25 FPS (frames por segundo), se refiere al cuarto frame del segundo 21; pero esa misma cuenta en un video emitido a 30 FPS, se refiere al frame nº 19 del segundo nº 17. • Pies y frames: Es una medida de tiempo basada en la longitud de una película cinematográfica. En las películas cinematográficas de 35 mm, en un pie (medida anglosajona -Foot) caben 16 frames; mientras que si la película es de 16 mm, en un pie caben 40 frames. Pues bien: con este sistema de medición se indica el nº de pies y el nº de frames. Así por ejemplo la medida 002+11 indicará dos pies y once frames del tercer pie. Eso significa, si la película es de 25 mm, un total de 43 frames; y si la película es de 16 mm, un total de 91 frames. El sistema usado por After Effects por defecto, llamado Timecode o SMTPE, no sólo es el más claro y el de uso mas extendido, sino el único que nos permite hacernos una idea real de la duración. Se utiliza por ejemplo, en las cámaras digitales de video y en general en los dispositivos de captura de video. Las cintas de video digital lo incorporan en una pista aparte. Por ello, salvo que haya razones importantes, no conviene cambiarlo.
  • 8. Nota sobre como escribir medidas de tiempo en After Effects. Siempre que en After Effects haya que escribir una medida de tiempo, si el sistema de medición del tiempo es el Timecode, podemos introducir el tiempo deseado sin necesidad de escribir los dos puntos que se usan como separadores en dicho sistema. Asimismo el número introducido se interpretará siempre de derecha a izquierda, asumiendo que las partes no introducidas tienen un valor de cero. Así, por ejemplo, si introducimos como valor 102, After Effects interpretará que se ha querido introducir 0:00:01:02. Es decir: la cifra introducida se interpreta de derecha a izquierda considerando que las dos últimas cifras se refieren a los frames, las dos cifras anteriores a los frames se refieren a los segundos, etc. Si introducimos un número imposible de minutos, segundos o de frames, After Effects realizará los cálculos necesarios. Así, por ejemplo, si introducimos el número 7500, After Effects, en lugar de interpretar 0:00:75:00, como un minuto no puede tener 75 segundos, considerará que se ha introducido 0:01:15:00 (porque 75 segundos equivalen a un minuto y quince segundos). SISTEMAS DE TELEVISIÓN: NTSC, PAL Y SECAM: Cuando estamos trabajando en un archivo de video cuyo destino es ser reproducido en un televisor, es imprescindible tener en cuenta que en el mundo existen dos estándares televisivos diferentes: el NTSC (National Television System Committee) y el PAL (Phase Alternation Line). El primero se usa en Estados Unidos y Japón. El segundo en Europa. El resto del mundo adopta uno de ambos estándares. Muy parecido al sistema PAL es el sistema SECAM (SECuentielle A Mémoire), utilizado en Francia y en gran parte de la Europa del Este. Las diferencias entre ambos sistemas son puramente técnicas, pero desde el punto de vista informático, los archivos PAL y SECAM son idénticos. Por esta razón a lo largo de esta guía no se volverá a hablar del sistema SECAM: todo lo que se diga para el sistema PAL vale también para el SECAM. Las diferencias entre NTSC y PAL se cifran en los siguientes aspectos: • Velocidad de frame: 29’97 en NTSC y 25 en PAL. • Tamaño de frame: 720 x 480 en NTSC y 720 x 576 en PAL • Rango de colores admisibles: Restringido en NTSC y mucho más amplio en PAL. • Proporción de aspecto de píxel: 0’9 en NTSC y 1.067 en PAL. El resultado de estas diferencias es el de que un archivo de video construido para uno de los sistemas, no podrá verse correctamente en el otro. Por lo tanto, a la hora de hacer nuestros trabajos con After Effects es imprescindible tener en cuenta cuál es el sistema de televisión de nuestro país, o de los países en los que se piensa difundir nuestro video. VIDEO ANALÓGICO Y VIDEO DIGITAL (DV): Desde un punto de vista estricto, todo archivo de video constituye video digital. Sin embargo, en la práctica esta denominación se reserva para un tipo de archivos muy específicos: los que fueron grabados con un dispositivo digital de acuerdo con un estándar denominado DV que (en sistemas NTSC) admite un subformato denominado D1. Este estándar implica que en tamaño de frame, velocidad y proporción de aspecto de píxel, el archivo se debe ajustar a uno de los dos estándares: NTSC o PAL.
  • 9. Desde el punto de vista interno estos archivos utilizan un codec específico que mantiene un flujo constante de datos de 3.6 MB por segundo. El video análogo, por el contrario, ha sido grabado mediante un dispositivo análogo; es decir: un dispositivo que transmite la información sobre la imagen y el sonido creando variaciones en una señal electromagnética. Antes de poder usar cualquiera de ambos tipos de video en un proyecto de After Effects tendremos que importarlo al computador, para lo cual será preciso algún dispositivo que nos permita conectar el computador con el dispositivo reproductor del video. Este dispositivo puede ser, para el video digital, una tarjeta firewire (también llamada i.link, o puerto IEEE 1394). Para digitalizar el video analógico necesitaremos una tarjeta capturadora de video. Es en este punto en el que se observa la principal diferencia entre el video análogo y el video digital, porque mientras el proceso de captura del video digital transmite al computador EXACTAMENTE el video grabado, sin pérdida alguna de calidad, la captura de video análogo mediante tarjeta casi siempre implica una mayor o menor pérdida de calidad, dependiendo de la calidad de la tarjeta y de la potencia del equipo. Hay además otras diferencias significativas. Así el video digital lleva incorporado su propio código de tiempo, por lo que es posible realizar sobre él operaciones con precisión de frame incluso aunque se encuentre en la cinta. Los distintos formatos de DV/D1 han de cumplir los siguientes estándares: • DV/D1 NTSC: . Tamaño de frame: 720 x 480 (720 x 486 en D1) . Proporción de aspecto de píxel: 0’9, o 1’2 en modo panorámico . Velocidad de frames: 29’97 FPS. . Codec: Microsoft DV o algún codec específico para DV • DV PAL: . Tamaño de frame: 720 x 576 . Proporción de aspecto de píxel: 1’0666, ó 1’422 en modo panorámico . Velocidad de frames: 25 FPS. . Codec: Microsoft DV o algún codec específico para DV. Los formatos analógicos, sin embargo, son mucho más flexibles en cuanto a tamaño de frame (siempre que se mantenga el aspect ratio del frame de 4:3, propio de la televisión. CINE: PELÍCULAS DIGITALIZADAS Y MÉTODO 3:2 PULLDOWN: Obviamente, desde un computador no podemos generar directamente una película cinematográfica; pero si podemos generar un archivo preparado para ser convertido, mediante los procedimientos adecuados, a película cinematográfica. Las características que debe tener en cuenta un archivo que pretenda ser convertido en película cinematográfica son las siguientes: • Tamaño del frame: Debe tener la proporción 4:3 o 16:9, que son las resoluciones estándar. La segunda es la adecuada para el llamado cinemascope o HDTV. • Velocidad de frames: Debe ser de 24 FPS. • El video no debe ser interlaced. Si se trabaja en NTSC también hay que tener en cuenta el método 3:2 pulldown. Este método se utiliza cuando se transfiere una película cinematográfica (con una velocidad estándar de 24 FPS) a video NTSC (con una velocidad de 29’97 FPS). Para llevar a cabo dicha conversión, los frames de la película se distribuyen entre los fields de video según un patrón repetido de 3:2; es decir, el primer frame del film se copia en los fields 1 y 2 del primer frame de video, y
  • 10. también en el field 1 del segundo frame de video. El segundo frame de la película es también copiado en los dos fields de video siguiente (field 2 del segundo frame y field 1 del tercer frame de video); y así sucesivamente, de tal manera que cuatro frames de la película ocuparán cinco frames de video. El método 3:2 pulldown genera frames completos (representados por una W) y frames partidos (representados por una S). Un frame completo es el que contiene dos fields con el mismo frame (tres de cada cinco frames de video). Un frame partido (dos de cada cinco) contiene en cada field un frame distinto (aunque adyacentes entre sí). Se denomina fase 3:2 al punto en el que los dos frames partidos se encuentran dentro de los cinco primeros frames del metraje. Esta fase es el resultado de dos conversiones que ocurren durante la aplicación del método: Como con este método los 24 frames de la película se convierten en treinta, es preciso en primer lugar, reducir la velocidad en un 0.1% para ajustarla a la velocidad estándar NTSC de 29.97. En segundo lugar, cada frame de la película es repetido según un patrón especial y emparejado con los fields de video. NOTA: Este método sólo se utiliza cuando se trabaja con video NTSC. Ello es porque este procedimiento es preciso para ajustar una velocidad de 24 FPS a la velocidad de 29.97 NTSC; lo que obliga a generar un frame adicional (dos fields) por cada cuatro frames originales y además reducir la velocidad 1.8 segundos por hora. Por el contrario, en los sistemas PAL, a 25 FPS, sólo hay que generar un frame extra por cada 24 frames originales, lo cual se puede hacer, simplemente acelerando la película un 4% de su velocidad original, y así conseguir el sincronismo. Claro que esto hace que la película en PAL dure 2 minutos 24 segundos menos por hora que el original y que las voces suenen cerca de medio tono más altas. COMPRESIÓN Y CODEC: Si se tiene en cuenta lo dicho hasta ahora sobre imágenes (tamaño y canales de color), y video (imágenes por segundo), se comprobará que un archivo de video puede llegar a ser muy grande. Así, por ejemplo, en diez minutos de video, en un sistema PAL estándar, tenemos 600 segundos, o, lo que es lo mismo, 15.000 frames. Si cada frame tiene un tamaño de 720 x 576 (= 414.720 píxeles), y para almacenar cada píxel necesitamos cuatro bytes (u ocho bytes con una profundidad de color de 16 bits), resultará que esos diez minutos de video ocuparían más de 23 GB de espacio en disco. Obviamente eso no es operativo. Por ello los distintos formatos de video (también muchos formatos de imagen), aplican ciertos algoritmos de compresión, de tal manera que la información que se almacena en el disco sea reducida. La compresión del video se hace en el momento de grabarlo en el disco. Cuando las imágenes son leídas, necesitan ser descomprimidas. De ello se ocupa el programa reproductor o manipulador del archivo de video. En todo caso una cosa es clara: cuando un archivo de video es comprimido se pierde información. Ello, en una primera instancia, puede no afectar a la calidad. Pero si a un mismo archivo se le aplica varias veces la compresión, la calidad se irá deteriorando progresivamente. El programa que se ocupa de comprimir y descomprimir el video se denomina codec (acrónimo de COmpresor/DECompresor). La peculiaridad de los codecs estriba en que deben encontrarse instalados en el computador para poder manipular o reproducir cierto tipo de archivos de video. Hay codecs que se instalan con el sistema operativo; otros hay que instalarlos expresamente y otros son instalados por ciertas aplicaciones. El codec es importante por varios aspectos:
  • 11. • De él depende la calidad final de nuestro video, ya que en el proceso de compresión puede perderse más o menos calidad de imagen. No olvidemos que, al comprimir, lo que hacemos es eliminar información. • Dependiendo del codec elegido, cada vez que editemos y modifiquemos nuestro video, podemos deteriorar aun más la imagen. Así ocurre, por ejemplo, con todos los sistemas de compresión basados en MPEG, que proporcionan muy buenos resultados de compresión, pero que son muy poco adecuados para la edición de video, pues cada modificación que hagamos en el archivo deteriorará sensiblemente su calidad, aparte de que con ellos puede ser extremadamente difícil trabajar a nivel de frames, debido al peculiar sistema de compresión que utilizan. • Algunos formatos de video requieren la utilización de un codec específico. Por ejemplo el llamado Digital Video (DV). • Algunas tarjetas capturadoras de video, trabajan con un codec específico, de tal manera que, para, por ejemplo, enviar a través de dicha capturadora un video creado por nosotros, el codec tendrá que ser necesariamente el de dicha tarjeta. Información compilada Por: Sergio Ceballos Tobón Diseñador Gráfico/ Animador Digital Email: ceballos.sergio@gmail.com