ARQUITECTURA ESCOLAR PÚBLICA COMO PATRIMONIO MODERNO EN CHILE
Introducción al video y la edición digital
1. INTRODUCCIÓN AL VIDEO Y LA EDICIÓN DIGITAL:
Nociones básicas de la imagen en movimiento:
FORMATOS DE IMAGEN:
*Mapas de bits (archivos raster)
*Imágenes vectoriales
Mapas de bits (Bitmaps):
Los mapas de bits descomponen una imagen en un conjunto de puntos de color. A
cada uno de esos puntos se le denomina píxel. Este tipo de imágenes puede ser
cambiado de tamaño, pero ello afecta a su calidad. Porque cuando la imagen es
reducida lo que se hace es eliminar información (eliminar píxeles). Por el contrario,
cuando la imagen se amplía, hay que añadir unos píxeles que realmente no están.
Para ello, cada programa de tratamiento de imágenes utiliza un procedimiento
distinto para suponer cómo deben ser los píxeles que hay que añadir. A este
procedimiento se le denomina interpolación de píxeles, y, dependiendo del programa
que lo haga, la imagen resultante tendrá mayor o menor calidad. En todo caso,
siempre habrá menos calidad que la que tenía la imagen original.
Imágenes vectoriales:
Los gráficos vectoriales funcionan de otra manera. En ellos la imagen se define
como un conjunto de objetos matemáticos (curvas, elipses, cuadrados, rectángulos,
etc), definidos por sus propiedades geométricas (radio del círculo, longitud del
cateto, etc.). De esta manera, cuando hay que cambiar el tamaño de la imagen,
basta con cambiar las medidas de las figuras geométricas y por lo tanto los cambios
de tamaño no afectan a la calidad de la imagen. Un ejemplo claro de este tipo de
imágenes son las fuentes True Type, que podemos representar a cualquier tamaño
sin deterioro de la calidad.
TAMAÑO DE LA IMAGEN:
El tamaño de la imagen, en un mapa de bits, se define como el número de
píxeles de que dicha imagen consta, lo cual se indica, no mediante un número
absoluto, sino mediante dos números: el ancho y el largo. Así, por ejemplo, si
leemos que una imagen tiene un tamaño de 600 x 400, queremos decir que dicha
imagen tiene 600 píxeles de ancho y 400 de largo, con lo que además de saber el
número total de píxeles que tiene (600 x 400 = 240.000), sabremos también el
tamaño del rectángulo en donde hay que mostrarla.
Como regla general After Effects puede manejar imágenes con una resolución
máxima de 30.000 x 30.000. Aunque esta regla tiene algunas excepciones para
ciertos formatos específicos, y así:
• Archivos PICT: 4.000 x 4.000.
• Archivos BMP: 16.000 x 30.000.
• Archivos PXR : 30.000 x 16.000.
2. Como es lógico, cuanto mayor sea el tamaño de una imagen, más memoria RAM
necesita y será mayor el tiempo de proceso. De tal manera que el tamaño máximo
de las imágenes que After Effects puede manejar muchas veces se ve reducido por
falta de memoria RAM. Para cargar en memoria una imagen necesitamos tantos
bytes de memoria como número de píxeles tenga la imagen, multiplicado por el
número de bytes necesario para manejar el color de cada píxel, aparte de la
memoria adicional necesaria para procesar la imagen.
PROPORCIÓN DE ASPECTO (ASPECT RATIO):
Se llama aspect ratio a la relación entre el ancho y el alto de una imagen, de tal
manera que aunque podamos reproducir la imagen a distintos tamaños, para evitar
su deformación, siempre tendremos que mantener su proporción.
Así, imaginemos que disponemos de distintas pantallas cada una de ellas con un
tamaño diferente, y que intentamos proyectar una imagen para llenar cada una de
esas pantallas. Si la imagen tiene una proporción de, por ejemplo, 4:3, que es la
proporción estándar de los televisores clásicos, cuando enfoquemos nuestro
proyector en una pantalla que mida 40 centímetros de ancho y 30 de alto,
llenaremos por completo la pantalla. Exactamente igual podremos llenar por
completo la pantalla si esta tiene cuatro metros de ancho por tres de alto. Pero si la
pantalla tiene 5 metros de ancho y dos de alto, será imposible, por mucho que
intentemos centrar nuestro proyector, que la imagen llene por completo la pantalla
sin salirse de ella.
La noción de aspect ratio se aplica en varios sentidos:
• Aspect Ratio de una imagen.
• Aspect Ratio de la pantalla en que reproducimos la imagen.
Si queremos que la imagen llene toda la pantalla, el aspect ratio entre ambos debe
coincidir. Y así, por ejemplo, si trabajamos en imágenes que serán reproducidos en
un televisor, hay que tener en cuenta que las pantallas de los televisores normales
tienen un aspect ratio de 4:3 (cuatro unidades de ancho por tres de alto), mientras
que en televisión de alta definición el aspect ratio es de 16:9 (aumenta
exponencialmente).
• aspect ratio del píxel.
Podría pensarse que, como el píxel es un punto, carece de tamaño y, por lo tanto,
de forma y de aspect ratio. Al menos así es como se define en la geometría clásica a
los puntos. Sin embargo, el píxel no es un verdadero punto porque no es una
medida material, sino una medida lógica. Cuando decimos que una pantalla, por
ejemplo, tiene una resolución de 1024 x 768 píxeles, queremos decir que es capaz
de representar todos esos puntos, con independencia de su tamaño físico. De
manera que cuanto más grande sea la pantalla, más grandes serán los puntos, pero
no habrá más de ellos. Es decir: los píxeles sí tienen tamaño y forma.
Su tamaño depende del tamaño de la pantalla en la que se represente una imagen.
La forma puede ser cuadrada o rectangular. Las pantallas y monitores pueden
admitir píxeles cuadrados o rectangulares y los programas de tratamiento de
imágenes pueden generar imágenes con píxeles cuadrados o rectangulares. Esto es
lo que hace que en ocasiones ciertas imágenes no se vean correctamente en
determinados monitores, porque si en un monitor de píxeles cuadrados se reproduce
una imagen construida con píxeles rectangulares, la imagen aparecerá distorsionada
y así, por ejemplo, los círculos se mostrarán como óvalos, lo cual no es un fallo de la
imagen, sino una incompatibilidad entre la construcción interna de dicha imagen y el
monitor en donde se representa: esa misma imagen, en otro monitor, se verá
correctamente.
3. Cuando un píxel no es cuadrado, sino rectangular, se habla de su aspect ratio para
hacer referencia a la forma del rectángulo. Es decir: un píxel cuyo aspect ratio sea
4:3, tendrá cuatro unidades de ancho por tres de alto, cualquiera que sea el tamaño
de dicha unidad. El aspect ratio del píxel es importante cuando se trabaja con
imágenes digitales, porque determinados formatos estándar exigen una proporción
determinada, de tal modo que si no se respeta, la imagen se verá distorsionada; o
simplemente el dispositivo al que hay que enviar la imagen no la recibirá
correctamente. After Effects necesita además conocer el aspect ratio del píxel de
una imagen, para realizar las correcciones necesarias que impidan su distorsión al
ser reproducida en un determinado monitor.
COLOR, PROFUNDIDAD DEL COLOR Y CANALES DE COLOR:
Existen varias formas para representar la información sobre el color de una imagen
(HLS, RGB, CMYK, CIE, etc). De todas ellas After Effects utiliza el sistema
denominado RGB que es posiblemente el más extendido, y cuyo nombre viene de
las siglas, en inglés, de las palabras Rojo, Verde, Azul (Red, Green, Blue).
El sistema RGB se basa en la consideración de que un amplio porcentaje del
espectro de colores visible se puede representar combinando luz de color rojo, verde
y azul (RGB) en distintas proporciones e intensidades. Debido a que los colores
RGB se combinan para crear el blanco, también se denominan colores aditivos. La
suma de todos los colores produce el blanco, es decir, se transmite toda la luz al ojo.
Los colores aditivos se usan para iluminación, vídeo y monitores. El monitor, por
ejemplo, crea color mediante la emisión de luz a través de fósforos de color rojo,
verde y azul.
Los archivos que utilizan este sistema de representación del color, almacenan la
información para cada píxel, en tres bytes de la memoria del ordenador: El primer bit
representa al valor de rojo de dicho píxel, el segundo el valor de verde y el tercero el
valor de azul. Y como un byte admite un rango de valores entre 0 y 255, mediante
este sistema pueden representarse hasta 16.777.215 colores diferentes (2553).
Como un byte tiene ocho bits, en estos casos se dice que se está utilizando una
profundidad de color de ocho bits. Algunos programas pueden, no obstante, generar
imágenes con una profundidad de color de 16 bits, lo que significa que, para cada
color (verde, rojo, azul), se utiliza no un byte, sino dos bytes. Ello hace que el
número de colores distintos que puede haber en la imagen llegue hasta
281.462.092.005.375. Aunque After Effects por defecto trabaja con una profundidad
de color de 8 bits, puede trabajar con una profundidad de 16 bits, aunque, en este
caso, algunos efectos de los que After Effects puede aplicar, no funcionarán
correctamente. Por otro lado, si el color de un píxel concreto se representa mediante
tres valores (valor de rojo, valor de verde y valor de azul), es posible descomponer la
4. imagen para representar solamente los valores de rojo, los de verde o los de azul.
En estos casos se habla de “canales de color”. Toda imagen cuyo color se
represente mediante el sistema RGB tiene un canal rojo, otro verde y otro azul.
OTROS SISTEMAS DE REPRESENTACIÓN DEL COLOR:
El modelo RGB no es el único modelo posible para representar colores. Existen
otros modelos, de los que proceden nociones que es necesario comprender para
entender el funcionamiento de los efectos de color incorporados en After Effects, así
como, en gran medida, las claves de transparencia y los mates.
Un sistema de representación de colores bastante popular es el conocido como
Modelo HLS (siglas, en inglés de Hue (Tono), Lightness (Brillo), Saturation
(saturación)). En este sistema existe una rueda de colores estándar en la que los
distintos colores se mezclan. Pues bien: partiendo de dicha rueda estándar, se
distinguen las siguientes nociones.
• Hue: Es el color reflejado o transmitido a través de un objeto. Este concepto
coincide con el concepto normal de color. Así hay un tono azul, o amarillo, o naranja,
etc. El tono se mide como un radio en la rueda de colores estándar y se expresa en
grados entre 0 y 360.
• Ligthness: Es la luminosidad u oscuridad relativa del color y se suele medir como
un porcentaje comprendido entre el 0% (negro) y el 100% (blanco). Las emisiones
televisivas, por su parte, utilizan el modelo YUV en el que la señal se descompone
en tres partes. De un lado la llamada Luminancia o intensidad (Y), en segundo
lugar la componente de color azul (U), o crominancia azul, y, finalmente, la
componente de color rojo (V) o crominancia roja. Aunque After Effects utiliza
internamente el sistema RGB, es capaz de convertir entre RGB y los demás
sistemas, de tal manera que muchos efectos se apoyan en las componentes de
color de sistemas de representación del color distintos de RGB.
• Saturation: También denominado cromatismo. Representa la fuerza o pureza del
color, la cual depende de la cantidad de gris que existe en proporción al tono. La
saturación se mide como un porcentaje comprendido entre el 0% (gris) y el 100% (la
saturación completa). En la rueda de colores estándar, la saturación aumenta
conforme nos acercamos al borde y disminuye conforme nos acercamos al centro.
ZONAS TRANSPARENTES (CANAL ALFA):
Algunas aplicaciones permiten incluir en una imagen ciertas partes que sean total o
parcialmente transparentes. Eso significa que cuando dicha imagen se coloque
sobre otra imagen, a través de las partes transparentes podrá verse a la imagen que
está debajo; lo cual es extremadamente útil en composición de efectos especiales
para video, pues permite superponer dos imágenes de tal manera que se vean
ambas. La información sobre transparencia de la imagen se realiza de modo
análogo a la información sobre el color: para cada píxel de la imagen se almacena,
en un byte (o en dos bytes si se trabaja a una profundidad de color de 16 bits), un
valor representativo de su nivel de transparencia. Y del mismo modo que se habla
de canales de color (rojo, verde o azul), se habla también del canal de transparencia,
normalmente denominado canal “alfa”.
Por otra parte, los programas capaces de crear imágenes con zonas transparentes,
pueden almacenar la información sobre la transparencia de dos maneras:
De manera directa en un canal alfa simple, o de manera enmascarada. En el primer
caso se habla de canal alfa directo (Straight alpha channel), o de canal alfa no
enmascarado. En el segundo caso se habla de canal alfa premultiplicado
5. (Premultiplied alpha channel), o canal alfa enmascarado. En las imágenes con un
canal alfa premultiplicado, la información sobre transparencia se almacena en dos
lugares distintos:
• En el canal alfa propiamente dicho.
• En los canales de color rojo, verde y azul.
Esto se hace asignando un color a la transparencia absoluta (normalmente el blanco
o el negro), y multiplicando el valor de rojo, verde, y azul por un valor igual al nivel de
transparencia que el píxel posea. De esta manera la información sobre la
transparencia se encuentra no solo en el canal alfa, sino también en los canales rojo,
verde y azul.
Cuando After Effects lee un archivo que incorpore un canal alfa, para interpretarlo
correctamente necesita saber dos cosas:
• Si se trata de un canal alfa directo o premultiplicado.
• En el caso de ser un canal alfa premultiplicado, qué color se utilizó para la
premultiplicación. Esta es la razón de que cuando en After Effects se importa un
archivo que contiene un canal alfa, si en el propio archivo no se contiene información
sobre el tipo de canal alfa de que se trata, After Effects muestre el cuadro de diálogo
de interpretación de clips, para que el usuario le indique cómo debe interpretar dicho
canal alfa.
Nota: Muchas veces al canal alfa se le denomina mate; aunque se trata de dos
técnicas distintas que tienen en común el que ambas sirven para crear una
transparencia. La diferencia está en que el canal alfa incorpora la transparencia al
archivo. No obstante, cuando se hable de los efectos de transparencia se verá hasta
qué punto la terminología es variable.
ARCHIVOS CON IMÁGENES EN MOVIMIENTO:
Un sistema informático logra producir la sensación de que una imagen se mueve por
el simple procedimiento de reproducir a una velocidad determinada, varias imágenes
entre las cuales hay pequeñas variaciones: la sensación final es la de que la imagen
se mueve. En este principio se basan el cine, la televisión, o los dibujos animados.
Existen muchas modalidades de archivos con imágenes en movimiento, por ejemplo:
Archivos de video (extensión AVI, MPG, MOV), gifs animados, Macromedia Flash,
etc.. After Effects es capaz de crear archivos en la mayoría de estos formatos.
FRAMES (Fotogramas) Y FIELDS (Campos):
Si un archivo de video reproduce a cierta velocidad un número de imágenes, cada
una de dichas imágenes se denomina frame.
En video para computador, así como en cine, para cada imagen hay exactamente un
frame. Ahora bien, en los sistemas televisivos, junto al concepto frame se encuentra
el concepto field:
Para entender la noción de field hay que tener en cuenta que los televisores, para
mostrar un frame, realizan un barrido de arriba a abajo; es decir: van dibujando las
líneas horizontales desde la primera hasta la última. Sin embargo, para mantener la
estabilidad de la imagen, el barrido no es uniforme, sino que primero se dibujan las
líneas impares (odd lines) y luego las pares (even lines) o al revés. A este
procedimiento se le denomina video entrelazado o interlaced y se consigue
dividiendo cada frame en dos campos o fields distintos:
uno contiene las líneas horizontales pares (even) de la imagen y el otro las líneas
horizontales impares (odd).
6. Lo anterior significa que, por ejemplo en un sistema PAL, donde se muestran 25
frames por segundo, habrá 50 fields por segundo. El field, sin embargo, no se puede
tratar de forma independiente, porque no es un frame. No podemos, por ejemplo,
editar un field para hacer en él cambios, tendremos que editar el frame entero.
El video interlaced se utiliza sólo en televisión. Por lo tanto cuando capturamos video
que procede de la televisión (o de una cinta de video) nuestro archivo tendrá video
interlaced. Asimismo, cuando realizamos un trabajo cuyo destino es la televisión,
tendremos que generar un archivo de video con fields. Pero si el destino no es la
televisión, es preferible trabajar con video no entrelazado o non interlaced video,
pues así aumenta la calidad y estabilidad de la imagen. Por lo tanto, con After
Effects es posible:
• Separar los campos entrelazados, para convertir el video interlaced en non
interlaced.
• Generar fields y entrelazarlos partiendo de vídeo non interlaced. Al procedimiento
por el que se muestra video no entrelazado (sin fields) se le denomina también
Exploración progresiva (progressive scan); y algunas cámaras de video son capaces
de utilizar tal procedimiento.
VELOCIDAD:
Como se ha dicho, la sensación de movimiento se obtiene reproduciendo los
distintos frames a cierta velocidad. La velocidad de reproducción (playback speed)
es pues, una característica fundamental de estos archivos. La velocidad de
reproducción se suele medir en Frames Por Segundo (FPS). Normalmente, a mayor
velocidad, más fluidez tendrá el movimiento pero el archivo ocupará un mayor
espacio en disco (porque almacenará más frames) y requerirá un equipo más
potente, porque tendrá que cargar y descargar en memoria muchos más datos.
Aunque podemos darle a nuestro archivo de video la velocidad que queramos,
normalmente se utilizan ciertas velocidades estándar:
• Para gifs animados y flash se suele utilizar una velocidad de entre 10 y 15 FPS.
• El cine utiliza la velocidad de 24 FPS.
• La televisión y el video PAL utilizan la velocidad de 25 FPS.
• La televisión y el video NTSC utilizan la velocidad de 29’97 FPS.
Indicación de la velocidad en After Effects:
Respecto del tratamiento de la velocidad de frames en After Effects, hay que tener
en cuenta lo siguiente:
• Velocidad de frames original del clip.
• Velocidad de frames con la que After Effects interpreta el clip
• Velocidad de frames de la composición.
• Velocidad de frames de un clip dentro de una composición.
• Velocidad de frames del archivo final.
En teoría todas estas magnitudes pueden ser diferentes. Es decir: Podemos, por
ejemplo, importar al proyecto un clip cuya velocidad de frames es de 15 FPS. En el
7. proyecto indicar que queremos interpretar dicho clip a una velocidad de 24 FPS. Más
tarde incorporarlo a una composición con una velocidad de 25 FPS. Dentro de la
composición, alterar el clip mediante algún efecto para que su velocidad pase a ser
de 12 FPS, y, finalmente, exportar la composición a un archivo con una velocidad de
30 FPS.
Todo esto es posible, pero normalmente se traducirá en una reproducción con poca
fluidez. Y aunque After Effects proporciona una utilidad para evitar esa falta de
fluidez (la mezcla de frames o frame blending), lo preferible es utilizar siempre que
sea posible la misma velocidad en todos los casos.
MEDICIÓN Y VISUALIZACIÓN DEL TIEMPO:
Normalmente contamos el tiempo mediante unidades más o menos grandes (siglos,
años, meses ... minutos, segundos) según para qué lo estemos contando.
Cuando se trata de medir la velocidad a la que se proyectan los frames para producir
sensación de movimiento, es claro que la unidad “segundo” es demasiado grande,
pues si se reprodujera un video o una película a la velocidad de un frame por
segundo no habría sensación alguna de movimiento. Por ello se han ideado otros
sistemas de cuenta del tiempo, de los que After Effects puede manejar los
siguientes:
• Sistema SMPTE (Society of Motion Picture and Television Engineers): Es el
sistema que emplea After Effects por defecto, también llamado Timecode. Con este
sistema el tiempo se cuenta por horas, minutos, segundos y frames, separando
todas estas magnitudes, normalmente, mediante el signo de los dos puntos (:). Así,
por ejemplo: 01:10:01:03 se refiere al tercer frame del primer segundo del décimo
minuto de la primera hora de reproducción.
• Frames: Este sistema cuenta exclusivamente frames. Por lo tanto para relacionarlo
con el tiempo real, debemos saber a qué velocidad se reproducen los frames. Es
decir: la cuenta 00529, en un video emitido a 25 FPS (frames por segundo), se
refiere al cuarto frame del segundo 21; pero esa misma cuenta en un video emitido a
30 FPS, se refiere al frame nº 19 del segundo nº 17.
• Pies y frames: Es una medida de tiempo basada en la longitud de una película
cinematográfica. En las películas cinematográficas de 35 mm, en un pie (medida
anglosajona -Foot) caben 16 frames; mientras que si la película es de 16 mm, en un
pie caben 40 frames. Pues bien: con este sistema de medición se indica el nº de
pies y el nº de frames. Así por ejemplo la medida 002+11 indicará dos pies y once
frames del tercer pie. Eso significa, si la película es de 25 mm, un total de 43 frames;
y si la película es de 16 mm, un total de 91 frames.
El sistema usado por After Effects por defecto, llamado Timecode o SMTPE, no sólo
es el más claro y el de uso mas extendido, sino el único que nos permite hacernos
una idea real de la duración. Se utiliza por ejemplo, en las cámaras digitales de
video y en general en los dispositivos de captura de video. Las cintas de video digital
lo incorporan en una pista aparte. Por ello, salvo que haya razones importantes, no
conviene cambiarlo.
8. Nota sobre como escribir medidas de tiempo en After Effects.
Siempre que en After Effects haya que escribir una medida de tiempo, si el sistema
de medición del tiempo es el Timecode, podemos introducir el tiempo deseado sin
necesidad de escribir los dos puntos que se usan como separadores en dicho
sistema.
Asimismo el número introducido se interpretará siempre de derecha a izquierda,
asumiendo que las partes no introducidas tienen un valor de cero. Así, por ejemplo,
si introducimos como valor 102, After Effects interpretará que se ha querido
introducir 0:00:01:02. Es decir: la cifra introducida se interpreta de derecha a
izquierda considerando que las dos últimas cifras se refieren a los frames, las dos
cifras anteriores a los frames se refieren a los segundos, etc.
Si introducimos un número imposible de minutos, segundos o de frames, After
Effects realizará los cálculos necesarios. Así, por ejemplo, si introducimos el número
7500, After Effects, en lugar de interpretar 0:00:75:00, como un minuto no puede
tener 75 segundos, considerará que se ha introducido 0:01:15:00 (porque 75
segundos equivalen a un minuto y quince segundos).
SISTEMAS DE TELEVISIÓN: NTSC, PAL Y SECAM:
Cuando estamos trabajando en un archivo de video cuyo destino es ser reproducido
en un televisor, es imprescindible tener en cuenta que en el mundo existen dos
estándares televisivos diferentes: el NTSC (National Television System Committee) y
el PAL (Phase Alternation Line). El primero se usa en Estados Unidos y Japón. El
segundo en Europa. El resto del mundo adopta uno de ambos estándares. Muy
parecido al sistema PAL es el sistema SECAM (SECuentielle A Mémoire), utilizado
en Francia y en gran parte de la Europa del Este. Las diferencias entre ambos
sistemas son puramente técnicas, pero desde el punto de vista informático, los
archivos PAL y SECAM son idénticos. Por esta razón a lo largo de esta guía no se
volverá a hablar del sistema SECAM: todo lo que se diga para el sistema PAL vale
también para el SECAM. Las diferencias entre NTSC y PAL se cifran en los
siguientes aspectos:
• Velocidad de frame: 29’97 en NTSC y 25 en PAL.
• Tamaño de frame: 720 x 480 en NTSC y 720 x 576 en PAL
• Rango de colores admisibles: Restringido en NTSC y mucho más amplio en PAL.
• Proporción de aspecto de píxel: 0’9 en NTSC y 1.067 en PAL.
El resultado de estas diferencias es el de que un archivo de video construido para
uno de los sistemas, no podrá verse correctamente en el otro. Por lo tanto, a la hora
de hacer nuestros trabajos con After Effects es imprescindible tener en cuenta cuál
es el sistema de televisión de nuestro país, o de los países en los que se piensa
difundir nuestro video.
VIDEO ANALÓGICO Y VIDEO DIGITAL (DV):
Desde un punto de vista estricto, todo archivo de video constituye video digital. Sin
embargo, en la práctica esta denominación se reserva para un tipo de archivos muy
específicos: los que fueron grabados con un dispositivo digital de acuerdo con un
estándar denominado DV que (en sistemas NTSC) admite un subformato
denominado D1. Este estándar implica que en tamaño de frame, velocidad y
proporción de aspecto de píxel, el archivo se debe ajustar a uno de los dos
estándares: NTSC o PAL.
9. Desde el punto de vista interno estos archivos utilizan un codec específico que
mantiene un flujo constante de datos de 3.6 MB por segundo. El video análogo, por
el contrario, ha sido grabado mediante un dispositivo análogo; es decir: un
dispositivo que transmite la información sobre la imagen y el sonido creando
variaciones en una señal electromagnética. Antes de poder usar cualquiera de
ambos tipos de video en un proyecto de After Effects tendremos que importarlo al
computador, para lo cual será preciso algún dispositivo que nos permita conectar el
computador con el dispositivo reproductor del video. Este dispositivo puede ser, para
el video digital, una tarjeta firewire (también llamada i.link, o puerto IEEE 1394). Para
digitalizar el video analógico necesitaremos una tarjeta capturadora de video.
Es en este punto en el que se observa la principal diferencia entre el video análogo y
el video digital, porque mientras el proceso de captura del video digital transmite al
computador EXACTAMENTE el video grabado, sin pérdida alguna de calidad, la
captura de video análogo mediante tarjeta casi siempre implica una mayor o menor
pérdida de calidad, dependiendo de la calidad de la tarjeta y de la potencia del
equipo. Hay además otras diferencias significativas. Así el video digital lleva
incorporado su propio código de tiempo, por lo que es posible realizar sobre él
operaciones con precisión de frame incluso aunque se encuentre en la cinta.
Los distintos formatos de DV/D1 han de cumplir los siguientes estándares:
• DV/D1 NTSC:
. Tamaño de frame: 720 x 480 (720 x 486 en D1)
. Proporción de aspecto de píxel: 0’9, o 1’2 en modo panorámico
. Velocidad de frames: 29’97 FPS.
. Codec: Microsoft DV o algún codec específico para DV
• DV PAL:
. Tamaño de frame: 720 x 576
. Proporción de aspecto de píxel: 1’0666, ó 1’422 en modo panorámico
. Velocidad de frames: 25 FPS.
. Codec: Microsoft DV o algún codec específico para DV.
Los formatos analógicos, sin embargo, son mucho más flexibles en cuanto a tamaño
de frame (siempre que se mantenga el aspect ratio del frame de 4:3, propio de la
televisión.
CINE: PELÍCULAS DIGITALIZADAS Y MÉTODO 3:2 PULLDOWN:
Obviamente, desde un computador no podemos generar directamente una película
cinematográfica; pero si podemos generar un archivo preparado para ser convertido,
mediante los procedimientos adecuados, a película cinematográfica.
Las características que debe tener en cuenta un archivo que pretenda ser convertido
en película cinematográfica son las siguientes:
• Tamaño del frame: Debe tener la proporción 4:3 o 16:9, que son las resoluciones
estándar. La segunda es la adecuada para el llamado cinemascope o HDTV.
• Velocidad de frames: Debe ser de 24 FPS.
• El video no debe ser interlaced. Si se trabaja en NTSC también hay que tener en
cuenta el método 3:2 pulldown. Este método se utiliza cuando se transfiere una
película cinematográfica (con una velocidad estándar de 24 FPS) a video NTSC (con
una velocidad de 29’97 FPS). Para llevar a cabo dicha conversión, los frames de la
película se distribuyen entre los fields de video según un patrón repetido de 3:2; es
decir, el primer frame del film se copia en los fields 1 y 2 del primer frame de video, y
10. también en el field 1 del segundo frame de video. El segundo frame de la película es
también copiado en los dos fields de video siguiente (field 2 del segundo frame y
field 1 del tercer frame de video); y así sucesivamente, de tal manera que cuatro
frames de la película ocuparán cinco frames de video.
El método 3:2 pulldown genera frames completos (representados por una W) y
frames partidos (representados por una S). Un frame completo es el que contiene
dos fields con el mismo frame (tres de cada cinco frames de video). Un frame partido
(dos de cada cinco) contiene en cada field un frame distinto (aunque adyacentes
entre sí).
Se denomina fase 3:2 al punto en el que los dos frames partidos se encuentran
dentro de los cinco primeros frames del metraje. Esta fase es el resultado de dos
conversiones que ocurren durante la aplicación del método:
Como con este método los 24 frames de la película se convierten en treinta, es
preciso en primer lugar, reducir la velocidad en un 0.1% para ajustarla a la velocidad
estándar NTSC de 29.97. En segundo lugar, cada frame de la película es repetido
según un patrón especial y emparejado con los fields de video.
NOTA: Este método sólo se utiliza cuando se trabaja con video NTSC. Ello es
porque este procedimiento es preciso para ajustar una velocidad de 24 FPS a la
velocidad de 29.97 NTSC; lo que obliga a generar un frame adicional (dos fields) por
cada cuatro frames originales y además reducir la velocidad 1.8 segundos por hora.
Por el contrario, en los sistemas PAL, a 25 FPS, sólo hay que generar un frame
extra por cada 24 frames originales, lo cual se puede hacer, simplemente acelerando
la película un 4% de su velocidad original, y así conseguir el sincronismo.
Claro que esto hace que la película en PAL dure 2 minutos 24 segundos menos por
hora que el original y que las voces suenen cerca de medio tono más altas.
COMPRESIÓN Y CODEC:
Si se tiene en cuenta lo dicho hasta ahora sobre imágenes (tamaño y canales de
color), y video (imágenes por segundo), se comprobará que un archivo de video
puede llegar a ser muy grande. Así, por ejemplo, en diez minutos de video, en un
sistema PAL estándar, tenemos 600 segundos, o, lo que es lo mismo, 15.000
frames. Si cada frame tiene un tamaño de 720 x 576 (= 414.720 píxeles), y para
almacenar cada píxel necesitamos cuatro bytes (u ocho bytes con una profundidad
de color de 16 bits), resultará que esos diez minutos de video ocuparían más de 23
GB de espacio en disco.
Obviamente eso no es operativo. Por ello los distintos formatos de video (también
muchos formatos de imagen), aplican ciertos algoritmos de compresión, de tal
manera que la información que se almacena en el disco sea reducida. La
compresión del video se hace en el momento de grabarlo en el disco. Cuando las
imágenes son leídas, necesitan ser descomprimidas. De ello se ocupa el programa
reproductor o manipulador del archivo de video.
En todo caso una cosa es clara: cuando un archivo de video es comprimido se
pierde información. Ello, en una primera instancia, puede no afectar a la calidad.
Pero si a un mismo archivo se le aplica varias veces la compresión, la calidad se irá
deteriorando progresivamente. El programa que se ocupa de comprimir y
descomprimir el video se denomina codec (acrónimo de COmpresor/DECompresor).
La peculiaridad de los codecs estriba en que deben encontrarse instalados en el
computador para poder manipular o reproducir cierto tipo de archivos de video. Hay
codecs que se instalan con el sistema operativo; otros hay que instalarlos
expresamente y otros son instalados por ciertas aplicaciones. El codec es importante
por varios aspectos:
11. • De él depende la calidad final de nuestro video, ya que en el proceso de
compresión puede perderse más o menos calidad de imagen. No olvidemos que, al
comprimir, lo que hacemos es eliminar información.
• Dependiendo del codec elegido, cada vez que editemos y modifiquemos nuestro
video, podemos deteriorar aun más la imagen. Así ocurre, por ejemplo, con todos los
sistemas de compresión basados en MPEG, que proporcionan muy buenos
resultados de compresión, pero que son muy poco adecuados para la edición de
video, pues cada modificación que hagamos en el archivo deteriorará sensiblemente
su calidad, aparte de que con ellos puede ser extremadamente difícil trabajar a nivel
de frames, debido al peculiar sistema de compresión que utilizan.
• Algunos formatos de video requieren la utilización de un codec específico. Por
ejemplo el llamado Digital Video (DV).
• Algunas tarjetas capturadoras de video, trabajan con un codec específico, de tal
manera que, para, por ejemplo, enviar a través de dicha capturadora un video
creado por nosotros, el codec tendrá que ser necesariamente el de dicha tarjeta.
Información compilada Por: Sergio Ceballos Tobón
Diseñador Gráfico/ Animador Digital
Email: ceballos.sergio@gmail.com