2. Video - Secuencia de imágenes (fotogramas) que crean un
efecto óptico de movimiento en el espectador cuando es
visualizada de acuerdo a una determinada frecuencia de
imágenes por segundo.
Esta relación de imágenes vs tiempo se expresa en fotogramas
por segundo (en inglés frames per second ) y es abreviado
como FPS.
2
3. La frecuencia de fotogramas de algunos de los sistemas
más conocidos son:
SISTEMA CUADROS POR SEGUNDO
Cine mudo 16 - 18 FPS
Cine 24 FPS
Televisión europea (PAL) 25 FPS
Televisión México y EUA (NTSC) 30 FPS
3
5. Codificación - Proceso de conversión de una señal
analógica (imagen de video) a datos digitales; esto es
también conocido como Digitalización y tiene por
unidad fundamental el Bit.
Una vez convertidos en bits, los fotogramas son
segmentadas en grupos (paquetes) para su transporte de
un dispositivo a otro.
Se le llama Tasa de Bits a la cantidad de paquetes
(Bytes) que pueden ser colocados en un medio a una
razón de tiempo determinada.
5
6. *** Imágenes Presentación Bolide®/ Conceptos básicos de red
CBR - es una tasa de bits constante; misma cantidad de bits en todo momento
VBR - es una tasa de bits variable; varía la velocidad según la complejidad del video
6
7. Cuando se digitaliza un video se deduce un
proceso de compresión, ya que de lo
contrario este ocuparía demasiado espacio en
disco.
Se debe tener presente que un video en
formato megapixel (sin comprimir) puede
alcanzar hasta 1 MB de espacio por fotograma.
Esto es, con una velocidad de 25 FPS, cada
segundo de video pudiera llegar a ocupar hasta
25 MB de espacio. Con lo que necesitaríamos
una enorme cantidad de discos para
almacenar unos pocos segundos.
7
8. Con el proceso de compresión se aplica un algoritmo
matemático al vídeo original para crear un archivo de
menor tamaño y así poder transmitirlo de una manera
más eficiente.
Una vez hecho esto se aplica el algoritmo inverso para
obtener el video original.
Al tiempo que nos toma comprimir, enviar, descomprimir
y reproducir un archivo se le denomina latencia.
Cuanto más avanzado sea el algoritmo de compresión,
mayor será la latencia.
8
9. MPEG-4 - es un método para la compresión
digital de audio y video, introducido a finales de
1998 y designado como estándar para formatos
de streaming a través de la red.
Con este formato, los datos se reducen a
fotogramas simples con el fin de facilitar su
envío inmediato.
9
10. Las imágenes de la secuencia se codifican y se envían como imágenes únicas y
separadas (fotogramas I) sin necesidad de que dependan unas de otras.
10
11. H.264 - Es un formato de codificación, parte de la
norma MPEG-4 en su Parte 10. que comprende un
algoritmo de codificación de alta definición y
optimización de espacio en disco.
Utiliza la predicción inter-fotograma para reducir los
datos de la secuencias de video.
La predicción consiste en técnicas como la
codificación diferencial, en la que un fotograma se
compara con uno de referencia y sólo se codifican
los píxeles que han cambiado. De esta forma, se
reduce el número de píxeles codificados y por
ende el tamaño de archivo.
11
12. Sólo la primera imagen (fotograma I) se codifica en su totalidad. En las dos imágenes
siguientes (fotogramas P) se hace referencia a la primera imagen en cuanto a elementos
estáticos, como la casa.
Se codifican sólo las partes en movimiento (el hombre que corre) mediante vectores de
movimiento, reduciendo así la cantidad de información que se envía y almacena. 12
16. • Los diferentes estándares de compresión utilizan métodos distintos para
reducir los datos y en consecuencia, los resultados en cuanto a tasa de bits y
latencia son diferentes.
• El formato MPEG-4 tiene la peculiaridad de usar una MENOR cantidad de
RECURSOS para su codificación en comparación con otros formatos como
H.264, pero requiere un MAYOR ANCHO DE BANDA.
• El formato H.264 puede alcanzar gran calidad de imagen con poco espacio
en disco pero para conseguir dicho resultado debe sacrificar importantes
recursos en procesador. Tiene una MAYOR COMPRESION con relación a
MPEG-4 y un ofrece un tráfico mas fluido.
16