Algoritmos de compresión y efecto de la compresión expo
1. Algoritmos de compresión y
efecto de la compresión en el
tamaño de imágenes, audio y
video
Presentado por:
Idania Lisseth Ruiz mercado
Mario Alberto Arias Antón
Edgard Antonio Chávez Bravo
2. El objetivo de la comprensión de imágenes es reducir el contenido de datos de las
mismas. Los diversos algoritmos de compresión tratan de extraer la información
esencial (no redundante) de la imagen, de manera que la imagen pueda ser
reconstruida posteriormente con la precisión requerida. (Lerma García, 2002).
El grado de compresión para video en movimiento es sustancialmente mayor que
en cualquier otro medio, debido a dos motivos: a que la demanda de ancho de
banda del video sin comprimir es del orden de 160 Mbit/s; y a que la tolerancia del
ojo humano a la distorsión de la imagen permite grandes compresiones (con la
consecuente degradación de la imagen).
3. Algoritmos sin pérdidas
Según Justo Villanueva, Se emplean los algoritmos habituales para la comprensión
de ficheros de cualquier tipo en un entorno informático: codificación “run length
code” (Huffmann) o codificación Lempel-Ziv, normalmente. Este tipo de
comprensión siempre se utiliza además de los algoritmos de comprensión con
pérdidas. (Villanueva, 2013)
4. Algoritmos con pérdidas
Es posible obtener tasas de compresión mucho mejores si se ignoran los grupos de
repeticiones (runs) cortos. Con este método se pierde información al comprimir,
pero a veces esto es aceptable para el usuario. (Las imágenes que no permiten
ninguna pérdida de datos son las radiografías médicas y las fotografías tomadas
por los grandes telescopios, donde el precio de una imagen es astronómico).
Son algoritmos específicos para comprensión de imagen en movimiento. Este tipo
de algoritmos si presentan pérdidas en la señal, pero en su diseño se tienen en
cuenta factores subjetivos para minimizar la percepción de la degradación de la
calidad de la imagen y de la sensación de movimiento
5. Algoritmos de codificación PCM, DPCM y ADPCM
PCM (Pulse Code Modulation)
Es el modelo de codificación básico en el que no existe compresión. Codifica cada
muestra usando un número constante de bits (un código de longitud fija) (González
Ruiz, 2014).
DPCM (Differential Pulse Code Modulation)
Es una mejora de la codificación PCM donde la siguiente muestra se codifica como una
diferencia con la anterior (que es en realidad una predicción), usando un código de
longitud fija. La ventaja radica en que como las muestras vecinas tienden a tener valores
parecidos, sus diferencias (errores de predicción) suelen ser valores pequeños y por
tanto se puede reducir el número de bits para representarlos (González Ruiz, 2014)
6. ADPCM (Adaptive Differential Pulse Code Modulation)
ADPCM emplea predicción lineal (ésto también se utiliza comúnmente en la
compresión de imágenes predictiva). Utiliza la muestra anterior (o varias muestras
anteriores) para predecir la muestra actual. Luego, calcula la diferencia entre la
muestra actual y su predicción, y cuantifica la diferencia. Para cada muestra de
entrada X[n], la salida C[n] del codificador es simplemente un cierto número.
7. Algoritmos µLaw, MPEG Audio, LPC, CELP
Estos dos estándares internacionales, conocidos formalmente como
recomendación G.711, están documentados en [ITU-T 89]. Emplean logaritmos
basados en funciones para codificar las muestras de audio para los servicios de
telefonía digital RDSI5 (red digital de servicios integrados), mediante cuantificación
no lineal.
El codificador μ-law introduce muestras de 14 bits y produce palabras de código
de 8 bits. El A-law introduce muestras de 13 bits y también produce palabras de
código de 8 bits. Las señales telefónicas son muestreadas a 8 kHz (8 000 veces por
segundo), por lo que el codificador μ-law recibe 8 000×14 = 112 000 bits/seg. Con
un factor de compresión de 1,75, el codificador genera 64 000 bits/seg.
8. Codificación de audio sin pérdidas MPEG-4 (ALS)
Familia de codificadores de audioMPEG-4. ALS puede introducir muestras de audio
de punto flotante y se basa en una combinación de predicción lineal (tanto a corto
como a largo plazo), codificación multicanal y una eficiente codificación de los
residuos de audio mediante códigos de Rice y códigos de bloque (estos últimos
son también conocidos como códigos de bloque de Gilbert-Moore (Block Gilbert-
Moore Codes o BGMC [Gilbert y Moore 59] y [Reznik 04]).
9. LPC (Linear Predictive Coder)
LPC es una técnica de codificación diferencial (como ADPCM) en la que el predictor es
muy sofisticado y especializado (al menos en sus versiones m’as iniciales) en la síntesis
de la voz humana.
CELP (Code Excited Linear Prediction)
Es una mejora de LPC en la que se utiliza un cuantificador vectorial para codificar los
residuos (errores de predicción) (González Ruiz, 2014).
La solución de CELP es utilizar la aproximación análisis por síntesis, donde se mide la
percepción de la distorsión. Un codebook consiste en una tabla de muestras de señal
residual, conocidas como codewords, los cuales se utilizarán como excitación de los
filtros.
10. Al aplicar un filtro de percepción sobre la señal se mejora el rendimiento del
codificador. Los formantes de alta energía disimulan mejor el ruido que las
porciones de baja energía del espectro.
11. Bibliografía
González Ruiz, V. (13 de Octubre de 2014). Formatos de audio. Recuperado el 15 de
Febrero de 2016, de Algoritmos de codificación:
http://www.ual.es/~vruiz/Docencia/Apuntes/Multimedia/Audio_formats/index.html
Villanueva, J. P. (2013). Algoritmos de compresión y efectos de compresión. Managua:
Universidad centroamericana. Recuperado el 16 de Febrero de 2015
Lerma García, J. L. (2002). Fotogrametría Moderna: Analítica y Digital. Valencia:
Universidad politécnica de valencia.
López Bonal, M. T. (1993). Notas de visión y apuntes sobre ingeniería del software.
España: Servicios de publicaciones de la U de Castilla-La Mancha.