SlideShare una empresa de Scribd logo
1 de 11
Algoritmos de compresión y
efecto de la compresión en el
tamaño de imágenes, audio y
video
Presentado por:
Idania Lisseth Ruiz mercado
Mario Alberto Arias Antón
Edgard Antonio Chávez Bravo
 El objetivo de la comprensión de imágenes es reducir el contenido de datos de las
mismas. Los diversos algoritmos de compresión tratan de extraer la información
esencial (no redundante) de la imagen, de manera que la imagen pueda ser
reconstruida posteriormente con la precisión requerida. (Lerma García, 2002).
 El grado de compresión para video en movimiento es sustancialmente mayor que
en cualquier otro medio, debido a dos motivos: a que la demanda de ancho de
banda del video sin comprimir es del orden de 160 Mbit/s; y a que la tolerancia del
ojo humano a la distorsión de la imagen permite grandes compresiones (con la
consecuente degradación de la imagen).
Algoritmos sin pérdidas
 Según Justo Villanueva, Se emplean los algoritmos habituales para la comprensión
de ficheros de cualquier tipo en un entorno informático: codificación “run length
code” (Huffmann) o codificación Lempel-Ziv, normalmente. Este tipo de
comprensión siempre se utiliza además de los algoritmos de comprensión con
pérdidas. (Villanueva, 2013)
Algoritmos con pérdidas
 Es posible obtener tasas de compresión mucho mejores si se ignoran los grupos de
repeticiones (runs) cortos. Con este método se pierde información al comprimir,
pero a veces esto es aceptable para el usuario. (Las imágenes que no permiten
ninguna pérdida de datos son las radiografías médicas y las fotografías tomadas
por los grandes telescopios, donde el precio de una imagen es astronómico).
 Son algoritmos específicos para comprensión de imagen en movimiento. Este tipo
de algoritmos si presentan pérdidas en la señal, pero en su diseño se tienen en
cuenta factores subjetivos para minimizar la percepción de la degradación de la
calidad de la imagen y de la sensación de movimiento
Algoritmos de codificación PCM, DPCM y ADPCM
PCM (Pulse Code Modulation)
 Es el modelo de codificación básico en el que no existe compresión. Codifica cada
muestra usando un número constante de bits (un código de longitud fija) (González
Ruiz, 2014).
DPCM (Differential Pulse Code Modulation)
 Es una mejora de la codificación PCM donde la siguiente muestra se codifica como una
diferencia con la anterior (que es en realidad una predicción), usando un código de
longitud fija. La ventaja radica en que como las muestras vecinas tienden a tener valores
parecidos, sus diferencias (errores de predicción) suelen ser valores pequeños y por
tanto se puede reducir el número de bits para representarlos (González Ruiz, 2014)
 ADPCM (Adaptive Differential Pulse Code Modulation)
 ADPCM emplea predicción lineal (ésto también se utiliza comúnmente en la
compresión de imágenes predictiva). Utiliza la muestra anterior (o varias muestras
anteriores) para predecir la muestra actual. Luego, calcula la diferencia entre la
muestra actual y su predicción, y cuantifica la diferencia. Para cada muestra de
entrada X[n], la salida C[n] del codificador es simplemente un cierto número.
Algoritmos µLaw, MPEG Audio, LPC, CELP
 Estos dos estándares internacionales, conocidos formalmente como
recomendación G.711, están documentados en [ITU-T 89]. Emplean logaritmos
basados en funciones para codificar las muestras de audio para los servicios de
telefonía digital RDSI5 (red digital de servicios integrados), mediante cuantificación
no lineal.
 El codificador μ-law introduce muestras de 14 bits y produce palabras de código
de 8 bits. El A-law introduce muestras de 13 bits y también produce palabras de
código de 8 bits. Las señales telefónicas son muestreadas a 8 kHz (8 000 veces por
segundo), por lo que el codificador μ-law recibe 8 000×14 = 112 000 bits/seg. Con
un factor de compresión de 1,75, el codificador genera 64 000 bits/seg.
Codificación de audio sin pérdidas MPEG-4 (ALS)
 Familia de codificadores de audioMPEG-4. ALS puede introducir muestras de audio
de punto flotante y se basa en una combinación de predicción lineal (tanto a corto
como a largo plazo), codificación multicanal y una eficiente codificación de los
residuos de audio mediante códigos de Rice y códigos de bloque (estos últimos
son también conocidos como códigos de bloque de Gilbert-Moore (Block Gilbert-
Moore Codes o BGMC [Gilbert y Moore 59] y [Reznik 04]).
 LPC (Linear Predictive Coder)
LPC es una técnica de codificación diferencial (como ADPCM) en la que el predictor es
muy sofisticado y especializado (al menos en sus versiones m’as iniciales) en la síntesis
de la voz humana.
 CELP (Code Excited Linear Prediction)
Es una mejora de LPC en la que se utiliza un cuantificador vectorial para codificar los
residuos (errores de predicción) (González Ruiz, 2014).
La solución de CELP es utilizar la aproximación análisis por síntesis, donde se mide la
percepción de la distorsión. Un codebook consiste en una tabla de muestras de señal
residual, conocidas como codewords, los cuales se utilizarán como excitación de los
filtros.
 Al aplicar un filtro de percepción sobre la señal se mejora el rendimiento del
codificador. Los formantes de alta energía disimulan mejor el ruido que las
porciones de baja energía del espectro.
Bibliografía
 González Ruiz, V. (13 de Octubre de 2014). Formatos de audio. Recuperado el 15 de
Febrero de 2016, de Algoritmos de codificación:
http://www.ual.es/~vruiz/Docencia/Apuntes/Multimedia/Audio_formats/index.html
 Villanueva, J. P. (2013). Algoritmos de compresión y efectos de compresión. Managua:
Universidad centroamericana. Recuperado el 16 de Febrero de 2015
 Lerma García, J. L. (2002). Fotogrametría Moderna: Analítica y Digital. Valencia:
Universidad politécnica de valencia.
 López Bonal, M. T. (1993). Notas de visión y apuntes sobre ingeniería del software.
España: Servicios de publicaciones de la U de Castilla-La Mancha.

Más contenido relacionado

La actualidad más candente

La actualidad más candente (20)

Trabajo especial modulacion angular
Trabajo especial modulacion angularTrabajo especial modulacion angular
Trabajo especial modulacion angular
 
Prob de error_2
Prob de error_2Prob de error_2
Prob de error_2
 
Modulación qam
Modulación qamModulación qam
Modulación qam
 
Cuestionarios antenas
Cuestionarios antenasCuestionarios antenas
Cuestionarios antenas
 
Tema 1b-modulacion-digital-multi-bit
Tema 1b-modulacion-digital-multi-bitTema 1b-modulacion-digital-multi-bit
Tema 1b-modulacion-digital-multi-bit
 
5. Cálculo de radioenlaces
5. Cálculo de radioenlaces5. Cálculo de radioenlaces
5. Cálculo de radioenlaces
 
Lecture 13 modulacion digital parte 1
Lecture 13  modulacion digital   parte 1Lecture 13  modulacion digital   parte 1
Lecture 13 modulacion digital parte 1
 
8 modulaciones ask, fsk, psk y qam
8  modulaciones ask, fsk, psk y qam8  modulaciones ask, fsk, psk y qam
8 modulaciones ask, fsk, psk y qam
 
Funcionamiento de las etapas del receptor superheterodino de am
Funcionamiento de las etapas del receptor superheterodino de amFuncionamiento de las etapas del receptor superheterodino de am
Funcionamiento de las etapas del receptor superheterodino de am
 
5.SONET/SDH Red óptica síncrona
5.SONET/SDH Red óptica síncrona5.SONET/SDH Red óptica síncrona
5.SONET/SDH Red óptica síncrona
 
Wimax En El Ecuador
Wimax En El EcuadorWimax En El Ecuador
Wimax En El Ecuador
 
Deber3
Deber3Deber3
Deber3
 
SDH
SDHSDH
SDH
 
Representacion señales comuniacion analogicas 1
Representacion señales comuniacion analogicas 1Representacion señales comuniacion analogicas 1
Representacion señales comuniacion analogicas 1
 
Codigos de linea.pdfcódiga
Codigos de linea.pdfcódigaCodigos de linea.pdfcódiga
Codigos de linea.pdfcódiga
 
Modulacion ask
Modulacion askModulacion ask
Modulacion ask
 
Pcm
PcmPcm
Pcm
 
Antenas
AntenasAntenas
Antenas
 
Capacidad de un canal
Capacidad de un canalCapacidad de un canal
Capacidad de un canal
 
CI19 - Presentación 2: Principios básicos de modulación y demodulación
CI19 - Presentación 2: Principios básicos de modulación y demodulación CI19 - Presentación 2: Principios básicos de modulación y demodulación
CI19 - Presentación 2: Principios básicos de modulación y demodulación
 

Similar a Algoritmos de compresión y efecto de la compresión expo

Similar a Algoritmos de compresión y efecto de la compresión expo (20)

Técnicas de compresión
Técnicas de compresiónTécnicas de compresión
Técnicas de compresión
 
Unidad2(difus multimedia)
Unidad2(difus multimedia)Unidad2(difus multimedia)
Unidad2(difus multimedia)
 
Pdi05
Pdi05Pdi05
Pdi05
 
Códecs y formatos
Códecs y formatosCódecs y formatos
Códecs y formatos
 
Modulacion por-codificacion-de-pulso-pcm-2
Modulacion por-codificacion-de-pulso-pcm-2Modulacion por-codificacion-de-pulso-pcm-2
Modulacion por-codificacion-de-pulso-pcm-2
 
Paperman
PapermanPaperman
Paperman
 
Imagen digital .pdf
Imagen digital .pdfImagen digital .pdf
Imagen digital .pdf
 
Tecnologiadigital
TecnologiadigitalTecnologiadigital
Tecnologiadigital
 
Jpeg presentacion
Jpeg presentacionJpeg presentacion
Jpeg presentacion
 
Dsp3
Dsp3Dsp3
Dsp3
 
PCM y Delta - Telecomunicaciones III
PCM y Delta - Telecomunicaciones IIIPCM y Delta - Telecomunicaciones III
PCM y Delta - Telecomunicaciones III
 
Cctv2
Cctv2Cctv2
Cctv2
 
Adc
AdcAdc
Adc
 
Compresion de Video - Telecomunicaciones III
Compresion de Video - Telecomunicaciones III Compresion de Video - Telecomunicaciones III
Compresion de Video - Telecomunicaciones III
 
Glosario
GlosarioGlosario
Glosario
 
REGISTRO ELECTRONICO Y VIDEO
REGISTRO ELECTRONICO Y VIDEOREGISTRO ELECTRONICO Y VIDEO
REGISTRO ELECTRONICO Y VIDEO
 
Modulación pcm
Modulación pcmModulación pcm
Modulación pcm
 
PresentacióN Digital (Directo E Indirecto)
PresentacióN Digital (Directo E Indirecto)PresentacióN Digital (Directo E Indirecto)
PresentacióN Digital (Directo E Indirecto)
 
Glosari1
Glosari1Glosari1
Glosari1
 
Glosario
GlosarioGlosario
Glosario
 

Algoritmos de compresión y efecto de la compresión expo

  • 1. Algoritmos de compresión y efecto de la compresión en el tamaño de imágenes, audio y video Presentado por: Idania Lisseth Ruiz mercado Mario Alberto Arias Antón Edgard Antonio Chávez Bravo
  • 2.  El objetivo de la comprensión de imágenes es reducir el contenido de datos de las mismas. Los diversos algoritmos de compresión tratan de extraer la información esencial (no redundante) de la imagen, de manera que la imagen pueda ser reconstruida posteriormente con la precisión requerida. (Lerma García, 2002).  El grado de compresión para video en movimiento es sustancialmente mayor que en cualquier otro medio, debido a dos motivos: a que la demanda de ancho de banda del video sin comprimir es del orden de 160 Mbit/s; y a que la tolerancia del ojo humano a la distorsión de la imagen permite grandes compresiones (con la consecuente degradación de la imagen).
  • 3. Algoritmos sin pérdidas  Según Justo Villanueva, Se emplean los algoritmos habituales para la comprensión de ficheros de cualquier tipo en un entorno informático: codificación “run length code” (Huffmann) o codificación Lempel-Ziv, normalmente. Este tipo de comprensión siempre se utiliza además de los algoritmos de comprensión con pérdidas. (Villanueva, 2013)
  • 4. Algoritmos con pérdidas  Es posible obtener tasas de compresión mucho mejores si se ignoran los grupos de repeticiones (runs) cortos. Con este método se pierde información al comprimir, pero a veces esto es aceptable para el usuario. (Las imágenes que no permiten ninguna pérdida de datos son las radiografías médicas y las fotografías tomadas por los grandes telescopios, donde el precio de una imagen es astronómico).  Son algoritmos específicos para comprensión de imagen en movimiento. Este tipo de algoritmos si presentan pérdidas en la señal, pero en su diseño se tienen en cuenta factores subjetivos para minimizar la percepción de la degradación de la calidad de la imagen y de la sensación de movimiento
  • 5. Algoritmos de codificación PCM, DPCM y ADPCM PCM (Pulse Code Modulation)  Es el modelo de codificación básico en el que no existe compresión. Codifica cada muestra usando un número constante de bits (un código de longitud fija) (González Ruiz, 2014). DPCM (Differential Pulse Code Modulation)  Es una mejora de la codificación PCM donde la siguiente muestra se codifica como una diferencia con la anterior (que es en realidad una predicción), usando un código de longitud fija. La ventaja radica en que como las muestras vecinas tienden a tener valores parecidos, sus diferencias (errores de predicción) suelen ser valores pequeños y por tanto se puede reducir el número de bits para representarlos (González Ruiz, 2014)
  • 6.  ADPCM (Adaptive Differential Pulse Code Modulation)  ADPCM emplea predicción lineal (ésto también se utiliza comúnmente en la compresión de imágenes predictiva). Utiliza la muestra anterior (o varias muestras anteriores) para predecir la muestra actual. Luego, calcula la diferencia entre la muestra actual y su predicción, y cuantifica la diferencia. Para cada muestra de entrada X[n], la salida C[n] del codificador es simplemente un cierto número.
  • 7. Algoritmos µLaw, MPEG Audio, LPC, CELP  Estos dos estándares internacionales, conocidos formalmente como recomendación G.711, están documentados en [ITU-T 89]. Emplean logaritmos basados en funciones para codificar las muestras de audio para los servicios de telefonía digital RDSI5 (red digital de servicios integrados), mediante cuantificación no lineal.  El codificador μ-law introduce muestras de 14 bits y produce palabras de código de 8 bits. El A-law introduce muestras de 13 bits y también produce palabras de código de 8 bits. Las señales telefónicas son muestreadas a 8 kHz (8 000 veces por segundo), por lo que el codificador μ-law recibe 8 000×14 = 112 000 bits/seg. Con un factor de compresión de 1,75, el codificador genera 64 000 bits/seg.
  • 8. Codificación de audio sin pérdidas MPEG-4 (ALS)  Familia de codificadores de audioMPEG-4. ALS puede introducir muestras de audio de punto flotante y se basa en una combinación de predicción lineal (tanto a corto como a largo plazo), codificación multicanal y una eficiente codificación de los residuos de audio mediante códigos de Rice y códigos de bloque (estos últimos son también conocidos como códigos de bloque de Gilbert-Moore (Block Gilbert- Moore Codes o BGMC [Gilbert y Moore 59] y [Reznik 04]).
  • 9.  LPC (Linear Predictive Coder) LPC es una técnica de codificación diferencial (como ADPCM) en la que el predictor es muy sofisticado y especializado (al menos en sus versiones m’as iniciales) en la síntesis de la voz humana.  CELP (Code Excited Linear Prediction) Es una mejora de LPC en la que se utiliza un cuantificador vectorial para codificar los residuos (errores de predicción) (González Ruiz, 2014). La solución de CELP es utilizar la aproximación análisis por síntesis, donde se mide la percepción de la distorsión. Un codebook consiste en una tabla de muestras de señal residual, conocidas como codewords, los cuales se utilizarán como excitación de los filtros.
  • 10.  Al aplicar un filtro de percepción sobre la señal se mejora el rendimiento del codificador. Los formantes de alta energía disimulan mejor el ruido que las porciones de baja energía del espectro.
  • 11. Bibliografía  González Ruiz, V. (13 de Octubre de 2014). Formatos de audio. Recuperado el 15 de Febrero de 2016, de Algoritmos de codificación: http://www.ual.es/~vruiz/Docencia/Apuntes/Multimedia/Audio_formats/index.html  Villanueva, J. P. (2013). Algoritmos de compresión y efectos de compresión. Managua: Universidad centroamericana. Recuperado el 16 de Febrero de 2015  Lerma García, J. L. (2002). Fotogrametría Moderna: Analítica y Digital. Valencia: Universidad politécnica de valencia.  López Bonal, M. T. (1993). Notas de visión y apuntes sobre ingeniería del software. España: Servicios de publicaciones de la U de Castilla-La Mancha.