SlideShare una empresa de Scribd logo
1 de 5
Descargar para leer sin conexión
8-10-2017
ENTROPÍA DE LA
INFORMACIÓN
Anthony Benalcázar
PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR SEDE IBARRA
FUNDAMENTO DE LA ENTROPÍA
En el proceso de comunicación la información se trata como magnitud física, caracterizando
la información construida con secuencias de símbolos utilizando la entropía. Se parte de la
idea de que los canales no son ideales, aunque muchas veces se idealicen las no
linealidades, para estudiar diversos métodos de envío de información o la cantidad de
información útil que se pueda enviar a través de un canal.
En concreto, en ciertas áreas de la física, extraer información del estado actual de un
sistema requiere reducir su entropía.
De acuerdo a la teoría de la información, el nivel de información de una fuente se puede
medir según la entropía de la misma. Los estudios sobre la entropía son de suma
importancia en la teoría de la información y se deben principalmente a C. E. Shannon.
FUNDAMENTO DE LA ENTROPÍA DE LA INFORMACIÓN, SUS FÓRMULAS
La información necesaria para especificar un sistema físico tiene que ver con su entropía.
En concreto, en ciertas áreas de la física, extraer información del estado actual de un
sistema requiere reducir su entropía, de tal manera que la entropía del sistema (S) y la
cantidad de información (I) extraíble están relacionadas por:
Supongamos que Pi es la probabilidad de ocurrencia del mensaje-i de una fuente, y
supongamos que Li es la longitud del código utilizado para representar a dicho mensaje. La
longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:
El objetivo de la compresión de datos es encontrar los Li que minimizan a H, además los Li
se deben determinar en función de los Pi, pues la longitud de los códigos debe depender de
la probabilidad de ocurrencia de los mismos (los más ocurrentes queremos codificarlos en
menos bits). Se plantea pues:
A partir de aquí y tras intrincados procedimientos matemáticos que fueron demostrados
por Shannon oportunamente se llega a que H es mínimo cuando f(Pi) = log2 (1/Pi). Entonces:
La longitud mínima con la cual puede codificarse un mensaje puede calcularse como
Li=log2(1/Pi) = -log2(Pi). Esto da una idea de la longitud a emplear en los códigos a usar para
los caracteres de un archivo en función de su probabilidad de ocurrencia. Reemplazando Li
podemos escribir H como:
De aquí se deduce que la entropía de la fuente depende únicamente de la probabilidad de
ocurrencia de cada mensaje de la misma, por ello la importancia de los compresores
estadísticos (aquellos que se basan en la probabilidad de ocurrencia de cada carácter).
Shannon demostró, oportunamente que no es posible comprimir una fuente
estadísticamente más allá del nivel indicado por su entropía.

Más contenido relacionado

Similar a Entropía de la información

Similar a Entropía de la información (20)

Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Teoria de la_info
Teoria de la_infoTeoria de la_info
Teoria de la_info
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
 
Fuentes de informacion y entropia
Fuentes de informacion y entropiaFuentes de informacion y entropia
Fuentes de informacion y entropia
 
Entropia
EntropiaEntropia
Entropia
 
Teoria de-lainformacion 1
Teoria de-lainformacion 1Teoria de-lainformacion 1
Teoria de-lainformacion 1
 
Expo 1
Expo 1Expo 1
Expo 1
 
lecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxlecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptx
 
Comunicacion 22 4.19
Comunicacion 22 4.19Comunicacion 22 4.19
Comunicacion 22 4.19
 
Franghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 tiFranghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 ti
 
Markov
MarkovMarkov
Markov
 
Entropia
EntropiaEntropia
Entropia
 
Entropia
EntropiaEntropia
Entropia
 
Unidad 6
Unidad 6Unidad 6
Unidad 6
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Entropia
EntropiaEntropia
Entropia
 
La información contable y las copia
La información contable y las   copiaLa información contable y las   copia
La información contable y las copia
 
Diapositiva jose nery
Diapositiva jose neryDiapositiva jose nery
Diapositiva jose nery
 
Modelo matematico
Modelo matematicoModelo matematico
Modelo matematico
 

Más de Anthony Benalcazar

Analisis zorros y conejos vensim
Analisis zorros y conejos vensimAnalisis zorros y conejos vensim
Analisis zorros y conejos vensimAnthony Benalcazar
 
MODELOS DE SIMULACIÓN EN VENSIM
MODELOS DE SIMULACIÓN EN VENSIMMODELOS DE SIMULACIÓN EN VENSIM
MODELOS DE SIMULACIÓN EN VENSIMAnthony Benalcazar
 
Elementos para garantizar el éxito de la simulación
Elementos para garantizar el éxito de la simulaciónElementos para garantizar el éxito de la simulación
Elementos para garantizar el éxito de la simulaciónAnthony Benalcazar
 
Taller ventajas y desventajas simulacion
Taller ventajas y desventajas simulacionTaller ventajas y desventajas simulacion
Taller ventajas y desventajas simulacionAnthony Benalcazar
 
SISTEMA DE GESTIÓN DE SEGUROS HOSPITAL SAN VICENTE DE PAÚL
SISTEMA DE GESTIÓN DE SEGUROS HOSPITAL SAN VICENTE DE PAÚLSISTEMA DE GESTIÓN DE SEGUROS HOSPITAL SAN VICENTE DE PAÚL
SISTEMA DE GESTIÓN DE SEGUROS HOSPITAL SAN VICENTE DE PAÚLAnthony Benalcazar
 
Compilando un programa manualmente
Compilando un programa manualmenteCompilando un programa manualmente
Compilando un programa manualmenteAnthony Benalcazar
 
Emulador de ensamblador emu8086
Emulador de ensamblador emu8086Emulador de ensamblador emu8086
Emulador de ensamblador emu8086Anthony Benalcazar
 
Organizadores graficos sobre clasificacion de lenguajes
Organizadores graficos sobre clasificacion de lenguajesOrganizadores graficos sobre clasificacion de lenguajes
Organizadores graficos sobre clasificacion de lenguajesAnthony Benalcazar
 
La evolucion de los lenguajes de programacion
La evolucion de los lenguajes de programacionLa evolucion de los lenguajes de programacion
La evolucion de los lenguajes de programacionAnthony Benalcazar
 
Teoría de la comunicación y la información de Shannon-Hartley-NYQUIST
Teoría de la comunicación y la información de Shannon-Hartley-NYQUISTTeoría de la comunicación y la información de Shannon-Hartley-NYQUIST
Teoría de la comunicación y la información de Shannon-Hartley-NYQUISTAnthony Benalcazar
 

Más de Anthony Benalcazar (20)

Vensim conejos y zorros
Vensim conejos y zorrosVensim conejos y zorros
Vensim conejos y zorros
 
Analisis zorros y conejos vensim
Analisis zorros y conejos vensimAnalisis zorros y conejos vensim
Analisis zorros y conejos vensim
 
MODELOS DE SIMULACIÓN EN VENSIM
MODELOS DE SIMULACIÓN EN VENSIMMODELOS DE SIMULACIÓN EN VENSIM
MODELOS DE SIMULACIÓN EN VENSIM
 
Elementos para garantizar el éxito de la simulación
Elementos para garantizar el éxito de la simulaciónElementos para garantizar el éxito de la simulación
Elementos para garantizar el éxito de la simulación
 
Taller ventajas y desventajas simulacion
Taller ventajas y desventajas simulacionTaller ventajas y desventajas simulacion
Taller ventajas y desventajas simulacion
 
SISTEMA DE GESTIÓN DE SEGUROS HOSPITAL SAN VICENTE DE PAÚL
SISTEMA DE GESTIÓN DE SEGUROS HOSPITAL SAN VICENTE DE PAÚLSISTEMA DE GESTIÓN DE SEGUROS HOSPITAL SAN VICENTE DE PAÚL
SISTEMA DE GESTIÓN DE SEGUROS HOSPITAL SAN VICENTE DE PAÚL
 
Servidor de streaming
Servidor de streamingServidor de streaming
Servidor de streaming
 
TALLER FLEX Y BISON
TALLER FLEX Y BISONTALLER FLEX Y BISON
TALLER FLEX Y BISON
 
FLEX Y BISON
FLEX Y BISONFLEX Y BISON
FLEX Y BISON
 
Taller análisis sintáctico
Taller análisis sintácticoTaller análisis sintáctico
Taller análisis sintáctico
 
Taller de compiladores
Taller de compiladoresTaller de compiladores
Taller de compiladores
 
Instalacion fortran
Instalacion fortranInstalacion fortran
Instalacion fortran
 
Compilando un programa manualmente
Compilando un programa manualmenteCompilando un programa manualmente
Compilando un programa manualmente
 
Emulador de ensamblador emu8086
Emulador de ensamblador emu8086Emulador de ensamblador emu8086
Emulador de ensamblador emu8086
 
Instalacion decompiladores
Instalacion decompiladoresInstalacion decompiladores
Instalacion decompiladores
 
Organizadores graficos sobre clasificacion de lenguajes
Organizadores graficos sobre clasificacion de lenguajesOrganizadores graficos sobre clasificacion de lenguajes
Organizadores graficos sobre clasificacion de lenguajes
 
La evolucion de los lenguajes de programacion
La evolucion de los lenguajes de programacionLa evolucion de los lenguajes de programacion
La evolucion de los lenguajes de programacion
 
TALLER MEDIOS DE TRANSMISIÓN
TALLER MEDIOS DE TRANSMISIÓNTALLER MEDIOS DE TRANSMISIÓN
TALLER MEDIOS DE TRANSMISIÓN
 
Teoría de la comunicación y la información de Shannon-Hartley-NYQUIST
Teoría de la comunicación y la información de Shannon-Hartley-NYQUISTTeoría de la comunicación y la información de Shannon-Hartley-NYQUIST
Teoría de la comunicación y la información de Shannon-Hartley-NYQUIST
 
Codigos lineales y de bloque
Codigos lineales y de bloqueCodigos lineales y de bloque
Codigos lineales y de bloque
 

Último

Unidad V. Disoluciones quimica de las disoluciones
Unidad V. Disoluciones quimica de las disolucionesUnidad V. Disoluciones quimica de las disoluciones
Unidad V. Disoluciones quimica de las disolucioneschorantina325
 
02. Mr. Spencer (T.L. Sawn).pdf.libro de un señor
02. Mr. Spencer (T.L. Sawn).pdf.libro de un señor02. Mr. Spencer (T.L. Sawn).pdf.libro de un señor
02. Mr. Spencer (T.L. Sawn).pdf.libro de un señorkkte210207
 
Las redes sociales en el mercado digital
Las redes sociales en el mercado digitalLas redes sociales en el mercado digital
Las redes sociales en el mercado digitalNayaniJulietaRamosRa
 
12 Clasificacion de las Computadoras.pdf
12 Clasificacion de las Computadoras.pdf12 Clasificacion de las Computadoras.pdf
12 Clasificacion de las Computadoras.pdfedwinmelgarschlink2
 
Guia para el registro en el sitio slideshare.pdf
Guia para el registro en el sitio slideshare.pdfGuia para el registro en el sitio slideshare.pdf
Guia para el registro en el sitio slideshare.pdflauradbernals
 
TIPOS DE LA PSICOPATOLOGÍA DE LA PERCEPCIÓN.pdf
TIPOS DE LA PSICOPATOLOGÍA DE LA PERCEPCIÓN.pdfTIPOS DE LA PSICOPATOLOGÍA DE LA PERCEPCIÓN.pdf
TIPOS DE LA PSICOPATOLOGÍA DE LA PERCEPCIÓN.pdfLUZMARIAAYALALOPEZ
 
PPT-HISTORIA-6°-ABC.pptxjjjjjjjjjjjjjjjjjjjjjj
PPT-HISTORIA-6°-ABC.pptxjjjjjjjjjjjjjjjjjjjjjjPPT-HISTORIA-6°-ABC.pptxjjjjjjjjjjjjjjjjjjjjjj
PPT-HISTORIA-6°-ABC.pptxjjjjjjjjjjjjjjjjjjjjjjNachisRamos
 

Último (7)

Unidad V. Disoluciones quimica de las disoluciones
Unidad V. Disoluciones quimica de las disolucionesUnidad V. Disoluciones quimica de las disoluciones
Unidad V. Disoluciones quimica de las disoluciones
 
02. Mr. Spencer (T.L. Sawn).pdf.libro de un señor
02. Mr. Spencer (T.L. Sawn).pdf.libro de un señor02. Mr. Spencer (T.L. Sawn).pdf.libro de un señor
02. Mr. Spencer (T.L. Sawn).pdf.libro de un señor
 
Las redes sociales en el mercado digital
Las redes sociales en el mercado digitalLas redes sociales en el mercado digital
Las redes sociales en el mercado digital
 
12 Clasificacion de las Computadoras.pdf
12 Clasificacion de las Computadoras.pdf12 Clasificacion de las Computadoras.pdf
12 Clasificacion de las Computadoras.pdf
 
Guia para el registro en el sitio slideshare.pdf
Guia para el registro en el sitio slideshare.pdfGuia para el registro en el sitio slideshare.pdf
Guia para el registro en el sitio slideshare.pdf
 
TIPOS DE LA PSICOPATOLOGÍA DE LA PERCEPCIÓN.pdf
TIPOS DE LA PSICOPATOLOGÍA DE LA PERCEPCIÓN.pdfTIPOS DE LA PSICOPATOLOGÍA DE LA PERCEPCIÓN.pdf
TIPOS DE LA PSICOPATOLOGÍA DE LA PERCEPCIÓN.pdf
 
PPT-HISTORIA-6°-ABC.pptxjjjjjjjjjjjjjjjjjjjjjj
PPT-HISTORIA-6°-ABC.pptxjjjjjjjjjjjjjjjjjjjjjjPPT-HISTORIA-6°-ABC.pptxjjjjjjjjjjjjjjjjjjjjjj
PPT-HISTORIA-6°-ABC.pptxjjjjjjjjjjjjjjjjjjjjjj
 

Entropía de la información

  • 1. 8-10-2017 ENTROPÍA DE LA INFORMACIÓN Anthony Benalcázar PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR SEDE IBARRA
  • 2.
  • 3.
  • 4. FUNDAMENTO DE LA ENTROPÍA En el proceso de comunicación la información se trata como magnitud física, caracterizando la información construida con secuencias de símbolos utilizando la entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos de envío de información o la cantidad de información útil que se pueda enviar a través de un canal. En concreto, en ciertas áreas de la física, extraer información del estado actual de un sistema requiere reducir su entropía. De acuerdo a la teoría de la información, el nivel de información de una fuente se puede medir según la entropía de la misma. Los estudios sobre la entropía son de suma importancia en la teoría de la información y se deben principalmente a C. E. Shannon. FUNDAMENTO DE LA ENTROPÍA DE LA INFORMACIÓN, SUS FÓRMULAS La información necesaria para especificar un sistema físico tiene que ver con su entropía. En concreto, en ciertas áreas de la física, extraer información del estado actual de un sistema requiere reducir su entropía, de tal manera que la entropía del sistema (S) y la cantidad de información (I) extraíble están relacionadas por: Supongamos que Pi es la probabilidad de ocurrencia del mensaje-i de una fuente, y supongamos que Li es la longitud del código utilizado para representar a dicho mensaje. La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:
  • 5. El objetivo de la compresión de datos es encontrar los Li que minimizan a H, además los Li se deben determinar en función de los Pi, pues la longitud de los códigos debe depender de la probabilidad de ocurrencia de los mismos (los más ocurrentes queremos codificarlos en menos bits). Se plantea pues: A partir de aquí y tras intrincados procedimientos matemáticos que fueron demostrados por Shannon oportunamente se llega a que H es mínimo cuando f(Pi) = log2 (1/Pi). Entonces: La longitud mínima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Esto da una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de su probabilidad de ocurrencia. Reemplazando Li podemos escribir H como: De aquí se deduce que la entropía de la fuente depende únicamente de la probabilidad de ocurrencia de cada mensaje de la misma, por ello la importancia de los compresores estadísticos (aquellos que se basan en la probabilidad de ocurrencia de cada carácter). Shannon demostró, oportunamente que no es posible comprimir una fuente estadísticamente más allá del nivel indicado por su entropía.