SlideShare una empresa de Scribd logo
Entropía (información)                                                                                                               1



    Entropía (información)
    Entropía es un concepto en termodinámica, mecánica estadística y teoría de la información. Los conceptos de
    información y entropía están ampliamente relacionados entre sí, aunque se tardó años en el desarrollo de la mecánica
    estadística y la teoría de la información para hacer esto aparente. Este artículo versa sobre la entropía, en la
    formulación que hace de ella la Teoría de la información. Esta entropía se llama frecuentemente entropía de
    Shannon, en honor a Claude E. Shannon.


    Concepto básico
    El concepto básico de entropía en teoría de la información tiene mucho
    que ver con la incertidumbre que existe en cualquier experimento o
    señal aleatoria. Es también la cantidad de "ruido" o "desorden" que
    contiene o libera un sistema. De esta forma, podremos hablar de la
    cantidad de información que lleva una señal.
    Como ejemplo, consideremos algún texto escrito en español,
    codificado como una cadena de letras, espacios y signos de puntuación
    (nuestra señal será una cadena de caracteres). Ya que, estadísticamente,
    algunos caracteres no son muy comunes (por ejemplo, 'y'), mientras
    otros sí lo son (como la 'a'), la cadena de caracteres no será tan
    "aleatoria" como podría llegar a ser. Obviamente, no podemos predecir
                                                                                    Entropía de la información en un ensayo de
    con exactitud cuál será el siguiente carácter en la cadena, y eso la haría
                                                                                    Bernoulli X (experimento aleatorio en que X
    aparentemente aleatoria. Pero es la entropía la encargada de medir              puede tomar los valores 0 o 1). La entropía
    precisamente esa aleatoriedad, y fue presentada por Shannon en su              depende de la probabilidad P (X=1) de que X
    artículo de 1948 A Mathematical Theory of Communication [1] ("Una             tome el valor 1. Cuando P (X=1)=0.5, todos los
                                                                                 resultados posibles son igualmente probables, por
    teoría matemática de la comunicación", en inglés).
                                                                                     lo que el resultado es poco predecible y la
    Shannon ofrece una definición de entropía que satisface las siguientes                       entropía es máxima.

    afirmaciones:
    • La medida de información debe ser proporcional (continua). Es decir, el cambio pequeño en una de las
      probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía.
    • Si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces la entropía será máxima.
    Ejemplos de máxima entropía : Suponiendo que estamos a la espera de un texto , por ejemplo un cable con un
    mensaje .En dicho cable solo se reciben las letras en minúscula de la (a hasta la z) , entonces si el mensaje que nos
    llega es "qalmnbphijcdgketrsfuvxyzwño" el cual posee una longitud de 27 caracteres , se puede decir que este
    mensaje llega a nosotros con la máxima entropía (o desorden posible) ya que es poco probable que se pueda
    pronosticar la entrada de caracteres ya que estos no se repiten y además no están ordenados en una forma predecible.
Entropía (información)                                                                                                         2


    Definición formal
    La entropía nos indica el límite teórico para la compresión de datos. También es una medida de la información
    contenida en el mensaje.
    Su cálculo se realiza mediante la siguiente fórmula:




    • Nota: La base del logaritmo dependerá de la variable con la que estemos trabajando, es decir, para una variable
      binaria usaremos la base 2, para una ternaria la base 3.


    Explicación intuitiva
    Una variable aleatoria X puede tomar distintos valores posibles en distintas repeticiones (realizaciones del
    experimento). Como algunos valores de X son más probables que otros, existe una distribución de probabilidad de
    los valores de X, la que depende del experimento elegido.
    La entropía asociada a la variable X es un número que depende directamente de la distribución de probabilidad de X
    e indica lo plana que es esa distribución. Una distribución es plana (tiene alta entropía) cuando todos los valores de X
    tienen probabilidades similares, mientras que es poco plana cuando algunos valores de X son mucho más probables
    que otros. En una distribución de probabilidad plana (con alta entropía) es difícil poder predecir cuál es el próximo
    valor de X que va a presentarse, ya que todos los valores de X son igualmente probables.
    Si a cada posible valor de X que pueda ocurrir se le asigna una cierta combinación de dígitos binarios 0 o 1 para
    diferenciarlo de los demás, la cantidad promedio de dígitos binarios que hay que asignarle a los distintos valores de
    X es (aproximadamente) igual a la entropía de la distribución de probabilidad de X. Los valores 0 o 1 usados suelen
    llamarse bits. Además, la metodología comúnmente usada para asignar combinaciones de valores 0 o 1 a los distintos
    valores posibles de X se conoce con el nombre de codificación Huffman.


    Propiedades de la entropía
    1. Dado un procesos con posibles resultados {A1,..,An} con probabilidades relativas p1, ...,pn, la función
                      es máxima en el caso de que


    Véase también
    • Entropía cruzada
    • Perplejidad
    • Capacidad de canal


    Referencias
    [1] http:/ / cm. bell-labs. com/ cm/ ms/ what/ shannonday/ paper. html
Fuentes y contribuyentes del artículo                                                                                                                                                   3



     Fuentes y contribuyentes del artículo
     Entropía (información)  Fuente: http://es.wikipedia.org/w/index.php?oldid=33691347  Contribuyentes: AlfonsoERomero, Barcex, Clementito, Correogsk, David0811, Davius, Dogor,
     Dortegaparrilla, GermanX, GiL87, Gizmo II, J.M.Domingo, Javg, Jose figueredo, Juan Mayordomo, Loqu, M1ss1ontomars2k4, Pabloab, Ploncomi, PoLuX124, Saloca, Tano4595, Yuri Grille
     Orce, 37 ediciones anónimas




     Fuentes de imagen, Licencias y contribuyentes
     Archivo:Binary entropy plot.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Binary_entropy_plot.svg  Licencia: GNU Free Documentation License  Contribuyentes:
     User:Alejo2083, User:Brona




     Licencia
     Creative Commons Attribution-Share Alike 3.0 Unported
     http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/

Más contenido relacionado

Destacado

Introduccion a los Sistemas Operativos
 Introduccion a los Sistemas Operativos Introduccion a los Sistemas Operativos
Introduccion a los Sistemas Operativos
G Hoyos A
 
Spain Scrap Book
Spain Scrap BookSpain Scrap Book
Spain Scrap Book
davsslides
 
Recursosnaturaisuautilizacao 10 A
Recursosnaturaisuautilizacao 10 ARecursosnaturaisuautilizacao 10 A
Recursosnaturaisuautilizacao 10 A
Luz Campos
 
Autenticacion usuarios
Autenticacion usuariosAutenticacion usuarios
Autenticacion usuarios
G Hoyos A
 
Competencia digital
Competencia digitalCompetencia digital
Competencia digital
cintiacastello
 
Historia de la_criptografia_2
Historia de la_criptografia_2Historia de la_criptografia_2
Historia de la_criptografia_2
G Hoyos A
 
O Brasil Em Cores
O Brasil Em CoresO Brasil Em Cores
O Brasil Em Cores
Amor de Mãe
 
12 11 07 informe diário
12 11 07 informe diário12 11 07 informe diário
12 11 07 informe diário
MB Associados
 
Firma digital
Firma digitalFirma digital
Firma digital
G Hoyos A
 
Adquisicion e implementación
Adquisicion e implementaciónAdquisicion e implementación
Adquisicion e implementación
EDUARKON
 
Flash Platform + Zend Amf
Flash Platform + Zend AmfFlash Platform + Zend Amf
Flash Platform + Zend Amf
Miguel Pinto
 
Livreto Da Páscoa
Livreto Da PáscoaLivreto Da Páscoa
Livreto Da Páscoa
Bernadetecebs .
 
Diapositivas cuerpo humano-girletza rincon
Diapositivas cuerpo humano-girletza rinconDiapositivas cuerpo humano-girletza rincon
Diapositivas cuerpo humano-girletza rincon
Girletza
 
El agua docs
El agua  docsEl agua  docs
El agua docs
Isa Cortes R
 
Circo sin animales
Circo sin animalesCirco sin animales
Circo sin animales
Valeria Carrillo
 
Sistemas drocioe impresion nuevo
Sistemas  drocioe impresion  nuevoSistemas  drocioe impresion  nuevo
Sistemas drocioe impresion nuevo
Estreyita Zakura
 
Análises especiais de urina
Análises especiais de urinaAnálises especiais de urina
Análises especiais de urina
rafaelmenezes
 
Orientações/Colonias/josealves
Orientações/Colonias/josealvesOrientações/Colonias/josealves
Orientações/Colonias/josealves
Aurora Boreal
 
Estudo - Ano da Fé: ficha-02
Estudo - Ano da Fé:  ficha-02Estudo - Ano da Fé:  ficha-02
Estudo - Ano da Fé: ficha-02
Bernadetecebs .
 
Archivística
ArchivísticaArchivística
Archivística
diego31080
 

Destacado (20)

Introduccion a los Sistemas Operativos
 Introduccion a los Sistemas Operativos Introduccion a los Sistemas Operativos
Introduccion a los Sistemas Operativos
 
Spain Scrap Book
Spain Scrap BookSpain Scrap Book
Spain Scrap Book
 
Recursosnaturaisuautilizacao 10 A
Recursosnaturaisuautilizacao 10 ARecursosnaturaisuautilizacao 10 A
Recursosnaturaisuautilizacao 10 A
 
Autenticacion usuarios
Autenticacion usuariosAutenticacion usuarios
Autenticacion usuarios
 
Competencia digital
Competencia digitalCompetencia digital
Competencia digital
 
Historia de la_criptografia_2
Historia de la_criptografia_2Historia de la_criptografia_2
Historia de la_criptografia_2
 
O Brasil Em Cores
O Brasil Em CoresO Brasil Em Cores
O Brasil Em Cores
 
12 11 07 informe diário
12 11 07 informe diário12 11 07 informe diário
12 11 07 informe diário
 
Firma digital
Firma digitalFirma digital
Firma digital
 
Adquisicion e implementación
Adquisicion e implementaciónAdquisicion e implementación
Adquisicion e implementación
 
Flash Platform + Zend Amf
Flash Platform + Zend AmfFlash Platform + Zend Amf
Flash Platform + Zend Amf
 
Livreto Da Páscoa
Livreto Da PáscoaLivreto Da Páscoa
Livreto Da Páscoa
 
Diapositivas cuerpo humano-girletza rincon
Diapositivas cuerpo humano-girletza rinconDiapositivas cuerpo humano-girletza rincon
Diapositivas cuerpo humano-girletza rincon
 
El agua docs
El agua  docsEl agua  docs
El agua docs
 
Circo sin animales
Circo sin animalesCirco sin animales
Circo sin animales
 
Sistemas drocioe impresion nuevo
Sistemas  drocioe impresion  nuevoSistemas  drocioe impresion  nuevo
Sistemas drocioe impresion nuevo
 
Análises especiais de urina
Análises especiais de urinaAnálises especiais de urina
Análises especiais de urina
 
Orientações/Colonias/josealves
Orientações/Colonias/josealvesOrientações/Colonias/josealves
Orientações/Colonias/josealves
 
Estudo - Ano da Fé: ficha-02
Estudo - Ano da Fé:  ficha-02Estudo - Ano da Fé:  ficha-02
Estudo - Ano da Fé: ficha-02
 
Archivística
ArchivísticaArchivística
Archivística
 

Similar a Entropia

Tema4
Tema4Tema4
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la información
nica2009
 
Entropia
EntropiaEntropia
Entropia
Eduardo Neira
 
Entropia
EntropiaEntropia
Entropia
Alvaro Cedeño
 
Sistemas de comunicacion electronica
Sistemas de comunicacion electronicaSistemas de comunicacion electronica
Sistemas de comunicacion electronica
badcut95
 
Expo 1
Expo 1Expo 1
Expo 1
Alexis183
 
Fuentes de informacion y entropia
Fuentes de informacion y entropiaFuentes de informacion y entropia
Fuentes de informacion y entropia
Jonathan Ortegon Ruiz
 
Actividades Entropía de la información
Actividades Entropía de la información Actividades Entropía de la información
Actividades Entropía de la información
Anthony Benalcazar
 
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓNACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
Anthony Benalcazar
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
FeLipe PueNntes
 
Entropía de la Información
Entropía de la InformaciónEntropía de la Información
Entropía de la Información
Roxii
 
Semana 9
Semana 9Semana 9
Semana 9
tarazona19
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información
Marco Muñoz
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
yaayiis
 
Teoria de la_info
Teoria de la_infoTeoria de la_info
Teoria de la_info
G Hoyos A
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
yenscarol
 
Ensayo de la teoría de la Probabilidad
Ensayo de la teoría de la Probabilidad Ensayo de la teoría de la Probabilidad
Ensayo de la teoría de la Probabilidad
fhederick jordy chaupis valenzuela
 
Unidad dos punto n° 2
Unidad dos punto n° 2Unidad dos punto n° 2
Unidad dos punto n° 2
eduardobarco
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
Edwin Ortega
 
Biometria clase 10
Biometria clase 10Biometria clase 10
Biometria clase 10
Javiera Saavedra
 

Similar a Entropia (20)

Tema4
Tema4Tema4
Tema4
 
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la información
 
Entropia
EntropiaEntropia
Entropia
 
Entropia
EntropiaEntropia
Entropia
 
Sistemas de comunicacion electronica
Sistemas de comunicacion electronicaSistemas de comunicacion electronica
Sistemas de comunicacion electronica
 
Expo 1
Expo 1Expo 1
Expo 1
 
Fuentes de informacion y entropia
Fuentes de informacion y entropiaFuentes de informacion y entropia
Fuentes de informacion y entropia
 
Actividades Entropía de la información
Actividades Entropía de la información Actividades Entropía de la información
Actividades Entropía de la información
 
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓNACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 
Entropía de la Información
Entropía de la InformaciónEntropía de la Información
Entropía de la Información
 
Semana 9
Semana 9Semana 9
Semana 9
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Teoria de la_info
Teoria de la_infoTeoria de la_info
Teoria de la_info
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Ensayo de la teoría de la Probabilidad
Ensayo de la teoría de la Probabilidad Ensayo de la teoría de la Probabilidad
Ensayo de la teoría de la Probabilidad
 
Unidad dos punto n° 2
Unidad dos punto n° 2Unidad dos punto n° 2
Unidad dos punto n° 2
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
 
Biometria clase 10
Biometria clase 10Biometria clase 10
Biometria clase 10
 

Más de G Hoyos A

curvas elipticas
 curvas elipticas curvas elipticas
curvas elipticas
G Hoyos A
 
correo seguro
 correo seguro correo seguro
correo seguro
G Hoyos A
 
cifra flujo
 cifra flujo cifra flujo
cifra flujo
G Hoyos A
 
composicion de algoritmos
 composicion de algoritmos composicion de algoritmos
composicion de algoritmos
G Hoyos A
 
gestion seguridad informatica
 gestion seguridad informatica gestion seguridad informatica
gestion seguridad informatica
G Hoyos A
 
calidad de la informacion
calidad de la informacioncalidad de la informacion
calidad de la informacion
G Hoyos A
 
Cripto clasica
Cripto clasicaCripto clasica
Cripto clasica
G Hoyos A
 
Presentacion cripto transp_manuel_lucena
Presentacion cripto transp_manuel_lucenaPresentacion cripto transp_manuel_lucena
Presentacion cripto transp_manuel_lucena
G Hoyos A
 
S box
S boxS box
S box
G Hoyos A
 
Xor
XorXor
Unixsec
UnixsecUnixsec
Unixsec
G Hoyos A
 
Transposicion
TransposicionTransposicion
Transposicion
G Hoyos A
 
Sellado de tiempo_timestamp
Sellado de tiempo_timestampSellado de tiempo_timestamp
Sellado de tiempo_timestamp
G Hoyos A
 
Protocolo gestor claves
Protocolo gestor clavesProtocolo gestor claves
Protocolo gestor claves
G Hoyos A
 
Problema rsa
Problema rsaProblema rsa
Problema rsa
G Hoyos A
 
Pki
PkiPki
Número primo fuerte
Número primo fuerteNúmero primo fuerte
Número primo fuerte
G Hoyos A
 
Metodo kasiski
Metodo kasiskiMetodo kasiski
Metodo kasiski
G Hoyos A
 
Modos de operación_de_una_unidad_de_cifrado_por_bloques
Modos de operación_de_una_unidad_de_cifrado_por_bloquesModos de operación_de_una_unidad_de_cifrado_por_bloques
Modos de operación_de_una_unidad_de_cifrado_por_bloques
G Hoyos A
 
Hc
HcHc

Más de G Hoyos A (20)

curvas elipticas
 curvas elipticas curvas elipticas
curvas elipticas
 
correo seguro
 correo seguro correo seguro
correo seguro
 
cifra flujo
 cifra flujo cifra flujo
cifra flujo
 
composicion de algoritmos
 composicion de algoritmos composicion de algoritmos
composicion de algoritmos
 
gestion seguridad informatica
 gestion seguridad informatica gestion seguridad informatica
gestion seguridad informatica
 
calidad de la informacion
calidad de la informacioncalidad de la informacion
calidad de la informacion
 
Cripto clasica
Cripto clasicaCripto clasica
Cripto clasica
 
Presentacion cripto transp_manuel_lucena
Presentacion cripto transp_manuel_lucenaPresentacion cripto transp_manuel_lucena
Presentacion cripto transp_manuel_lucena
 
S box
S boxS box
S box
 
Xor
XorXor
Xor
 
Unixsec
UnixsecUnixsec
Unixsec
 
Transposicion
TransposicionTransposicion
Transposicion
 
Sellado de tiempo_timestamp
Sellado de tiempo_timestampSellado de tiempo_timestamp
Sellado de tiempo_timestamp
 
Protocolo gestor claves
Protocolo gestor clavesProtocolo gestor claves
Protocolo gestor claves
 
Problema rsa
Problema rsaProblema rsa
Problema rsa
 
Pki
PkiPki
Pki
 
Número primo fuerte
Número primo fuerteNúmero primo fuerte
Número primo fuerte
 
Metodo kasiski
Metodo kasiskiMetodo kasiski
Metodo kasiski
 
Modos de operación_de_una_unidad_de_cifrado_por_bloques
Modos de operación_de_una_unidad_de_cifrado_por_bloquesModos de operación_de_una_unidad_de_cifrado_por_bloques
Modos de operación_de_una_unidad_de_cifrado_por_bloques
 
Hc
HcHc
Hc
 

Entropia

  • 1. Entropía (información) 1 Entropía (información) Entropía es un concepto en termodinámica, mecánica estadística y teoría de la información. Los conceptos de información y entropía están ampliamente relacionados entre sí, aunque se tardó años en el desarrollo de la mecánica estadística y la teoría de la información para hacer esto aparente. Este artículo versa sobre la entropía, en la formulación que hace de ella la Teoría de la información. Esta entropía se llama frecuentemente entropía de Shannon, en honor a Claude E. Shannon. Concepto básico El concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal. Como ejemplo, consideremos algún texto escrito en español, codificado como una cadena de letras, espacios y signos de puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos caracteres no son muy comunes (por ejemplo, 'y'), mientras otros sí lo son (como la 'a'), la cadena de caracteres no será tan "aleatoria" como podría llegar a ser. Obviamente, no podemos predecir Entropía de la información en un ensayo de con exactitud cuál será el siguiente carácter en la cadena, y eso la haría Bernoulli X (experimento aleatorio en que X aparentemente aleatoria. Pero es la entropía la encargada de medir puede tomar los valores 0 o 1). La entropía precisamente esa aleatoriedad, y fue presentada por Shannon en su depende de la probabilidad P (X=1) de que X artículo de 1948 A Mathematical Theory of Communication [1] ("Una tome el valor 1. Cuando P (X=1)=0.5, todos los resultados posibles son igualmente probables, por teoría matemática de la comunicación", en inglés). lo que el resultado es poco predecible y la Shannon ofrece una definición de entropía que satisface las siguientes entropía es máxima. afirmaciones: • La medida de información debe ser proporcional (continua). Es decir, el cambio pequeño en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía. • Si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces la entropía será máxima. Ejemplos de máxima entropía : Suponiendo que estamos a la espera de un texto , por ejemplo un cable con un mensaje .En dicho cable solo se reciben las letras en minúscula de la (a hasta la z) , entonces si el mensaje que nos llega es "qalmnbphijcdgketrsfuvxyzwño" el cual posee una longitud de 27 caracteres , se puede decir que este mensaje llega a nosotros con la máxima entropía (o desorden posible) ya que es poco probable que se pueda pronosticar la entrada de caracteres ya que estos no se repiten y además no están ordenados en una forma predecible.
  • 2. Entropía (información) 2 Definición formal La entropía nos indica el límite teórico para la compresión de datos. También es una medida de la información contenida en el mensaje. Su cálculo se realiza mediante la siguiente fórmula: • Nota: La base del logaritmo dependerá de la variable con la que estemos trabajando, es decir, para una variable binaria usaremos la base 2, para una ternaria la base 3. Explicación intuitiva Una variable aleatoria X puede tomar distintos valores posibles en distintas repeticiones (realizaciones del experimento). Como algunos valores de X son más probables que otros, existe una distribución de probabilidad de los valores de X, la que depende del experimento elegido. La entropía asociada a la variable X es un número que depende directamente de la distribución de probabilidad de X e indica lo plana que es esa distribución. Una distribución es plana (tiene alta entropía) cuando todos los valores de X tienen probabilidades similares, mientras que es poco plana cuando algunos valores de X son mucho más probables que otros. En una distribución de probabilidad plana (con alta entropía) es difícil poder predecir cuál es el próximo valor de X que va a presentarse, ya que todos los valores de X son igualmente probables. Si a cada posible valor de X que pueda ocurrir se le asigna una cierta combinación de dígitos binarios 0 o 1 para diferenciarlo de los demás, la cantidad promedio de dígitos binarios que hay que asignarle a los distintos valores de X es (aproximadamente) igual a la entropía de la distribución de probabilidad de X. Los valores 0 o 1 usados suelen llamarse bits. Además, la metodología comúnmente usada para asignar combinaciones de valores 0 o 1 a los distintos valores posibles de X se conoce con el nombre de codificación Huffman. Propiedades de la entropía 1. Dado un procesos con posibles resultados {A1,..,An} con probabilidades relativas p1, ...,pn, la función es máxima en el caso de que Véase también • Entropía cruzada • Perplejidad • Capacidad de canal Referencias [1] http:/ / cm. bell-labs. com/ cm/ ms/ what/ shannonday/ paper. html
  • 3. Fuentes y contribuyentes del artículo 3 Fuentes y contribuyentes del artículo Entropía (información)  Fuente: http://es.wikipedia.org/w/index.php?oldid=33691347  Contribuyentes: AlfonsoERomero, Barcex, Clementito, Correogsk, David0811, Davius, Dogor, Dortegaparrilla, GermanX, GiL87, Gizmo II, J.M.Domingo, Javg, Jose figueredo, Juan Mayordomo, Loqu, M1ss1ontomars2k4, Pabloab, Ploncomi, PoLuX124, Saloca, Tano4595, Yuri Grille Orce, 37 ediciones anónimas Fuentes de imagen, Licencias y contribuyentes Archivo:Binary entropy plot.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Binary_entropy_plot.svg  Licencia: GNU Free Documentation License  Contribuyentes: User:Alejo2083, User:Brona Licencia Creative Commons Attribution-Share Alike 3.0 Unported http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/