SlideShare una empresa de Scribd logo
1 de 20
FUENTES DE
INFORMACION
La Teoría de la Información nos muestra, entre otras cosas, el camino a seguir para determinar la
cantidad de información útil de unos datos y para comprimir la información de manera que los datos
se representen de una manera eficiente
Jonathan Ortegón
Ruiz
Índice
 Canal de comunicación
 Codificación de la fuente
 Información:
 Cantidad información
 Clasificación de la información
 Fuentes de información
 Fuentes sin memoria
 Entropía
 Comprensión de datos
Índice
Canal de Comunicación
 Es la trayectoria o
medio a través del
que fluyen los
símbolos del origen
al destino.
Codificación de la fuente
 Es el proceso por el
cuál, la salida de una
fuente de
información, se
convierte en una
secuencia binaria.
 “codificador fuente ”
 Alternativamente es la
acción de asignar
dígitos binarios a
secuencias de
símbolos que
conllevan la
información.
Información
 No es más que la reunión de elementos (datos) que han
sido transmitidos, estos deberán ser interpretados por el
receptor, esta interpretación es la que genera de nuevo la
información.
Cantidad de Información
 Cuando la probabilidad de un suceso sea segura:
P(suceso)=1, la cantidad de información que nos proporciona
será nula
 Supongamos que estamos leyendo un mensaje y hemos leído
"string of ch", la probabilidad de que el mensaje continúe con
"aracters" es muy alta por lo tanto cuando realmente leemos
"aracters" del archivo la cantidad de información que recibimos es
muy baja pues estábamos en condiciones de predecir que era lo
que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad
de aparición aporta menos información que la ocurrencia de
mensajes menos probables. Si luego de "string of ch" leemos
"imichurri" la cantidad de información que recibimos es mucho
Fuente de Información
 Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede
ser una computadora y mensajes sus archivos, Una fuente de información es un
elemento que entrega una señal, y una señal es una función de una o más
variables que contiene información acerca de la naturaleza o comportamiento de
algún fenómeno
Tipos de Fuentes de Información
Las fuentes de información se clasifican basándose en el tipo de señal que entregan. Se pueden clasificar, según el
tipo de variable independiente (tiempo) en:
 Fuentes de tiempo continuo: la función está definida para cualquier valor de la variable
independiente.
 Fuentes de tiempo discreto: la función sólo está definida para un conjunto contable de instantes
de tiempo.
Pero se pueden clasificar también según el rango de valores que cubren las señales. En este caso
los tipos de fuentes de información serán:
 Fuentes continuas o de amplitud continua: el valor de la función toma un rango continuo de
valores.
 Fuentes discretas o de amplitud discreta: el valor de la función sólo toma un conjunto finito de
valores. A cada uno de estos valores lo llamamos símbolo. El conjunto de todos los símbolos se
suele llamar alfabeto. La elección del alfabeto es, en cierto modo, arbitraria, ya que podemos
Tipos de Fuentes de Información
Las fuentes digitales se suelen clasificar según la relación que
tenga un símbolo con los que le preceden de la siguiente manera:
 Fuentes sin memoria: los símbolos son estadísticamente
independientes entre sí. De esta manera, los símbolos que
hayan aparecido hasta el momento no van a condicionar al
símbolo presente ni a posteriores.
 Fuentes con memoria: la aparición de los símbolos no es
estadísticamente independiente. Es decir, si han aparecido M-1
símbolos, el símbolo M-ésimo está condicionado por los
anteriores.
Fuentes sin memoria
 Cada símbolo
transmitido es
independiente , es
decir no se
condicionan los
símbolos
 Mensaje:
 A , 1 . . , ;
Fuentes con memoria
 Los símbolos
transmitidos son
dependientes entre
si , lo que genera
una relación
estadística
 Mensaje:
 Hol….
Podemos predecir
que el siguiente
símbolo será a
Entropía
se puede considerar como la cantidad de información promedio que contienen
los símbolos usados. Los símbolos con menor probabilidad son los que aportan
mayor información.
La entropía, en la teoría de la información, es una magnitud que mide la
información provista por una fuente de datos, es decir, lo que nos aporta sobre
un dato o hecho concreto.
Por ejemplo, que nos digan que las calles están mojadas, sabiendo que acaba
de llover, nos aporta poca información, porque es lo habitual. Pero si nos dicen
que las calles están mojadas y sabemos que no ha llovido, aporta mucha
información.
Entropía
La entropía nos indica el límite teórico para la compresión de datos.
Su cálculo se realiza mediante la siguiente fórmula:
donde H es la entropía, las p son las probabilidades de que aparezcan los
diferentes códigos y m el número total de códigos. Si nos referimos a un
sistema, las p se refieren a las probabilidades de que se encuentre en un
determinado estado y m el número total de posibles estados
Entropía
Se utiliza habitualmente el logaritmo en base 2, y entonces la entropía se mide
en bits.
Por ejemplo: El lanzamiento de una moneda al aire para ver si sale cara o cruz
(dos estados con probabilidad 0,5) tiene una entropía:
Compresión de datos
 Consiste en poder representar los datos
enviados de una manera correcta y
consistente que genere información.
 Se puede trabajar a nivel de estructuras
estadísticas como un alfabeto, o estructuras
físicas como la voz, donde existe un proceso
de síntesis. En otros se aprovecha la
limitación de respuesta del receptor: caso del
Compresión sin pérdidas
Implica que no hay pérdida de información. Los
datos originales se recuperan exactamente del
modelo comprimido.
Enviado:
Hola
Recibido:
Hola
Compresión con pérdidas
 implica pérdidas de información. La
información compactada generalmente no
puede reproducirse en forma exacta. Se
logran altos índices de compresión
Ejemplo
 Mensaje
 Envíame dinero ahora.
 Recibido
 Envíame dinero
Este tipo de perdidas pueden generar errores
fatales
Bibliografía
• http://www.youtube.com/watch?v=XD04KAFqlTY
• http://evirtual.lasalle.edu.co/info_basica/nuevos/guia/fuentesDeInformacion.pdf
• http://www.infor.uva.es/~cevp/FI_I/fichs_pdf_teo/FI_I_Tema3.pdf
• http://html.rincondelvago.com/introduccion-a-la-teoria-de-la-informacion.html
• http://enciclopedia.us.es/index.php/Entrop%C3%ADa_(teor%C3%ADa_de_la_infor
maci%C3%B3n)
• http://es.wikipedia.org/wiki/Entrop%C3%ADa_(informaci%C3%B3n)
• http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n

Más contenido relacionado

La actualidad más candente

Lecture 6 formateo de señales en pcm
Lecture 6 formateo de señales en pcmLecture 6 formateo de señales en pcm
Lecture 6 formateo de señales en pcmnica2009
 
Modulacion y Codificacion Digital - Analogo (ASK, FSK & PSK)
Modulacion y Codificacion Digital - Analogo (ASK, FSK & PSK)Modulacion y Codificacion Digital - Analogo (ASK, FSK & PSK)
Modulacion y Codificacion Digital - Analogo (ASK, FSK & PSK)Juan Herrera Benitez
 
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE Toño Avilix
 
Lecture 18 channel capacity
Lecture 18 channel capacityLecture 18 channel capacity
Lecture 18 channel capacitynica2009
 
Que es la OFDM
Que es la OFDMQue es la OFDM
Que es la OFDMfabys_86
 
Medicion de tasa de error binaria (ber)
Medicion de tasa de error binaria (ber)Medicion de tasa de error binaria (ber)
Medicion de tasa de error binaria (ber)jdcrojas
 
Multiplexación por división de frecuencia (FDM)
Multiplexación por división  de frecuencia (FDM)Multiplexación por división  de frecuencia (FDM)
Multiplexación por división de frecuencia (FDM)Starling Javier C
 
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo CódigoCodificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo CódigoOscar Javier Jimenez Revelo
 
7. atenuacion, distorsion y ruido en la transmision
7. atenuacion, distorsion y ruido en la transmision7. atenuacion, distorsion y ruido en la transmision
7. atenuacion, distorsion y ruido en la transmisionEdison Coimbra G.
 
Presupuesto de potencia
Presupuesto de potenciaPresupuesto de potencia
Presupuesto de potenciaLuis Alberto
 
Codigos de Linea - Telecomunicaciones III
Codigos de Linea - Telecomunicaciones IIICodigos de Linea - Telecomunicaciones III
Codigos de Linea - Telecomunicaciones IIIAndy Juan Sarango Veliz
 
Sistema de Comunicación. Redes de Telecomunicaciones
Sistema de Comunicación. Redes de TelecomunicacionesSistema de Comunicación. Redes de Telecomunicaciones
Sistema de Comunicación. Redes de Telecomunicacionesmamogetta
 
Lecture 8 revisión de ejercicios unidad ii
Lecture 8 revisión de ejercicios   unidad iiLecture 8 revisión de ejercicios   unidad ii
Lecture 8 revisión de ejercicios unidad iinica2009
 
3.PCM Digitalizacion de señal analogica
3.PCM Digitalizacion de señal analogica3.PCM Digitalizacion de señal analogica
3.PCM Digitalizacion de señal analogicaEdison Coimbra G.
 
Códigos de línea
Códigos de líneaCódigos de línea
Códigos de líneaOscar Llanos
 
Modulacion PSK
Modulacion PSKModulacion PSK
Modulacion PSKRick P
 

La actualidad más candente (20)

Lecture 6 formateo de señales en pcm
Lecture 6 formateo de señales en pcmLecture 6 formateo de señales en pcm
Lecture 6 formateo de señales en pcm
 
Modulacion fsk
Modulacion fskModulacion fsk
Modulacion fsk
 
Modulacion y Codificacion Digital - Analogo (ASK, FSK & PSK)
Modulacion y Codificacion Digital - Analogo (ASK, FSK & PSK)Modulacion y Codificacion Digital - Analogo (ASK, FSK & PSK)
Modulacion y Codificacion Digital - Analogo (ASK, FSK & PSK)
 
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
 
5. Cálculo de radioenlaces
5. Cálculo de radioenlaces5. Cálculo de radioenlaces
5. Cálculo de radioenlaces
 
PDH
PDHPDH
PDH
 
Lecture 18 channel capacity
Lecture 18 channel capacityLecture 18 channel capacity
Lecture 18 channel capacity
 
Que es la OFDM
Que es la OFDMQue es la OFDM
Que es la OFDM
 
Medicion de tasa de error binaria (ber)
Medicion de tasa de error binaria (ber)Medicion de tasa de error binaria (ber)
Medicion de tasa de error binaria (ber)
 
Multiplexación por división de frecuencia (FDM)
Multiplexación por división  de frecuencia (FDM)Multiplexación por división  de frecuencia (FDM)
Multiplexación por división de frecuencia (FDM)
 
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo CódigoCodificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
 
Capacidad del canal
Capacidad del canalCapacidad del canal
Capacidad del canal
 
7. atenuacion, distorsion y ruido en la transmision
7. atenuacion, distorsion y ruido en la transmision7. atenuacion, distorsion y ruido en la transmision
7. atenuacion, distorsion y ruido en la transmision
 
Presupuesto de potencia
Presupuesto de potenciaPresupuesto de potencia
Presupuesto de potencia
 
Codigos de Linea - Telecomunicaciones III
Codigos de Linea - Telecomunicaciones IIICodigos de Linea - Telecomunicaciones III
Codigos de Linea - Telecomunicaciones III
 
Sistema de Comunicación. Redes de Telecomunicaciones
Sistema de Comunicación. Redes de TelecomunicacionesSistema de Comunicación. Redes de Telecomunicaciones
Sistema de Comunicación. Redes de Telecomunicaciones
 
Lecture 8 revisión de ejercicios unidad ii
Lecture 8 revisión de ejercicios   unidad iiLecture 8 revisión de ejercicios   unidad ii
Lecture 8 revisión de ejercicios unidad ii
 
3.PCM Digitalizacion de señal analogica
3.PCM Digitalizacion de señal analogica3.PCM Digitalizacion de señal analogica
3.PCM Digitalizacion de señal analogica
 
Códigos de línea
Códigos de líneaCódigos de línea
Códigos de línea
 
Modulacion PSK
Modulacion PSKModulacion PSK
Modulacion PSK
 

Destacado

Clasificacion de los sistemas de computo
Clasificacion de los sistemas de computoClasificacion de los sistemas de computo
Clasificacion de los sistemas de computoalvaro morales
 
Clasificación de los sistemas de computación
Clasificación de los sistemas de computaciónClasificación de los sistemas de computación
Clasificación de los sistemas de computaciónUniversidad de Guayana
 
Desarrollo historico de la computacion
Desarrollo historico de la computacionDesarrollo historico de la computacion
Desarrollo historico de la computacionJose Arrieta
 
Fuentes información. Medicina complementaria
Fuentes información. Medicina complementariaFuentes información. Medicina complementaria
Fuentes información. Medicina complementariaDiana Huaman
 
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOSCAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOSStudent A
 
Unidad 1 conceptos introductorios
Unidad 1 conceptos introductoriosUnidad 1 conceptos introductorios
Unidad 1 conceptos introductoriosIsabel
 
Fuentes de informacion de red
Fuentes de informacion de redFuentes de informacion de red
Fuentes de informacion de redyulisgelves
 
Fuentes de computador
Fuentes de computadorFuentes de computador
Fuentes de computadorshadowrg
 
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la informaciónnica2009
 
Teoría De La Información
Teoría De La InformaciónTeoría De La Información
Teoría De La InformaciónJosean Feliciano
 
Cualidades de la informacion
Cualidades de la informacionCualidades de la informacion
Cualidades de la informacionJennifer Montano
 
Entropia y entalpia
Entropia y entalpiaEntropia y entalpia
Entropia y entalpiacharlote1829
 

Destacado (20)

Texto, párrafo y enunciado
Texto, párrafo y enunciadoTexto, párrafo y enunciado
Texto, párrafo y enunciado
 
Clasificacion de los sistemas de computo
Clasificacion de los sistemas de computoClasificacion de los sistemas de computo
Clasificacion de los sistemas de computo
 
Clasificación de los sistemas de computación
Clasificación de los sistemas de computaciónClasificación de los sistemas de computación
Clasificación de los sistemas de computación
 
Conceptos Básicos Arquitectura
Conceptos Básicos Arquitectura Conceptos Básicos Arquitectura
Conceptos Básicos Arquitectura
 
Desarrollo historico de la computacion
Desarrollo historico de la computacionDesarrollo historico de la computacion
Desarrollo historico de la computacion
 
Desarrollo histórico de la computadora
Desarrollo histórico de la computadoraDesarrollo histórico de la computadora
Desarrollo histórico de la computadora
 
Fuentes información. Medicina complementaria
Fuentes información. Medicina complementariaFuentes información. Medicina complementaria
Fuentes información. Medicina complementaria
 
Semana 3: Fuentes
Semana 3: FuentesSemana 3: Fuentes
Semana 3: Fuentes
 
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOSCAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
 
Unidad 1 conceptos introductorios
Unidad 1 conceptos introductoriosUnidad 1 conceptos introductorios
Unidad 1 conceptos introductorios
 
Fuentes de informacion de red
Fuentes de informacion de redFuentes de informacion de red
Fuentes de informacion de red
 
Arquitectura Computacional
Arquitectura ComputacionalArquitectura Computacional
Arquitectura Computacional
 
Fuentes de computador
Fuentes de computadorFuentes de computador
Fuentes de computador
 
Entropia
EntropiaEntropia
Entropia
 
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la información
 
Teoría De La Información
Teoría De La InformaciónTeoría De La Información
Teoría De La Información
 
Cualidades de la informacion
Cualidades de la informacionCualidades de la informacion
Cualidades de la informacion
 
Géneros radiofónicos
Géneros radiofónicosGéneros radiofónicos
Géneros radiofónicos
 
Entropia y entalpia
Entropia y entalpiaEntropia y entalpia
Entropia y entalpia
 
Arboles decision id3
Arboles decision   id3Arboles decision   id3
Arboles decision id3
 

Similar a Fuentes de informacion y entropia

Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la informaciónEdwin Ortega
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Marco Muñoz
 
Entropía de la Información
Entropía de la InformaciónEntropía de la Información
Entropía de la InformaciónRoxii
 
Informacion contable y las teorias de la informacion
Informacion contable y las teorias de la informacionInformacion contable y las teorias de la informacion
Informacion contable y las teorias de la informacionArmando Romero Rivera
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLaura Elizabeth Contreras
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLaura Elizabeth Contreras
 
Nuevo microsoft power point presentation
Nuevo microsoft power point presentationNuevo microsoft power point presentation
Nuevo microsoft power point presentationlautaro carrera
 

Similar a Fuentes de informacion y entropia (20)

Expo 1
Expo 1Expo 1
Expo 1
 
Entropia
EntropiaEntropia
Entropia
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información
 
Tdi
TdiTdi
Tdi
 
Entropía de la Información
Entropía de la InformaciónEntropía de la Información
Entropía de la Información
 
Markov
MarkovMarkov
Markov
 
Franghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 tiFranghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 ti
 
Entropia
EntropiaEntropia
Entropia
 
Entropia
EntropiaEntropia
Entropia
 
Comunicacion 22 4.19
Comunicacion 22 4.19Comunicacion 22 4.19
Comunicacion 22 4.19
 
Informacion contable y las teorias de la informacion
Informacion contable y las teorias de la informacionInformacion contable y las teorias de la informacion
Informacion contable y las teorias de la informacion
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicación
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicación
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
Nuevo microsoft power point presentation
Nuevo microsoft power point presentationNuevo microsoft power point presentation
Nuevo microsoft power point presentation
 
Entropía de la información
Entropía de la informaciónEntropía de la información
Entropía de la información
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
Teoria de-lainformacion 1
Teoria de-lainformacion 1Teoria de-lainformacion 1
Teoria de-lainformacion 1
 
Tercera clase teorías mediales
Tercera clase teorías medialesTercera clase teorías mediales
Tercera clase teorías mediales
 

Fuentes de informacion y entropia

  • 1. FUENTES DE INFORMACION La Teoría de la Información nos muestra, entre otras cosas, el camino a seguir para determinar la cantidad de información útil de unos datos y para comprimir la información de manera que los datos se representen de una manera eficiente Jonathan Ortegón Ruiz
  • 2. Índice  Canal de comunicación  Codificación de la fuente  Información:  Cantidad información  Clasificación de la información  Fuentes de información
  • 3.  Fuentes sin memoria  Entropía  Comprensión de datos Índice
  • 4. Canal de Comunicación  Es la trayectoria o medio a través del que fluyen los símbolos del origen al destino.
  • 5. Codificación de la fuente  Es el proceso por el cuál, la salida de una fuente de información, se convierte en una secuencia binaria.  “codificador fuente ”  Alternativamente es la acción de asignar dígitos binarios a secuencias de símbolos que conllevan la información.
  • 6. Información  No es más que la reunión de elementos (datos) que han sido transmitidos, estos deberán ser interpretados por el receptor, esta interpretación es la que genera de nuevo la información.
  • 7. Cantidad de Información  Cuando la probabilidad de un suceso sea segura: P(suceso)=1, la cantidad de información que nos proporciona será nula  Supongamos que estamos leyendo un mensaje y hemos leído "string of ch", la probabilidad de que el mensaje continúe con "aracters" es muy alta por lo tanto cuando realmente leemos "aracters" del archivo la cantidad de información que recibimos es muy baja pues estábamos en condiciones de predecir que era lo que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad de aparición aporta menos información que la ocurrencia de mensajes menos probables. Si luego de "string of ch" leemos "imichurri" la cantidad de información que recibimos es mucho
  • 8. Fuente de Información  Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser una computadora y mensajes sus archivos, Una fuente de información es un elemento que entrega una señal, y una señal es una función de una o más variables que contiene información acerca de la naturaleza o comportamiento de algún fenómeno
  • 9. Tipos de Fuentes de Información Las fuentes de información se clasifican basándose en el tipo de señal que entregan. Se pueden clasificar, según el tipo de variable independiente (tiempo) en:  Fuentes de tiempo continuo: la función está definida para cualquier valor de la variable independiente.  Fuentes de tiempo discreto: la función sólo está definida para un conjunto contable de instantes de tiempo. Pero se pueden clasificar también según el rango de valores que cubren las señales. En este caso los tipos de fuentes de información serán:  Fuentes continuas o de amplitud continua: el valor de la función toma un rango continuo de valores.  Fuentes discretas o de amplitud discreta: el valor de la función sólo toma un conjunto finito de valores. A cada uno de estos valores lo llamamos símbolo. El conjunto de todos los símbolos se suele llamar alfabeto. La elección del alfabeto es, en cierto modo, arbitraria, ya que podemos
  • 10. Tipos de Fuentes de Información Las fuentes digitales se suelen clasificar según la relación que tenga un símbolo con los que le preceden de la siguiente manera:  Fuentes sin memoria: los símbolos son estadísticamente independientes entre sí. De esta manera, los símbolos que hayan aparecido hasta el momento no van a condicionar al símbolo presente ni a posteriores.  Fuentes con memoria: la aparición de los símbolos no es estadísticamente independiente. Es decir, si han aparecido M-1 símbolos, el símbolo M-ésimo está condicionado por los anteriores.
  • 11. Fuentes sin memoria  Cada símbolo transmitido es independiente , es decir no se condicionan los símbolos  Mensaje:  A , 1 . . , ;
  • 12. Fuentes con memoria  Los símbolos transmitidos son dependientes entre si , lo que genera una relación estadística  Mensaje:  Hol…. Podemos predecir que el siguiente símbolo será a
  • 13. Entropía se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información. La entropía, en la teoría de la información, es una magnitud que mide la información provista por una fuente de datos, es decir, lo que nos aporta sobre un dato o hecho concreto. Por ejemplo, que nos digan que las calles están mojadas, sabiendo que acaba de llover, nos aporta poca información, porque es lo habitual. Pero si nos dicen que las calles están mojadas y sabemos que no ha llovido, aporta mucha información.
  • 14. Entropía La entropía nos indica el límite teórico para la compresión de datos. Su cálculo se realiza mediante la siguiente fórmula: donde H es la entropía, las p son las probabilidades de que aparezcan los diferentes códigos y m el número total de códigos. Si nos referimos a un sistema, las p se refieren a las probabilidades de que se encuentre en un determinado estado y m el número total de posibles estados
  • 15. Entropía Se utiliza habitualmente el logaritmo en base 2, y entonces la entropía se mide en bits. Por ejemplo: El lanzamiento de una moneda al aire para ver si sale cara o cruz (dos estados con probabilidad 0,5) tiene una entropía:
  • 16. Compresión de datos  Consiste en poder representar los datos enviados de una manera correcta y consistente que genere información.  Se puede trabajar a nivel de estructuras estadísticas como un alfabeto, o estructuras físicas como la voz, donde existe un proceso de síntesis. En otros se aprovecha la limitación de respuesta del receptor: caso del
  • 17. Compresión sin pérdidas Implica que no hay pérdida de información. Los datos originales se recuperan exactamente del modelo comprimido. Enviado: Hola Recibido: Hola
  • 18. Compresión con pérdidas  implica pérdidas de información. La información compactada generalmente no puede reproducirse en forma exacta. Se logran altos índices de compresión
  • 19. Ejemplo  Mensaje  Envíame dinero ahora.  Recibido  Envíame dinero Este tipo de perdidas pueden generar errores fatales
  • 20. Bibliografía • http://www.youtube.com/watch?v=XD04KAFqlTY • http://evirtual.lasalle.edu.co/info_basica/nuevos/guia/fuentesDeInformacion.pdf • http://www.infor.uva.es/~cevp/FI_I/fichs_pdf_teo/FI_I_Tema3.pdf • http://html.rincondelvago.com/introduccion-a-la-teoria-de-la-informacion.html • http://enciclopedia.us.es/index.php/Entrop%C3%ADa_(teor%C3%ADa_de_la_infor maci%C3%B3n) • http://es.wikipedia.org/wiki/Entrop%C3%ADa_(informaci%C3%B3n) • http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n