SlideShare una empresa de Scribd logo
1 de 10
REPUBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD ALEJANDRO DE HUMBOLDT
TEORIA DE LA INFORMACION DIGITAL
Henyerly Rojas, C.I.: 20.303.571
Nairobi Santamaría, C.I.: 17.116.242
José Maldonado, C.I.: 15.367.784
Ildemaro Vielma, C.I.: 21.089.626
Néstor Flores, C.I.: 11.552.794
Mario Márquez, C.I.: 19.389.211
TEORIA DE LA INFORMACION
Esta teoría se centra en cuantificar la información, su enfoque básico
proporciona las herramientas. Nos muestra, entre otras cosas, el camino a
seguir para determinar la cantidad de información útil a partir de unos datos, y
para comprimir la información de manera que los datos se representen de una
manera eficiente.
Se establece que los elementos de comunicación son:
Fuente: Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente
puede ser una computadora y mensajes sus archivos.
Mensaje: Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete
de datos que viaja por una red y cualquier cosa que tenga una representación
binaria puede considerarse un mensaje
Código: Un código es un conjunto de unos y ceros que se usan para
representar un cierto mensaje de acuerdo a reglas o convenciones
preestablecidas
Información: La información contenida en un mensaje es proporcional a la
cantidad de bits que se requieren como mínimo para representar al mensaje.
Entropía de la Información: un parámetro que nos permite determinar el
contenido promedio de información de una fuente o un mensaje en particular,
se puede considerar como la cantidad de información promedio que contienen
los símbolos usados en un sistema de comunicación.
Auto información de una fuente
De acuerdo a la teoría de la información, el nivel de información de una fuente se
puede medir según la entropía de la misma. Los estudios sobre la entropía son de
suma importancia en la teoría de la información.
•Cuál es el contenido real de información de un mensaje?
•Si los mensajes se codifican para su almacenamiento y transmisión, cómo selecciono o
diseño un código óptimo para ello.
•Cuál es la capacidad máxima, que un medio ó canal específico de comunicación tiene
para transmitir información.
•Cómo acoplo el canal de comunicación con la fuente de información a fin de lograr la
máxima transferencia de información por el canal, con mínima probabilidad de pérdida
de información.
•Cómo puede el receptor de la información, procurar que la posibilidad de error sea
mínima. Cómo puede darse cuenta de que hay un error y cómo lograr corregirlo.
Nos resuelve situaciones de ingeniería como:
Velocidad de Entropía de una fuente
Si la fuente emite símbolos a una velocidad r (símbolos/segundo), el contenido de
información de cualquier mensaje es igual al mínimo número de dígitos que se
requieren para codificarlo. La entropía es igual al mínimo número de dígitos por
mensaje o símbolo, en promedio, necesarios para codificarlo
La entropía de la fuente determina el nivel de compresión que podemos
obtener como máximo para un conjunto de datos, si consideramos como
fuente a un archivo y obtenemos las probabilidades de ocurrencia de cada
carácter en el archivo podremos calcular la longitud promedio del archivo
comprimido
La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:
El Promedio ponderado de las longitudes de los códigos de acuerdo a sus probabilidades de ocurrencia, al número "H" se lo
denomina "Entropía de la fuente" y tiene gran importancia
Capacidad de canales discretos.
La capacidad de un canal de comunicación es la cantidad máxima de información que
puede transportar dicho canal de forma fiable, es decir, con una probabilidad de error tan
pequeña como se quiera. Normalmente se expresa en bits/s (bps).
Capacidad de Canales Continuos: La definición de capacidad para canales continuos es
un poco diferente y exige utilizar el Teorema del muestreo y algunos otros conceptos de teoría de
la señal, además de los conceptos puramente estadísticos.
La codificación es uno de los usos más importantes y más directos
de teoría de la información. Es un rama de ingeniería
eléctrica, comunicación digital, matemáticas y informática diseñando
métodos eficientes y confiables de la transmisión de datos, para poder
ser quitado y los errores inducir la redundancia en los datos por
a canal ruidoso puede ser corregido. También se ocupa de las
características de códigos, y así con su aptitud para un uso específico.
Tdi

Más contenido relacionado

La actualidad más candente

La actualidad más candente (15)

Criptologia
CriptologiaCriptologia
Criptologia
 
Historia teoría de la comunicación
Historia teoría de la comunicaciónHistoria teoría de la comunicación
Historia teoría de la comunicación
 
Actividad de aprendizaje 1 victor martinez
Actividad de aprendizaje 1 victor martinezActividad de aprendizaje 1 victor martinez
Actividad de aprendizaje 1 victor martinez
 
6 de febrero de 2018
6 de febrero de 20186 de febrero de 2018
6 de febrero de 2018
 
6 de febrero de 2018
6 de febrero de 20186 de febrero de 2018
6 de febrero de 2018
 
guia sobre Internet
guia sobre Internetguia sobre Internet
guia sobre Internet
 
Rd2
Rd2Rd2
Rd2
 
Presentacion
PresentacionPresentacion
Presentacion
 
Internet 102
Internet 102Internet 102
Internet 102
 
Presentación1
Presentación1Presentación1
Presentación1
 
Borja Fantoni Miguel AndresT1P2-D1:
Borja Fantoni  Miguel AndresT1P2-D1:Borja Fantoni  Miguel AndresT1P2-D1:
Borja Fantoni Miguel AndresT1P2-D1:
 
Conceptos básicos de redes.
Conceptos básicos de redes.Conceptos básicos de redes.
Conceptos básicos de redes.
 
Redes
RedesRedes
Redes
 
Unidad de aprendizaje 1
Unidad de aprendizaje 1Unidad de aprendizaje 1
Unidad de aprendizaje 1
 
Cuestionario página 25
Cuestionario página 25Cuestionario página 25
Cuestionario página 25
 

Similar a Tdi

Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionsaulparra10
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionyaayiis
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la informaciónEdwin Ortega
 
Teoría de Información
Teoría de InformaciónTeoría de Información
Teoría de InformaciónNinoska18
 
Modelo de comunicación de claude shannon
Modelo de comunicación de claude shannonModelo de comunicación de claude shannon
Modelo de comunicación de claude shannonluis ortiz
 
Teoria De La Informacion
Teoria De La InformacionTeoria De La Informacion
Teoria De La InformacionANGELGALLARDO
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Marco Muñoz
 
La Teoria de la Informacion
La Teoria de la InformacionLa Teoria de la Informacion
La Teoria de la InformacionDanfuhr26
 
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la informaciónnica2009
 
Teoria de la Comunicación
Teoria de la ComunicaciónTeoria de la Comunicación
Teoria de la ComunicaciónGloria Vásquez
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionErick Calderin
 

Similar a Tdi (20)

Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
Comunicacion 22 4.19
Comunicacion 22 4.19Comunicacion 22 4.19
Comunicacion 22 4.19
 
Franghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 tiFranghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 ti
 
Teoria de-lainformacion 1
Teoria de-lainformacion 1Teoria de-lainformacion 1
Teoria de-lainformacion 1
 
Markov
MarkovMarkov
Markov
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
 
Entropía de la información
Entropía de la informaciónEntropía de la información
Entropía de la información
 
Teoría de Información
Teoría de InformaciónTeoría de Información
Teoría de Información
 
Modelo de comunicación de claude shannon
Modelo de comunicación de claude shannonModelo de comunicación de claude shannon
Modelo de comunicación de claude shannon
 
Expo 1
Expo 1Expo 1
Expo 1
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
 
Teoria De La Informacion
Teoria De La InformacionTeoria De La Informacion
Teoria De La Informacion
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información
 
La Teoria de la Informacion
La Teoria de la InformacionLa Teoria de la Informacion
La Teoria de la Informacion
 
Fuentes de informacion y entropia
Fuentes de informacion y entropiaFuentes de informacion y entropia
Fuentes de informacion y entropia
 
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la información
 
Teoria de la Comunicación
Teoria de la ComunicaciónTeoria de la Comunicación
Teoria de la Comunicación
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 

Tdi

  • 1. REPUBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD ALEJANDRO DE HUMBOLDT TEORIA DE LA INFORMACION DIGITAL Henyerly Rojas, C.I.: 20.303.571 Nairobi Santamaría, C.I.: 17.116.242 José Maldonado, C.I.: 15.367.784 Ildemaro Vielma, C.I.: 21.089.626 Néstor Flores, C.I.: 11.552.794 Mario Márquez, C.I.: 19.389.211
  • 2. TEORIA DE LA INFORMACION Esta teoría se centra en cuantificar la información, su enfoque básico proporciona las herramientas. Nos muestra, entre otras cosas, el camino a seguir para determinar la cantidad de información útil a partir de unos datos, y para comprimir la información de manera que los datos se representen de una manera eficiente.
  • 3. Se establece que los elementos de comunicación son:
  • 4. Fuente: Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser una computadora y mensajes sus archivos. Mensaje: Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje Código: Un código es un conjunto de unos y ceros que se usan para representar un cierto mensaje de acuerdo a reglas o convenciones preestablecidas Información: La información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo para representar al mensaje.
  • 5. Entropía de la Información: un parámetro que nos permite determinar el contenido promedio de información de una fuente o un mensaje en particular, se puede considerar como la cantidad de información promedio que contienen los símbolos usados en un sistema de comunicación. Auto información de una fuente De acuerdo a la teoría de la información, el nivel de información de una fuente se puede medir según la entropía de la misma. Los estudios sobre la entropía son de suma importancia en la teoría de la información.
  • 6. •Cuál es el contenido real de información de un mensaje? •Si los mensajes se codifican para su almacenamiento y transmisión, cómo selecciono o diseño un código óptimo para ello. •Cuál es la capacidad máxima, que un medio ó canal específico de comunicación tiene para transmitir información. •Cómo acoplo el canal de comunicación con la fuente de información a fin de lograr la máxima transferencia de información por el canal, con mínima probabilidad de pérdida de información. •Cómo puede el receptor de la información, procurar que la posibilidad de error sea mínima. Cómo puede darse cuenta de que hay un error y cómo lograr corregirlo. Nos resuelve situaciones de ingeniería como:
  • 7. Velocidad de Entropía de una fuente Si la fuente emite símbolos a una velocidad r (símbolos/segundo), el contenido de información de cualquier mensaje es igual al mínimo número de dígitos que se requieren para codificarlo. La entropía es igual al mínimo número de dígitos por mensaje o símbolo, en promedio, necesarios para codificarlo La entropía de la fuente determina el nivel de compresión que podemos obtener como máximo para un conjunto de datos, si consideramos como fuente a un archivo y obtenemos las probabilidades de ocurrencia de cada carácter en el archivo podremos calcular la longitud promedio del archivo comprimido La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como: El Promedio ponderado de las longitudes de los códigos de acuerdo a sus probabilidades de ocurrencia, al número "H" se lo denomina "Entropía de la fuente" y tiene gran importancia
  • 8. Capacidad de canales discretos. La capacidad de un canal de comunicación es la cantidad máxima de información que puede transportar dicho canal de forma fiable, es decir, con una probabilidad de error tan pequeña como se quiera. Normalmente se expresa en bits/s (bps). Capacidad de Canales Continuos: La definición de capacidad para canales continuos es un poco diferente y exige utilizar el Teorema del muestreo y algunos otros conceptos de teoría de la señal, además de los conceptos puramente estadísticos.
  • 9. La codificación es uno de los usos más importantes y más directos de teoría de la información. Es un rama de ingeniería eléctrica, comunicación digital, matemáticas y informática diseñando métodos eficientes y confiables de la transmisión de datos, para poder ser quitado y los errores inducir la redundancia en los datos por a canal ruidoso puede ser corregido. También se ocupa de las características de códigos, y así con su aptitud para un uso específico.