2. TEORIA DE LA INFORMACION
• -¿Porque surge?
• Creador de la TEORIA DE INFORMACION. y a que se refiere.
• ¿Qué es información? Y en que campos se aplicado.
• Componentes del sistema de comunicación.
• Cantidad de Información.
• Entropía.
• Codificación y Redundancia.
3. TEORIA DE LA INFORMACION
• Teoría relacionada con las leyes matemáticas que rige la
transmisión y el procesamiento de la información. Más
concretamente, la teoría de la información se ocupa de la medición
de la información y de la representación de la misma (como, por
ejemplo, su codificación) y de la capacidad de los sistemas de
comunicación para transmitir y procesar información.
4. ¿Por qué surge?
• La necesidad de una base teórica para la tecnología de la
comunicación surgió del aumento de la complejidad y de la
masificación de las vías de comunicación, como el teléfono, las
redes del teletipo y los sistemas de comunicación.
5. TEORIA DE LA INFORMACION
• fue desarrollada inicialmente, en 1948, por el ingeniero electrónico
estadounidense Claude E. Shannon, en su artículo, A Mathematical
Theory of Communication (Teoría matemática de la comunicación).
6. Termino de Información
• Se refiere a mensajes transmitidos: voz o música, transmitida por teléfono o
radio, imágenes transmitidas por televisión, información digital en sistemas y
redes de computadoras.
Aplicado en campos como:
-Cibernética
-Criptografía
-Lingüística
-Psicología
-Estadísticas
7. Componentes del Sistema de Comunicación
FUENTE DE
INFORMACION
Ejemplo, una persona
hablando que produce un
mensaje
TRANSMISOR
Ejemplo ,un teléfono o
amplificador ,que
convierte el mensaje en
señales electrónicas
CANAL
Ejemplo ,un cable o la
atmosfera
Es susceptible a
interferencias
RECEPTOR
Ejemplo, el radio que
transforma de nuevo la
señal recibida en el
mensaje original
DESTINATARIO
La persona que recibe el
mensaje
8. Cantidad de información
• Un concepto fundamental en la teoría de la información es que la
cantidad de información contenida en un mensaje es un valor
matemático bien definido y medible. El término cantidad no se refiere a la
cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un
conjunto de mensajes posibles, sea recibido. En lo que se refiere a la
cantidad de información, el valor más alto se le asigna al mensaje que
menos probabilidades tiene de ser recibido. Si se sabe con certeza que
un mensaje va a ser recibido, su cantidad de información es 0. Para
relacionar la cantidad de información (I) con la probabilidad, Shannon
presentó la siguiente fórmula: I = log21/p.
9. Entropía
Hay que elegir entre mensajes que tienen diferentes probabilidades
de ser enviados.
La entropía puede ser intuitivamente entendida como el grado de
‘desorden’ en un sistema. En la teoría de la información la entropía
de un mensaje es igual a su cantidad de información media. Si en un
conjunto de mensajes, sus probabilidades son iguales, la fórmula
para calcular la entropía total sería: H = log2N, donde N es el
número de mensajes posibles en el conjunto.
10. Codificación y Redundancia
• Si se transmiten mensajes que están formados por combinaciones
aleatorias de las 26 letras del alfabeto inglés, el espacio en blanco
y cinco signos de puntuación, y si suponemos que la probabilidad
de cada mensaje es la misma, la entropía sería: H = log232 = 5.
Esto significa que se necesitan 5 bits para codificar cada carácter o
mensaje: 00000, 00001, 00010, 11111. Una transmisión y
almacenamiento eficiente de la información exige la reducción del
número de bits utilizados en su codificación.
11. • En los sistemas de comunicación modernos, se añade
redundancia artificial a la codificación de mensajes, para reducir
errores en la transmisión de los mismos.