SlideShare una empresa de Scribd logo
1 de 17
Descargar para leer sin conexión
REPÚBLICA BOLIVARIANA DE VENEZUELA
INSTITUTO UNIVERSITARIO POLITÉCNICO
“SANTIAGO MARIÑO”
EXTENSIÓN MATURÍN
.LA TEORIA DE LA INFORMACIÓN.
PROFESOR: AUTOR:
Cristóbal Espinoza Johsmar Tova
C.I. 20.677.479
Maturín, 22 de Abril de 2019.
2
INDICE
Introducción………………………………………………………………………. 3
Historia de la Teoría de la Información …………………………………………... 4
Teoría de la Información de Claude E. Shannon…………………………………. 5
Mundialización e Información……………………………………………………. 6
Elementos de la Teoría……………………………………………………………. 7
El Problema de la Codificación…………………………………………………... 9
Medidas de Información …………………………………………………………. 10
Finalidad………………………………………………………………………….. 14
Conclusión………………………………………………………………………... 15
Referencias consultadas ………………………………………………………….. 16
Anexos……………………………………………………………………………. 17
3
INTRODUCCIÓN
Partiendo de que la información se refiere a un conjunto de noticias o datos
estructurados de forma organizada y procesada, presentes en un mensaje, se ideo la
teoría de la información, debido a que en la cotidianidad las personas están inmersas
de informaciones, y para su comprensión la misma tiene que tener un orden y ser
procesada con la finalidad de que pueda ser llegada al receptor.
La teoría de la información, conocida también como teoría matemática de la
información, siendo una propuesta creada por el matemático e ingeniero Claude E.
Shannon y el biólogo e informatólogo Warren Weaver, se dedicaron a elaborar una
teoría sobre cómo tratar a la información almacenada en forma digital; expusieron
que las fuentes de información y los canales de comunicación pueden medirse, cuya
capacidad y velocidad de transferencia dependerá de una determinada medida. Esta
teoría se centraba en el estudio de la información (transmisión y procesamiento,
medición y representación de la información, capacidad de los sistemas de
comunicación para transmitir y procesar información), y por ende canales, elementos
y compresión de datos.
El siguiente proyecto dará a conocer aspectos esenciales sobre la teoría de la
información, una breve reseña de la misma, los elementos que hacen posible su
transmisión, entre otros puntos relevantes.
4
HISTORIA DE TEORIA DE LA INFORMACIÓN.
La teoría de la información surgió a finales de la Segunda Guerra Mundial, en los
años cuarenta. Fue iniciada por Claude E. Shannon a través de un artículo publicado
en el Bell System Technical Journal en 1948, titulado una teoría matemática de la
información. En esta época se buscaba utilizar de manera más eficiente los canales de
comunicación, enviando una cantidad de información por un determinado canal y
midiendo su capacidad; se buscaba la transmisión óptima de los mensajes.
Esta teoría es el resultado de trabajos comenzados en la década 1910 por Andrei
A. Markovi, a quien le siguió Ralp V. L. Hartley en 1927, quien fue el percusor del
lenguaje binario.
A su vez, Alan Turing en 1936, realizo el esquema de una máquina capaz de tratar
información con emisión de símbolos, y finalmente Clause Elwood Shannon,
matemático, ingeniero electrónico y criptógrafo estadounidense, conocido como “el
padre de la teoría de la información”, junto a Warren Weaver, contribuyo en la
culminación y el asentamiento de la Teoría Matemática de la comunicación de 1949
que hoy es mundialmente conocida por todos como Teoría de la Información.
Weaver consiguió darle un alcance superior al planteamiento inicial, creando un
modelo simple y lineal: Fuente/ Codificador/ Mensaje canal/ Decodificador/ Destino.
La necesidad de una base teórica para la tecnología de la comunicación surgió del
aumento de la complejidad y de la masificación de las vías de comunicación, tales
como el teléfono, las redes de teletipo y los sistemas de comunicación por radio. La
teoría de la información también abarca todas las restantes formas de transmisión y
almacenamiento de información, incluyendo la televisión y los impulsos eléctricos
que se transmiten en las computadoras y en la grabación óptica de datos e imágenes.
La idea es garantizar que el transporte masivo de datos no sea en modo alguno una
merma de la calidad, impulso si los datos se comprimen de alguna manera.
5
Idealmente, los datos se pueden restaurar a su forma original al llegar a su destino. En
algunos casos, sin embargo, el objetivo es permitir que los datos de alguna forma se
conviertan para la transmisión en masa, se reciban en el punto de destino y sean
convertidos fácilmente a su formato original, sin perder ninguna de la información
transmitida.
TEORIA DE LA INFORMACION DE CLAUDE E. SHANNON.
La Teoría de la Información de Claude E. Shannon, es sin duda uno de los avances
científicos más importantes del siglo XX. El principal objetivo de esta teoría es el de
proporcionar una definición rigurosa de la noción de información que permita
cuantificarla. Fue desarrollada con el objetivo de encontrar límites fundamentales en
las operaciones de procesamiento de señales tales como compresión de datos,
almacenamiento y comunicación. Sus aplicaciones se extienden a campos diversos,
entre ellos la física, la química, la biología, la inferencia estadística, la robótica, la
criptografía, la computación, la lingüística, el reconocimiento de patrones y la teoría
de la comunicación. En esta entrada discutimos los aspectos centrales del formalismo
de Shannon y algunos sus problemas interpretaciones.
El modelo propuesto por Shannon es un sistema general de la comunicación que
parte de una fuente de información desde la cual, a través de un transmisor, se emite
una señal la cual viaja por un canal, pero a lo largo de su viaje puede ser interferida
por algún ruido. La señal sale del canal llega a un receptor que decodifica la
información convirtiéndola posteriormente en mensaje que pasa a un destinario. Con
el modelo de la teoría de la información se trata de llegar a determinar la forma más
económica, rápida y segura de codificar un mensaje sin que la presencia de algún
ruido complique su transmisión. Para esto, el destinatario debe comprender la señal
correctamente; el problema es que aunque exista un mismo código de por medio, esto
no significa que el destinario va a captar el significado que el emisor le quiso dar al
mensaje. La codificación puede referirse tanto a la transformación de voz o imagen
6
en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar
su privacidad.
Un concepto fundamental en la Teoría de la Información es que la cantidad de
información contenida en un mensaje es el valor matemático bien definido y medible.
El termino cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que
un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se
refiere a la cantidad de información, el valor más alto se le asigna al mensaje que
menos probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va
a ser recibido, su cantidad de información es cero.
MUNDIALIZACIÓN E INFORMACIÓN.
El mundo que habitamos hoy, con el incesante desarrollo tecnológico, el aumento
considerable de la población mundial y la creciente interacción entre individuos e
instituciones de distintas regiones del planeta, ha dado lugar a un aumento sin
precedentes en las capacidades de la especie humana para transmitir y procesar
información. El ejemplo más conspicuo de esto es quizá el advenimiento de internet,
una inmensa red que interconecta a miles de millones de personas en todo el planeta.
Esta capacidad para transmitir y procesar información había tenido sus antecesores en
el telégrafo, las ondas de radio, el teléfono y otros sistemas de comunicación más
antiguos.
Algunos autores, han llegado a afirmar que vivimos en la era de la información.
Independientemente del debate acerca de si esta caracterización histórica es adecuada
o no, lo cierto es que el estudio de los problemas técnicos asociados a la transmisión,
medición y procesamiento de la información ha cobrado vital importancia para las
relaciones sociales y comerciales de la sociedad globalizada. Sin ir más lejos, los
mercados actuales dependen fuertemente de que los canales informacionales entre los
distintos agentes económicos funcionen en forma fluida y eficiente. Pero la
7
importancia del estudio de los flujos informacionales y su correcto funcionamiento va
más allá de la esfera estrictamente económica y abarca fines militares, científicos y
recreativos.
En este contexto, el estudio de la Teoría de la Información ha tenido un creciente
desarrollo, en el que cada vez más investigadores aúnan esfuerzos para resolver los
desafíos planteados por la existencia de unos volúmenes de flujo de información muy
difíciles de manejar y administrar. Y es especialmente importante que estos
desarrollos contemplen el aspecto matemático formal de la noción de información, de
forma tal que ésta se pueda medir y cuantificar para ser aplicada con fines
tecnológicos. El desarrollo de una teoría matemática de la información, que permita
describir adecuadamente los problemas que los ingenieros comunicacionales
encuentran en su trabajo diario es el objetivo que persiguió Claude Shannon cuando
desarrollo su formalismo.
Los conceptos y aspectos formales del edificio teórico creado por Shannon siguen
siendo explotados y desarrollados en la actualidad. Es por ello que su estudio es de
vital importancia para entender el estado actual de la Teoría de la Información, y sus
posibles generalizaciones en términos de las florecientes Teoría de la Información
Cuántica y de la Computación Cuántica.
ELEMENTOS DE LA TEORIA.
Fuente. Es en sí misma un conjunto finito de mensajes, todos los posibles mensajes
que puede emitir dicha fuente. En compresión de datos se tomara como fuente el
archivo a comprimir y como mensaje los caracteres que conforman dicho archivo.
Existen varios tipos de fuente. Para la teoría de la información interesan las
fuentes aleatorias y estructuradas. Una fuente es aleatoria cuando no es posible
predecir cuál es el próximo mensaje a emitir por la misma. Una fuente es estructurada
8
cuando posee un cierto nivel de redundancia; una fuente no estructurada o de
información pura es aquella en que todos los mensajes son absolutamente aleatorios
sin relación alguna, ni sentido aparente. Este tipo de fuente emite mensajes que no se
pueden comprimir; un mensaje para poder ser comprimido, debe poseer un cierto
grado de redundancia la información pura no puede ser comprimida sin que haya una
pérdida de conocimiento sobre el mensaje.
Mensaje. En un conjunto de ceros y unos archivo o paquete de datos que viaja por
una red y cualquier cosa que tenga una representación binaria puede considerarse un
mensaje. El concepto de mensaje se aplica también a alfabetos de más de dos
símbolos, pero debido a que tratamos con información digital nos referimos casi
siempre a mensajes binarios.
Código. Es un conjunto de unos y ceros que se usan para representar un cierto
mensaje de acuerdo a reglas o convenciones preestablecidas. Por ejemplo, al mensaje
0010 lo podemos representar con el código 1101 usado para codificar la función
(NOT). La forma en la cual codificamos es arbitraria, en algunos casos representarse
con un código de menor longitud que el mensaje original. Supongamos que a
cualquier mensaje S lo codificamos usando un cierto algoritmo de forma tal que cada
S es codificado en L(S) bits; definimos entonces la información contenida en el
mensaje S como la cantidad mínima de bits necesarios para codificar un mensaje.
Información. La información contenida en un mensaje es proporcional a la cantidad
de bits que se requieren como mínimo para representar al mensaje. El concepto de
información puede entenderse más fácilmente si consideramos un ejemplo.
Supongamos que estamos leyendo un mensaje y hemos leído “cadena de c”; la
probabilidad de que el mensaje continúe con “caracteres” es muy alta. Así, cuando
efectivamente recibimos a continuación “caracteres” la cantidad de información que
nos llegó es muy baja pues estábamos en condiciones de predecir qué era lo que iba a
ocurrir. La ocurrencia de mensajes de alta probabilidad de aparición aporta menos
9
información que la ocurrencia de mensajes menos probables. Si luego de “cadena de
c” leemos “chimichurri” la cantidad de información que estamos recibiendo es mucho
mayor.
EL PROBLEMA DE LA CODIFICACIÓN.
Shannon establecía resultados matemáticos acerca de los recursos que se necesitan
para la codificación óptima y para la comunicación libre de errores. Estos resultados
tuvieron aplicaciones en diversos campos ligados a la teoría de las comunicaciones,
como en la radio, la televisión y la telefonía. Hoy en día se siguen aplicando en
diversas disciplinas.
De acuerdo a Shannon (1948), un sistema de comunicación general consta de
varias partes. Una fuente, la cual genera un mensaje a ser recibido en el destinario. Un
transmisor, que transforma el mensaje generado en la fuente en una señal a ser
transmitida. En los casos en los que la información es codificada, el proceso de
codificación también es implementado por el transmisor. Un canal es cualquier
medio que sirva para que la señal se transmita desde el transmisor al receptor. Este
puede ser, por ejemplo, un cable, una fibra óptica o una señal inalámbrica. Un
receptor, que reconstruye el mensaje a partir de la señal, y finalmente, un
destinatario, que es quien recibe el mensaje. En el siguiente dibujo se representan
estos elementos en forma esquemática:
La fuente S es un sistema que contiene un conjunto de estados diferentes S1,…,
Sn, llamados usualmente letras. Un aspecto central de la teoría de Shannon es que es
posible asignar probabilidades de ocurrencia para los distintos estados de la fuente. Es
decir, los estados S1,…, Sn son producidos con probabilidades p (S1),…, p (Sn).
Notar que estas distribuciones de probabilidad pueden ser modeladas usando los
10
axiomas de Kolmogorov (Kolmogorov 1993). La cantidad de información generada
por la fuente debido a la ocurrencia del estado Si se define como:
Dado que S produce sucesiones de estados (estas sucesiones son usualmente llamadas
mensajes), la entropía de la fuente S se define como la cantidad promedio de
información producida por la fuente:
En forma análoga, el destinario D es un sistema con un rango de estados posibles
d1,…, dm, a los cuales se le asignan probabilidades p (d1),…, p (dm). La cantidad de
información I (dj) recibida en el destinario debido a la ocurrencia de dj se define
como:
Y la entropía del destinario se define como la cantidad promedio de información
recibida:
MEDIDAS DE INFORMACIÓN.
En su artículo original, Shannon (1948, 349) discute la conveniencia del uso de
una función logarítmica en la definición de entropías:
“Si el número de mensajes en el conjunto es finito, este número o cualquier
función monótona de él puede ser considerado como una medida de la información
producida cuando se elije un mensaje del conjunto, siendo todas las opciones
11
igualmente probables. Como fue subrayado por Hartley, la elección más natural es la
función logarítmica. Aunque esta definición debe ser generalizada consideradamente
cuando consideramos la influencia de la estadística del mensaje y cuando tenemos un
rango continuo de mensajes, en todos los casos vamos a usar una media
esencialmente logarítmica.” (Shannon 1948)
Shannon continúa diciendo que esta definición encuentra muchos usos prácticos,
dado que muchos parámetros importantes en ingeniería varían linealmente con el
logaritmo del número de posibilidades. Señala que es al mismo tiempo una medida
intuitiva, porque es usual medir magnitudes comparando linealmente con unidades de
medida. Además de estas ventajas, es matemáticamente adecuada dado que resulta ser
que muchas operaciones llevadas a cabo con el logaritmo se vuelven mucho más
simples que en términos de otras formas funciones.
La elección de una base logarítmica se corresponde con la elección de una unidad
de medida de la información. Si la base usada es 2, la unidad resultante se llamará
“bit”. Este término proviene de la contracción del término en ingles “bynary digit”.
Con estas definiciones, un bit terminará siendo la cantidad de información que se
obtiene cuando una de dos alternativas igualmente probables es especificada. En otras
palabras, una fuente S con dos estados que puede adoptar los valores 1 y 2 con la
misma probabilidad, tendrá una cantidad de información de un bit. Otras bases dan
lugar a diferentes unidades de la información. Por ejemplo, si se usan logaritmos
naturales, la unidad de medida en este caso sera el nat (que es la contracción del
término en ingles natural unit). Cuando se usa la base 10 de los logaritmos, la
unidad se llama Hartley. La posibilidad de usar diferentes unidades para cuantificar la
información muestra la diferencia entre la cantidad de información asociada a un
evento y el número de símbolos binarios necesarios para codificarlo. Es importante
mencionar que el “bit” es una unidad de medida, y el hecho de que distintas unidades
de medida puedan ser usadas no afecta a la naturaleza de la información.
12
De las definiciones es bastante claro que H(S) y H (D) son cantidades de
información promedio. Sin embargo, en la literatura son llamadas usualmente
entropías. Efectivamente, la forma funcional que poseen estas medidas de la
información, es terminología refleja una problemática profunda en los fundamentos
de la teoría de la información. Esto es así a tal que el carácter intrigante de esta
magnitud y sus propiedades se manifestó al comienzo de la formulación de la teoría.
En efecto, de acuerdo a las palabras mismas de Shannon refiriéndose a cómo llamar a
su nueva medida:
“Mi preocupación más grande era como llamarla. Pensé en llamarla
‘información’, pera esa palabra estaba muy usada, de forma tal que decidí llamarla
‘incerteza’. Cuando discutí el asunto con John Von Neumann, el tuvo una idea mejor.
Von Neumann me dijo: ‘Deberías llamarla entropía, por dos motivos. En primer lugar
tu función de incerteza ha sido usada en la mecánica estadística bajo ese nombre, y
por ello, ya tiene un nombre. En segundo lugar, y lo que es más importante, nadie
sabe lo que es la entropía realmente, por ello, en un debate, siempre llevaras ventaja.”
(Tribus and Mclrving 1971, 180).
La conexión con la física a la que hace mención Von Neumann en la cita de arriba
ha sido estudiada profundamente en la literatura física y filosófica.
La relación entre las entropías de la fuente H(S) y del destinatario H (D) se puede
representar intuitivamente por el siguiente diagrama:
13
Donde I(S; D) es la información mutua: la cantidad promedio de información
generada en la fuente S y recibida en el destinario D. E es la equivocación: la
cantidad promedio de información generada en S pero no recibida en D. N es el
ruido: la cantidad promedio de información recibida en D pero no generada en S.
como el diagrama sugiere desde un punto de vista intuitivo, la información mutua se
define como:
I(S; D) = H(S) – E = I(X; Y) = H (D) – N
La equivocación E y el ruido N son medidas de la independencia entre la fuente y
el destinatario, dado que si S y D son completamente independientes, los valores de E
y N son máximos (E = H(S) y N = H (D)), y el valor de i(S; D) es mínimo (I(S; D) =
0). Por otro lado, si la dependencia entre S y D es máxima, los valores de E y N son
mínimos (E = N = 0), y el valor de I(S; D) es máximo (I(S; D) = H(S) = H (D)).
Los valores de E y N son funciones no solo de la fuente y del destinatario, sino
también del canal de comunicación CH. La introducción del canal de comunicación
lleva directamente a la posibilidad de que se produzcan errores en el proceso de
transmisión. El canal CH se puede definir como una matriz [p (dj|Si)], donde p (dj|Si)
es la probabilidad condicional de ocurrencia de dj en el destinatario dado que Si
</sib> ocurrió en la fuente S. los elementos de cada columna de [p (dj|Si) suman uno.
De este modo, E y N se pueden expresar como:
Dónde . La capacidad del canal C se define como:
14
Donde el máximo se toma sobre todas las posibles distribuciones p (Si) en la
fuente. La magnitud C se interpreta como la cantidad de información promedio más
grande que puede ser transmitida por el canal de comunicación CH.
FINALIDAD.
Un aspecto importante es la resistencia a la distorsión que provoca el ruido, la
finalidad de codificación y descodificación, así como la velocidad de transmisión. Es
por esto que se dice el mensaje tiene muchos sentidos, y el destinario extrae el sentido
que debe atribuirle al mensaje, siempre y cuando haya un mismo código en común.
La teoría de la información tiene ciertas limitaciones, como lo es la acepción del
concepto del código. El significado que se quiere transmitir no cuenta tanto como el
número de alternativas necesario para definir el hecho sin ambigüedad. Si la selección
del mensaje se plantea únicamente entre dos alternativas diferentes, la teoría de
Shannon postula arbitrariamente que el valor de la información es uno. Esta unidad
de información recibe el nombre de bit. Para que el valor de la información sea un bit,
todas las alternativas deben ser igual de probables y estar disponibles.
Es importante saber si la fuente de información tiene el mismo grado de libertad
para elegir cualquier posibilidad o si se halla bajo alguna influencia que la induce a
una cierta elección. La cantidad de información crece cuando todas las alternativas
son igual de probables o cuando mayor sea el numero de alternativas.
Pero en la práctica comunicativa real no todas las alternativas son igualmente
probables, lo cual constituye un tipo de proceso estocástico denominado Márkov. El
subtipo de Márkov dice que la cadena de símbolos está configurada de manera que
cualquier secuencia de esa cadena es representativa de toda la cadena completa.
15
CONCLUSIÓN
El receptor es quien valora y da significado a una información, organizándola,
comprendiéndola y convirtiéndola en conocimiento o mensaje.
La teoría de la información tenía como uno de sus objetivos relacionar
información y ruido ya que la “fuente de ruido” definido así por Shannon, interfería
en la claridad de la transmisión de la información, asociado a los factores externos
que disminuyen la calidad de la comunicación y distorsionan el mensaje para el
receptor.
Entre las ventajas de esta teoría está la de permitir entender las técnicas de
compresión de datos modernas, que se usan ampliables para comprimir vídeo, audio o
ficheros de datos, además accede a comprender qué componentes se pueden usar para
proteger la rectitud de los datos cuando se transmiten a través de canales defectuosos
o que muestran ruido. Posee herramientas que permiten calcular la capacidad máxima
de un sistema de transmisión, predice la posibilidad de establecer comunicaciones
con iguales de ruido más grandes que la señal que se puede transmitir.
16
REFERENCIAS CONSULTADAS
 https://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n
 http://dia.austral.edu.ar/Teor%C3%ADa_de_la_informaci%C3%B3n_de_Cla
ude_E._Shannon
17
ANEXOS

Más contenido relacionado

La actualidad más candente

Fundamentos de Telecomunicaciones - Unidad 1 conceptos basicos
Fundamentos de Telecomunicaciones - Unidad 1 conceptos basicosFundamentos de Telecomunicaciones - Unidad 1 conceptos basicos
Fundamentos de Telecomunicaciones - Unidad 1 conceptos basicosJosé Antonio Sandoval Acosta
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionOberdose
 
Ejemplos de simplex
Ejemplos de simplexEjemplos de simplex
Ejemplos de simplexEIYSC
 
TCP (Transmission Control Protocol) Y UDP (User Datagram Protocol)
TCP (Transmission Control Protocol) Y UDP (User Datagram Protocol)TCP (Transmission Control Protocol) Y UDP (User Datagram Protocol)
TCP (Transmission Control Protocol) Y UDP (User Datagram Protocol)Belen Toledo
 
Fundamentos de Telecomunicaciones - Unidad 4: Técnicas de Conmutación
Fundamentos de Telecomunicaciones - Unidad 4: Técnicas de ConmutaciónFundamentos de Telecomunicaciones - Unidad 4: Técnicas de Conmutación
Fundamentos de Telecomunicaciones - Unidad 4: Técnicas de ConmutaciónJosé Antonio Sandoval Acosta
 
Definición de red de comunicaciones
Definición de red  de comunicacionesDefinición de red  de comunicaciones
Definición de red de comunicacionesAndres Rodriguez
 
Conmutacion de circuitos y paquetes
Conmutacion de circuitos y paquetesConmutacion de circuitos y paquetes
Conmutacion de circuitos y paquetesJarvey Gonzalez
 
Tipos de módems, estandares y protocolos
Tipos de módems, estandares y protocolosTipos de módems, estandares y protocolos
Tipos de módems, estandares y protocolosLucre Castillo Lorenzo
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la informaciónUANL
 
Sistemas de Comunicación
Sistemas de ComunicaciónSistemas de Comunicación
Sistemas de Comunicaciónjgbd127
 
Control de flujo por hardware o software,
Control de flujo  por hardware o software,Control de flujo  por hardware o software,
Control de flujo por hardware o software,Victor Mijangos
 
Protocolos de las capas sesion,presentacion y aplicacion
Protocolos de las capas sesion,presentacion y aplicacionProtocolos de las capas sesion,presentacion y aplicacion
Protocolos de las capas sesion,presentacion y aplicacionEduardo J Onofre
 
2.1.3 bases teóricas de comunicaciones
2.1.3 bases teóricas de comunicaciones2.1.3 bases teóricas de comunicaciones
2.1.3 bases teóricas de comunicacionesluishdiaz
 

La actualidad más candente (20)

Fundamentos de Telecomunicaciones - Unidad 1 conceptos basicos
Fundamentos de Telecomunicaciones - Unidad 1 conceptos basicosFundamentos de Telecomunicaciones - Unidad 1 conceptos basicos
Fundamentos de Telecomunicaciones - Unidad 1 conceptos basicos
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Ejemplos de simplex
Ejemplos de simplexEjemplos de simplex
Ejemplos de simplex
 
Tipos de multiplexacion
Tipos de multiplexacionTipos de multiplexacion
Tipos de multiplexacion
 
Redes conmutadas
Redes conmutadasRedes conmutadas
Redes conmutadas
 
Medios de conexión de redes
Medios de conexión de redesMedios de conexión de redes
Medios de conexión de redes
 
Diferencia entre información y comunicación
Diferencia entre información y comunicaciónDiferencia entre información y comunicación
Diferencia entre información y comunicación
 
TCP (Transmission Control Protocol) Y UDP (User Datagram Protocol)
TCP (Transmission Control Protocol) Y UDP (User Datagram Protocol)TCP (Transmission Control Protocol) Y UDP (User Datagram Protocol)
TCP (Transmission Control Protocol) Y UDP (User Datagram Protocol)
 
Fundamentos de Telecomunicaciones - Unidad 4: Técnicas de Conmutación
Fundamentos de Telecomunicaciones - Unidad 4: Técnicas de ConmutaciónFundamentos de Telecomunicaciones - Unidad 4: Técnicas de Conmutación
Fundamentos de Telecomunicaciones - Unidad 4: Técnicas de Conmutación
 
Cuadro comparativo
Cuadro comparativoCuadro comparativo
Cuadro comparativo
 
Definición de red de comunicaciones
Definición de red  de comunicacionesDefinición de red  de comunicaciones
Definición de red de comunicaciones
 
Conmutacion de circuitos y paquetes
Conmutacion de circuitos y paquetesConmutacion de circuitos y paquetes
Conmutacion de circuitos y paquetes
 
Tipos de módems, estandares y protocolos
Tipos de módems, estandares y protocolosTipos de módems, estandares y protocolos
Tipos de módems, estandares y protocolos
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
 
Modelo matematico
Modelo matematicoModelo matematico
Modelo matematico
 
Sistemas de Comunicación
Sistemas de ComunicaciónSistemas de Comunicación
Sistemas de Comunicación
 
Señales
SeñalesSeñales
Señales
 
Control de flujo por hardware o software,
Control de flujo  por hardware o software,Control de flujo  por hardware o software,
Control de flujo por hardware o software,
 
Protocolos de las capas sesion,presentacion y aplicacion
Protocolos de las capas sesion,presentacion y aplicacionProtocolos de las capas sesion,presentacion y aplicacion
Protocolos de las capas sesion,presentacion y aplicacion
 
2.1.3 bases teóricas de comunicaciones
2.1.3 bases teóricas de comunicaciones2.1.3 bases teóricas de comunicaciones
2.1.3 bases teóricas de comunicaciones
 

Similar a Teoría de la Información: aspectos esenciales

Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionsaulparra10
 
TEORIA DE SISTEMA SAMIRA WILLIAMS.pptx
TEORIA DE SISTEMA SAMIRA WILLIAMS.pptxTEORIA DE SISTEMA SAMIRA WILLIAMS.pptx
TEORIA DE SISTEMA SAMIRA WILLIAMS.pptxSAMIRAWILLIAMS2
 
Teoría Matemática de la Información
Teoría Matemática de la InformaciónTeoría Matemática de la Información
Teoría Matemática de la InformaciónJosé Luis López
 
El fenómeno comunicativo
El fenómeno comunicativoEl fenómeno comunicativo
El fenómeno comunicativocharlygutz
 
Resumen de la teoría de shannon
Resumen de la teoría de shannonResumen de la teoría de shannon
Resumen de la teoría de shannonMarco Muñoz
 
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..Aurimarr Vargas
 
Teoría de Información
Teoría de InformaciónTeoría de Información
Teoría de InformaciónNinoska18
 
Modelo de comunicación de shannon y weaver
Modelo de comunicación de shannon y weaverModelo de comunicación de shannon y weaver
Modelo de comunicación de shannon y weaverCelesteRamirez30
 
Teoria de Informacion.pptx
Teoria de Informacion.pptxTeoria de Informacion.pptx
Teoria de Informacion.pptxYulianaMendoza25
 
Teoría de la Información .pdf
Teoría de la Información .pdfTeoría de la Información .pdf
Teoría de la Información .pdfEdsonAcosta5
 
Teoría de Shannon,Quien fue, desarrollo, introducción, contexto, ciencias de ...
Teoría de Shannon,Quien fue, desarrollo, introducción, contexto, ciencias de ...Teoría de Shannon,Quien fue, desarrollo, introducción, contexto, ciencias de ...
Teoría de Shannon,Quien fue, desarrollo, introducción, contexto, ciencias de ...ssuserfc549d
 
Pre teoría de la inf
Pre teoría de la infPre teoría de la inf
Pre teoría de la infMaria Pilar
 

Similar a Teoría de la Información: aspectos esenciales (20)

Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Comunicacion 22 4.19
Comunicacion 22 4.19Comunicacion 22 4.19
Comunicacion 22 4.19
 
TEORIA DE SISTEMA SAMIRA WILLIAMS.pptx
TEORIA DE SISTEMA SAMIRA WILLIAMS.pptxTEORIA DE SISTEMA SAMIRA WILLIAMS.pptx
TEORIA DE SISTEMA SAMIRA WILLIAMS.pptx
 
Teoria de-lainformacion 1
Teoria de-lainformacion 1Teoria de-lainformacion 1
Teoria de-lainformacion 1
 
Teoría Matemática de la Información
Teoría Matemática de la InformaciónTeoría Matemática de la Información
Teoría Matemática de la Información
 
El fenómeno comunicativo
El fenómeno comunicativoEl fenómeno comunicativo
El fenómeno comunicativo
 
Resumen de la teoría de shannon
Resumen de la teoría de shannonResumen de la teoría de shannon
Resumen de la teoría de shannon
 
Markov
MarkovMarkov
Markov
 
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
 
Franghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 tiFranghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 ti
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
La Evolucion de los Sistema
La Evolucion de los SistemaLa Evolucion de los Sistema
La Evolucion de los Sistema
 
Teoría de Información
Teoría de InformaciónTeoría de Información
Teoría de Información
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
Unidad 6
Unidad 6Unidad 6
Unidad 6
 
Modelo de comunicación de shannon y weaver
Modelo de comunicación de shannon y weaverModelo de comunicación de shannon y weaver
Modelo de comunicación de shannon y weaver
 
Teoria de Informacion.pptx
Teoria de Informacion.pptxTeoria de Informacion.pptx
Teoria de Informacion.pptx
 
Teoría de la Información .pdf
Teoría de la Información .pdfTeoría de la Información .pdf
Teoría de la Información .pdf
 
Teoría de Shannon,Quien fue, desarrollo, introducción, contexto, ciencias de ...
Teoría de Shannon,Quien fue, desarrollo, introducción, contexto, ciencias de ...Teoría de Shannon,Quien fue, desarrollo, introducción, contexto, ciencias de ...
Teoría de Shannon,Quien fue, desarrollo, introducción, contexto, ciencias de ...
 
Pre teoría de la inf
Pre teoría de la infPre teoría de la inf
Pre teoría de la inf
 

Último

2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para eventoDiegoMtsS
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxjosetrinidadchavez
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxPryhaSalam
 
Herramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfHerramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfMARIAPAULAMAHECHAMOR
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfResolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticosisabeltrejoros
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSjlorentemartos
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptELENA GALLARDO PAÚLS
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 

Último (20)

2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para evento
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
La Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdfLa Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdf
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
 
Herramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfHerramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdf
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfResolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticos
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 
Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 

Teoría de la Información: aspectos esenciales

  • 1. REPÚBLICA BOLIVARIANA DE VENEZUELA INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO” EXTENSIÓN MATURÍN .LA TEORIA DE LA INFORMACIÓN. PROFESOR: AUTOR: Cristóbal Espinoza Johsmar Tova C.I. 20.677.479 Maturín, 22 de Abril de 2019.
  • 2. 2 INDICE Introducción………………………………………………………………………. 3 Historia de la Teoría de la Información …………………………………………... 4 Teoría de la Información de Claude E. Shannon…………………………………. 5 Mundialización e Información……………………………………………………. 6 Elementos de la Teoría……………………………………………………………. 7 El Problema de la Codificación…………………………………………………... 9 Medidas de Información …………………………………………………………. 10 Finalidad………………………………………………………………………….. 14 Conclusión………………………………………………………………………... 15 Referencias consultadas ………………………………………………………….. 16 Anexos……………………………………………………………………………. 17
  • 3. 3 INTRODUCCIÓN Partiendo de que la información se refiere a un conjunto de noticias o datos estructurados de forma organizada y procesada, presentes en un mensaje, se ideo la teoría de la información, debido a que en la cotidianidad las personas están inmersas de informaciones, y para su comprensión la misma tiene que tener un orden y ser procesada con la finalidad de que pueda ser llegada al receptor. La teoría de la información, conocida también como teoría matemática de la información, siendo una propuesta creada por el matemático e ingeniero Claude E. Shannon y el biólogo e informatólogo Warren Weaver, se dedicaron a elaborar una teoría sobre cómo tratar a la información almacenada en forma digital; expusieron que las fuentes de información y los canales de comunicación pueden medirse, cuya capacidad y velocidad de transferencia dependerá de una determinada medida. Esta teoría se centraba en el estudio de la información (transmisión y procesamiento, medición y representación de la información, capacidad de los sistemas de comunicación para transmitir y procesar información), y por ende canales, elementos y compresión de datos. El siguiente proyecto dará a conocer aspectos esenciales sobre la teoría de la información, una breve reseña de la misma, los elementos que hacen posible su transmisión, entre otros puntos relevantes.
  • 4. 4 HISTORIA DE TEORIA DE LA INFORMACIÓN. La teoría de la información surgió a finales de la Segunda Guerra Mundial, en los años cuarenta. Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado una teoría matemática de la información. En esta época se buscaba utilizar de manera más eficiente los canales de comunicación, enviando una cantidad de información por un determinado canal y midiendo su capacidad; se buscaba la transmisión óptima de los mensajes. Esta teoría es el resultado de trabajos comenzados en la década 1910 por Andrei A. Markovi, a quien le siguió Ralp V. L. Hartley en 1927, quien fue el percusor del lenguaje binario. A su vez, Alan Turing en 1936, realizo el esquema de una máquina capaz de tratar información con emisión de símbolos, y finalmente Clause Elwood Shannon, matemático, ingeniero electrónico y criptógrafo estadounidense, conocido como “el padre de la teoría de la información”, junto a Warren Weaver, contribuyo en la culminación y el asentamiento de la Teoría Matemática de la comunicación de 1949 que hoy es mundialmente conocida por todos como Teoría de la Información. Weaver consiguió darle un alcance superior al planteamiento inicial, creando un modelo simple y lineal: Fuente/ Codificador/ Mensaje canal/ Decodificador/ Destino. La necesidad de una base teórica para la tecnología de la comunicación surgió del aumento de la complejidad y de la masificación de las vías de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de comunicación por radio. La teoría de la información también abarca todas las restantes formas de transmisión y almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten en las computadoras y en la grabación óptica de datos e imágenes. La idea es garantizar que el transporte masivo de datos no sea en modo alguno una merma de la calidad, impulso si los datos se comprimen de alguna manera.
  • 5. 5 Idealmente, los datos se pueden restaurar a su forma original al llegar a su destino. En algunos casos, sin embargo, el objetivo es permitir que los datos de alguna forma se conviertan para la transmisión en masa, se reciban en el punto de destino y sean convertidos fácilmente a su formato original, sin perder ninguna de la información transmitida. TEORIA DE LA INFORMACION DE CLAUDE E. SHANNON. La Teoría de la Información de Claude E. Shannon, es sin duda uno de los avances científicos más importantes del siglo XX. El principal objetivo de esta teoría es el de proporcionar una definición rigurosa de la noción de información que permita cuantificarla. Fue desarrollada con el objetivo de encontrar límites fundamentales en las operaciones de procesamiento de señales tales como compresión de datos, almacenamiento y comunicación. Sus aplicaciones se extienden a campos diversos, entre ellos la física, la química, la biología, la inferencia estadística, la robótica, la criptografía, la computación, la lingüística, el reconocimiento de patrones y la teoría de la comunicación. En esta entrada discutimos los aspectos centrales del formalismo de Shannon y algunos sus problemas interpretaciones. El modelo propuesto por Shannon es un sistema general de la comunicación que parte de una fuente de información desde la cual, a través de un transmisor, se emite una señal la cual viaja por un canal, pero a lo largo de su viaje puede ser interferida por algún ruido. La señal sale del canal llega a un receptor que decodifica la información convirtiéndola posteriormente en mensaje que pasa a un destinario. Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje sin que la presencia de algún ruido complique su transmisión. Para esto, el destinatario debe comprender la señal correctamente; el problema es que aunque exista un mismo código de por medio, esto no significa que el destinario va a captar el significado que el emisor le quiso dar al mensaje. La codificación puede referirse tanto a la transformación de voz o imagen
  • 6. 6 en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. Un concepto fundamental en la Teoría de la Información es que la cantidad de información contenida en un mensaje es el valor matemático bien definido y medible. El termino cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a la cantidad de información, el valor más alto se le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de información es cero. MUNDIALIZACIÓN E INFORMACIÓN. El mundo que habitamos hoy, con el incesante desarrollo tecnológico, el aumento considerable de la población mundial y la creciente interacción entre individuos e instituciones de distintas regiones del planeta, ha dado lugar a un aumento sin precedentes en las capacidades de la especie humana para transmitir y procesar información. El ejemplo más conspicuo de esto es quizá el advenimiento de internet, una inmensa red que interconecta a miles de millones de personas en todo el planeta. Esta capacidad para transmitir y procesar información había tenido sus antecesores en el telégrafo, las ondas de radio, el teléfono y otros sistemas de comunicación más antiguos. Algunos autores, han llegado a afirmar que vivimos en la era de la información. Independientemente del debate acerca de si esta caracterización histórica es adecuada o no, lo cierto es que el estudio de los problemas técnicos asociados a la transmisión, medición y procesamiento de la información ha cobrado vital importancia para las relaciones sociales y comerciales de la sociedad globalizada. Sin ir más lejos, los mercados actuales dependen fuertemente de que los canales informacionales entre los distintos agentes económicos funcionen en forma fluida y eficiente. Pero la
  • 7. 7 importancia del estudio de los flujos informacionales y su correcto funcionamiento va más allá de la esfera estrictamente económica y abarca fines militares, científicos y recreativos. En este contexto, el estudio de la Teoría de la Información ha tenido un creciente desarrollo, en el que cada vez más investigadores aúnan esfuerzos para resolver los desafíos planteados por la existencia de unos volúmenes de flujo de información muy difíciles de manejar y administrar. Y es especialmente importante que estos desarrollos contemplen el aspecto matemático formal de la noción de información, de forma tal que ésta se pueda medir y cuantificar para ser aplicada con fines tecnológicos. El desarrollo de una teoría matemática de la información, que permita describir adecuadamente los problemas que los ingenieros comunicacionales encuentran en su trabajo diario es el objetivo que persiguió Claude Shannon cuando desarrollo su formalismo. Los conceptos y aspectos formales del edificio teórico creado por Shannon siguen siendo explotados y desarrollados en la actualidad. Es por ello que su estudio es de vital importancia para entender el estado actual de la Teoría de la Información, y sus posibles generalizaciones en términos de las florecientes Teoría de la Información Cuántica y de la Computación Cuántica. ELEMENTOS DE LA TEORIA. Fuente. Es en sí misma un conjunto finito de mensajes, todos los posibles mensajes que puede emitir dicha fuente. En compresión de datos se tomara como fuente el archivo a comprimir y como mensaje los caracteres que conforman dicho archivo. Existen varios tipos de fuente. Para la teoría de la información interesan las fuentes aleatorias y estructuradas. Una fuente es aleatoria cuando no es posible predecir cuál es el próximo mensaje a emitir por la misma. Una fuente es estructurada
  • 8. 8 cuando posee un cierto nivel de redundancia; una fuente no estructurada o de información pura es aquella en que todos los mensajes son absolutamente aleatorios sin relación alguna, ni sentido aparente. Este tipo de fuente emite mensajes que no se pueden comprimir; un mensaje para poder ser comprimido, debe poseer un cierto grado de redundancia la información pura no puede ser comprimida sin que haya una pérdida de conocimiento sobre el mensaje. Mensaje. En un conjunto de ceros y unos archivo o paquete de datos que viaja por una red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje. El concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero debido a que tratamos con información digital nos referimos casi siempre a mensajes binarios. Código. Es un conjunto de unos y ceros que se usan para representar un cierto mensaje de acuerdo a reglas o convenciones preestablecidas. Por ejemplo, al mensaje 0010 lo podemos representar con el código 1101 usado para codificar la función (NOT). La forma en la cual codificamos es arbitraria, en algunos casos representarse con un código de menor longitud que el mensaje original. Supongamos que a cualquier mensaje S lo codificamos usando un cierto algoritmo de forma tal que cada S es codificado en L(S) bits; definimos entonces la información contenida en el mensaje S como la cantidad mínima de bits necesarios para codificar un mensaje. Información. La información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo para representar al mensaje. El concepto de información puede entenderse más fácilmente si consideramos un ejemplo. Supongamos que estamos leyendo un mensaje y hemos leído “cadena de c”; la probabilidad de que el mensaje continúe con “caracteres” es muy alta. Así, cuando efectivamente recibimos a continuación “caracteres” la cantidad de información que nos llegó es muy baja pues estábamos en condiciones de predecir qué era lo que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad de aparición aporta menos
  • 9. 9 información que la ocurrencia de mensajes menos probables. Si luego de “cadena de c” leemos “chimichurri” la cantidad de información que estamos recibiendo es mucho mayor. EL PROBLEMA DE LA CODIFICACIÓN. Shannon establecía resultados matemáticos acerca de los recursos que se necesitan para la codificación óptima y para la comunicación libre de errores. Estos resultados tuvieron aplicaciones en diversos campos ligados a la teoría de las comunicaciones, como en la radio, la televisión y la telefonía. Hoy en día se siguen aplicando en diversas disciplinas. De acuerdo a Shannon (1948), un sistema de comunicación general consta de varias partes. Una fuente, la cual genera un mensaje a ser recibido en el destinario. Un transmisor, que transforma el mensaje generado en la fuente en una señal a ser transmitida. En los casos en los que la información es codificada, el proceso de codificación también es implementado por el transmisor. Un canal es cualquier medio que sirva para que la señal se transmita desde el transmisor al receptor. Este puede ser, por ejemplo, un cable, una fibra óptica o una señal inalámbrica. Un receptor, que reconstruye el mensaje a partir de la señal, y finalmente, un destinatario, que es quien recibe el mensaje. En el siguiente dibujo se representan estos elementos en forma esquemática: La fuente S es un sistema que contiene un conjunto de estados diferentes S1,…, Sn, llamados usualmente letras. Un aspecto central de la teoría de Shannon es que es posible asignar probabilidades de ocurrencia para los distintos estados de la fuente. Es decir, los estados S1,…, Sn son producidos con probabilidades p (S1),…, p (Sn). Notar que estas distribuciones de probabilidad pueden ser modeladas usando los
  • 10. 10 axiomas de Kolmogorov (Kolmogorov 1993). La cantidad de información generada por la fuente debido a la ocurrencia del estado Si se define como: Dado que S produce sucesiones de estados (estas sucesiones son usualmente llamadas mensajes), la entropía de la fuente S se define como la cantidad promedio de información producida por la fuente: En forma análoga, el destinario D es un sistema con un rango de estados posibles d1,…, dm, a los cuales se le asignan probabilidades p (d1),…, p (dm). La cantidad de información I (dj) recibida en el destinario debido a la ocurrencia de dj se define como: Y la entropía del destinario se define como la cantidad promedio de información recibida: MEDIDAS DE INFORMACIÓN. En su artículo original, Shannon (1948, 349) discute la conveniencia del uso de una función logarítmica en la definición de entropías: “Si el número de mensajes en el conjunto es finito, este número o cualquier función monótona de él puede ser considerado como una medida de la información producida cuando se elije un mensaje del conjunto, siendo todas las opciones
  • 11. 11 igualmente probables. Como fue subrayado por Hartley, la elección más natural es la función logarítmica. Aunque esta definición debe ser generalizada consideradamente cuando consideramos la influencia de la estadística del mensaje y cuando tenemos un rango continuo de mensajes, en todos los casos vamos a usar una media esencialmente logarítmica.” (Shannon 1948) Shannon continúa diciendo que esta definición encuentra muchos usos prácticos, dado que muchos parámetros importantes en ingeniería varían linealmente con el logaritmo del número de posibilidades. Señala que es al mismo tiempo una medida intuitiva, porque es usual medir magnitudes comparando linealmente con unidades de medida. Además de estas ventajas, es matemáticamente adecuada dado que resulta ser que muchas operaciones llevadas a cabo con el logaritmo se vuelven mucho más simples que en términos de otras formas funciones. La elección de una base logarítmica se corresponde con la elección de una unidad de medida de la información. Si la base usada es 2, la unidad resultante se llamará “bit”. Este término proviene de la contracción del término en ingles “bynary digit”. Con estas definiciones, un bit terminará siendo la cantidad de información que se obtiene cuando una de dos alternativas igualmente probables es especificada. En otras palabras, una fuente S con dos estados que puede adoptar los valores 1 y 2 con la misma probabilidad, tendrá una cantidad de información de un bit. Otras bases dan lugar a diferentes unidades de la información. Por ejemplo, si se usan logaritmos naturales, la unidad de medida en este caso sera el nat (que es la contracción del término en ingles natural unit). Cuando se usa la base 10 de los logaritmos, la unidad se llama Hartley. La posibilidad de usar diferentes unidades para cuantificar la información muestra la diferencia entre la cantidad de información asociada a un evento y el número de símbolos binarios necesarios para codificarlo. Es importante mencionar que el “bit” es una unidad de medida, y el hecho de que distintas unidades de medida puedan ser usadas no afecta a la naturaleza de la información.
  • 12. 12 De las definiciones es bastante claro que H(S) y H (D) son cantidades de información promedio. Sin embargo, en la literatura son llamadas usualmente entropías. Efectivamente, la forma funcional que poseen estas medidas de la información, es terminología refleja una problemática profunda en los fundamentos de la teoría de la información. Esto es así a tal que el carácter intrigante de esta magnitud y sus propiedades se manifestó al comienzo de la formulación de la teoría. En efecto, de acuerdo a las palabras mismas de Shannon refiriéndose a cómo llamar a su nueva medida: “Mi preocupación más grande era como llamarla. Pensé en llamarla ‘información’, pera esa palabra estaba muy usada, de forma tal que decidí llamarla ‘incerteza’. Cuando discutí el asunto con John Von Neumann, el tuvo una idea mejor. Von Neumann me dijo: ‘Deberías llamarla entropía, por dos motivos. En primer lugar tu función de incerteza ha sido usada en la mecánica estadística bajo ese nombre, y por ello, ya tiene un nombre. En segundo lugar, y lo que es más importante, nadie sabe lo que es la entropía realmente, por ello, en un debate, siempre llevaras ventaja.” (Tribus and Mclrving 1971, 180). La conexión con la física a la que hace mención Von Neumann en la cita de arriba ha sido estudiada profundamente en la literatura física y filosófica. La relación entre las entropías de la fuente H(S) y del destinatario H (D) se puede representar intuitivamente por el siguiente diagrama:
  • 13. 13 Donde I(S; D) es la información mutua: la cantidad promedio de información generada en la fuente S y recibida en el destinario D. E es la equivocación: la cantidad promedio de información generada en S pero no recibida en D. N es el ruido: la cantidad promedio de información recibida en D pero no generada en S. como el diagrama sugiere desde un punto de vista intuitivo, la información mutua se define como: I(S; D) = H(S) – E = I(X; Y) = H (D) – N La equivocación E y el ruido N son medidas de la independencia entre la fuente y el destinatario, dado que si S y D son completamente independientes, los valores de E y N son máximos (E = H(S) y N = H (D)), y el valor de i(S; D) es mínimo (I(S; D) = 0). Por otro lado, si la dependencia entre S y D es máxima, los valores de E y N son mínimos (E = N = 0), y el valor de I(S; D) es máximo (I(S; D) = H(S) = H (D)). Los valores de E y N son funciones no solo de la fuente y del destinatario, sino también del canal de comunicación CH. La introducción del canal de comunicación lleva directamente a la posibilidad de que se produzcan errores en el proceso de transmisión. El canal CH se puede definir como una matriz [p (dj|Si)], donde p (dj|Si) es la probabilidad condicional de ocurrencia de dj en el destinatario dado que Si </sib> ocurrió en la fuente S. los elementos de cada columna de [p (dj|Si) suman uno. De este modo, E y N se pueden expresar como: Dónde . La capacidad del canal C se define como:
  • 14. 14 Donde el máximo se toma sobre todas las posibles distribuciones p (Si) en la fuente. La magnitud C se interpreta como la cantidad de información promedio más grande que puede ser transmitida por el canal de comunicación CH. FINALIDAD. Un aspecto importante es la resistencia a la distorsión que provoca el ruido, la finalidad de codificación y descodificación, así como la velocidad de transmisión. Es por esto que se dice el mensaje tiene muchos sentidos, y el destinario extrae el sentido que debe atribuirle al mensaje, siempre y cuando haya un mismo código en común. La teoría de la información tiene ciertas limitaciones, como lo es la acepción del concepto del código. El significado que se quiere transmitir no cuenta tanto como el número de alternativas necesario para definir el hecho sin ambigüedad. Si la selección del mensaje se plantea únicamente entre dos alternativas diferentes, la teoría de Shannon postula arbitrariamente que el valor de la información es uno. Esta unidad de información recibe el nombre de bit. Para que el valor de la información sea un bit, todas las alternativas deben ser igual de probables y estar disponibles. Es importante saber si la fuente de información tiene el mismo grado de libertad para elegir cualquier posibilidad o si se halla bajo alguna influencia que la induce a una cierta elección. La cantidad de información crece cuando todas las alternativas son igual de probables o cuando mayor sea el numero de alternativas. Pero en la práctica comunicativa real no todas las alternativas son igualmente probables, lo cual constituye un tipo de proceso estocástico denominado Márkov. El subtipo de Márkov dice que la cadena de símbolos está configurada de manera que cualquier secuencia de esa cadena es representativa de toda la cadena completa.
  • 15. 15 CONCLUSIÓN El receptor es quien valora y da significado a una información, organizándola, comprendiéndola y convirtiéndola en conocimiento o mensaje. La teoría de la información tenía como uno de sus objetivos relacionar información y ruido ya que la “fuente de ruido” definido así por Shannon, interfería en la claridad de la transmisión de la información, asociado a los factores externos que disminuyen la calidad de la comunicación y distorsionan el mensaje para el receptor. Entre las ventajas de esta teoría está la de permitir entender las técnicas de compresión de datos modernas, que se usan ampliables para comprimir vídeo, audio o ficheros de datos, además accede a comprender qué componentes se pueden usar para proteger la rectitud de los datos cuando se transmiten a través de canales defectuosos o que muestran ruido. Posee herramientas que permiten calcular la capacidad máxima de un sistema de transmisión, predice la posibilidad de establecer comunicaciones con iguales de ruido más grandes que la señal que se puede transmitir.
  • 16. 16 REFERENCIAS CONSULTADAS  https://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n  http://dia.austral.edu.ar/Teor%C3%ADa_de_la_informaci%C3%B3n_de_Cla ude_E._Shannon