SlideShare una empresa de Scribd logo
1 de 18
REPUBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DELPODER POPULAR PARA LA
EDUCACION UNIVERSITARIA, CIENCIAS Y
TECNOLOGIA
I.U.P “SANTIAGO MARIÑO”
EXTENSION-MATURIN
Teoría de la información
Profesor: Bachiller:
ing. Cristóbal Espinoza Saúl Parra Ci.V24504340
Abril 2019
Índice
Introducción ............................................................................................................................. 1
Que es la teoría de la comunicación?.......................................................................................... 2
Historia..................................................................................................................................... 2
Desarrollo de la teoría............................................................................................................... 3
Finalidad................................................................................................................................... 3
Elementos de la teoría............................................................................................................... 4
Entropía e información.............................................................................................................. 6
Entropía de una fuente.............................................................................................................. 6
Cantidad de información............................................................................................................ 8
Canales de comunicación........................................................................................................... 9
Capacidad de un canal............................................................................................................... 9
Desarrollo histórico..................................................................................................................10
Tasa de Nyquist........................................................................................................................10
Ley de Hartley..........................................................................................................................10
Teorema de Shannon-Hartley....................................................................................................11
Relaciónentre ancho de banda, capacidad de canal yla relación señal - a – ruido........................11
Codificación (P.C.M) .................................................................................................................11
Códigos detectores y correctores de error.................................................................................13
Conclusión...............................................................................................................................15
Bibliografía.....................................................................................Error! Bookmark not defined.
1
Introducción
La teoría de la información es una rama de las matemáticas actuales que fue desarrollada
por Claude Shannon a mediados del siglo XX. Es la base teórica de la ciencia y la
ingeniería de telecomunicación moderna esta teoría nos permite entender qué es la
información, cómo se mide, cuánto ocupa y cuál es la capacidad mínima de un canal de
transmisión para poderla transmitir, hoy más que nunca las redes globales por la cual
circula gran parte de información es necesario conocer los conceptos básicos que esta gran
teoría nos plantea.
2
¿Qué es la teoría de la comunicación?
La teoría de la información, también conocida como teoría matemática de la comunicación
(Inglés: mathematical theory of communication) o teoría matemática de la información, es
una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la
década de los años 1940. Esta teoría está relacionada con las leyes matemáticas que rigen
la transmisión y el procesamiento de la información y se ocupa de la medición de la
información y de la representación de la misma, así como también de la capacidad de los
sistemas de comunicación para transmitir y procesar información. La teoría de la
información es una rama de la teoría de la probabilidad y de las ciencias de la computación
que estudia la información y todo lo relacionado con ella: canales, compresión de datos y
criptografía, entre otros.
Historia
La teoría de la información surgió a finales de la Segunda Guerra Mundial, en los años
cuarenta. Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell
System Technical Journal en 1948, titulado Una teoría matemática de la comunicación
(texto completo en inglés). En esta época se buscaba utilizar de manera más eficiente los
canales de comunicación, enviando una cantidad de información por un determinado canal
y midiendo su capacidad; se buscaba la transmisión óptima de los mensajes. Esta teoría es
el resultado de trabajos comenzados en la década 1910 por Andrei A. Markovi, a quien le
siguió Ralp V. L. Hartley en 1927, quien fue el precursor del lenguaje binario. A su vez,
Alan Turing en 1936, realizó el esquema de una máquina capaz de tratar información con
emisión de símbolos, y finalmente Claude Elwood Shannon, matemático, ingeniero
electrónico y criptógrafo estadounidense, conocido como "el padre de la teoría de la
información”, junto a Warren Weaver, contribuyó en la culminación y el asentamiento de la
Teoría Matemática de la Comunicación de 1949 –que hoy es mundialmente conocida por
todos como la Teoría de la Información-. Weaver consiguió darle un alcance superior al
planteamiento inicial, creando un modelo simple y lineal: Fuente/codificador/mensaje
canal/decodificador/destino. La necesidad de una base teórica para la tecnología de la
comunicación surgió del aumento de la complejidad y de la masificación de las vías de
comunicación, tales como el teléfono, las redes de teletipo y los sistemas de comunicación
por radio. La teoría de la información también abarca todas las restantes formas de
transmisión y almacenamiento de información, incluyendo la televisión y los impulsos
eléctricos que se transmiten en las computadoras y en la grabación óptica de datos e
imágenes. La idea es garantizar que el transporte masivo de datos no sea en modo alguno
una merma de la calidad, incluso si los datos se comprimen de alguna manera. Idealmente,
los datos se pueden restaurar a su forma original al llegar a su destino. En algunos casos,
sin embargo, el objetivo es permitir que los datos de alguna forma se conviertan para la
3
transmisión en masa, se reciban en el punto de destino y sean convertidos fácilmente a su
formato original, sin perder ninguna de la información transmitida.
Desarrollo de la teoría
El modelo propuesto por Shannon es un sistema general de la comunicación que parte de
una fuente de información desde la cual, a través de un transmisor, se emite una señal, la
cual viaja por un canal, pero a lo largo de su viaje puede ser interferida por algún ruido. La
señal sale del canal, llega a un receptor que decodifica la información convirtiéndola
posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría de la
información se trata de llegar a determinar la forma más económica, rápida y segura de
codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. Para
esto, el destinatario debe comprender la señal correctamente; el problema es que aunque
exista un mismo código de por medio, esto no significa que el destinatario va a captar el
significado que el emisor le quiso dar al mensaje. La codificación puede referirse tanto a la
transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado
de mensajes para asegurar su privacidad. Un concepto fundamental en la teoría de la
información es que la cantidad de información contenida en un mensaje es un valor
matemático bien definido y medible. El término cantidad no se refiere a la cuantía de
datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes
posibles, sea recibido. En lo que se refiere a la cantidad de información, el valor más alto se
le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza
que un mensaje va a ser recibido, su cantidad de información es cero.
Finalidad
Otro aspecto importante dentro de esta teoría es la resistencia a la distorsión que provoca el
ruido, la facilidad de codificación y descodificación, así como la velocidad de transmisión.
Es por esto que se dice que el mensaje tiene muchos sentidos, y el destinatario extrae el
sentido que debe atribuirle al mensaje, siempre y cuando haya un mismo código en común.
La teoría de la información tiene ciertas limitaciones, como lo es la acepción del concepto
del código. El significado que se quiere transmitir no cuenta tanto como el número de
alternativas necesario para definir el hecho sin ambigüedad. Si la selección del mensaje se
plantea únicamente entre dos alternativas diferentes, la teoría de Shannon postula
arbitrariamente que el valor de la información es uno. Esta unidad de información recibe el
nombre de bit. Para que el valor de la información sea un bit, todas las alternativas deben
ser igual de probables y estar disponibles. Es importante saber si la fuente de información
tiene el mismo grado de libertad para elegir cualquier posibilidad o si se halla bajo alguna
influencia que la induce a una cierta elección. La cantidad de información crece cuando
todas las alternativas son igual de probables o cuanto mayor sea el número de alternativas.
4
Pero en la práctica comunicativa real no todas las alternativas son igualmente probables, lo
cual constituye un tipo de proceso estocástico denominado Márkov. El subtipo de Márkov
dice que la cadena de símbolos está configurada de manera que cualquier secuencia de esa
cadena es representativa de toda la cadena completa.
Elementos de la teoría
Fuente
Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser una
computadora y mensajes sus archivos; una fuente puede ser un dispositivo de transmisión
de datos y mensajes los datos enviados, etc. Una fuente es en sí misma un conjunto finito
de mensajes: todos los posibles mensajes que puede emitir dicha fuente. En compresión de
datos se tomará como fuente el archivo a comprimir y como mensajes los caracteres que
conforman dicho archivo.
Tipos de fuente
Por la naturaleza generativa de sus mensajes, una fuente puede ser aleatoria o determinista.
Por la relación entre los mensajes emitidos, una fuente puede ser estructurada o no
estructurada (o caótica).
Existen varios tipos de fuente. Para la teoría de la información interesan las fuentes
aleatorias y estructuradas. Una fuente es aleatoria cuando no es posible predecir cuál es el
próximo mensaje a emitir por la misma. Una fuente es estructurada cuando posee un cierto
nivel de redundancia; una fuente no estructurada o de información pura es aquella en que
todos los mensajes son absolutamente aleatorios sin relación alguna ni sentido aparente.
Este tipo de fuente emite mensajes que no se pueden comprimir; un mensaje, para poder ser
comprimido, debe poseer un cierto grado de redundancia; la información pura no puede ser
comprimida sin que haya una pérdida de conocimiento sobre el mensaje.
Mensaje
Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por
una red y cualquier cosa que tenga una representación binaria puede considerarse un
mensaje. El concepto de mensaje se aplica también a alfabetos de más de dos símbolos,
pero debido a que tratamos con información digital nos referiremos casi siempre a mensajes
binarios.
5
Código
Un código es un conjunto de unos y ceros que se usan para representar un cierto mensaje de
acuerdo a reglas o convenciones preestablecidas. Por ejemplo, al mensaje 0010 lo podemos
representar con el código 1101 usado para codificar la función (NOT). La forma en la cual
codificamos es arbitraria. Un mensaje puede, en algunos casos, representarse con un código
de menor longitud que el mensaje original. Supongamos que a cualquier mensaje S lo
codificamos usando un cierto algoritmo de forma tal que cada S es codificado en L(S)
bits; definimos entonces la información contenida en el mensaje S como la cantidad
mínima de bits necesarios para codificar un mensaje.
Información
La información contenida en un mensaje es proporcional a la cantidad de bits que se
requieren como mínimo para representar al mensaje. El concepto de información puede
entenderse más fácilmente si consideramos un ejemplo. Supongamos que estamos leyendo
un mensaje y hemos leído "cadena de c"; la probabilidad de que el mensaje continúe con
"caracteres" es muy alta. Así, cuando efectivamente recibimos a continuación "caracteres"
la cantidad de información que nos llegó es muy baja pues estábamos en condiciones de
predecir qué era lo que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad de
aparición aporta menos información que la ocurrencia de mensajes menos probables. Si
luego de "cadena de c" leemos "himichurri" la cantidad de información que estamos
recibiendo es mucho mayor.
Modelo de comunicación desarrollado por Shannon y Weawer
6
Entropía e información
La información es tratada como magnitud física, caracterizando la información de una
secuencia de símbolos utilizando la entropía. Es parte de la idea de que los canales no son
ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos
métodos de envío de información o la cantidad de información útil que se pueda enviar a
través de un canal.
La información necesaria para especificar un sistema físico tiene que ver con su entropía.
En concreto, en ciertas áreas de la física, extraer información del estado actual de un
sistema requiere reducir su entropía, de tal manera que la entropía del sistema (S) y la
cantidad de información (I) extraíble están relacionadas por:
𝑆 ≥ 𝑆 − 𝐼 ≥ 0
Entropía de una fuente
De acuerdo con la teoría de la información, el nivel de información de una fuente se puede
medir según la entropía de la misma. Los estudios sobre la entropía son de suma
importancia en la teoría de la información y se deben principalmente a C. E. Shannon.
Existe, a su vez, un gran número de propiedades respecto de la entropía de variables
aleatorias debidas a A. Kolmogorov. Dada una fuente F que emite mensajes, resulta
frecuente observar que los mensajes emitidos no resultan equiprobables sino que tienen una
cierta probabilidad de ocurrencia dependiendo del mensaje. Para codificar los mensajes de
una fuente intentaremos pues utilizar menor cantidad de bits para los mensajes más
probables y mayor cantidad de bits para los mensajes menos probables, de forma tal que el
promedio de bits utilizados para codificar los mensajes sea menor que la cantidad de bits
promedio de los mensajes originales. Esta es la base de la compresión de datos. A este tipo
de fuente se la denomina fuente de orden-0, pues la probabilidad de ocurrencia de un
mensaje no depende de los mensajes anteriores. A las fuentes de orden superior se las
puede representar mediante una fuente de orden-0 utilizando técnicas de modelización
apropiadas. Definimos la probabilidad de ocurrencia de un mensaje en una fuente como la
cantidad de apariciones de dicho mensaje dividido entre el total de mensajes. Supongamos
que Pi es la probabilidad de ocurrencia del mensaje-i de una fuente, y supongamos que Li
es la longitud del código utilizado para representar a dicho mensaje. La longitud promedio
de todos los mensajes codificados de la fuente se puede obtener como:
7
𝐻 = ∑ 𝑃𝑖 𝐿𝑖
𝑛
𝑖=0
 Promedio ponderado de las longitudes de los códigos de acuerdo con sus
probabilidades de ocurrencia, al número H se lo denomina "Entropía de la fuente" y
tiene gran importancia. La entropía de la fuente determina el nivel de compresión
que podemos obtener como máximo para un conjunto de datos. Si consideramos
como fuente un archivo y obtenemos las probabilidades de ocurrencia de cada
carácter en el archivo podremos calcular la longitud promedio del archivo
comprimido. Se demuestra que no es posible comprimir estadísticamente un
mensaje/archivo más allá de su entropía, lo cual implica que considerando
únicamente la frecuencia de aparición de cada carácter la entropía de la fuente nos
da el límite teórico de compresión. Mediante otras técnicas no-estadísticas puede,
tal vez, superarse este límite.
 El objetivo de la compresión de datos es encontrar los Li que minimizan a H;
además los Li se deben determinar en función de los Pi, pues la longitud de los
códigos debe depender de la probabilidad de ocurrencia de los mismos (los más
ocurrentes queremos codificarlos en menos bits). Se plantea pues:
𝐻 = ∑ 𝑃𝑖 𝑓(𝑝𝑖)
𝑛
𝑖=0
A partir de aquí y tras intrincados procedimientos matemáticos que fueron
demostrados por Shannon oportunamente se llega a que H es mínimo cuando
𝑓( 𝑃𝑖) = 𝑙𝑜𝑔2 (
1
𝑃𝑖
) Entonces:
𝐻 = ∑ 𝑃𝑖
𝑛
𝑖=0
(𝑙𝑜𝑔2 𝑃𝑖)
La longitud mínima con la cual puede codificarse un mensaje puede calcularse como
𝐻 = ∑ 𝑙𝑜𝑔2
𝑛
𝑖=0
(
1
𝑃𝑖
) = −𝑙𝑜𝑔2(𝑃𝑖)
8
Esto da una idea de la longitud a emplear en los códigos a usar para los caracteres de un
archivo en función de su probabilidad de ocurrencia. Reemplazando 𝐿 𝑖 podemos escribir H
como:
𝐻 = ∑ −𝑃𝑖 𝑙𝑜𝑔2 𝑃𝑖
𝑛
𝑖=0
De aquí se deduce que la entropía de la fuente depende únicamente de la probabilidad de
ocurrencia de cada mensaje de la misma; por ello la importancia de los compresores
estadísticos (aquellos que se basan en la probabilidad de ocurrencia de cada carácter).
Shannon demostró, oportunamente, que no es posible comprimir una fuente
estadísticamente más allá del nivel indicado por su entropía.
Cantidad de información
La cantidad de información que es capaz de manejar un sistema está en función de la
variedad de mensajes que puede elaborar, por ejemplo en que el caso de ocho lámparas de
distinto color sabemos que se pueden codificar 28
, correspondientes a la posibles
combinaciones de lámparas encendidas o apagadas, en este caso la variedad está dada por
N = 28
,, esto es lo posibles mensajes que puede elaborar el sistema para transmitirlos. La
cantidad de información en el caso de un código binario como:
𝐼 = 𝐿𝑜𝑔2 𝑁
La unidad binaria de información es un bit (Binary digIT) de ahí que en el arreglo de
lámparas la cantidad de información es de 8 bit, con lo lo cual se pueden codificar
diferentes mensajes. En nuestra computadoras al arreglo de 8 bit se le conoce como bytes, y
es la manera como se codifican los caracteres en los teclados, así para cada carácter solo se
requiere un byte. Shannon expresó la cantidad de información mediante la expresión
𝐻 = ∑ −𝑃𝑖 𝑙𝑜𝑔2 𝑃𝑖
𝑛
𝑖=0
Donde Σ es la suma desde i = 1 hasta i = n, H es la cantidad “esperada” de información,
p(i) es la probabilidad que tiene la señal i de ser transmitida y ln el logaritmo con la base
elegida para medir la cantidad de información. En el caso binario sería logaritmo de base 2.
Se conoce a la variable H como entropía de Shannon, por su similitud de la expresión de la
9
entropía en la termodinámica. Puede observarse que I = -H por lo que también se le
conoce como entropía negativa, así en un sistema termodinámico H mide “el grado de
desorden”, I mide el grado de orden que puede ser distinguida en su sistema. Un “sistema
ordenado” sería aquel que tiene una estructura reconocible. Conforme el sistema va
incrementando su entropía los patrones reconocibles de una estructura van disminuyendo.
Canales de comunicación.
Canal ideal: debería tener una entrada y una salida. Sin embargo, nunca está aislado
totalmente del exterior y siempre se acaban introduciendo señales no deseadas que alteran
en mayor o menor medida los datos que queremos enviar a través de él. Por lo tanto, esa
única entrada puede producir varias salidas, y distintas entradas pueden terminar en la
misma salida.
Canal discreto sin memoria: con entrada y salida discreta. Ofrecen una salida que depende
exclusivamente del símbolo de entrada actual, independientemente de sus valores
anteriores.
Canal binario simétrico: canal binario que puede transmitir uno de dos símbolos posibles
(0 y 1). La transmisión no es perfecta, y ocasionalmente el receptor recibe el bit
equivocado.
Capacidad de un canal
En Teoría de la Información, la capacidad de un canal de comunicación es la cantidad
máxima de información que puede transportar dicho canal de forma fiable, es decir, con
una probabilidad de error tan pequeña como se quiera. Normalmente se expresa en bits/s
(bps). Considerando todas las posibles técnicas de codificación de niveles múltiples y
polifásicos, el teorema de Shannon-Hartley indica que la capacidad del canal C es:
𝐶 = 𝐵𝑙𝑜𝑔2 (1 +
𝑠
𝑛
)
Dónde:
B es el ancho de banda del canal en Hertzios.
C es la capacidad del canal (tasa de bits de información bit/s)
10
S es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W,
mW, etc.)
N es la potencia del ruido presente en el canal, (𝑚𝑊, 𝜇𝑊 𝑒𝑡𝑐.) que trata de enmascarar a la
señal útil.
Desarrollo histórico
A finales de los años 20, Harry Nyquist y Ralph Hartley desarrollaron una serie de ideas
fundamentales relacionadas con la transmisión de la información, de manera particular, en
el contexto del telégrafo como sistema de comunicaciones. En aquellos años, estos
conceptos eran avances de gran alcance de carácter individual, pero no formaban parte del
corpus de una teoría exhaustiva. Fue en los años 40, cuando Claude Shannon desarrolló el
concepto de capacidad de un canal basándose, en parte, en las ideas que ya habían
propuesto Nyquist y Hartley y formulando, después, una teoría completa sobre la
información y la transmisión de esta, a través de canales.
Tasa de Nyquist
En 1927, Nyquist determinó que el número de pulsos independientes que podían pasar a
través de un canal de telégrafo, por unidad de tiempo, estaba limitado a dos veces el ancho
de banda del canal.
𝑓𝑝 ≤ 2𝐵
Donde 𝑓𝑝 es la frecuencia del pulso (en pulsos por segundo) y B es el ancho de banda (en
hercios). La cantidad 2B se llamó, más adelante, tasa de Nyquist, y transmitiendo a esta
tasa de pulsos límite de 2B pulsos por segundo se le denominó señalización a la tasa de
Nyquist.
Nyquist publicó sus resultados en 1928 como parte de su artículo "Certain topics in
Telegraph Transmission Theory".
Ley de Hartley
Durante ese mismo año, Hartley formuló una manera de cuantificar la información y su tasa
de transmisión a través de un canal de comunicaciones. Este método, conocido más
adelante como ley de Hartley, se convirtió en un importante precursor para la sofisticada
noción de capacidad de un canal, formulada por Shannon.
11
Hartley indicó que el número máximo de pulsos distintos que se pueden transmitir y recibir,
de manera fiable, sobre un canal de comunicaciones está limitado por el rango dinámico de
la amplitud de la señal y de la precisión con la cual el receptor puede distinguir distintos
niveles de amplitud.
De manera específica, si la amplitud de la señal transmitida se restringe al rango de
[−A.. . +A] y la precisión del receptor es +/- ∆ 𝑉 𝑣𝑜𝑙𝑡𝑖𝑜𝑠 entonces el número máximos de
pulsos distintos M está dado por:
𝑀 = 1 +
𝐴
∆ 𝑉
Teorema de Shannon-Hartley
El teorema de Shannon-Hartley establece cuál es la capacidad del canal, para un canal con
ancho de banda finito y una señal continua que sufre un ruido gaussiano. Conecta el
resultado de Hartley con el teorema de Shannon de la capacidad del canal en una forma que
es equivalente a especificar la M en la fórmula de Hartley de la tasa de información en
términos de la relación señal/ruido, pero alcanzando fiabilidad a través de la codificación
correctora de errores, más fiable, que los niveles de pulso distinguibles.
Relación entre ancho de banda, capacidad de canal y la relación señal - a – ruido
Ancho de banda y señal de proporción de ruido de S/N es el Teorema de Shannon–Hartley:
𝐶 = 𝐵𝑙𝑜𝑔2 (1 +
𝑠
𝑛
)
C está medido en bits por segundo. Si el logaritmo está tomado en base 2, B se medirá en
hercios; la señal y la potencia de ruido S y N se miden en vatios o voltios. Entonces, la
relación señal/ruido queda expresada en "veces", o "relación de potencias" y no en
decibeles (dB)
Codificación (P.C.M)
Modulación por codificación de pulsos (PCM). Este tipo de modulación, sin duda la más
utilizada de todas las modulaciones de pulsos es, básicamente, el método de conversión de
señales analógicas a digitales, PCM siempre conlleva modulación previa de amplitud de
pulsos.
12
En algunos lugares se usa el término: MIC = Modulación por impulsos codificados, aunque
es de uso común, el término es incorrecto, pulso e impulso son conceptos diferentes, al
igual que codificación de pulsos y pulsos codificados.
Ventajas de la modulación PCM
La modulación por codificación de pulsos está presente, bien sea en la forma tratada antes,
o en alguna de sus variantes, en la mayoría de las aplicaciones para transmitir o procesar
información analógica en forma digital. Sus ventajas se resumen en el hecho de emplear
codificación de pulsos para la representación digital de señales analógicas, característica
que lo distingue de todos los demás métodos de modulación analógica. Algunas de sus
ventajas más importantes son:
 Robustez ante el ruido e interferencia en el canal de comunicaciones.
 Regeneración eficiente de la señal codificada a lo largo de la trayectoria de transmisión.
 Formato uniforme de transmisión para diferentes clases de señales en banda base, lo
que permite integrarlas con otras formas de datos digitales en un canal común mediante
el multiplexado en tiempo.
 Facilidad de encriptar la información para su transmisión segura.
El precio a pagar por las ventajas anteriores es el mayor costo y complejidad del sistema,
así como el mayor ancho de banda necesario. Respecto a la complejidad, la tecnología
actual de circuitos integrados en gran escala (VLSI) ha permitido la implementación de
sistemas a, relativamente bajo costo y facilitado el crecimiento de este método o de sus
variantes.
Desventajas
 Mayor costo del sistema.
 Mayor complejidad del sistema.
 Mayor ancho de banda necesario.
Respecto a la complejidad, la tecnología actual de circuitos integrados en gran escala
(VLSI) ha permitido la implementación de sistemas a, relativamente bajo costo y facilitado
el crecimiento de este método o de sus variantes.
Ancho de banda
El efecto del empleo de PCM sobre el ancho de banda de una señal así modulada se puede
inferir intuitivamente mediante el siguiente ejemplo. Supóngase una señal de audio con un
ancho de banda de 5 KHz, muestreada a una frecuencia de 10 KHz, igual a la frecuencia de
Nyquist y cuantificada a 8 bits/muestra (256 niveles), de modo que por cada muestra de la
señal de entrada se producen ocho pulsos. Si pensamos en transmisión de estos pulsos en
serie, la frecuencia de muestreo se ha multiplicado por 8 y, por consecuencia, también el
13
ancho de banda. Así, una señal analógica que ocuparía un ancho de banda de 10 KHz,
modulada en AM completa o 5 KHz en banda lateral única, requiere de un ancho de banda
de 80 KHz modulada en PCM.
Códigos detectores y correctores de error
Los códigos detectores y correctores de error se refieren a los errores de transmisión en las
líneas. Se deben a diversos factores, como el ruido térmico, ruido impulsivo y ruido de
intermodulación. Dependiendo del medio de transmisión y del tipo
de codificación empleado, se pueden presentar otros tipos de anomalías como ruido de
redondeo y atenuación, así como cruce de líneas y eco durante la transmisión.
Códigos detectores de error: Consiste en incluir en los datos transmitidos, una cantidad de
bits redundantes de forma que permita al receptor detectar que se ha producido un error,
pero no qué tipo de error ni dónde, de forma que tiene que solicitar retransmisión.
Códigos correctores de error: Consiste en la misma filosofía que el anterior, incluir
información redundante pero en este caso, la suficiente como para permitirle al receptor
deducir cual fue el carácter que se transmitió, por lo tanto, el receptor tiene capacidad para
corregir un número limitado de errores.
Corrección de errores
La corrección de errores se puede tratar de dos formas:
 Cuando se detecta el error en un determinado fragmento de datos, el receptor
solicita al emisor la retransmisión de dicho fragmento de datos.
 El receptor detecta el error, y si están utilizando información redundante suficiente
para aplicar el método corrector, automáticamente aplica los mecanismos necesarios
para corregir dicho error.
 Bits redundantes. Teóricamente es posible corregir cualquier fragmento de código
binario automáticamente. Para ello, en puesto de los códigos detectores de errores
utilizando los códigos correctores de errores, de mayor complejidad matemática y
mayor número de bits redundantes necesarios. La necesidad de mayor número de
bits redundantes hace que a veces la corrección de múltiples bits sea inviable e
ineficiente por el elevado número de bits necesarios. Por ello normalmente los
códigos correctores de error se reducen a la corrección de 1,2 o 3 bits.
 Distancia Hamming. La distancia Hamming H entre dos secuencias binarias
𝑆1 𝑦 𝑆2de la misma longitud, viene definida por el número de bits en que difieren.
14
 Código Hamming. Es un código corrector y detector de errores, desarrollado por
R.W. Hamming en 1950, y se basa en los conceptos de bits redundantes y Distancia
Hamming. Hoy, el código de Hamming se refiere al (7.4). El código de Hamming
agrega tres bits adicionales de comprobación por cada cuatro bits de datos del
mensaje. El algoritmo de Hamming (7.4) puede corregir cualquier error de un solo
bit, pero cuando hay errores en más de un bit, la palabra transmitida se confunde
con otra con error en un sólo bit, siendo corregida, pero de forma incorrecta, es
decir que la palabra que se corrige es otra distinta a la original, y el mensaje final
será incorrecto sin saberlo.
15
Conclusión
La teoría de la información ha sido un revolución en muchos ámbitos tecnológicos pero
done más ha calado ha sido en las ramas afines a las telecomunicaciones dio pie al
procesamiento y medición de la información , esto dio rienda suelta a la era digital como la
conocemos hoy en día, donde las redes sociales son el lugar donde mayormente circula
información en el mundo esta teoría se puede en día a día cotidiano cuando tomamos un
selfie, enviamos un audio o descargamos una película de la web estos archivos esta
compuestos por bits lo que es una representación matemática de la cantidad de información
que contiene el archivo sabiendo esto podemos desarrollar mejores métodos de envió y
almacenamiento información, así de importante fue la revolucionaria teoría de la
información.
16
Bibliografía
 Aczél, J. y Darócsy, Z. 1975. On measures of information and their
characterization. New York-San Francisco-London: Academic Press.
 Adami, C. 2012. “The use of information theory in evolutionary biology”. Annals
of the New York Academy of Sciences 1256: 49–65. doi: 10.1111/j.1749-
6632.2011.06422.x
 Adriaans, P. 2013. “Information.” En The Stanford Encyclopedia of Philosophy
(Fall 2013 Edition), editado por E. N. Zalta URL =
http://plato.stanford.edu/archives/fall2013/entries/information/

Más contenido relacionado

La actualidad más candente

La actualidad más candente (20)

Codificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo CódigoCodificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
 
6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsx6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsx
 
Modulacion pcm
Modulacion pcmModulacion pcm
Modulacion pcm
 
Pulse code modulation and Quantization
Pulse code modulation and QuantizationPulse code modulation and Quantization
Pulse code modulation and Quantization
 
Introduccion a la telefonia
Introduccion a la telefoniaIntroduccion a la telefonia
Introduccion a la telefonia
 
Simon Haykin
Simon HaykinSimon Haykin
Simon Haykin
 
Presentation
PresentationPresentation
Presentation
 
Tema 4 codificación de canal
Tema 4   codificación de canalTema 4   codificación de canal
Tema 4 codificación de canal
 
Pcm
PcmPcm
Pcm
 
Ofdm final
Ofdm finalOfdm final
Ofdm final
 
Red telefonica conmutada
Red telefonica conmutadaRed telefonica conmutada
Red telefonica conmutada
 
Turbocode
TurbocodeTurbocode
Turbocode
 
Channel estimation - F. Ling
Channel estimation - F. LingChannel estimation - F. Ling
Channel estimation - F. Ling
 
Channel capacity
Channel capacityChannel capacity
Channel capacity
 
9.4 escenario de la convergencia ip
9.4 escenario de la convergencia ip9.4 escenario de la convergencia ip
9.4 escenario de la convergencia ip
 
Trama E1 y mutlitplexación en el tiempo
Trama E1 y mutlitplexación en el tiempoTrama E1 y mutlitplexación en el tiempo
Trama E1 y mutlitplexación en el tiempo
 
Codificacion BCH
Codificacion BCHCodificacion BCH
Codificacion BCH
 
Multiplexación
MultiplexaciónMultiplexación
Multiplexación
 
Digital communications
Digital communications  Digital communications
Digital communications
 
Conmutación espacial
Conmutación espacialConmutación espacial
Conmutación espacial
 

Similar a Teoria de la informacion

La Teoria de la Informacion
La Teoria de la InformacionLa Teoria de la Informacion
La Teoria de la InformacionDanfuhr26
 
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..Aurimarr Vargas
 
Teoría Matemática de la Información
Teoría Matemática de la InformaciónTeoría Matemática de la Información
Teoría Matemática de la InformaciónJosé Luis López
 
El fenómeno comunicativo
El fenómeno comunicativoEl fenómeno comunicativo
El fenómeno comunicativocharlygutz
 
Teoría de la Información .pdf
Teoría de la Información .pdfTeoría de la Información .pdf
Teoría de la Información .pdfEdsonAcosta5
 
Teoría de Información
Teoría de InformaciónTeoría de Información
Teoría de InformaciónNinoska18
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLaura Elizabeth Contreras
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLaura Elizabeth Contreras
 
Teoria de la Comunicación
Teoria de la ComunicaciónTeoria de la Comunicación
Teoria de la ComunicaciónGloria Vásquez
 
Teoria De La Informacion
Teoria De La InformacionTeoria De La Informacion
Teoria De La InformacionANGELGALLARDO
 

Similar a Teoria de la informacion (20)

Comunicacion 22 4.19
Comunicacion 22 4.19Comunicacion 22 4.19
Comunicacion 22 4.19
 
La Teoria de la Informacion
La Teoria de la InformacionLa Teoria de la Informacion
La Teoria de la Informacion
 
Franghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 tiFranghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 ti
 
Teoria de-lainformacion 1
Teoria de-lainformacion 1Teoria de-lainformacion 1
Teoria de-lainformacion 1
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
Markov
MarkovMarkov
Markov
 
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
CLAUDE SHANNON Y SU TEORÍA MATEMÁTICA DE LA COMUNICACIÓN..
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
Teoría Matemática de la Información
Teoría Matemática de la InformaciónTeoría Matemática de la Información
Teoría Matemática de la Información
 
El fenómeno comunicativo
El fenómeno comunicativoEl fenómeno comunicativo
El fenómeno comunicativo
 
Modelo matematico
Modelo matematicoModelo matematico
Modelo matematico
 
Teoría de la Información .pdf
Teoría de la Información .pdfTeoría de la Información .pdf
Teoría de la Información .pdf
 
Tdi
TdiTdi
Tdi
 
Teoría de Información
Teoría de InformaciónTeoría de Información
Teoría de Información
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicación
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicación
 
Teoria de la Comunicación
Teoria de la ComunicaciónTeoria de la Comunicación
Teoria de la Comunicación
 
Unidad 6
Unidad 6Unidad 6
Unidad 6
 
Teoria De La Informacion
Teoria De La InformacionTeoria De La Informacion
Teoria De La Informacion
 
Tercera clase teorías mediales
Tercera clase teorías medialesTercera clase teorías mediales
Tercera clase teorías mediales
 

Más de saulparra10

Routh teoria control
Routh teoria controlRouth teoria control
Routh teoria controlsaulparra10
 
Modulacion angular
Modulacion angularModulacion angular
Modulacion angularsaulparra10
 
diagramas de bloques
diagramas de bloquesdiagramas de bloques
diagramas de bloquessaulparra10
 
Transformadas de laplace
Transformadas de laplaceTransformadas de laplace
Transformadas de laplacesaulparra10
 
Teoria de control
Teoria de controlTeoria de control
Teoria de controlsaulparra10
 

Más de saulparra10 (8)

Revista saul xd
Revista saul xdRevista saul xd
Revista saul xd
 
Routh teoria control
Routh teoria controlRouth teoria control
Routh teoria control
 
Modulacion angular
Modulacion angularModulacion angular
Modulacion angular
 
diagramas de bloques
diagramas de bloquesdiagramas de bloques
diagramas de bloques
 
Transformadas de laplace
Transformadas de laplaceTransformadas de laplace
Transformadas de laplace
 
Comunicaciones
ComunicacionesComunicaciones
Comunicaciones
 
Comunicaciones
ComunicacionesComunicaciones
Comunicaciones
 
Teoria de control
Teoria de controlTeoria de control
Teoria de control
 

Último

CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdfCONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdfErikNivor
 
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdfSEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdffredyflores58
 
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Francisco Javier Mora Serrano
 
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)ssuser6958b11
 
Espontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneosEspontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneosOscarGonzalez231938
 
Conservatorio de danza Kina Jiménez de Almería
Conservatorio de danza Kina Jiménez de AlmeríaConservatorio de danza Kina Jiménez de Almería
Conservatorio de danza Kina Jiménez de AlmeríaANDECE
 
Estacionamientos, Existen 3 tipos, y tienen diferentes ángulos de inclinación
Estacionamientos, Existen 3 tipos, y tienen diferentes ángulos de inclinaciónEstacionamientos, Existen 3 tipos, y tienen diferentes ángulos de inclinación
Estacionamientos, Existen 3 tipos, y tienen diferentes ángulos de inclinaciónAlexisHernandez885688
 
POBLACIONES CICLICAS Y NO CICLICAS ......
POBLACIONES CICLICAS Y NO CICLICAS ......POBLACIONES CICLICAS Y NO CICLICAS ......
POBLACIONES CICLICAS Y NO CICLICAS ......dianamontserratmayor
 
4.3 Subestaciones eléctricas tipos caracteristicas.pptx
4.3 Subestaciones eléctricas tipos caracteristicas.pptx4.3 Subestaciones eléctricas tipos caracteristicas.pptx
4.3 Subestaciones eléctricas tipos caracteristicas.pptxEfrain Yungan
 
Simbología de Soldadura, interpretacion y aplicacion en dibujo tecnico indus...
Simbología de Soldadura,  interpretacion y aplicacion en dibujo tecnico indus...Simbología de Soldadura,  interpretacion y aplicacion en dibujo tecnico indus...
Simbología de Soldadura, interpretacion y aplicacion en dibujo tecnico indus...esandoval7
 
Fijaciones de balcones prefabricados de hormigón - RECENSE
Fijaciones de balcones prefabricados de hormigón - RECENSEFijaciones de balcones prefabricados de hormigón - RECENSE
Fijaciones de balcones prefabricados de hormigón - RECENSEANDECE
 
Descubrimiento de la penicilina en la segunda guerra mundial
Descubrimiento de la penicilina en la segunda guerra mundialDescubrimiento de la penicilina en la segunda guerra mundial
Descubrimiento de la penicilina en la segunda guerra mundialyajhairatapia
 
Peligros de Excavaciones y Zanjas presentacion
Peligros de Excavaciones y Zanjas presentacionPeligros de Excavaciones y Zanjas presentacion
Peligros de Excavaciones y Zanjas presentacionOsdelTacusiPancorbo
 
Historia de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdfHistoria de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdfIsbelRodrguez
 
Trabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruanaTrabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruana5extraviado
 
Procedimientos constructivos superestructura, columnas
Procedimientos constructivos superestructura, columnasProcedimientos constructivos superestructura, columnas
Procedimientos constructivos superestructura, columnasAhmedMontaoSnchez1
 
594305198-OPCIONES-TARIFARIAS-Y-CONDICIONES-DE-APLICACION-DE-TARIFAS-A-USUARI...
594305198-OPCIONES-TARIFARIAS-Y-CONDICIONES-DE-APLICACION-DE-TARIFAS-A-USUARI...594305198-OPCIONES-TARIFARIAS-Y-CONDICIONES-DE-APLICACION-DE-TARIFAS-A-USUARI...
594305198-OPCIONES-TARIFARIAS-Y-CONDICIONES-DE-APLICACION-DE-TARIFAS-A-USUARI...humberto espejo
 
01 COSTOS UNITARIOS Y PRESUPUESTO DE OBRA-EXPEDIENTE TECNICO DE OBRA.pptx
01 COSTOS UNITARIOS Y PRESUPUESTO DE OBRA-EXPEDIENTE TECNICO DE OBRA.pptx01 COSTOS UNITARIOS Y PRESUPUESTO DE OBRA-EXPEDIENTE TECNICO DE OBRA.pptx
01 COSTOS UNITARIOS Y PRESUPUESTO DE OBRA-EXPEDIENTE TECNICO DE OBRA.pptxluiscisnerosayala23
 
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTOESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTOCamiloSaavedra30
 

Último (20)

CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdfCONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
 
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdfSEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdf
 
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
 
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
VIRUS FITOPATÓGENOS (GENERALIDADES EN PLANTAS)
 
presentación manipulación manual de cargas sunafil
presentación manipulación manual de cargas sunafilpresentación manipulación manual de cargas sunafil
presentación manipulación manual de cargas sunafil
 
Espontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneosEspontaneidad de las reacciones y procesos espontáneos
Espontaneidad de las reacciones y procesos espontáneos
 
Conservatorio de danza Kina Jiménez de Almería
Conservatorio de danza Kina Jiménez de AlmeríaConservatorio de danza Kina Jiménez de Almería
Conservatorio de danza Kina Jiménez de Almería
 
Estacionamientos, Existen 3 tipos, y tienen diferentes ángulos de inclinación
Estacionamientos, Existen 3 tipos, y tienen diferentes ángulos de inclinaciónEstacionamientos, Existen 3 tipos, y tienen diferentes ángulos de inclinación
Estacionamientos, Existen 3 tipos, y tienen diferentes ángulos de inclinación
 
POBLACIONES CICLICAS Y NO CICLICAS ......
POBLACIONES CICLICAS Y NO CICLICAS ......POBLACIONES CICLICAS Y NO CICLICAS ......
POBLACIONES CICLICAS Y NO CICLICAS ......
 
4.3 Subestaciones eléctricas tipos caracteristicas.pptx
4.3 Subestaciones eléctricas tipos caracteristicas.pptx4.3 Subestaciones eléctricas tipos caracteristicas.pptx
4.3 Subestaciones eléctricas tipos caracteristicas.pptx
 
Simbología de Soldadura, interpretacion y aplicacion en dibujo tecnico indus...
Simbología de Soldadura,  interpretacion y aplicacion en dibujo tecnico indus...Simbología de Soldadura,  interpretacion y aplicacion en dibujo tecnico indus...
Simbología de Soldadura, interpretacion y aplicacion en dibujo tecnico indus...
 
Fijaciones de balcones prefabricados de hormigón - RECENSE
Fijaciones de balcones prefabricados de hormigón - RECENSEFijaciones de balcones prefabricados de hormigón - RECENSE
Fijaciones de balcones prefabricados de hormigón - RECENSE
 
Descubrimiento de la penicilina en la segunda guerra mundial
Descubrimiento de la penicilina en la segunda guerra mundialDescubrimiento de la penicilina en la segunda guerra mundial
Descubrimiento de la penicilina en la segunda guerra mundial
 
Peligros de Excavaciones y Zanjas presentacion
Peligros de Excavaciones y Zanjas presentacionPeligros de Excavaciones y Zanjas presentacion
Peligros de Excavaciones y Zanjas presentacion
 
Historia de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdfHistoria de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdf
 
Trabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruanaTrabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruana
 
Procedimientos constructivos superestructura, columnas
Procedimientos constructivos superestructura, columnasProcedimientos constructivos superestructura, columnas
Procedimientos constructivos superestructura, columnas
 
594305198-OPCIONES-TARIFARIAS-Y-CONDICIONES-DE-APLICACION-DE-TARIFAS-A-USUARI...
594305198-OPCIONES-TARIFARIAS-Y-CONDICIONES-DE-APLICACION-DE-TARIFAS-A-USUARI...594305198-OPCIONES-TARIFARIAS-Y-CONDICIONES-DE-APLICACION-DE-TARIFAS-A-USUARI...
594305198-OPCIONES-TARIFARIAS-Y-CONDICIONES-DE-APLICACION-DE-TARIFAS-A-USUARI...
 
01 COSTOS UNITARIOS Y PRESUPUESTO DE OBRA-EXPEDIENTE TECNICO DE OBRA.pptx
01 COSTOS UNITARIOS Y PRESUPUESTO DE OBRA-EXPEDIENTE TECNICO DE OBRA.pptx01 COSTOS UNITARIOS Y PRESUPUESTO DE OBRA-EXPEDIENTE TECNICO DE OBRA.pptx
01 COSTOS UNITARIOS Y PRESUPUESTO DE OBRA-EXPEDIENTE TECNICO DE OBRA.pptx
 
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTOESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
 

Teoria de la informacion

  • 1. REPUBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DELPODER POPULAR PARA LA EDUCACION UNIVERSITARIA, CIENCIAS Y TECNOLOGIA I.U.P “SANTIAGO MARIÑO” EXTENSION-MATURIN Teoría de la información Profesor: Bachiller: ing. Cristóbal Espinoza Saúl Parra Ci.V24504340 Abril 2019
  • 2. Índice Introducción ............................................................................................................................. 1 Que es la teoría de la comunicación?.......................................................................................... 2 Historia..................................................................................................................................... 2 Desarrollo de la teoría............................................................................................................... 3 Finalidad................................................................................................................................... 3 Elementos de la teoría............................................................................................................... 4 Entropía e información.............................................................................................................. 6 Entropía de una fuente.............................................................................................................. 6 Cantidad de información............................................................................................................ 8 Canales de comunicación........................................................................................................... 9 Capacidad de un canal............................................................................................................... 9 Desarrollo histórico..................................................................................................................10 Tasa de Nyquist........................................................................................................................10 Ley de Hartley..........................................................................................................................10 Teorema de Shannon-Hartley....................................................................................................11 Relaciónentre ancho de banda, capacidad de canal yla relación señal - a – ruido........................11 Codificación (P.C.M) .................................................................................................................11 Códigos detectores y correctores de error.................................................................................13 Conclusión...............................................................................................................................15 Bibliografía.....................................................................................Error! Bookmark not defined.
  • 3. 1 Introducción La teoría de la información es una rama de las matemáticas actuales que fue desarrollada por Claude Shannon a mediados del siglo XX. Es la base teórica de la ciencia y la ingeniería de telecomunicación moderna esta teoría nos permite entender qué es la información, cómo se mide, cuánto ocupa y cuál es la capacidad mínima de un canal de transmisión para poderla transmitir, hoy más que nunca las redes globales por la cual circula gran parte de información es necesario conocer los conceptos básicos que esta gran teoría nos plantea.
  • 4. 2 ¿Qué es la teoría de la comunicación? La teoría de la información, también conocida como teoría matemática de la comunicación (Inglés: mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940. Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información. La teoría de la información es una rama de la teoría de la probabilidad y de las ciencias de la computación que estudia la información y todo lo relacionado con ella: canales, compresión de datos y criptografía, entre otros. Historia La teoría de la información surgió a finales de la Segunda Guerra Mundial, en los años cuarenta. Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una teoría matemática de la comunicación (texto completo en inglés). En esta época se buscaba utilizar de manera más eficiente los canales de comunicación, enviando una cantidad de información por un determinado canal y midiendo su capacidad; se buscaba la transmisión óptima de los mensajes. Esta teoría es el resultado de trabajos comenzados en la década 1910 por Andrei A. Markovi, a quien le siguió Ralp V. L. Hartley en 1927, quien fue el precursor del lenguaje binario. A su vez, Alan Turing en 1936, realizó el esquema de una máquina capaz de tratar información con emisión de símbolos, y finalmente Claude Elwood Shannon, matemático, ingeniero electrónico y criptógrafo estadounidense, conocido como "el padre de la teoría de la información”, junto a Warren Weaver, contribuyó en la culminación y el asentamiento de la Teoría Matemática de la Comunicación de 1949 –que hoy es mundialmente conocida por todos como la Teoría de la Información-. Weaver consiguió darle un alcance superior al planteamiento inicial, creando un modelo simple y lineal: Fuente/codificador/mensaje canal/decodificador/destino. La necesidad de una base teórica para la tecnología de la comunicación surgió del aumento de la complejidad y de la masificación de las vías de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de comunicación por radio. La teoría de la información también abarca todas las restantes formas de transmisión y almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten en las computadoras y en la grabación óptica de datos e imágenes. La idea es garantizar que el transporte masivo de datos no sea en modo alguno una merma de la calidad, incluso si los datos se comprimen de alguna manera. Idealmente, los datos se pueden restaurar a su forma original al llegar a su destino. En algunos casos, sin embargo, el objetivo es permitir que los datos de alguna forma se conviertan para la
  • 5. 3 transmisión en masa, se reciban en el punto de destino y sean convertidos fácilmente a su formato original, sin perder ninguna de la información transmitida. Desarrollo de la teoría El modelo propuesto por Shannon es un sistema general de la comunicación que parte de una fuente de información desde la cual, a través de un transmisor, se emite una señal, la cual viaja por un canal, pero a lo largo de su viaje puede ser interferida por algún ruido. La señal sale del canal, llega a un receptor que decodifica la información convirtiéndola posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. Para esto, el destinatario debe comprender la señal correctamente; el problema es que aunque exista un mismo código de por medio, esto no significa que el destinatario va a captar el significado que el emisor le quiso dar al mensaje. La codificación puede referirse tanto a la transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. Un concepto fundamental en la teoría de la información es que la cantidad de información contenida en un mensaje es un valor matemático bien definido y medible. El término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a la cantidad de información, el valor más alto se le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de información es cero. Finalidad Otro aspecto importante dentro de esta teoría es la resistencia a la distorsión que provoca el ruido, la facilidad de codificación y descodificación, así como la velocidad de transmisión. Es por esto que se dice que el mensaje tiene muchos sentidos, y el destinatario extrae el sentido que debe atribuirle al mensaje, siempre y cuando haya un mismo código en común. La teoría de la información tiene ciertas limitaciones, como lo es la acepción del concepto del código. El significado que se quiere transmitir no cuenta tanto como el número de alternativas necesario para definir el hecho sin ambigüedad. Si la selección del mensaje se plantea únicamente entre dos alternativas diferentes, la teoría de Shannon postula arbitrariamente que el valor de la información es uno. Esta unidad de información recibe el nombre de bit. Para que el valor de la información sea un bit, todas las alternativas deben ser igual de probables y estar disponibles. Es importante saber si la fuente de información tiene el mismo grado de libertad para elegir cualquier posibilidad o si se halla bajo alguna influencia que la induce a una cierta elección. La cantidad de información crece cuando todas las alternativas son igual de probables o cuanto mayor sea el número de alternativas.
  • 6. 4 Pero en la práctica comunicativa real no todas las alternativas son igualmente probables, lo cual constituye un tipo de proceso estocástico denominado Márkov. El subtipo de Márkov dice que la cadena de símbolos está configurada de manera que cualquier secuencia de esa cadena es representativa de toda la cadena completa. Elementos de la teoría Fuente Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser una computadora y mensajes sus archivos; una fuente puede ser un dispositivo de transmisión de datos y mensajes los datos enviados, etc. Una fuente es en sí misma un conjunto finito de mensajes: todos los posibles mensajes que puede emitir dicha fuente. En compresión de datos se tomará como fuente el archivo a comprimir y como mensajes los caracteres que conforman dicho archivo. Tipos de fuente Por la naturaleza generativa de sus mensajes, una fuente puede ser aleatoria o determinista. Por la relación entre los mensajes emitidos, una fuente puede ser estructurada o no estructurada (o caótica). Existen varios tipos de fuente. Para la teoría de la información interesan las fuentes aleatorias y estructuradas. Una fuente es aleatoria cuando no es posible predecir cuál es el próximo mensaje a emitir por la misma. Una fuente es estructurada cuando posee un cierto nivel de redundancia; una fuente no estructurada o de información pura es aquella en que todos los mensajes son absolutamente aleatorios sin relación alguna ni sentido aparente. Este tipo de fuente emite mensajes que no se pueden comprimir; un mensaje, para poder ser comprimido, debe poseer un cierto grado de redundancia; la información pura no puede ser comprimida sin que haya una pérdida de conocimiento sobre el mensaje. Mensaje Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje. El concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero debido a que tratamos con información digital nos referiremos casi siempre a mensajes binarios.
  • 7. 5 Código Un código es un conjunto de unos y ceros que se usan para representar un cierto mensaje de acuerdo a reglas o convenciones preestablecidas. Por ejemplo, al mensaje 0010 lo podemos representar con el código 1101 usado para codificar la función (NOT). La forma en la cual codificamos es arbitraria. Un mensaje puede, en algunos casos, representarse con un código de menor longitud que el mensaje original. Supongamos que a cualquier mensaje S lo codificamos usando un cierto algoritmo de forma tal que cada S es codificado en L(S) bits; definimos entonces la información contenida en el mensaje S como la cantidad mínima de bits necesarios para codificar un mensaje. Información La información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo para representar al mensaje. El concepto de información puede entenderse más fácilmente si consideramos un ejemplo. Supongamos que estamos leyendo un mensaje y hemos leído "cadena de c"; la probabilidad de que el mensaje continúe con "caracteres" es muy alta. Así, cuando efectivamente recibimos a continuación "caracteres" la cantidad de información que nos llegó es muy baja pues estábamos en condiciones de predecir qué era lo que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad de aparición aporta menos información que la ocurrencia de mensajes menos probables. Si luego de "cadena de c" leemos "himichurri" la cantidad de información que estamos recibiendo es mucho mayor. Modelo de comunicación desarrollado por Shannon y Weawer
  • 8. 6 Entropía e información La información es tratada como magnitud física, caracterizando la información de una secuencia de símbolos utilizando la entropía. Es parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos de envío de información o la cantidad de información útil que se pueda enviar a través de un canal. La información necesaria para especificar un sistema físico tiene que ver con su entropía. En concreto, en ciertas áreas de la física, extraer información del estado actual de un sistema requiere reducir su entropía, de tal manera que la entropía del sistema (S) y la cantidad de información (I) extraíble están relacionadas por: 𝑆 ≥ 𝑆 − 𝐼 ≥ 0 Entropía de una fuente De acuerdo con la teoría de la información, el nivel de información de una fuente se puede medir según la entropía de la misma. Los estudios sobre la entropía son de suma importancia en la teoría de la información y se deben principalmente a C. E. Shannon. Existe, a su vez, un gran número de propiedades respecto de la entropía de variables aleatorias debidas a A. Kolmogorov. Dada una fuente F que emite mensajes, resulta frecuente observar que los mensajes emitidos no resultan equiprobables sino que tienen una cierta probabilidad de ocurrencia dependiendo del mensaje. Para codificar los mensajes de una fuente intentaremos pues utilizar menor cantidad de bits para los mensajes más probables y mayor cantidad de bits para los mensajes menos probables, de forma tal que el promedio de bits utilizados para codificar los mensajes sea menor que la cantidad de bits promedio de los mensajes originales. Esta es la base de la compresión de datos. A este tipo de fuente se la denomina fuente de orden-0, pues la probabilidad de ocurrencia de un mensaje no depende de los mensajes anteriores. A las fuentes de orden superior se las puede representar mediante una fuente de orden-0 utilizando técnicas de modelización apropiadas. Definimos la probabilidad de ocurrencia de un mensaje en una fuente como la cantidad de apariciones de dicho mensaje dividido entre el total de mensajes. Supongamos que Pi es la probabilidad de ocurrencia del mensaje-i de una fuente, y supongamos que Li es la longitud del código utilizado para representar a dicho mensaje. La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:
  • 9. 7 𝐻 = ∑ 𝑃𝑖 𝐿𝑖 𝑛 𝑖=0  Promedio ponderado de las longitudes de los códigos de acuerdo con sus probabilidades de ocurrencia, al número H se lo denomina "Entropía de la fuente" y tiene gran importancia. La entropía de la fuente determina el nivel de compresión que podemos obtener como máximo para un conjunto de datos. Si consideramos como fuente un archivo y obtenemos las probabilidades de ocurrencia de cada carácter en el archivo podremos calcular la longitud promedio del archivo comprimido. Se demuestra que no es posible comprimir estadísticamente un mensaje/archivo más allá de su entropía, lo cual implica que considerando únicamente la frecuencia de aparición de cada carácter la entropía de la fuente nos da el límite teórico de compresión. Mediante otras técnicas no-estadísticas puede, tal vez, superarse este límite.  El objetivo de la compresión de datos es encontrar los Li que minimizan a H; además los Li se deben determinar en función de los Pi, pues la longitud de los códigos debe depender de la probabilidad de ocurrencia de los mismos (los más ocurrentes queremos codificarlos en menos bits). Se plantea pues: 𝐻 = ∑ 𝑃𝑖 𝑓(𝑝𝑖) 𝑛 𝑖=0 A partir de aquí y tras intrincados procedimientos matemáticos que fueron demostrados por Shannon oportunamente se llega a que H es mínimo cuando 𝑓( 𝑃𝑖) = 𝑙𝑜𝑔2 ( 1 𝑃𝑖 ) Entonces: 𝐻 = ∑ 𝑃𝑖 𝑛 𝑖=0 (𝑙𝑜𝑔2 𝑃𝑖) La longitud mínima con la cual puede codificarse un mensaje puede calcularse como 𝐻 = ∑ 𝑙𝑜𝑔2 𝑛 𝑖=0 ( 1 𝑃𝑖 ) = −𝑙𝑜𝑔2(𝑃𝑖)
  • 10. 8 Esto da una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de su probabilidad de ocurrencia. Reemplazando 𝐿 𝑖 podemos escribir H como: 𝐻 = ∑ −𝑃𝑖 𝑙𝑜𝑔2 𝑃𝑖 𝑛 𝑖=0 De aquí se deduce que la entropía de la fuente depende únicamente de la probabilidad de ocurrencia de cada mensaje de la misma; por ello la importancia de los compresores estadísticos (aquellos que se basan en la probabilidad de ocurrencia de cada carácter). Shannon demostró, oportunamente, que no es posible comprimir una fuente estadísticamente más allá del nivel indicado por su entropía. Cantidad de información La cantidad de información que es capaz de manejar un sistema está en función de la variedad de mensajes que puede elaborar, por ejemplo en que el caso de ocho lámparas de distinto color sabemos que se pueden codificar 28 , correspondientes a la posibles combinaciones de lámparas encendidas o apagadas, en este caso la variedad está dada por N = 28 ,, esto es lo posibles mensajes que puede elaborar el sistema para transmitirlos. La cantidad de información en el caso de un código binario como: 𝐼 = 𝐿𝑜𝑔2 𝑁 La unidad binaria de información es un bit (Binary digIT) de ahí que en el arreglo de lámparas la cantidad de información es de 8 bit, con lo lo cual se pueden codificar diferentes mensajes. En nuestra computadoras al arreglo de 8 bit se le conoce como bytes, y es la manera como se codifican los caracteres en los teclados, así para cada carácter solo se requiere un byte. Shannon expresó la cantidad de información mediante la expresión 𝐻 = ∑ −𝑃𝑖 𝑙𝑜𝑔2 𝑃𝑖 𝑛 𝑖=0 Donde Σ es la suma desde i = 1 hasta i = n, H es la cantidad “esperada” de información, p(i) es la probabilidad que tiene la señal i de ser transmitida y ln el logaritmo con la base elegida para medir la cantidad de información. En el caso binario sería logaritmo de base 2. Se conoce a la variable H como entropía de Shannon, por su similitud de la expresión de la
  • 11. 9 entropía en la termodinámica. Puede observarse que I = -H por lo que también se le conoce como entropía negativa, así en un sistema termodinámico H mide “el grado de desorden”, I mide el grado de orden que puede ser distinguida en su sistema. Un “sistema ordenado” sería aquel que tiene una estructura reconocible. Conforme el sistema va incrementando su entropía los patrones reconocibles de una estructura van disminuyendo. Canales de comunicación. Canal ideal: debería tener una entrada y una salida. Sin embargo, nunca está aislado totalmente del exterior y siempre se acaban introduciendo señales no deseadas que alteran en mayor o menor medida los datos que queremos enviar a través de él. Por lo tanto, esa única entrada puede producir varias salidas, y distintas entradas pueden terminar en la misma salida. Canal discreto sin memoria: con entrada y salida discreta. Ofrecen una salida que depende exclusivamente del símbolo de entrada actual, independientemente de sus valores anteriores. Canal binario simétrico: canal binario que puede transmitir uno de dos símbolos posibles (0 y 1). La transmisión no es perfecta, y ocasionalmente el receptor recibe el bit equivocado. Capacidad de un canal En Teoría de la Información, la capacidad de un canal de comunicación es la cantidad máxima de información que puede transportar dicho canal de forma fiable, es decir, con una probabilidad de error tan pequeña como se quiera. Normalmente se expresa en bits/s (bps). Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicos, el teorema de Shannon-Hartley indica que la capacidad del canal C es: 𝐶 = 𝐵𝑙𝑜𝑔2 (1 + 𝑠 𝑛 ) Dónde: B es el ancho de banda del canal en Hertzios. C es la capacidad del canal (tasa de bits de información bit/s)
  • 12. 10 S es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W, mW, etc.) N es la potencia del ruido presente en el canal, (𝑚𝑊, 𝜇𝑊 𝑒𝑡𝑐.) que trata de enmascarar a la señal útil. Desarrollo histórico A finales de los años 20, Harry Nyquist y Ralph Hartley desarrollaron una serie de ideas fundamentales relacionadas con la transmisión de la información, de manera particular, en el contexto del telégrafo como sistema de comunicaciones. En aquellos años, estos conceptos eran avances de gran alcance de carácter individual, pero no formaban parte del corpus de una teoría exhaustiva. Fue en los años 40, cuando Claude Shannon desarrolló el concepto de capacidad de un canal basándose, en parte, en las ideas que ya habían propuesto Nyquist y Hartley y formulando, después, una teoría completa sobre la información y la transmisión de esta, a través de canales. Tasa de Nyquist En 1927, Nyquist determinó que el número de pulsos independientes que podían pasar a través de un canal de telégrafo, por unidad de tiempo, estaba limitado a dos veces el ancho de banda del canal. 𝑓𝑝 ≤ 2𝐵 Donde 𝑓𝑝 es la frecuencia del pulso (en pulsos por segundo) y B es el ancho de banda (en hercios). La cantidad 2B se llamó, más adelante, tasa de Nyquist, y transmitiendo a esta tasa de pulsos límite de 2B pulsos por segundo se le denominó señalización a la tasa de Nyquist. Nyquist publicó sus resultados en 1928 como parte de su artículo "Certain topics in Telegraph Transmission Theory". Ley de Hartley Durante ese mismo año, Hartley formuló una manera de cuantificar la información y su tasa de transmisión a través de un canal de comunicaciones. Este método, conocido más adelante como ley de Hartley, se convirtió en un importante precursor para la sofisticada noción de capacidad de un canal, formulada por Shannon.
  • 13. 11 Hartley indicó que el número máximo de pulsos distintos que se pueden transmitir y recibir, de manera fiable, sobre un canal de comunicaciones está limitado por el rango dinámico de la amplitud de la señal y de la precisión con la cual el receptor puede distinguir distintos niveles de amplitud. De manera específica, si la amplitud de la señal transmitida se restringe al rango de [−A.. . +A] y la precisión del receptor es +/- ∆ 𝑉 𝑣𝑜𝑙𝑡𝑖𝑜𝑠 entonces el número máximos de pulsos distintos M está dado por: 𝑀 = 1 + 𝐴 ∆ 𝑉 Teorema de Shannon-Hartley El teorema de Shannon-Hartley establece cuál es la capacidad del canal, para un canal con ancho de banda finito y una señal continua que sufre un ruido gaussiano. Conecta el resultado de Hartley con el teorema de Shannon de la capacidad del canal en una forma que es equivalente a especificar la M en la fórmula de Hartley de la tasa de información en términos de la relación señal/ruido, pero alcanzando fiabilidad a través de la codificación correctora de errores, más fiable, que los niveles de pulso distinguibles. Relación entre ancho de banda, capacidad de canal y la relación señal - a – ruido Ancho de banda y señal de proporción de ruido de S/N es el Teorema de Shannon–Hartley: 𝐶 = 𝐵𝑙𝑜𝑔2 (1 + 𝑠 𝑛 ) C está medido en bits por segundo. Si el logaritmo está tomado en base 2, B se medirá en hercios; la señal y la potencia de ruido S y N se miden en vatios o voltios. Entonces, la relación señal/ruido queda expresada en "veces", o "relación de potencias" y no en decibeles (dB) Codificación (P.C.M) Modulación por codificación de pulsos (PCM). Este tipo de modulación, sin duda la más utilizada de todas las modulaciones de pulsos es, básicamente, el método de conversión de señales analógicas a digitales, PCM siempre conlleva modulación previa de amplitud de pulsos.
  • 14. 12 En algunos lugares se usa el término: MIC = Modulación por impulsos codificados, aunque es de uso común, el término es incorrecto, pulso e impulso son conceptos diferentes, al igual que codificación de pulsos y pulsos codificados. Ventajas de la modulación PCM La modulación por codificación de pulsos está presente, bien sea en la forma tratada antes, o en alguna de sus variantes, en la mayoría de las aplicaciones para transmitir o procesar información analógica en forma digital. Sus ventajas se resumen en el hecho de emplear codificación de pulsos para la representación digital de señales analógicas, característica que lo distingue de todos los demás métodos de modulación analógica. Algunas de sus ventajas más importantes son:  Robustez ante el ruido e interferencia en el canal de comunicaciones.  Regeneración eficiente de la señal codificada a lo largo de la trayectoria de transmisión.  Formato uniforme de transmisión para diferentes clases de señales en banda base, lo que permite integrarlas con otras formas de datos digitales en un canal común mediante el multiplexado en tiempo.  Facilidad de encriptar la información para su transmisión segura. El precio a pagar por las ventajas anteriores es el mayor costo y complejidad del sistema, así como el mayor ancho de banda necesario. Respecto a la complejidad, la tecnología actual de circuitos integrados en gran escala (VLSI) ha permitido la implementación de sistemas a, relativamente bajo costo y facilitado el crecimiento de este método o de sus variantes. Desventajas  Mayor costo del sistema.  Mayor complejidad del sistema.  Mayor ancho de banda necesario. Respecto a la complejidad, la tecnología actual de circuitos integrados en gran escala (VLSI) ha permitido la implementación de sistemas a, relativamente bajo costo y facilitado el crecimiento de este método o de sus variantes. Ancho de banda El efecto del empleo de PCM sobre el ancho de banda de una señal así modulada se puede inferir intuitivamente mediante el siguiente ejemplo. Supóngase una señal de audio con un ancho de banda de 5 KHz, muestreada a una frecuencia de 10 KHz, igual a la frecuencia de Nyquist y cuantificada a 8 bits/muestra (256 niveles), de modo que por cada muestra de la señal de entrada se producen ocho pulsos. Si pensamos en transmisión de estos pulsos en serie, la frecuencia de muestreo se ha multiplicado por 8 y, por consecuencia, también el
  • 15. 13 ancho de banda. Así, una señal analógica que ocuparía un ancho de banda de 10 KHz, modulada en AM completa o 5 KHz en banda lateral única, requiere de un ancho de banda de 80 KHz modulada en PCM. Códigos detectores y correctores de error Los códigos detectores y correctores de error se refieren a los errores de transmisión en las líneas. Se deben a diversos factores, como el ruido térmico, ruido impulsivo y ruido de intermodulación. Dependiendo del medio de transmisión y del tipo de codificación empleado, se pueden presentar otros tipos de anomalías como ruido de redondeo y atenuación, así como cruce de líneas y eco durante la transmisión. Códigos detectores de error: Consiste en incluir en los datos transmitidos, una cantidad de bits redundantes de forma que permita al receptor detectar que se ha producido un error, pero no qué tipo de error ni dónde, de forma que tiene que solicitar retransmisión. Códigos correctores de error: Consiste en la misma filosofía que el anterior, incluir información redundante pero en este caso, la suficiente como para permitirle al receptor deducir cual fue el carácter que se transmitió, por lo tanto, el receptor tiene capacidad para corregir un número limitado de errores. Corrección de errores La corrección de errores se puede tratar de dos formas:  Cuando se detecta el error en un determinado fragmento de datos, el receptor solicita al emisor la retransmisión de dicho fragmento de datos.  El receptor detecta el error, y si están utilizando información redundante suficiente para aplicar el método corrector, automáticamente aplica los mecanismos necesarios para corregir dicho error.  Bits redundantes. Teóricamente es posible corregir cualquier fragmento de código binario automáticamente. Para ello, en puesto de los códigos detectores de errores utilizando los códigos correctores de errores, de mayor complejidad matemática y mayor número de bits redundantes necesarios. La necesidad de mayor número de bits redundantes hace que a veces la corrección de múltiples bits sea inviable e ineficiente por el elevado número de bits necesarios. Por ello normalmente los códigos correctores de error se reducen a la corrección de 1,2 o 3 bits.  Distancia Hamming. La distancia Hamming H entre dos secuencias binarias 𝑆1 𝑦 𝑆2de la misma longitud, viene definida por el número de bits en que difieren.
  • 16. 14  Código Hamming. Es un código corrector y detector de errores, desarrollado por R.W. Hamming en 1950, y se basa en los conceptos de bits redundantes y Distancia Hamming. Hoy, el código de Hamming se refiere al (7.4). El código de Hamming agrega tres bits adicionales de comprobación por cada cuatro bits de datos del mensaje. El algoritmo de Hamming (7.4) puede corregir cualquier error de un solo bit, pero cuando hay errores en más de un bit, la palabra transmitida se confunde con otra con error en un sólo bit, siendo corregida, pero de forma incorrecta, es decir que la palabra que se corrige es otra distinta a la original, y el mensaje final será incorrecto sin saberlo.
  • 17. 15 Conclusión La teoría de la información ha sido un revolución en muchos ámbitos tecnológicos pero done más ha calado ha sido en las ramas afines a las telecomunicaciones dio pie al procesamiento y medición de la información , esto dio rienda suelta a la era digital como la conocemos hoy en día, donde las redes sociales son el lugar donde mayormente circula información en el mundo esta teoría se puede en día a día cotidiano cuando tomamos un selfie, enviamos un audio o descargamos una película de la web estos archivos esta compuestos por bits lo que es una representación matemática de la cantidad de información que contiene el archivo sabiendo esto podemos desarrollar mejores métodos de envió y almacenamiento información, así de importante fue la revolucionaria teoría de la información.
  • 18. 16 Bibliografía  Aczél, J. y Darócsy, Z. 1975. On measures of information and their characterization. New York-San Francisco-London: Academic Press.  Adami, C. 2012. “The use of information theory in evolutionary biology”. Annals of the New York Academy of Sciences 1256: 49–65. doi: 10.1111/j.1749- 6632.2011.06422.x  Adriaans, P. 2013. “Information.” En The Stanford Encyclopedia of Philosophy (Fall 2013 Edition), editado por E. N. Zalta URL = http://plato.stanford.edu/archives/fall2013/entries/information/