SlideShare una empresa de Scribd logo
1 de 5
Descargar para leer sin conexión
Sistemas de Comunicación
Teoría de la Información
1-1

1
Teoría de la información
Si llamamos al Servicio Meteorológico pidiendo información, pueden darnos varias
respuestas:
Si la pregunta es '¿Saldrá el sol mañana?", la respuesta será obvia, pues todos los
días sale el sol, aunque llueva o esté nublado, pero ese mensaje no nos brindará
información.
Si preguntamos sobre el clima, ahí sí lo que nos digan será información.
Por lo tanto, en todo momento la información es función de la probabilidad de que el
suceso ocurra.
Es decir, información es una función de la probabilidad.
I = f (Prob)
Supongamos que en el curso nos dan una hoja "para que opinemos sobre el
profesor". Habrá quienes en el mismo espacio explicarán mejor su opinión que otros,
es decir, para un mismo espacio o capacidad de información, unos transmitimos más
información que otros.
Esto puede ocurrir en un cable telefónico donde es interesante calificar la
información.
Por ejemplo: si todos dijéramos lo mismo sobre el profesor no hay información, el
resultado era previsible, pero si algunos opinan lo contrario
tenemos buena
información .
En general, la información se mide de la siguiente forma:
I =log2 1 / P =[bits]
Puede
ser
en
base
neperiana o en base
decimal y nos da otra
unidad.
Se usa el logaritmo pues la
información es función de la
probabilidad y , tenemos
dos
informaciones
provenientes
de
dos
fuentes, las probabilidades
se
suman,
es
decir,
debemos ligar “suma” con
“producto” y se simplifica
con el logaritmo.
La probabilidad sería el
producto 1/ P1 x 1 / P2 de
que esto ocurra:
2
Se ve que si tenemos un tren de pulsos equispotenciales, la probabilidad de
ocurrencia de un (1) o un cero (0) es 0,5 y la I sería:
S = log2 2 = 1 bit
Si tenemos un tren de pulsos como el de la figura 24, se observa que:
P(1) = 2/3; P(0) = 1/3
Donde: P(1) es la probabilidad de que ocurra en “1” .
P(2) es la probabilidad de que ocurra un “0” .
La probabilidad del suceso es :
I = log2 3/2 + log2 3/1 y aquí tenemos información.

Sea por ejemplo de la figura 25.
Se observa que

P(1) = 3/10 P(0) = 7/10
Lo que nos interesa es la información promedio que nos entrega un pulso
independientemente de que sea un “1” o “0” , para ello debemos buscar cuál es esa
información promedio, lo que se hace de la siguiente manera:
H = información promedio
3 I(1) + 7 I (0)
H = ----------------------10
Pues por lo tanto la I(1) se repite 3 veces y la I(0) 7 veces.
Si hacemos las cuentas
H = 0,7 bits / Pulso
Esto indica que tenemos 0,7bits de información por pulso.
Sabiendo la cantidad de pulsos por segundo, podemos conocer la información por
unidad de tiempo.

3
En los canales de transmisión enviamos Bits de información y habrá una capacidad
máxima de Bits por línea, con un cierto error,
Queremos que un tren de pulsos nos brinde la mayor información posible para tener
que transmitir la menor cantidad de pulsos posibles, transmitimos mayor información
con menor cantidad de pulsos. Por ejemplo: si queremos transmitir letras, cada letra
querríamos que esté representada con la menor cantidad de “1” y ”0” para usar pocos
pulsos.
Sabemos que la información promedio llevaba un pulso binario y daba:
H = Información promedio
Haciendo una gráfica de H en función de P1, tenemos (26)
1

Si transmitimos “1” ó “0” pero en forma no periódica con una probabilidad de
ocurrencia de “1” ó “0” de ½. tendremos la máxima información.
Luego si queremos transmitir por un vínculo una información de 1000 bits/ segundos
con una probabilidad de error de 10 –6 , tenemos que transmitir un tren de pulsos
igualmente probables de 1000 pulsos por segundo y, en otro extremo, solamente en 1
pulso cada 106 nos podremos haber equivocado.
Un ejemplo. Sería querer transmitir una imagen con un sistema parecido al facsímil
pero con la variante de que tenemos 2 tonos de brillos ( puntos negros y blancos) y
transmitimos pulsos igualmente probables tal como se grafica en la figura 27.
Lo que transmitimos, por ejemplo, será lo mostrado en la figura 28.
Según la figura 27 tendremos que transmitir 80.000 bits por cada imagen.
El tema es cómo transmitimos, entonces decimos que tomamos un canal telefónico y
transmitimos el tren de pulsos por él, pero queremos ver cuántos pulsos por segundo
puedo transmitir con una cierta probabilidad de error.
Se sabe que un canal telefónico puedo transmitir 800 bits/ segundos con una
probabilidad de 10 6, esto depende del ancho de banda del sistema y de la relación
señal/ ruido, es decir, de la calidad del sistema.
En la imagen que queremos transmitir debemos tener una memoria que retenga esa
imagen y mande 800 bits/ segundos, es decir, tardará 100 segundos en completar la
imagen.
Supongamos que necesitamos transmitir más rápido con la misma probabilidad de
error. Entonces cabe dos alternativas: usar un canal telefónico con una relación S / N
mayor, o más canales telefónicos con lo cual aumenta el BW.
Si no queremos cambiar el canal telefónico entonces transmitimos menos puntos de
imagen obteniendo menos información ( es decir, tendremos menor definición).

4
Como se ha dicho en un comienzo, éste es sólo un enfoque técnico, pero que
muchas veces no es claro para la comprensión de los radioaficionados.

5

Más contenido relacionado

Similar a Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001

Receptor optimo2isi
Receptor optimo2isiReceptor optimo2isi
Receptor optimo2isi
Vane Ssa
 
Introducción a la Probabilidad
Introducción a la ProbabilidadIntroducción a la Probabilidad
Introducción a la Probabilidad
Paolo Castillo
 
computación informática
computación informática computación informática
computación informática
febrero101998
 

Similar a Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001 (20)

Fuentes de informacion y entropia
Fuentes de informacion y entropiaFuentes de informacion y entropia
Fuentes de informacion y entropia
 
Interferencia intersimbólica-isi-1
Interferencia intersimbólica-isi-1Interferencia intersimbólica-isi-1
Interferencia intersimbólica-isi-1
 
Semana 9
Semana 9Semana 9
Semana 9
 
Actividad 1 transmision de datos
Actividad 1 transmision de datosActividad 1 transmision de datos
Actividad 1 transmision de datos
 
Entropia
EntropiaEntropia
Entropia
 
Entropia
EntropiaEntropia
Entropia
 
Receptor optimo2isi
Receptor optimo2isiReceptor optimo2isi
Receptor optimo2isi
 
Conceptos básicos de la transmisión de datos
Conceptos básicos de la transmisión de datosConceptos básicos de la transmisión de datos
Conceptos básicos de la transmisión de datos
 
Guia2telecomunicaciones
Guia2telecomunicacionesGuia2telecomunicaciones
Guia2telecomunicaciones
 
Introducción a la Probabilidad
Introducción a la ProbabilidadIntroducción a la Probabilidad
Introducción a la Probabilidad
 
Expo 1
Expo 1Expo 1
Expo 1
 
computacion cuantica
computacion   cuanticacomputacion   cuantica
computacion cuantica
 
compotacion cuantica
compotacion cuanticacompotacion cuantica
compotacion cuantica
 
Informatica cuantica
Informatica cuanticaInformatica cuantica
Informatica cuantica
 
COMPUTACION CUANTICA
COMPUTACION CUANTICACOMPUTACION CUANTICA
COMPUTACION CUANTICA
 
Rodrigo
RodrigoRodrigo
Rodrigo
 
Informática cuántica
Informática cuánticaInformática cuántica
Informática cuántica
 
computación informática
computación informática computación informática
computación informática
 
Quantum computing (1) (1)
Quantum computing (1) (1)Quantum computing (1) (1)
Quantum computing (1) (1)
 
Rodrigo
RodrigoRodrigo
Rodrigo
 

Más de INSPT-UTN

Más de INSPT-UTN (20)

Simbologia une 60617
Simbologia une 60617Simbologia une 60617
Simbologia une 60617
 
Circuitos combinacionales(part 1)
Circuitos combinacionales(part 1)Circuitos combinacionales(part 1)
Circuitos combinacionales(part 1)
 
Osciloscopio-Básico
Osciloscopio-BásicoOsciloscopio-Básico
Osciloscopio-Básico
 
Transformadores
TransformadoresTransformadores
Transformadores
 
Conexion de sensores
Conexion de  sensoresConexion de  sensores
Conexion de sensores
 
Reed switch
Reed switchReed switch
Reed switch
 
Diodo en antiparalelo
Diodo en antiparaleloDiodo en antiparalelo
Diodo en antiparalelo
 
Capacitores- Ing. Carlos Deagustini
Capacitores- Ing. Carlos DeagustiniCapacitores- Ing. Carlos Deagustini
Capacitores- Ing. Carlos Deagustini
 
Motores de Alterna
Motores de AlternaMotores de Alterna
Motores de Alterna
 
Motores monofásicos
Motores monofásicosMotores monofásicos
Motores monofásicos
 
Estatuto del Docente
Estatuto del DocenteEstatuto del Docente
Estatuto del Docente
 
CajasAcústicas-Lic. Edgardo Faletti (2002)
CajasAcústicas-Lic. Edgardo Faletti (2002)CajasAcústicas-Lic. Edgardo Faletti (2002)
CajasAcústicas-Lic. Edgardo Faletti (2002)
 
Arduino:El Autómata Amigable (Lic. Edgardo Faletti-2014)
Arduino:El Autómata Amigable (Lic. Edgardo Faletti-2014)Arduino:El Autómata Amigable (Lic. Edgardo Faletti-2014)
Arduino:El Autómata Amigable (Lic. Edgardo Faletti-2014)
 
Sensores: 3º Entrega de ElectroSector/101-2014/lIC. Edgardo Faletti
Sensores: 3º Entrega de ElectroSector/101-2014/lIC. Edgardo FalettiSensores: 3º Entrega de ElectroSector/101-2014/lIC. Edgardo Faletti
Sensores: 3º Entrega de ElectroSector/101-2014/lIC. Edgardo Faletti
 
Conceptos Básicos de Memorias- Lic. Edgardo Faletti (2014)
Conceptos Básicos de Memorias- Lic. Edgardo Faletti (2014)Conceptos Básicos de Memorias- Lic. Edgardo Faletti (2014)
Conceptos Básicos de Memorias- Lic. Edgardo Faletti (2014)
 
Sensores 2-Parte II -Lic. Edgardo Faletti-2014
Sensores 2-Parte II -Lic. Edgardo Faletti-2014Sensores 2-Parte II -Lic. Edgardo Faletti-2014
Sensores 2-Parte II -Lic. Edgardo Faletti-2014
 
Componentes de uso Electrónico- Lic. Edgardo Faletti- 2012
Componentes de uso Electrónico- Lic. Edgardo Faletti- 2012Componentes de uso Electrónico- Lic. Edgardo Faletti- 2012
Componentes de uso Electrónico- Lic. Edgardo Faletti- 2012
 
Introducción al Ábaco de Smith-Lic. Edgardo Faletti-2014
Introducción al Ábaco de Smith-Lic. Edgardo Faletti-2014Introducción al Ábaco de Smith-Lic. Edgardo Faletti-2014
Introducción al Ábaco de Smith-Lic. Edgardo Faletti-2014
 
Matriz progresiva-Lic. Edgardo Faletti/2014
Matriz progresiva-Lic. Edgardo Faletti/2014Matriz progresiva-Lic. Edgardo Faletti/2014
Matriz progresiva-Lic. Edgardo Faletti/2014
 
Sensor -Electrosector/Lic- Edgardo Faletti-2014
Sensor -Electrosector/Lic- Edgardo Faletti-2014Sensor -Electrosector/Lic- Edgardo Faletti-2014
Sensor -Electrosector/Lic- Edgardo Faletti-2014
 

Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001

  • 1. Sistemas de Comunicación Teoría de la Información 1-1 1
  • 2. Teoría de la información Si llamamos al Servicio Meteorológico pidiendo información, pueden darnos varias respuestas: Si la pregunta es '¿Saldrá el sol mañana?", la respuesta será obvia, pues todos los días sale el sol, aunque llueva o esté nublado, pero ese mensaje no nos brindará información. Si preguntamos sobre el clima, ahí sí lo que nos digan será información. Por lo tanto, en todo momento la información es función de la probabilidad de que el suceso ocurra. Es decir, información es una función de la probabilidad. I = f (Prob) Supongamos que en el curso nos dan una hoja "para que opinemos sobre el profesor". Habrá quienes en el mismo espacio explicarán mejor su opinión que otros, es decir, para un mismo espacio o capacidad de información, unos transmitimos más información que otros. Esto puede ocurrir en un cable telefónico donde es interesante calificar la información. Por ejemplo: si todos dijéramos lo mismo sobre el profesor no hay información, el resultado era previsible, pero si algunos opinan lo contrario tenemos buena información . En general, la información se mide de la siguiente forma: I =log2 1 / P =[bits] Puede ser en base neperiana o en base decimal y nos da otra unidad. Se usa el logaritmo pues la información es función de la probabilidad y , tenemos dos informaciones provenientes de dos fuentes, las probabilidades se suman, es decir, debemos ligar “suma” con “producto” y se simplifica con el logaritmo. La probabilidad sería el producto 1/ P1 x 1 / P2 de que esto ocurra: 2
  • 3. Se ve que si tenemos un tren de pulsos equispotenciales, la probabilidad de ocurrencia de un (1) o un cero (0) es 0,5 y la I sería: S = log2 2 = 1 bit Si tenemos un tren de pulsos como el de la figura 24, se observa que: P(1) = 2/3; P(0) = 1/3 Donde: P(1) es la probabilidad de que ocurra en “1” . P(2) es la probabilidad de que ocurra un “0” . La probabilidad del suceso es : I = log2 3/2 + log2 3/1 y aquí tenemos información. Sea por ejemplo de la figura 25. Se observa que P(1) = 3/10 P(0) = 7/10 Lo que nos interesa es la información promedio que nos entrega un pulso independientemente de que sea un “1” o “0” , para ello debemos buscar cuál es esa información promedio, lo que se hace de la siguiente manera: H = información promedio 3 I(1) + 7 I (0) H = ----------------------10 Pues por lo tanto la I(1) se repite 3 veces y la I(0) 7 veces. Si hacemos las cuentas H = 0,7 bits / Pulso Esto indica que tenemos 0,7bits de información por pulso. Sabiendo la cantidad de pulsos por segundo, podemos conocer la información por unidad de tiempo. 3
  • 4. En los canales de transmisión enviamos Bits de información y habrá una capacidad máxima de Bits por línea, con un cierto error, Queremos que un tren de pulsos nos brinde la mayor información posible para tener que transmitir la menor cantidad de pulsos posibles, transmitimos mayor información con menor cantidad de pulsos. Por ejemplo: si queremos transmitir letras, cada letra querríamos que esté representada con la menor cantidad de “1” y ”0” para usar pocos pulsos. Sabemos que la información promedio llevaba un pulso binario y daba: H = Información promedio Haciendo una gráfica de H en función de P1, tenemos (26) 1 Si transmitimos “1” ó “0” pero en forma no periódica con una probabilidad de ocurrencia de “1” ó “0” de ½. tendremos la máxima información. Luego si queremos transmitir por un vínculo una información de 1000 bits/ segundos con una probabilidad de error de 10 –6 , tenemos que transmitir un tren de pulsos igualmente probables de 1000 pulsos por segundo y, en otro extremo, solamente en 1 pulso cada 106 nos podremos haber equivocado. Un ejemplo. Sería querer transmitir una imagen con un sistema parecido al facsímil pero con la variante de que tenemos 2 tonos de brillos ( puntos negros y blancos) y transmitimos pulsos igualmente probables tal como se grafica en la figura 27. Lo que transmitimos, por ejemplo, será lo mostrado en la figura 28. Según la figura 27 tendremos que transmitir 80.000 bits por cada imagen. El tema es cómo transmitimos, entonces decimos que tomamos un canal telefónico y transmitimos el tren de pulsos por él, pero queremos ver cuántos pulsos por segundo puedo transmitir con una cierta probabilidad de error. Se sabe que un canal telefónico puedo transmitir 800 bits/ segundos con una probabilidad de 10 6, esto depende del ancho de banda del sistema y de la relación señal/ ruido, es decir, de la calidad del sistema. En la imagen que queremos transmitir debemos tener una memoria que retenga esa imagen y mande 800 bits/ segundos, es decir, tardará 100 segundos en completar la imagen. Supongamos que necesitamos transmitir más rápido con la misma probabilidad de error. Entonces cabe dos alternativas: usar un canal telefónico con una relación S / N mayor, o más canales telefónicos con lo cual aumenta el BW. Si no queremos cambiar el canal telefónico entonces transmitimos menos puntos de imagen obteniendo menos información ( es decir, tendremos menor definición). 4
  • 5. Como se ha dicho en un comienzo, éste es sólo un enfoque técnico, pero que muchas veces no es claro para la comprensión de los radioaficionados. 5