SlideShare una empresa de Scribd logo
1 de 18
Descargar para leer sin conexión
Introducci´on a la Teor´ıa de la Informaci´on
El Canal Gaussiano
Facultad de Ingenier´ıa, UdelaR
A˜no 2014
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 1 / 1
Definici´on
Definici´on (Canal Gaussiano)
Canal de tiempo discreto cuya salida en el tiempo i est´a dada por
Yi = Xi + Zi
donde Xi es una se˜nal continua y Zi ∼ N (0, N) es i.i.d. e independiente
de Xi para todo i.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 2 / 1
Restricciones
Si no se incorpora ning´un tipo de restricci´on, la capacidad de este
canal es infinita.
En general se restringe la potencia media de X
1
n
n
i
x2
i ≤ P
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 3 / 1
Capacidad de Informaci´on
Definici´on
La capacidad de informaci´on de un canal con restricci´on de potencia P es
C = m´ax
f:Ef [X2]≤P
I(X; Y )
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 4 / 1
Capacidad de Informaci´on del Canal Gaussiano
Teorema
Para un canal Gaussiano, se cumple C = 1
2 log 1 + P
N
Demostraci´on.
I(X; Y ) = h(Y ) − h(Y |X) = h(Y ) − h(X + Z|X)
= h(Y ) − h(Z|X)
= h(Y ) − h(Z)
var(Y ) = E Y 2
− E [Y ]2
≤ E Y 2
E Y 2
= E (X + Z)2
= E X2
+ 2E [X] E [Z] + E Z2
≤ P + N
Como h(Y ) ≤ 1
2 log(2πeσ2), donde σ2 = var(Y ) ≤ P + N, obtenemos
h(Y ) ≤
1
2
log(2πe(P + N))
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 5 / 1
Capacidad de Informaci´on del Canal Gaussiano (2)
Demostraci´on.
Para X ∼ N (0, P), Y es la suma de dos variables independientes, X, Z,
cada una con distribuci´on normal. Por lo tanto
Y ∼ N (0, P + N) ,
con lo cual se alcanza el m´aximo, h(Y ) = 1
2 log(2πe(P + N)).
I(X; Y ) = h(Y ) − h(Z)
=
1
2
log(2πe(P + N)) −
1
2
log(2πeN)
=
1
2
log 1 +
P
N
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 6 / 1
C´odigos para un Canal Gaussiano
Definici´on (C´odigo (M, n) con restricci´on de potencia P)
1 Un conjunto de ´ındices {1, 2 . . . M}
2 Una funci´on de codificaci´on x : {1, 2 . . . M} → Xn,
x(w) = x1(w), x2(w) . . . xn(w), tal que
1
n
n
i=1
x2
i (w) ≤ P, ∀w ∈ {1, 2 . . . M}
3 Una funci´on de decodificaci´on g : Yn → {1, 2 . . . M}
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 7 / 1
Capacidad del Canal Gaussiano con Restricci´on de
Potencia P
Definici´on (Tasa alcanzable)
Una tasa R es alcanzable para un canal Gaussiano con restricci´on de
potencia P si existe una sucesi´on de c´odigos (2nR, n) que satisfacen la
restricci´on de potencia P y tienen probabilidad m´axima de error λ(n) → 0.
Definici´on (Capacidad)
La capacidad de un canal Gaussiano con restricci´on de potencia P es el
supremo de las tasas alcanzables.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 8 / 1
Intuici´on - Empaquetado de Esferas
Si emitimos (x1 . . . xn), recibimos (Y1 . . . Yn) con Yi = xi + Zi y
tenemos que
1
n
(Yi − xi)2
=
1
n
Z2
i → E Z2
i = N .
Con gran probabilidad, (Yi − xi)2 ≤ n(N + ), (Y1 . . . Yn)
est´a contenido en una esfera de radio n(N + ) y centro (x1 . . . xn)
De forma similar,
1
n
Y 2
i =
1
n
(Xi + Zi)2
=
1
n
X2
i + 2XiZi + Z2
i
≤ P +
1
n
2XiZi +
1
n
Z2
i .
Si {Xi} son i.i.d., con gran probabilidad (Y1 . . . Yn) est´a contenido en
una esfera de radio n(P + N + ) y centro en cero.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 9 / 1
Intuici´on - Empaquetado de Esferas
El volumen de una esfera de radio r es Cnrn, por lo que la cantidad
m´axima de esferas de radio
√
nN que pueden empaquetarse en una de
radio n(P + N) es
Cn n(P + N)
n
2
Cn nN
n
2
= 1 +
P
N
n
2
= 2n 1
2
log(1+ P
N )
de donde surge que R ∼ 1
2 log 1 + P
N
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 10 / 1
Teorema de Capacidad del Canal Gaussiano
Teorema
La capacidad del canal Gaussiano con restricci´on de potencia P es
C = 1
2 log 1 + P
N
Probamos primero que la tasa es alcanzable.
1 Generamos un c´odigo aleatoriamente sorteando
Xi(w) ∼ N (0, P − ), i.i.d, i = 1, 2 . . . n, w = 1, 2 . . . 2nR. El c´odigo
es conocido tanto por el codificador como por el decodificador.
2 Codificaci´on: El mensaje w se codifica como
Xn(w) = (X1(w) . . . Xn(w)). Si Xn(w) no satisface la restricci´on de
potencia se emite una palabra arbitraria.
3 Decodificaci´on: Si existe un ´unico w tal que Xn(w) satisface la
restricci´on de potencia y es conjuntamente t´ıpica con Y n,
decodificamos ˆW = w. De lo contrario tomamos una decisi´on
arbitraria.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 11 / 1
Teorema de Capacidad del Canal Gaussiano
Consideramos un mensaje arbitrario, w, y los siguientes eventos:
Bw =



1
n
n
j=1
X2
j (w) > P



,
Ew,u = (Xn
(u), Y n
) ∈ A(n)
, 1 ≤ u ≤ 2nR
,
Ew = { ˆW = w} .
Observamos que
Ew ⊆ Bw ∪ Ec
w,w ∪
u=w
Ew,u ,
y por lo tanto, para E = { ˆW = W}, se cumple que
P(E|W = w) ≤ P(Bw|W = w)+P(Ec
w,w|W = w)+
u=w
P(Ew,u|W = w)
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 12 / 1
Teorema de Capacidad del Canal Gaussiano
P(E|W = w) ≤ P(Bw|W=w) + P(Ec
w,w|W=w) +
u=w
P(Ew,u|W=w)
≤ + +
u=w
2−n(I(X;Y )−3 )
≤ + + 2nR
2−n(I(X;Y )−3 )
= + + 2−n(I(X;Y )−3 −R)
≤ 3
para n grande y R < I(X; Y ) − 3 = 1
2 log 1 + P−
N − 3 .
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 13 / 1
Teorema de Capacidad del Canal Gaussiano
Para cada w, P(E|W = w) ≤ 3 , entonces, promediando obtenemos
1
2nR
w
P(E|W = w) ≤ 3 .
La probabilidad de error promediada sobre todos los c´odigos y todas las
palabras de c´odigo est´a acotada por 3 . Por lo tanto, existe alg´un c´odigo,
C, tal que
P(n)
e (C) ≤ 3 ,
donde P
(n)
e (C) es la probabilidad de error promediada sobre todas las
palabras de c´odigo, para el c´odigo C.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 14 / 1
Rec´ıproco
Consideramos una secuencia de c´odigos (2nR, n) con P
(n)
e → 0.
Con la distribuci´on uniforme sobre W, podemos escribir
nR = H(W) = I(W; ˆW) + H(W| ˆW)
Por Fano, H(W| ˆW) ≤ 1 + nRP
(n)
e = n n, por lo que
nR ≤ I(W; ˆW) + n n
Tenemos W → Xn(W) → Y n → ˆW y por lo tanto
nR ≤ I(Xn
; Y n
) + n n
= h(Y n
) − h(Y n
|Xn
) + n n
= h(Y n
) − h(Zn
) + n n
≤
n
i=1
h(Yi) − h(Zn
) + n n
=
n
i=1
h(Yi) −
n
i=1
h(Zi) + n n
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 15 / 1
Rec´ıproco
La distribuci´on uniforme sobre W induce una distribuci´on uniforme sobre
las palabras de c´odigo. Por lo tanto, para Pi = E X2
i ,
Pi = E X2
i =
1
2nR
w
x2
i (w)
var(Yi) = E Y 2
i − E [Yi]2
≤ E Y 2
i
E Y 2
i = E (Xi + Zi)2
= E X2
i + 2E [Xi] E [Zi] + E Z2
i = Pi + N
h(Yi) ≤
1
2
log 2πe(Pi + N)
nR ≤ h(Yi) − h(Zi) + n n
≤
1
2
log 2πe(Pi + N) −
1
2
log 2πeN + n n
=
1
2
log 1 +
Pi
N
+ n n
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 16 / 1
Rec´ıproco
R ≤
1
n
n
i=1
1
2
log 1 +
Pi
N
+ n
≤
1
2
log 1 +
1
n
n
i=1
Pi
N
+ n Jensen
≤
1
2
log 1 +
P
N
+ n
Donde la ´ultima desigualdad surge de que
1
n
n
i=1
Pi =
1
n
n
i=1
1
2nR
w
x2
i (w)
=
1
2nR
w
1
n
n
i=1
x2
i (w)
≤
1
2nR
w
P = P
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 17 / 1
Canal Gaussiano de Ancho de Banda Limitada W
Canal de tiempo continuo.
Por el Teorema de Muestreo existen 2W grados de libertad por
segundo. El canal se puede discretizar sin p´erdida de capacidad.
En tiempo (0, T) tenemos 2WT muestras con potencia media
PT/2WT = P/2W
Ruido blanco Gaussiano de ancho de banda W hertz y densidad
espectral de potencia N0/2. Cada muestra tiene ruido Gaussiano
independiente de varianza N0/2
La capacidad por uso de canal es
C =
1
2
log 1 +
P/2W
N0/2
=
1
2
log 1 +
P
N0W
bits por uso de canal
Como hay 2W muestras por segundo, la capacidad en bits/seg es
C = W log 1 +
P
N0W
→
P
N0
log e cuando W → ∞
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 18 / 1

Más contenido relacionado

La actualidad más candente

Sistema de comunicaciones_via_satelite_3
Sistema de comunicaciones_via_satelite_3Sistema de comunicaciones_via_satelite_3
Sistema de comunicaciones_via_satelite_3Enrique Zrt
 
DISEÑO ANALOGICO - AMPLIFICADOR DIFERENCIAL - DIFFERENTIAL AMPLIFIER
DISEÑO ANALOGICO - AMPLIFICADOR DIFERENCIAL - DIFFERENTIAL AMPLIFIERDISEÑO ANALOGICO - AMPLIFICADOR DIFERENCIAL - DIFFERENTIAL AMPLIFIER
DISEÑO ANALOGICO - AMPLIFICADOR DIFERENCIAL - DIFFERENTIAL AMPLIFIERFernando Marcos Marcos
 
Lecture 18 channel capacity
Lecture 18 channel capacityLecture 18 channel capacity
Lecture 18 channel capacitynica2009
 
Introduction to Digital Electronics & What we will study.ppt
Introduction to Digital Electronics & What we will study.pptIntroduction to Digital Electronics & What we will study.ppt
Introduction to Digital Electronics & What we will study.pptGauravKumarDas5
 
Delta modulation
Delta modulationDelta modulation
Delta modulationmpsrekha83
 
Pass Transistor Logic
Pass Transistor LogicPass Transistor Logic
Pass Transistor LogicDiwaker Pant
 
Ejercicios arreglos de antenas
Ejercicios arreglos de antenasEjercicios arreglos de antenas
Ejercicios arreglos de antenasEnriqueTorresDs
 
mobile radio propagation and fading
mobile radio propagation and fading mobile radio propagation and fading
mobile radio propagation and fading GRAKESHKUMAR
 
Cuestionarios antenas
Cuestionarios antenasCuestionarios antenas
Cuestionarios antenasIsrael Chala
 
Diseño y simulación de acopladores de RF
Diseño y simulación de acopladores de RFDiseño y simulación de acopladores de RF
Diseño y simulación de acopladores de RFÁngel Leonardo Torres
 
Advanced pipelining
Advanced pipeliningAdvanced pipelining
Advanced pipelininga_spac
 
Microondas Linea de transmision
Microondas Linea de transmisionMicroondas Linea de transmision
Microondas Linea de transmisionDanilo Rico
 
Packet radio protocol
Packet radio protocolPacket radio protocol
Packet radio protocolPriya Kaushal
 

La actualidad más candente (20)

Vlsi
VlsiVlsi
Vlsi
 
Sistema de comunicaciones_via_satelite_3
Sistema de comunicaciones_via_satelite_3Sistema de comunicaciones_via_satelite_3
Sistema de comunicaciones_via_satelite_3
 
DISEÑO ANALOGICO - AMPLIFICADOR DIFERENCIAL - DIFFERENTIAL AMPLIFIER
DISEÑO ANALOGICO - AMPLIFICADOR DIFERENCIAL - DIFFERENTIAL AMPLIFIERDISEÑO ANALOGICO - AMPLIFICADOR DIFERENCIAL - DIFFERENTIAL AMPLIFIER
DISEÑO ANALOGICO - AMPLIFICADOR DIFERENCIAL - DIFFERENTIAL AMPLIFIER
 
Lecture 18 channel capacity
Lecture 18 channel capacityLecture 18 channel capacity
Lecture 18 channel capacity
 
6LoWPAN.pptx
6LoWPAN.pptx6LoWPAN.pptx
6LoWPAN.pptx
 
Introduction to Digital Electronics & What we will study.ppt
Introduction to Digital Electronics & What we will study.pptIntroduction to Digital Electronics & What we will study.ppt
Introduction to Digital Electronics & What we will study.ppt
 
Mac
MacMac
Mac
 
What is 16 qam modulation
What is 16 qam modulationWhat is 16 qam modulation
What is 16 qam modulation
 
Delta modulation
Delta modulationDelta modulation
Delta modulation
 
Antenas 1
Antenas 1Antenas 1
Antenas 1
 
Pass Transistor Logic
Pass Transistor LogicPass Transistor Logic
Pass Transistor Logic
 
Ejercicios arreglos de antenas
Ejercicios arreglos de antenasEjercicios arreglos de antenas
Ejercicios arreglos de antenas
 
4g lte matlab
4g lte matlab4g lte matlab
4g lte matlab
 
mobile radio propagation and fading
mobile radio propagation and fading mobile radio propagation and fading
mobile radio propagation and fading
 
Cuestionarios antenas
Cuestionarios antenasCuestionarios antenas
Cuestionarios antenas
 
Diseño y simulación de acopladores de RF
Diseño y simulación de acopladores de RFDiseño y simulación de acopladores de RF
Diseño y simulación de acopladores de RF
 
Advanced pipelining
Advanced pipeliningAdvanced pipelining
Advanced pipelining
 
Microondas Linea de transmision
Microondas Linea de transmisionMicroondas Linea de transmision
Microondas Linea de transmision
 
Precoding
PrecodingPrecoding
Precoding
 
Packet radio protocol
Packet radio protocolPacket radio protocol
Packet radio protocol
 

Similar a Canal gaussiano BUEN AINFO

Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)MiriJaneth
 
Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)MiriJaneth
 
Re escrita charla-tfor_ma09
Re escrita charla-tfor_ma09Re escrita charla-tfor_ma09
Re escrita charla-tfor_ma09yamiletq
 
Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Cristhian Nasimba
 
Tema6 Ondas en sólidos elásticos y fluidos
Tema6 Ondas en sólidos elásticos y fluidosTema6 Ondas en sólidos elásticos y fluidos
Tema6 Ondas en sólidos elásticos y fluidosrafarrc
 
Soluciones por series
Soluciones por seriesSoluciones por series
Soluciones por seriesKike Prieto
 
Principio de incertidumbre de Heisenberg
Principio de incertidumbre de HeisenbergPrincipio de incertidumbre de Heisenberg
Principio de incertidumbre de HeisenbergSebastián Correa
 
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalasCapítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalasRosa E Padilla
 
modelos vibratorios d euna membrana.pdf
modelos vibratorios d euna membrana.pdfmodelos vibratorios d euna membrana.pdf
modelos vibratorios d euna membrana.pdfJhanBran
 
Bitácora N°2 (07 Feb - 10 Feb) Topología I
Bitácora N°2 (07 Feb - 10 Feb) Topología IBitácora N°2 (07 Feb - 10 Feb) Topología I
Bitácora N°2 (07 Feb - 10 Feb) Topología IMiriJaneth
 
Art10 lucca
Art10 luccaArt10 lucca
Art10 luccaamtlucca
 
Clase 3 mecanica-cuantica
Clase 3 mecanica-cuanticaClase 3 mecanica-cuantica
Clase 3 mecanica-cuanticaFelipe Carrasco
 
Solucionario Quinta Práctica Calificada de Matemática III - FIEE UNI
Solucionario Quinta Práctica Calificada de Matemática III - FIEE UNISolucionario Quinta Práctica Calificada de Matemática III - FIEE UNI
Solucionario Quinta Práctica Calificada de Matemática III - FIEE UNIAndy Juan Sarango Veliz
 
Aproximación a los niveles de energía del pozo cuántico finito
Aproximación a los niveles de energía del pozo cuántico finitoAproximación a los niveles de energía del pozo cuántico finito
Aproximación a los niveles de energía del pozo cuántico finitoAngel Roberto Torres Duarte
 

Similar a Canal gaussiano BUEN AINFO (20)

Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)
 
Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)
 
Re escrita charla-tfor_ma09
Re escrita charla-tfor_ma09Re escrita charla-tfor_ma09
Re escrita charla-tfor_ma09
 
Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121
 
Sol. 3ra PC 19-1.pdf
Sol. 3ra PC 19-1.pdfSol. 3ra PC 19-1.pdf
Sol. 3ra PC 19-1.pdf
 
Tema6 Ondas en sólidos elásticos y fluidos
Tema6 Ondas en sólidos elásticos y fluidosTema6 Ondas en sólidos elásticos y fluidos
Tema6 Ondas en sólidos elásticos y fluidos
 
Soluciones por series
Soluciones por seriesSoluciones por series
Soluciones por series
 
Clase8-Estadística
Clase8-EstadísticaClase8-Estadística
Clase8-Estadística
 
Principio de incertidumbre de Heisenberg
Principio de incertidumbre de HeisenbergPrincipio de incertidumbre de Heisenberg
Principio de incertidumbre de Heisenberg
 
Ultrasonido
UltrasonidoUltrasonido
Ultrasonido
 
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalasCapítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
 
modelos vibratorios d euna membrana.pdf
modelos vibratorios d euna membrana.pdfmodelos vibratorios d euna membrana.pdf
modelos vibratorios d euna membrana.pdf
 
Bitácora N°2 (07 Feb - 10 Feb) Topología I
Bitácora N°2 (07 Feb - 10 Feb) Topología IBitácora N°2 (07 Feb - 10 Feb) Topología I
Bitácora N°2 (07 Feb - 10 Feb) Topología I
 
Art10 lucca
Art10 luccaArt10 lucca
Art10 lucca
 
Clase 3 mecanica-cuantica
Clase 3 mecanica-cuanticaClase 3 mecanica-cuantica
Clase 3 mecanica-cuantica
 
Q denso en r
Q denso en rQ denso en r
Q denso en r
 
Solucionario Quinta Práctica Calificada de Matemática III - FIEE UNI
Solucionario Quinta Práctica Calificada de Matemática III - FIEE UNISolucionario Quinta Práctica Calificada de Matemática III - FIEE UNI
Solucionario Quinta Práctica Calificada de Matemática III - FIEE UNI
 
Aproximación a los niveles de energía del pozo cuántico finito
Aproximación a los niveles de energía del pozo cuántico finitoAproximación a los niveles de energía del pozo cuántico finito
Aproximación a los niveles de energía del pozo cuántico finito
 
12534840 ecuaciones-diferenciales-parciales-elipticas
12534840 ecuaciones-diferenciales-parciales-elipticas12534840 ecuaciones-diferenciales-parciales-elipticas
12534840 ecuaciones-diferenciales-parciales-elipticas
 

Más de Miguel Angel Guevara Reyes

1.3 e los recursos naturales y ambientales como bienes de consumo
1.3 e los recursos naturales y ambientales como bienes de consumo1.3 e los recursos naturales y ambientales como bienes de consumo
1.3 e los recursos naturales y ambientales como bienes de consumoMiguel Angel Guevara Reyes
 
1.1.1.2 packet tracer test connectivity with traceroute
1.1.1.2 packet tracer   test connectivity with traceroute1.1.1.2 packet tracer   test connectivity with traceroute
1.1.1.2 packet tracer test connectivity with tracerouteMiguel Angel Guevara Reyes
 
Como hackear facebook mediante phishing ético (1)
Como hackear facebook mediante phishing ético (1)Como hackear facebook mediante phishing ético (1)
Como hackear facebook mediante phishing ético (1)Miguel Angel Guevara Reyes
 

Más de Miguel Angel Guevara Reyes (20)

Procedimiento para trabajo seguro
Procedimiento para trabajo seguroProcedimiento para trabajo seguro
Procedimiento para trabajo seguro
 
028 16-cu cuadro vacantes 2016 anexo
028 16-cu cuadro vacantes 2016 anexo028 16-cu cuadro vacantes 2016 anexo
028 16-cu cuadro vacantes 2016 anexo
 
1.3 e los recursos naturales y ambientales como bienes de consumo
1.3 e los recursos naturales y ambientales como bienes de consumo1.3 e los recursos naturales y ambientales como bienes de consumo
1.3 e los recursos naturales y ambientales como bienes de consumo
 
1.1.1.2 packet tracer test connectivity with traceroute
1.1.1.2 packet tracer   test connectivity with traceroute1.1.1.2 packet tracer   test connectivity with traceroute
1.1.1.2 packet tracer test connectivity with traceroute
 
Isr en 06_4k_architecture_wp_pte_cte_es
Isr en 06_4k_architecture_wp_pte_cte_esIsr en 06_4k_architecture_wp_pte_cte_es
Isr en 06_4k_architecture_wp_pte_cte_es
 
Dm720v10 70 protocolo-nat_noviembre, 2006
Dm720v10 70 protocolo-nat_noviembre, 2006 Dm720v10 70 protocolo-nat_noviembre, 2006
Dm720v10 70 protocolo-nat_noviembre, 2006
 
Produccion y-gestion-industrial
Produccion y-gestion-industrialProduccion y-gestion-industrial
Produccion y-gestion-industrial
 
Horarios 2017 i
Horarios 2017 iHorarios 2017 i
Horarios 2017 i
 
Manual de superviciòn de obras
Manual de superviciòn de obrasManual de superviciòn de obras
Manual de superviciòn de obras
 
Cronograma inglEs 1
Cronograma    inglEs 1Cronograma    inglEs 1
Cronograma inglEs 1
 
Aba4 skx
Aba4 skxAba4 skx
Aba4 skx
 
A008 a listado_cc
A008 a listado_ccA008 a listado_cc
A008 a listado_cc
 
Factor de reduccion
Factor de reduccionFactor de reduccion
Factor de reduccion
 
Practica mpls
Practica mplsPractica mpls
Practica mpls
 
Curso de hipnosis
Curso de hipnosisCurso de hipnosis
Curso de hipnosis
 
Como hackear facebook mediante phishing ético (1)
Como hackear facebook mediante phishing ético (1)Como hackear facebook mediante phishing ético (1)
Como hackear facebook mediante phishing ético (1)
 
Teoria de-enfermera
Teoria de-enfermeraTeoria de-enfermera
Teoria de-enfermera
 
Teoria de enfermera (1)
Teoria de enfermera (1)Teoria de enfermera (1)
Teoria de enfermera (1)
 
49766149 itil-examenes-compilados-espanol
49766149 itil-examenes-compilados-espanol49766149 itil-examenes-compilados-espanol
49766149 itil-examenes-compilados-espanol
 
Parametros geomorfologicos
Parametros geomorfologicosParametros geomorfologicos
Parametros geomorfologicos
 

Canal gaussiano BUEN AINFO

  • 1. Introducci´on a la Teor´ıa de la Informaci´on El Canal Gaussiano Facultad de Ingenier´ıa, UdelaR A˜no 2014 (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 1 / 1
  • 2. Definici´on Definici´on (Canal Gaussiano) Canal de tiempo discreto cuya salida en el tiempo i est´a dada por Yi = Xi + Zi donde Xi es una se˜nal continua y Zi ∼ N (0, N) es i.i.d. e independiente de Xi para todo i. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 2 / 1
  • 3. Restricciones Si no se incorpora ning´un tipo de restricci´on, la capacidad de este canal es infinita. En general se restringe la potencia media de X 1 n n i x2 i ≤ P (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 3 / 1
  • 4. Capacidad de Informaci´on Definici´on La capacidad de informaci´on de un canal con restricci´on de potencia P es C = m´ax f:Ef [X2]≤P I(X; Y ) (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 4 / 1
  • 5. Capacidad de Informaci´on del Canal Gaussiano Teorema Para un canal Gaussiano, se cumple C = 1 2 log 1 + P N Demostraci´on. I(X; Y ) = h(Y ) − h(Y |X) = h(Y ) − h(X + Z|X) = h(Y ) − h(Z|X) = h(Y ) − h(Z) var(Y ) = E Y 2 − E [Y ]2 ≤ E Y 2 E Y 2 = E (X + Z)2 = E X2 + 2E [X] E [Z] + E Z2 ≤ P + N Como h(Y ) ≤ 1 2 log(2πeσ2), donde σ2 = var(Y ) ≤ P + N, obtenemos h(Y ) ≤ 1 2 log(2πe(P + N)) (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 5 / 1
  • 6. Capacidad de Informaci´on del Canal Gaussiano (2) Demostraci´on. Para X ∼ N (0, P), Y es la suma de dos variables independientes, X, Z, cada una con distribuci´on normal. Por lo tanto Y ∼ N (0, P + N) , con lo cual se alcanza el m´aximo, h(Y ) = 1 2 log(2πe(P + N)). I(X; Y ) = h(Y ) − h(Z) = 1 2 log(2πe(P + N)) − 1 2 log(2πeN) = 1 2 log 1 + P N (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 6 / 1
  • 7. C´odigos para un Canal Gaussiano Definici´on (C´odigo (M, n) con restricci´on de potencia P) 1 Un conjunto de ´ındices {1, 2 . . . M} 2 Una funci´on de codificaci´on x : {1, 2 . . . M} → Xn, x(w) = x1(w), x2(w) . . . xn(w), tal que 1 n n i=1 x2 i (w) ≤ P, ∀w ∈ {1, 2 . . . M} 3 Una funci´on de decodificaci´on g : Yn → {1, 2 . . . M} (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 7 / 1
  • 8. Capacidad del Canal Gaussiano con Restricci´on de Potencia P Definici´on (Tasa alcanzable) Una tasa R es alcanzable para un canal Gaussiano con restricci´on de potencia P si existe una sucesi´on de c´odigos (2nR, n) que satisfacen la restricci´on de potencia P y tienen probabilidad m´axima de error λ(n) → 0. Definici´on (Capacidad) La capacidad de un canal Gaussiano con restricci´on de potencia P es el supremo de las tasas alcanzables. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 8 / 1
  • 9. Intuici´on - Empaquetado de Esferas Si emitimos (x1 . . . xn), recibimos (Y1 . . . Yn) con Yi = xi + Zi y tenemos que 1 n (Yi − xi)2 = 1 n Z2 i → E Z2 i = N . Con gran probabilidad, (Yi − xi)2 ≤ n(N + ), (Y1 . . . Yn) est´a contenido en una esfera de radio n(N + ) y centro (x1 . . . xn) De forma similar, 1 n Y 2 i = 1 n (Xi + Zi)2 = 1 n X2 i + 2XiZi + Z2 i ≤ P + 1 n 2XiZi + 1 n Z2 i . Si {Xi} son i.i.d., con gran probabilidad (Y1 . . . Yn) est´a contenido en una esfera de radio n(P + N + ) y centro en cero. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 9 / 1
  • 10. Intuici´on - Empaquetado de Esferas El volumen de una esfera de radio r es Cnrn, por lo que la cantidad m´axima de esferas de radio √ nN que pueden empaquetarse en una de radio n(P + N) es Cn n(P + N) n 2 Cn nN n 2 = 1 + P N n 2 = 2n 1 2 log(1+ P N ) de donde surge que R ∼ 1 2 log 1 + P N (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 10 / 1
  • 11. Teorema de Capacidad del Canal Gaussiano Teorema La capacidad del canal Gaussiano con restricci´on de potencia P es C = 1 2 log 1 + P N Probamos primero que la tasa es alcanzable. 1 Generamos un c´odigo aleatoriamente sorteando Xi(w) ∼ N (0, P − ), i.i.d, i = 1, 2 . . . n, w = 1, 2 . . . 2nR. El c´odigo es conocido tanto por el codificador como por el decodificador. 2 Codificaci´on: El mensaje w se codifica como Xn(w) = (X1(w) . . . Xn(w)). Si Xn(w) no satisface la restricci´on de potencia se emite una palabra arbitraria. 3 Decodificaci´on: Si existe un ´unico w tal que Xn(w) satisface la restricci´on de potencia y es conjuntamente t´ıpica con Y n, decodificamos ˆW = w. De lo contrario tomamos una decisi´on arbitraria. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 11 / 1
  • 12. Teorema de Capacidad del Canal Gaussiano Consideramos un mensaje arbitrario, w, y los siguientes eventos: Bw =    1 n n j=1 X2 j (w) > P    , Ew,u = (Xn (u), Y n ) ∈ A(n) , 1 ≤ u ≤ 2nR , Ew = { ˆW = w} . Observamos que Ew ⊆ Bw ∪ Ec w,w ∪ u=w Ew,u , y por lo tanto, para E = { ˆW = W}, se cumple que P(E|W = w) ≤ P(Bw|W = w)+P(Ec w,w|W = w)+ u=w P(Ew,u|W = w) (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 12 / 1
  • 13. Teorema de Capacidad del Canal Gaussiano P(E|W = w) ≤ P(Bw|W=w) + P(Ec w,w|W=w) + u=w P(Ew,u|W=w) ≤ + + u=w 2−n(I(X;Y )−3 ) ≤ + + 2nR 2−n(I(X;Y )−3 ) = + + 2−n(I(X;Y )−3 −R) ≤ 3 para n grande y R < I(X; Y ) − 3 = 1 2 log 1 + P− N − 3 . (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 13 / 1
  • 14. Teorema de Capacidad del Canal Gaussiano Para cada w, P(E|W = w) ≤ 3 , entonces, promediando obtenemos 1 2nR w P(E|W = w) ≤ 3 . La probabilidad de error promediada sobre todos los c´odigos y todas las palabras de c´odigo est´a acotada por 3 . Por lo tanto, existe alg´un c´odigo, C, tal que P(n) e (C) ≤ 3 , donde P (n) e (C) es la probabilidad de error promediada sobre todas las palabras de c´odigo, para el c´odigo C. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 14 / 1
  • 15. Rec´ıproco Consideramos una secuencia de c´odigos (2nR, n) con P (n) e → 0. Con la distribuci´on uniforme sobre W, podemos escribir nR = H(W) = I(W; ˆW) + H(W| ˆW) Por Fano, H(W| ˆW) ≤ 1 + nRP (n) e = n n, por lo que nR ≤ I(W; ˆW) + n n Tenemos W → Xn(W) → Y n → ˆW y por lo tanto nR ≤ I(Xn ; Y n ) + n n = h(Y n ) − h(Y n |Xn ) + n n = h(Y n ) − h(Zn ) + n n ≤ n i=1 h(Yi) − h(Zn ) + n n = n i=1 h(Yi) − n i=1 h(Zi) + n n (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 15 / 1
  • 16. Rec´ıproco La distribuci´on uniforme sobre W induce una distribuci´on uniforme sobre las palabras de c´odigo. Por lo tanto, para Pi = E X2 i , Pi = E X2 i = 1 2nR w x2 i (w) var(Yi) = E Y 2 i − E [Yi]2 ≤ E Y 2 i E Y 2 i = E (Xi + Zi)2 = E X2 i + 2E [Xi] E [Zi] + E Z2 i = Pi + N h(Yi) ≤ 1 2 log 2πe(Pi + N) nR ≤ h(Yi) − h(Zi) + n n ≤ 1 2 log 2πe(Pi + N) − 1 2 log 2πeN + n n = 1 2 log 1 + Pi N + n n (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 16 / 1
  • 17. Rec´ıproco R ≤ 1 n n i=1 1 2 log 1 + Pi N + n ≤ 1 2 log 1 + 1 n n i=1 Pi N + n Jensen ≤ 1 2 log 1 + P N + n Donde la ´ultima desigualdad surge de que 1 n n i=1 Pi = 1 n n i=1 1 2nR w x2 i (w) = 1 2nR w 1 n n i=1 x2 i (w) ≤ 1 2nR w P = P (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 17 / 1
  • 18. Canal Gaussiano de Ancho de Banda Limitada W Canal de tiempo continuo. Por el Teorema de Muestreo existen 2W grados de libertad por segundo. El canal se puede discretizar sin p´erdida de capacidad. En tiempo (0, T) tenemos 2WT muestras con potencia media PT/2WT = P/2W Ruido blanco Gaussiano de ancho de banda W hertz y densidad espectral de potencia N0/2. Cada muestra tiene ruido Gaussiano independiente de varianza N0/2 La capacidad por uso de canal es C = 1 2 log 1 + P/2W N0/2 = 1 2 log 1 + P N0W bits por uso de canal Como hay 2W muestras por segundo, la capacidad en bits/seg es C = W log 1 + P N0W → P N0 log e cuando W → ∞ (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 18 / 1