el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
Lecture 16 probabilidad de error para señales en awgn parte 1
1. Universidad Nacional de Ingeniería
Comunicaciones II
Conferencia 16: Probabilidad de error para señales en AWGN –
Parte 1
UNIDAD VI: DETECCIÓN E INTRODUCCIÓN A LA TEORÍA DE LA ESTIMACIÓN
Instructor: Israel M. Zamora, MS Telecommunications Management
Profesor Titular, Departamento de Sistemas Digitales y Telecomunicaciones.
Universidad Nacional de Ingeniería
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr. Teoría Estimación
2. Outline
• Detección
• Problema de Detección
• PDF condicional: Función Likelihood de
AWGN
• Repaso: Teorema de Bayes
– Aplicando Bayes
• Regla de decisión
• Probabilidad Máxima A Posteriori (MAP)
• Detector MAP
• Implementación de Receptor Óptimo
• Detector Óptimo Implementado
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr. Teoría Estimación
3. Outline
• Demodulador Vectorial Correlador
• Canal Vectorial Gaussiano Equivalente
• Implementación del Demodulador Correlador:
Filtro Acoplado
• Demodulador de Filtro Acoplado
• Región de decisión para AWGN
– Región de decisión para AWGN: 2 señales
– Región de decisión para AWGN: 4 señales
– Región de decisión para AWGN:8 señales
• Probabilidad de Error para señales en AWGN
• Probabilidad Correcta para señales en AWGN
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In3tr. Teoría Estimación
4. Señal versus Vector
Forma de onda de señal
Vector Geométrico
s s
señales : s (t), s (t) vectores : ,
i j i j
T
0
N
ò s s
å
producto escalar : < s (t),s (t) >= s (t)s (t)dt producto escalar : × =
s s
i j
j i j i ik jk
k =
1
s s
señales ortogonales : < s (t),s (t) >= 0 vectores ortogonales : × =
0
i j i
j
{ } { }
señales base : (t), (t),..., (t) vectores base : , ,...,
j j j j j j
1 2 N
1 2 N
señales ortonormales : < j (t) j (t) >= δ vectores ortonormales : j ×j =
δ
j k jk j k jk
N
N
å å
Expansión : s (t) s (t) Expansión : s
= j = j
i j
s
j 1
i ij j
j 1
= =
T
ò
Valor escalar : s s (t), (t) s (t) (t)dt Valor escalar : s
ij
=< j >= j = ×j
N
ij i j 0 i j
T
0
ij
ò å
2
ij
2
2
Energía : E = s (t) =< s (t),s (t) >= s (t)dt Longitud cuadrática : = × =
s
s s
i i
i i
i
distancia : s (t) s (t) distancia :
- -
i j
i j
2
s s s
s
j =
1
i j
( ) i1 i2 iN
N
i ij j s ,..., s , s (t) s (t) s = « j =å=
j 1
i s
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In4tr. Teoría Estimación
5. Detección
( ) m m R log M /T 2 =
i m
Fuente de
Mensajes
(s ,s ,...,s ) i1 i2 iN = i s
Codificador
Vectorial Modulador
Una señal cada TS segundos
Al canal físico
{ } i m {s ( t )} i
Un mensaje cada Tm segundos
Î {0,1,...,M-1} i m
Sumidero de
Mensajes
n( t ) å
DETECTOR
Decodificador
Vectorial Demodulador
{s ( t )i , ,...,M} i =1 2
r(t) s (t) n(t) i = +
(r ,r ,...,r ) i1 i2 iN r =
mˆ
Decisión:
Muestra debe procurar
mínima probabilidad
de error ( corresponda a mi mˆ )
r(t)
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In5tr. Teoría Estimación
6. Receptor (Demodulador Vectorial)
• Demodulador vectorial:
– Convierte las formas de ondas recibidas del canal en un conjunto
discreto de señales de decisión
• Detector:
– Utiliza la salida del demodulador para tomar decisión sobre los
datos digitales transmitidos
r ( t ) s ( t ) n( t ) i i = +
Receptor
Demodulador
vectorial detector
(r ,r ,...,r ) i1 i2 iN = i r
i i mˆ ®m
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In6tr. Teoría Estimación
7. Transmisión sobre un canal AWGN
å
r ( t ) s ( t ) n( t ) i i = +
modulador
{s (t)} i
n(t)
El Canal Aditivo Blanco Gaussiano (AWGN)
{ }
{ }
si
- Símbolo de información m Î 0,1,...,M -1 , P(m ) = P( ®
m )
i i i
M
= ( t )
-Conjunto de señales moduladas s , 0 t T
i i 0
£ £
- Ruido blanco gaussiano n(t) con densidad espectral N
[ ] [ ]
E n(t) 0 E n(t )n(t ) N
0
δ(t - t )
2
i j
= =
i j
- Forma de onda recibida r (t) s (t) n(t), 0 t T
2
= + £ £
i i
0
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In7tr. Teoría Estimación
8. Problema de Detección
• Dada el vector de observación r, tenemos que realizar
un mapeo (decodificación) de r sobre un estimado
i mˆ
del símbolo transmitido mi, de tal manera que
minimize la probabilidad de error en el proceso de
toma de decisión.
• Si el símbolo mi ocurre con igual probabilidad
(símbolos equiprobables) P(mi)=1/m, minimizar la
probabilidad de error Pe es equivalente a maximizar la
“Función de probabilidad” (Likelihood function).
• Para símbolos equiprobables el detector de “Máxima
probabilidad” (Maximun likelihood detector) es el
detector óptimo.
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In8tr. Teoría Estimación
9. PDF condicional: Función Likelihood de AWGN
ö
÷ ÷ ÷ ÷ ÷
ø
æ
=
ç ç ç ç ç
è
r
i
r
1
i
2
r
iN
r
i
r , j , ,...,N ij =1 2
donde
son variables Gaussianas Independientes con:
[ ] [ ] [ ] [ ] r ij ij j ij j ij μ E r E s n E s E n s ij = = + = + =
Se define:
0 σ N rij =
2
Media:
y Varianza:
Además, rij y rik son no correlacionadas, por tanto, independientes y:
( ) 0 , = ij ik Cov r r Cuando j ¹k
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In9tr. Teoría Estimación
10. PDF condicional: Función Likelihood de AWGN (Cont.)
( ) ( ) N
( )
f R m Δ f R ,R ,...,R m f r m
R M i R ,R ,...,R M N i R M ij i
1 2 1 2
i N i i
j
1
( ) é ( -
)
r μ
-
ij ij
N
é -
r μ
-
N
Õ ij ij
Õ
1 exp
2
=
ù
ú ú û
2 2
σ πN
1
πσ
2
exp
ê ê
ë
= =
ij rij
N
j
N
2
2
j r
é
exp 1
0
2
1 0
1
ù
ù
ú úû
ê êë
( ) ( r s )
2
asi tenemos que:
( ) ( ) ( ) é
ù
exp 1 r s , i 1 , 2
,...,M
úû
= - -
êë
= = - -
N
N
πN
j
ij ij
N
1
0
2
0
f R m f r m πN
i
N
R M i r m i
i i
2
0
2
0
= úû
êë
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr0. Teoría Estimación
=
=
-
=
-
=
å
Õ
11. Repaso: Teorema de Bayes
Probabilidad Condicional:
Para eventos dependientes Fj y E, tenemos:
P(FE) = P(F E) P(E) = P(E F) P(F)
Probabilidad Total:
Sean los eventos Fj, j=1,2,…,n particiones de un
espacio muestra, y sea E un evento. Si todas las
probabilidades a posteriori P(E|Fj), con j=1,2,
…,n, de E y las probabilidades Fj son conocidas,
entonces la probabilidad a priori de E puede
obtenerse de:
( ) ( ) j
n
j F P F E P P(E) å=
j 1
=
F E
FE
F1
F2
F4
F3
F5
F7
F9
F8
Evento E
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr1. Teoría Estimación
12. Repaso: Teorema de Bayes
Fórmula de Bayes, con la notación utilizada anteriormente:
( ) ( ) ( )
P E F P F
P E F P F
j j j j
= =
( )
( ) ( )
( ) ( ) j
n
å=
j 1
P E F P F
j
P F E
j
P E
• Asumiendo que los valores coordenados de r puede tomar un
número finito de valores, entoces, dado r, la probabilidad a
posteriori que el símbolo mi fue transmitido es:
Evento r
( ) P ( r m ) P ( m
)
P m r r m i i
m r i
( )
i , ,...,M
,
P r
i
m2
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr2. Teoría Estimación
i
=1 2
= m1
m3
m4
m5
m6
Regiones de decisión de mi
13. Aplicando Bayes
• Alternativamente:
( ) f ( r m ) P ( m
)
P m r m i i
m i
( ) , i 1,2,...,M
= =
f
i
i
r
r
r
r
• Donde fr|m(r|mi) es la función likelihood que recién desarrollamos, la cual es la pdf de r (o
la pdf conjunta de r1,r2,…,rN) dado que se se ha transmitido el mensaje mi.
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr3. Teoría Estimación
14. Reglas de Decisión
Probabilidad de Error:
Se define como a probabilidad que un mensaje decodificado (en el receptor)
no sea igual al mensaje que fue transmitido, es decir,
mˆ
( ) ( ) e i i P m = P mˆ ¹ m
i m
La probabilidad correspondiente de que sea decodificado correctamente es, por
tanto,
( ) ( ) ( ) ( ) c i e i i i P m =1- P m =1- P mˆ ¹ m = P mˆ = m
( ) e i P m
El detector óptimo escoge para minimizar , o equivalentemente,
para maximizar .
( ) c i P m
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr4. Teoría Estimación
15. Regla de Decisión: Probabilidad Máxima A Posteriori (MAP)
i mˆ = m
• La probabilidad de decisión correcta, dada la
observación del vector r, es,
c ( ˆ i ,r) m r ( i r) P m = m = P m
• La probabilidad de error es como sigue:
e ( ˆ i r) c ( ˆ i ,r) m r ( i r) P m ¹ m , =1- P m = m = 1- P m
• Así, el dispositivo de decisión óptimo observa el vector particular
recibido r y la salida se escoge i=mˆ 1,2,...,= m
M para
maximizar la probabilidad de decisión correcta. Esta i cantidad es
referida como la probabilidad a posteriori que caracteriza al canal
vectorial.
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr5. Teoría Estimación
16. Detector MAP
• El detector MAP, “Máximo A Posteriori” (probabilidad):
• Se define como el detector que escoge el mi para maximizar la
probabilidad a posteriori ( r ) dado un vector recibido r. m r i P m
• 1ra. Regla de detección: MAP
m m si P (m ) P (m ) para todo k i i m i m k ˆ Þ r ³ r ¹ r r
• Que, usando Bayes, puede reescribirse como:
( ) ( )
( )
( ) ( )
f m P m
f m P m
mi i i ³ mi k k
(r)
r
r
r
r
r
r
r
f
f
( ) ( ) ( ) ( ) i m i i m k k m m si f m P m f m P m i ˆ r r r r i
( ) M, i 1,2,...,M
P m 1 i = =
Þ ³
• Cuando los símbolos son equiprobables,
el resultado coincide con la regla de
decisión ML.
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr6. Teoría Estimación
17. Detector MAP (Cont.)
• 2da. Regla de detección: Máximo Likelihood (ML)
m m si f (m ) P(m ) f (m ) P(m ) para todo k i i m i i m k k ˆ Þ r r ³ r r ¹
úû
• Recordando que: ( é
ù
f r m ) = ( πN ) - N
exp - 1 r - s
2
r i i êë
0
2
m i 0 N
[ ( )] ( ) r s , i 1,2,...,M
Þ =- N - - =
ln πN 1
2
ln f r m 2
N
i
0
r mi i 0
• Así, la regla de decisión ML es equivalente a la siguiente regla:
• 3ra. Regla de detección: Máximo Likelihood (ML) bajo AWGN
m m si - - para todo k i 2 2
i Þ £ ¹ i k ˆ r s r s
La regla de decisión consiste en escoger un mensaje punto (forma vectorial) que es el mas
cercano a la señal punto recibida, la cual se satisface intuitivamente.
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr7. Teoría Estimación
18. Implementación de Receptor Óptimo
• De la 3ra. Regla del máximum AWGN ML, tendremos la siguiente
estructura de receptor.
• La estructura de un receptor óptimo asume las condiciones
indicadas para el receptor correlador (o su equivalente detector
filtro acoplado, por lo que consideramos:
– (1) Símbolos fuentes equiprobables
– (2) canal tipo AWGN
1 2 M m ,m ,...,m
• Procedimiento de un receptor óptimo:
( ) i N r(t) s (t) n(t) r r ,r ,...,r 1 2 = + Þ =
desempeñado por un receptor correlador (o filtro acoplado)
N
N
N
Paso 2: r ®mˆ observe que:
N
å( ) å å å
= = = =
r - s
2
= r - s 2
= r 2
- 2 r s +
s i j ij j
j 1
2
ij
j 1
j ij
j 1
j 1
Paso 1:
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr8. Teoría Estimación
19. Implementación de Receptor Óptimo (Cont.)
• Ya que los primeros términos de la ecuación anterior son
comunes para cada i, 2 2
i k r- s £ r- s
que equivalente a:
N
N
s r s 1
N
N
r s 1
å å 2
ij
å å
= = = =
j ij s
- + £- +
j 1
2
kj
j 1
j kj
j 1
j 1
2
2
i E k E
k
Þ år s - 1 ³å -
N
E r s 1
2
E
j ij i j kj
j 1
N
j 1
2
= =
substituyendo,
• 3ra. Regla de Máximo Likelihood (ML) con AWGN
Fijar m m si r s 1 k
E r s 1
2
i j ij = å - ³å - ¹
E para todo k i
2
N
i j kj
j 1
N
j 1
= =
ˆ
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In1tr9. Teoría Estimación
20. Detector Óptimo Implementado
Selecciona
el mayor
de todos
1 s
*
N
å=
j 1
j 1 *
r
N
å=
2 s
*
r mˆ i
M s
N
å=
j 1
å
å
E1
2
å
E2
2
EM
2
js r å=
1j
N
j 1
2j
N
js r å=
j 1
Mj
N
js r å=
j 1
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr0. Teoría Estimación
21. Demodulador Vectorial Correlador
•El cómputo de los coeficientes rij de las señales recibida se obtiene a través de
un banco paralelo de integradores-multiplicadores. Cada combinación de
integrador-multiplicador se refiere como un demodulador CORRELADOR.
Detector
( ) dt T
0 ò ×
(t) 1 j
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr1. Teoría Estimación
r (t) i
X
( ) dt T
0 X ò ×
(t) 2 j
( ) dt T
0 X ò ×
(t) N j
i r
(r ,r ,...,r ) i1 i2 iN = i r
22. Canal Vectorial Gaussiano Equivalente
X
(t) 1 j
X
n(t)
i1 s
i2 s
i m å å
(t) 2 j
X
(t) N j
r s n i i = +
iN s
( ) ( ) ( )
r s n
r ,r ,...,r , s ,s ,...,s , n ,n ,...,n
- = = =
i i
i1 i2 iN i1 i2 iN 1 2 N
( ) dt T
0 ò ×
(t) 1 j
X
( ) dt T
0 X ò ×
(t) 2 j
( ) dt T
0 X ò ×
(t) N j
i1 r
i2 r
iN r
[ ] [ ]
- n(t) es Gaussiano independiente, con media E n(t) = 0, y varianza E n (t) =
N
- función de densidad de probabilidad Gaussiana condicional dada por
é
exp 1
f m m f m 1
ù
( R = ) = ( r ) = ( ) - r -
s 2
,
i 1,2,...,M
R r i
N
πN
i r
2
0
N/2
0
M i m i
2 0
i i
= úû
êë
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr2. Teoría Estimación
23. Implementación del Demodulador Correlador: Filtro Acoplado
•Un correlador puede ser implementado por un filtro acoplado. La componente
del la forma de onda recibida r(t) junto a si i-ésima función base es
equivalentemente a la convolución de la forma de onda r(t) con un filtro ji
(t-T) en
el instante de muestreo de salida T.
¥
¥
¥
¥
= ò j = ò j = ò j +
r r (t) (t)dt r (τ ) (τ )dτ r (τ ) (T - t τ)dτ
j - i j - i j t T
r(t) (T t)
= *j -
j t T
T
ij 0 i
=
=
r (t) ij i r
= Γ (t) i
(T t) j j - i ij r (t) Γ (t) =r i
( ) dt T
0 X ò ×
j
(t) t = T Γ (t) = r (t) *j (T -
t) j i i i •Este procedimiento es denominado demodulación de filtro acoplado, el cual está
acoplado a las funciones bases correspondientes. ( Filtro+Muestreador)
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr3. Teoría Estimación
24. Demodulador de filtro acoplado
(T t) 1 j -
r (t) i
(T t) 2 j -
(T t) N j -
i1 r
(r ,r ,...,r ) i1 i2 iN = i r i2 r
iN r
i ij t = T Γ (t) =r
La demodulación puede
basarse en los filtros:
h (t) (T t) j j = j -
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr4. Teoría Estimación
25. Región de decisión para AWGN
• En el caso de la regla MAP (Maximum A posteriori
Probability), cada valor posible para un espacio
observacional N-dimensional, se mapea a uno de M
posibles mensajes transmitidos. Así, el vector espacial
para r se particiona en M regiones correspondiente a las M
posibles decisiones. Cada Región consiste de puntos los
cuales son los mas cercanos al vector señal transmitido s.
En otras palabras,
• Definición: (Región de Decisión)
En un canal AWGN, la región decisión usando MAP para
cada símbolo mi, se define como:
{ r r s 2 r s2
}
i k
Z i k
= - £ - " ¹
r ˆ
i
si Î Z entonces se fija m =
m
i i
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr5. Teoría Estimación
26. Región de decisión para AWGN: 2 señales
j1
j2
Zi
si sk
r
Zk
{ r r s 2 r s2
}
i k
Z i k
= - £ - " ¹
r ˆ
i
si Î Z entonces se fija m =
m
i i
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr6. Teoría Estimación
27. Región de decisión para AWGN:4 señales
j1
j2
r
Zi
sk
si
Zk
{ r r s 2 r s2
}
i k
Z i k
= - £ - " ¹
r ˆ
i
si Î Z entonces se fija m =
m
i i
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr7. Teoría Estimación
28. Región de decisión para AWGN:8 señales
j1
j2
r
sk
si Zi
Zk
{ r r s 2 r s2
}
i k
Z i k
= - £ - " ¹
r ˆ
i
si Î Z entonces se fija m =
m
i i
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr8. Teoría Estimación
29. Probabilidad de Error para señales en AWGN
r
Evento error : m Þ Î Z donde k ¹
i (debido a AWGN)
i k
m m m
Þ = ¹
k i
ˆ
donde la regla ML de detección máxima se aplica.
r
Así cuando observamos vector , la probabilidad de error dado que
La probabilidad promedio de símbolo en error, P , es
å ( ) ( ) å
M
{ } ( ) i
Definición :
P P m P m P r Z m P m
M
i i
{ } å=
m es transmitido se determina por :
( ) = { r Ï
} e i i i
P m P Z m
= = Ï
i 1
M
e e i i
i 1
= =
para símbolos equiprobables : P 1
e i i P r Z m
i
Þ = Ï
i 1
M
e
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In2tr9. Teoría Estimación
30. Probabilidad Correcta para señales en AWGN
La probabilidad correcta de símbolo, P , es por lo tanto :
{ }
P 1 P 1 1
c
= - = - r
Î r
å=
c e i i
( ) { }
P Z m
M
M
i 1
donde P m = P Î
Z m , representa la probabilidad de recepción
c i i i
correcta dado que el símbolo mensaje m se transmite. Esta fórmula
i
es frecuentemente usada en el cómputo de probabilidad de error.
2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In3tr0. Teoría Estimación
31. 2S 2009 - I. ZamoraU n i VI-Conf 16: Detec. e In3tr1. Teoría Estimación