SlideShare una empresa de Scribd logo
Tema: Capacidad de Canal
  Adriana Dapena Janeiro (adriana@udc.es)

                             ´
           Facultad de Informatica
                               ˜
           Universidade da Coruna
                          ˜
            Campus de Elvina s/n
                           ˜
              15071. A Coruna




                                         ´              ´
                  Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p.
                      ı
Objetivos
Presentar el concepto de capacidad del canal.
Estudiar el caso de canales SISO:
   Canales AWGN.
   Canales con desvanecimiento plano.
     CSI en recepción.
     CSI en recepción y en transmisión.
   Canales con desvanecimiento selectivo en frecuencia.




                                                     ´              ´
                              Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p.
                                  ı
Bibliografía recomendada
A. Goldsmith, Wireless Communications, Cambridge University
Press, 2005.
http://wsl.stanford.edu/andrea/Wireless/
C. E. Shannon, “A mathematical theory of communication,” Bell
System Technical Journal, vol. 27, pp. 379-423 and 623-656, July
and October, 1948.
http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html
A. Goldsmith, P. P., Varaiya, “Capacity of fading channels with
Channel Side Information,” IEEE Trans. on Information Theory,
vol. 43, no. 6, pp. 1986-1992, November, 1997.




                                                  ´              ´
                           Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p.
                               ı
Conceptos básicos

Cantidad de información
Entropía
Entropía conjunta
Información mutua
Capacidad de canales discretos sin
memoria
                                      ´              ´
               Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p.
                   ı
Cantidad de información
Sea x una variable aleatoria que toma valores discretos xk en un
alfabeto X con probabilidad p(xk ), p(xk ) = 1.
    El valor de p(xk ) expresa la probabilidad de que ocurra un
    determinado valor xk pero también nos está indicando la
    cantidad de información que se adquiere cuando ese valor es
    observado.
    Si p(x2 ) > p(x1 ), entonces es mayor la incertidumbre sobre el
    evento x = x1 que sobre x = x2 y, por ello, también es mayor la
    información que se adquiere cuando éste ocurre.




                                                     ´              ´
                              Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p.
                                  ı
Cantidad de información (cont.)
La cantidad de información adquirida al observar xk está
relacionada con la inversa de su probabilidad y se define como
sigue:

                                  1
                 I(xk ) = log               = − log(p(xk ))
                                p(xk )
donde la base del logaritmo es arbitraria.




                                                        ´              ´
                                 Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p.
                                     ı
Entropía
La cantidad media de información de x recibe el nombre de
entropía: H(x) = E[I(xk )] = − x∈X p(x) log(p(x)) = −E[log p(x)]
    H(x) = 0 si la variable aleatoria x describe un proceso
    determinista.
    H(x) es máxima cuando la variable aleatoria es uniforme,
    H(x) = − log(|X |) donde |X | es el tamaño del alfabeto de x.




                                                     ´              ´
                              Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p.
                                  ı
Entropía conjunta
Consideremos que tenemos un sistema cuya entrada x toma
valores en un alfabeto X y su salida y es una versión perturbada de
x que toma valores en otro alfabeto Y .

    Entropía conjunta:

        H(x, y) = −             p(x, y) log(p(x, y)) = −E [log(p(x, y))]
                      x∈X y∈Y


    donde p(x, y) es la probabilidad conjunta de ambas variables
    aleatorias.




                                                         ´              ´
                                  Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p.
                                      ı
Información mutua
Incertidumbre sobre la entrada que permanece sin resolver
después de observar la salida H(x|y) = H(x, y) − H(y)
Incertidumbre sobre la salida que no es resuelta al observar la
entrada (perturbación) H(y|x) = H(x, y) − H(x)
                                                                               p(x,y)
Información mutua I(x; y) =                x∈X        y∈Y p(x, y) log         p(x)p(y)

               H(x)
                                                          H(y)




                      H(x|y)      I(x,y)     H(y|x)




                               H(x,y)

                                                        ´              ´
                                 Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p.
                                     ı
Resumen

                        Entropía

         H(x) = −          x∈X
                                 p(x) log(p(x))

                  Entropía conjunta

   H(x, y) = −     x∈X        y∈Y
                                     p(x, y) log(p(x, y))

               Entropía condicionada

   H(x|y) = −      x∈X        y∈Y
                                     p(x, y) log(p(y|x))

                 Información mutua

                                                  p(x,y)
   I(x; y) =     x∈X      y∈Y
                                 p(x, y) log     p(x)p(y)




                                              ´              ´
                       Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                           ı
Capacidad de un canal CDM
Un Canal Discreto sin Memoria (CDM) es un sistema que
consiste en un alfabeto de entrada X y un alfabeto de salida Y
que son conjuntos finitos numerables y cuyos elementos están
relacionados por una colección de funciones de masa de
probabilidad (ff.m.p.) condicionales, p(y|x) ≥ 0, que expresan la
probabilidad de que se observe la señal y ∈ Y a la salida del
sistema cuando la entrada es x ∈ X .
La capacidad de información del canal (X , p(y|x), Y) se define
como
                      C = max I(x; y)
                              p(x)

donde el máximo se toma sobre todas las posibles ff.m.p. p(x).




                                                 ´              ´
                          Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                              ı
Canal binario sin ruido
                                    1
                   x=0                                      y=0


                                     1
                   x=1                                      y=1
               p(y = 0|x = 0) = 1, p(y = 1|x = 0) = 0,
                p(y = 0|x = 1) = 0, p(y = 1|x = 1) = 1
Al no haber errores tampoco hay incertidumbre H(x|y) = 0.

      C = max    I(x; y) = max    H(x) − H(x|y) = max                      H(x)
          p(x)            p(x)                                  p(x)


El valor máximo se alcanza para una distribución uniforme y es
C = log2 2 = 1bit. Se puede transmitir la máxima información
posible de la fuente.

                                                    ´              ´
                             Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                                 ı
Canal binario simétrico
                                   1−p
              x=0                                                 y=0
                                   p

                                   p
              x=1                                                 y=1
                                   1−p
Supongamos que la fuente produce símbolos equiprobables a una
velocidad de 1000 bits/seg. Si durante la transmisión el canal
introduce errores de forma que (en media) la mitad de los bits
recibidos son incorrectos (p = 1/2)
¿Cuál es la velocidad de transmisión? ¿500 bits/seg?




                                                   ´              ´
                            Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                                ı
Canal binario simétrico .....
                                    1−p
               x=0                                                 y=0
                                    p

                                    p
               x=1                                                 y=1
                                    1−p
            p(y = 0|x = 0) = 1 − p, p(y = 1|x = 0) = p,
            p(y = 0|x = 1) = p, p(y = 1|x = 1) = 1 − p.
La capacidad es C = maxp(x) (H(y) − H(y|x)) = 1 − H(p) con
H(p) = −(1 − p) log(1 − p) − p log p.

    H(p) resta bits de información: cuanto más impredecible sea el
    error menor será la capacidad.
    Para p = 0 (o p = 1) estamos en el caso sin ruido: C = 1bit.
    Para p = 1/2, la salida es completamente aleatoria C = 0bit.
                                                    ´              ´
                             Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                                 ı
Canal híbrido (ejercicio)
                                1
           x=0                                                 y=0
                                 1−p
           x=1                                                y=1
                                 p

                                 p
           x=2                                                y=2
                                 1−p
Suponemos p(x = 0) = P , p(x = 1) = p(x = 2) = Q tal que
P + 2Q = 1.
H(x) = −P log P − 2Q log Q.
H(x|y) = 2Qα con α = H(p) = −(1 − p) log(1 − p) − p log p.



                                                ´              ´
                         Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                             ı
Canal híbrido (cont.)
Calcular P y Q que maximice C = H(x) − H(x|y) es
equivalente a calcular los máximos del Lagrangiano:

        L = −P log P − 2Q log Q − 2Qα − λ(P + 2Q − 1)

Los valores obtenidos son:

              P = βQ = β/(2 + β), Q = 1/(2 + β)

con β = eα (para una base e cualquiera).
Para p = 0 (o p = 1), la capacidad del canal es máxima
C = log 3.
Par p = 1/2, la capacidad es C = log 2.



                                                ´              ´
                         Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                             ı
Capacidad de un canal AWGN

Modelo del canal
Cálculo de la capacidad




                                     ´              ´
              Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                  ı
Modelo de un canal AWGN
Vamos a considerar el siguiente modelo de un canal AWGN
(Additive White Gaussian Noise):

    x[i] es la señal transmitida en el instante i.
    n[i] es un ruido blanco gaussiano: media cero, densidad
    espectral de potencia Sn (f ) = N0 , función de autocorrelación
                                    2
    RN (τ ) = N0 δ(τ ).
               2




    y[i] = x[i] + n[i] es la señal recibida en el instante i.

                                                       ´              ´
                                Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                                    ı
Capacidad de un canal
         AWGN....
Sean Pr , Pn y Pt + Pn , respectivamente, la potencia de recibida de
la señal transmitida, potencia del ruido y la potencia total recibida.
Si el canal es de banda limitada a B Hz (ancho de banda 2B ), las
entropías en bits/seg vienen dadas por:

                      H(y) = B log(4π(Pr + Pn ))

                         H(n) = B log(4πPn )
Por tanto, la capacidad es

       C = H(y) − H(y|x) = H(y) − H(n) = B log(1 + Pr /Pn )




                                                      ´              ´
                               Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1
                                   ı
Capacidad de un canal AWGN
         (cont.)
Definiendo la relación señal a ruido (SNR) como γ = Pr /Pn
obtenemos:
                         C = B log(1 + γ)
Como el ruido tiene densidad espectral de potencia N0 /2, la
potencia total en un ancho de banda 2B es
Pn = 2B × (N0 /2) = N0 B .
Por tanto, γ = Pr /(N0 B).




                                                     ´              ´
                              Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                                  ı
Ejemplo.....
Supongamos que la potencia recibida de la señal viene dada por
Pr (d) = Pt (d0 /d)3 donde d0 = 10m y d es la distancia entre
transmisor y receptor, N0 = 10−9 W/Hz y B = 30kHz . La figura
muestra la relación señal a ruido γ = Pt (d)/Pn (dB) y la capacidad
del canal para distancias entre 100m y 1Km y Pt = 1W (potencia en
transmisión).
              20                                                                                    160



                                                                                                    140
              15


                                                                                                    120
              10


                                                                                                    100




                                                                                 Capacidad (kbps)
               5
  SNR (dB)




                                                                                                     80

               0
                                                                                                     60


             −5
                                                                                                     40


             −10
                                                                                                     20



             −15                                                                                      0
               100   200   300   400   500        600   700   800   900   1000                        100   200   300   400   500        600   700   800   900   1000
                                         distancia d                                                                            distancia d



                                                                                             ´              ´
                                                                      Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                                                                          ı
Canales con desvanecimiento
  plano

Modelo de canal
Capacidad con CSI en recepción.
Capacidad con CSI en recepción y en
transmisión.




                                      ´              ´
               Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                   ı
Modelo de canal




El término g[i] ≥ 0 es una ganancia que modelaremos con un
proceso estacionario ergódico con distribución p(g).
S es la potencia media de la señal transmitida.
N0 /2 es la densidad espectral de potencia del ruido.
B es el ancho de banda del canal.



                                                ´              ´
                         Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                             ı
Modelo de canal (cont.)
Valor instantáneo de la SNR en recepción:

                               Sg[i]
                          γi =
                               N0 B

Valor medio de la SNR en recepción:

                              Sg
                          γ=
                             N0 B

Consideraremos dos casos:
   CSI en recepción.
   CSI en recepción y en transmisión.



                                               ´              ´
                        Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                            ı
CSI en recepción
Suponemos que el receptor conoce g[i] para cada instante i.


                Capacidad de Shannon (ergódica)
                             ∞
                    C=           B log(1 + γ)p(γ)dγ
                         0

Se cumple C ≤ CAW GN = B log(1 + γ).




                                                        ´              ´
                                 Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                                     ı
CSI en recepción (cont.)
                   Capacidad con outage
Máxima velocidad a la que se puede transmitir sobre el canal
admitiendo que puede decodificarse incorrectamente con una
cierta probabilidad pout .
Suponemos que la SNR en recepción, γ , es constante durante
un intervalo de tiempo.
El transmisor fija un valor de SNR mínimo (en recepción), γmin ,
y transmite a una velocidad cercana a la capacidad para ese
valor
                      C = B log(1 + γmin )
Los datos serán correctamente recibidos si γ > γmin .




                                                ´              ´
                         Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                             ı
CSI en recepción (cont.)
                 Capacidad con outage
Se define la probabilidad de outage como
                                        γmin
         pout = p(γ < γmin ) =                 p(γ) = P (γmin )
                                    0

La capacidad promedio es

               Co = (1 − pout )B log(1 + γmin )




                                               ´              ´
                        Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                            ı
CSI en recepción (cont.)
                    Capacidad con outage
Curva de Capacidad/B en función de la probabilidad de outage.




                                                   ´              ´
                            Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                                ı
Ejemplo....
Vamos a calcular la capacidad de un canal con desvanecimiento
plano que introduce las siguientes ganancias:
   g[i]  g[1] = 0.025 g[2] = 0.25 g[3] = 10
                                              Supongamos
 p(g[i])      0.1          0.5        0.4
Pt = 10mW , N0 = 10−9 W/Hz y B = 30kHz .

    SNR en recepción:

      γ1 = 0.833(−0.79dB) γ2 = 83.333(19.2dB) γ3 = 333.33(25dB)

                            3
    Su capacidad es: C =    k=1   B log(1 + γk )p(γk ) = 151.58kbps
    Capacidad de un canal AWGN con γ = 137.58 (21.80dB):

               CAW GN = B log(1 + 137.58) = 213.43kbps

                                                   ´              ´
                            Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2
                                ı
Ejemplo (cont.)
Probabilidades de las SNR en recepción::
      γi      γ1 = 0.833 γ2 = 83.333 γ3 = 333.33
     p(γ)         0.1         0.5        0.4
 pout = P (γ)     0.1         0.6         1
Capacidades C = B log(1 + γi ) para γi :
 γi  γ1 = 0.833  γ2 = 83.333      γ3 = 333.33
 C 26.23 kbps 191.94 kbps 251.55 kbps
Para pout = P (γ1 = 0.1), podemos transmitir a velocidades
cercanas a C = 191.94kbps pero solamente decodificaremos
correctamente cuando la SNR sea γ2 o γ3 . La capacidad real
es Co = (1 − 0.1)191.94kbps = 172.75kbps.
Para pout = 0.6 la capacidad real es C = 125.78kbps

                                                ´              ´
                         Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                             ı
CSI en ambos lados




Asumiremos que g[i] es perfectamente conocido tanto en
transmisión como en recepción.
                                      ∞
La capacidad promedio es C =          0
                                           B log(1 + γ)p(γ)dγ .
El transmisor adapta su potencia S(γ) en función de la SNR en
recepción γ tal que
                          ∞
                              S(γ)p(γ)dγ ≤ S
                      0



                                                 ´              ´
                          Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                              ı
CSI en ambos lados (cont.)....
La capacidad de un canal variante en tiempo es
                         ∞
                                                S(γ)
               C=            B log 1 + γ                   p(γ)dγ
                     0                           S

El objetivo es maximizarla sujeto a la restricción
 ∞
 0
    S(γ)p(γ)dγ ≤ S .
Se obtiene:
                                1        1
                 S(γ)           γ0   −   γ     γ ≥ γ0
                      =
                  S                  0         γ < γ0

Solamente se transmite en los intervalos donde se cumple la
condición.

                                                     ´              ´
                              Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                                  ı
CSI en ambos lados (cont.)
Asignación de potencia óptima: Watter-Filling




                                                    ´              ´
                             Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                                 ı
CSI en ambos lados (cont.)
La capacidad resultante es
                               ∞
                                              γ
                     C=            B log              p(γ)dγ
                           0                  γ0
El valor de corte debe satisfacer
              ∞                        ∞
                  S(γ)                        1    1
                       p(γ)dγ =                  −            p(γ)dγ = 1
             γ0    S                 γ0       γ0   γ




                                                          ´              ´
                                   Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                                       ı
Ejemplo .....
Vamos a continuar con el ejemplo anterior...
    Consideremos que las probabilidades de las SNR en recepción
          γi   γ1 = 0.833 γ2 = 83.333 γ3 = 333.33
    son:
         p(γ)     0.1         0.5            0.4
    Calculemos el umbral γ0 de forma que

                                  1    1
                                     −            p(γi ) = 1
                        γi >γ0
                                  γ0   γ

                         3                  3
                              p(γi )       p(γi )
                                     −            =1
                        i=1
                               γ0      i=1
                                            γi
                             1
    En nuestro caso γ0 = 1.13 = 0.8 < γ1 y, por tanto, la SNR más
    débil nunca se utilizará.
                                                        ´              ´
                                 Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                                     ı
Ejemplo (cont.)
Calcularemos el umbral γ0 eliminando γ1 ,
                       2                2
                           p(γi )       p(γi )
                                  −            =1
                    i=1
                            γ0      i=1
                                         γi

En nuestro caso resulta, γ0 = 0.89.
La capacidad resultante es

                   3
                            γi
             C=     B log2 ( )p(γi ) = 200.82kbps
                i=2
                            γ0

La capacidad es mayor que la obtenida con CSI en recepción y
se aproxima a la de un canal AWGN.

                                                    ´              ´
                             Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                                 ı
Canales con desvanecimiento
  selectivo en frecuencia

Modelo de canal (canales invariantes
en tiempo)
Capacidad




                                     ´              ´
              Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                  ı
Modelo de canal




Supondremos un canal invariante en tiempo.
Canal con respuesta en frecuencia H(f ) conocida tanto el el
transmisor como en recepción.
Se transmite una potencia total S .




                                                 ´              ´
                          Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                              ı
Canal con desvanecimiento
    selectivo en frecuencia (cont.)




H(f ) puede dividirse en subcanales de ancho de banda B .
                           |Hj |2 Sj
La SNR en cada canal es     N0 B       donde Sj es la potencia
localizada en el j -ésimo canal,       j Sj ≤ S . La capacidad del
j -ésimo canal es

                                        |Hj |2 Sj
                   Cj = B log2       1+
                                         N0 B
.

                                                 ´              ´
                          Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3
                              ı
Canal con desvanecimiento
     selectivo en frecuencia (cont.)
Como tenemos varios canales en paralelo, nos planteamos
maximizar la capacidad (ejercicio)

                                       |Hj |2 Sj
      max C =           B log2      1+                        s.a.         Sj ≤ S
                   j
                                        N0 B
                                                                      k


Se obtiene
                                    1        1
                        Sj          γ0   −   γj     γj ≥ γ0
                           =
                        S                0          γ < γ0
             |Hj |2 S
donde γj =    N oB .

El parámetros γ0 debe ser elegido de forma que
       1   1
  j ( γ0 − γj ) = 1. La capacidad resultante es
                         γj
C=    γj >γ0 B log2      γ0
                                                        ´              ´
                                 Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 4
                                     ı
Canal con desvanecimiento
        selectivo en frecuencia (cont.)
Watter-filling para canales con desvanecimiento selectivo en
frecuencia.




                                                    ´              ´
                             Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 4
                                 ı
Ejemplo....
Vamos a calcular la capacidad de un canal selectivo en frecuencia
considerando que se puede aproximar por tres canales de
B = 1M Hz y con H1 = 1, H2 = 2 y H3 = 3. Consideraremos que la
restricción en potencia es S = 10mW y que N0 = 10−9 W/Hz .

                                         |Hj |2 S
    SNR en recepción: γj =                N oB :    γ1 = 10, γ2 = 40, γ3 = 90.
                   3     1        1
    Utilizando     j=1 ( γ0   −   γj )   = 1, obtenemos γ0 = 2.64 < γ1 .
           3              γj
    C=     j=1   B log2   γ0      =
    1000000 (log2 (10/2.64) + log2 (40/2.64) + log2 (90/2.64)) =
    10.93M bps




                                                                ´              ´
                                         Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 4
                                             ı

Más contenido relacionado

La actualidad más candente

Tema 2 teoría de la información y capacidad de canal
Tema 2   teoría de la información y capacidad de canalTema 2   teoría de la información y capacidad de canal
Tema 2 teoría de la información y capacidad de canal
José Ramón Cerquides Bueno
 
Informe 1 - Laboratorio de electrónica B
Informe 1 - Laboratorio de electrónica BInforme 1 - Laboratorio de electrónica B
Informe 1 - Laboratorio de electrónica B
Juan Lucin
 
Lecture 13 modulacion digital parte 1
Lecture 13  modulacion digital   parte 1Lecture 13  modulacion digital   parte 1
Lecture 13 modulacion digital parte 1
nica2009
 
Codificación y sus tecnicas
Codificación y sus tecnicasCodificación y sus tecnicas
Codificación y sus tecnicas
kevinluchi
 
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
nica2009
 

La actualidad más candente (20)

Tema 2 teoría de la información y capacidad de canal
Tema 2   teoría de la información y capacidad de canalTema 2   teoría de la información y capacidad de canal
Tema 2 teoría de la información y capacidad de canal
 
Informe 1 - Laboratorio de electrónica B
Informe 1 - Laboratorio de electrónica BInforme 1 - Laboratorio de electrónica B
Informe 1 - Laboratorio de electrónica B
 
Lecture 13 modulacion digital parte 1
Lecture 13  modulacion digital   parte 1Lecture 13  modulacion digital   parte 1
Lecture 13 modulacion digital parte 1
 
3. propagacion
3. propagacion3. propagacion
3. propagacion
 
Codigos de Linea - Telecomunicaciones III
Codigos de Linea - Telecomunicaciones IIICodigos de Linea - Telecomunicaciones III
Codigos de Linea - Telecomunicaciones III
 
Codificación y sus tecnicas
Codificación y sus tecnicasCodificación y sus tecnicas
Codificación y sus tecnicas
 
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
 
Amplificación transistor
Amplificación transistorAmplificación transistor
Amplificación transistor
 
Taller procesos estocásticos
Taller procesos estocásticosTaller procesos estocásticos
Taller procesos estocásticos
 
¿Que es el FTTH?
¿Que es el FTTH?¿Que es el FTTH?
¿Que es el FTTH?
 
Tema 4 codificación de canal
Tema 4   codificación de canalTema 4   codificación de canal
Tema 4 codificación de canal
 
Introducción a WDM y OTN
Introducción a WDM y OTNIntroducción a WDM y OTN
Introducción a WDM y OTN
 
ROJAS BARNETT JORGE LUIS
ROJAS BARNETT JORGE LUISROJAS BARNETT JORGE LUIS
ROJAS BARNETT JORGE LUIS
 
CodificacióN De Canal
CodificacióN De CanalCodificacióN De Canal
CodificacióN De Canal
 
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
 
Modo de Transferencia Asíncrona (ATM)
Modo de Transferencia Asíncrona (ATM)Modo de Transferencia Asíncrona (ATM)
Modo de Transferencia Asíncrona (ATM)
 
Capacidad del canal
Capacidad del canalCapacidad del canal
Capacidad del canal
 
21 conmutacion circuitos
21 conmutacion circuitos21 conmutacion circuitos
21 conmutacion circuitos
 
Presentacion-Guias-de-Onda.pdf
Presentacion-Guias-de-Onda.pdfPresentacion-Guias-de-Onda.pdf
Presentacion-Guias-de-Onda.pdf
 
Cálculo de un enlace de fibra óptica
Cálculo de un enlace de fibra ópticaCálculo de un enlace de fibra óptica
Cálculo de un enlace de fibra óptica
 

Similar a Pres capacidad de canal unidad6 (16)

Lecture 18 channel capacity
Lecture 18 channel capacityLecture 18 channel capacity
Lecture 18 channel capacity
 
Tema2 ud1b
Tema2 ud1bTema2 ud1b
Tema2 ud1b
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
1 Principios De MecáNica CuáNtica
1  Principios De MecáNica CuáNtica1  Principios De MecáNica CuáNtica
1 Principios De MecáNica CuáNtica
 
Canal gaussiano BUEN AINFO
Canal gaussiano BUEN AINFOCanal gaussiano BUEN AINFO
Canal gaussiano BUEN AINFO
 
Bitácora n° 5 (05 mar a 09 mar)
Bitácora n° 5 (05 mar a 09 mar)Bitácora n° 5 (05 mar a 09 mar)
Bitácora n° 5 (05 mar a 09 mar)
 
Tr bases 3
Tr bases 3Tr bases 3
Tr bases 3
 
Comca agosto-2008
Comca agosto-2008Comca agosto-2008
Comca agosto-2008
 
Comca agosto-2008
Comca agosto-2008Comca agosto-2008
Comca agosto-2008
 
Comca agosto-2008
Comca agosto-2008Comca agosto-2008
Comca agosto-2008
 
1_Inferencia.pptes las situacion de la estadistica que implica
1_Inferencia.pptes las situacion de la estadistica que implica1_Inferencia.pptes las situacion de la estadistica que implica
1_Inferencia.pptes las situacion de la estadistica que implica
 
Semana 9
Semana 9Semana 9
Semana 9
 
Bitácora n° 9 (09 abril a 13 de abril)
Bitácora n° 9 (09 abril a 13 de abril)Bitácora n° 9 (09 abril a 13 de abril)
Bitácora n° 9 (09 abril a 13 de abril)
 
Tema3
Tema3Tema3
Tema3
 
Algebra
AlgebraAlgebra
Algebra
 
Enfoques de PL y MILP para Clasificación de Patrones
Enfoques de PL y MILP para Clasificación de PatronesEnfoques de PL y MILP para Clasificación de Patrones
Enfoques de PL y MILP para Clasificación de Patrones
 

Más de Comunicaciones2 (6)

Dsss
DsssDsss
Dsss
 
Espectro ensanchado por secuencia directa dsss unidad514
Espectro ensanchado por secuencia directa dsss unidad514Espectro ensanchado por secuencia directa dsss unidad514
Espectro ensanchado por secuencia directa dsss unidad514
 
Codigos bloque
 Codigos bloque Codigos bloque
Codigos bloque
 
Transmision pasa banda
Transmision  pasa bandaTransmision  pasa banda
Transmision pasa banda
 
Tcm
TcmTcm
Tcm
 
Presentacion de señales PCM
Presentacion de señales PCMPresentacion de señales PCM
Presentacion de señales PCM
 

Último

Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdfUn libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
sandradianelly
 
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdfAsistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Demetrio Ccesa Rayme
 

Último (20)

2º conclusiones descriptivas educacion fisica (1).docx
2º conclusiones descriptivas educacion fisica (1).docx2º conclusiones descriptivas educacion fisica (1).docx
2º conclusiones descriptivas educacion fisica (1).docx
 
Fase 1, Lenguaje algebraico y pensamiento funcional
Fase 1, Lenguaje algebraico y pensamiento funcionalFase 1, Lenguaje algebraico y pensamiento funcional
Fase 1, Lenguaje algebraico y pensamiento funcional
 
Creación WEB. Ideas clave para crear un sitio web
Creación WEB. Ideas clave para crear un sitio webCreación WEB. Ideas clave para crear un sitio web
Creación WEB. Ideas clave para crear un sitio web
 
La Hegemonía Liberal en Paraguay 1904 a 1936.ppt
La Hegemonía Liberal en Paraguay 1904 a 1936.pptLa Hegemonía Liberal en Paraguay 1904 a 1936.ppt
La Hegemonía Liberal en Paraguay 1904 a 1936.ppt
 
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdfUn libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
 
CALENDARIZACION DEL MES DE JUNIO - JULIO 24
CALENDARIZACION DEL MES DE JUNIO - JULIO 24CALENDARIZACION DEL MES DE JUNIO - JULIO 24
CALENDARIZACION DEL MES DE JUNIO - JULIO 24
 
Material-de-Apoyo-Escuela-Sabatica-02-2-2024.pptx.ppt
Material-de-Apoyo-Escuela-Sabatica-02-2-2024.pptx.pptMaterial-de-Apoyo-Escuela-Sabatica-02-2-2024.pptx.ppt
Material-de-Apoyo-Escuela-Sabatica-02-2-2024.pptx.ppt
 
Portafolio de servicios Centro de Educación Continua EPN
Portafolio de servicios Centro de Educación Continua EPNPortafolio de servicios Centro de Educación Continua EPN
Portafolio de servicios Centro de Educación Continua EPN
 
32 LECTURAS CORTAS PARA NIÑOS.pdf · versión 1.pdf
32 LECTURAS CORTAS PARA NIÑOS.pdf · versión 1.pdf32 LECTURAS CORTAS PARA NIÑOS.pdf · versión 1.pdf
32 LECTURAS CORTAS PARA NIÑOS.pdf · versión 1.pdf
 
Fase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría AnalíticaFase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría Analítica
 
ACERTIJO DE CARRERA OLÍMPICA DE SUMA DE LABERINTOS. Por JAVIER SOLIS NOYOLA
ACERTIJO DE CARRERA OLÍMPICA DE SUMA DE LABERINTOS. Por JAVIER SOLIS NOYOLAACERTIJO DE CARRERA OLÍMPICA DE SUMA DE LABERINTOS. Por JAVIER SOLIS NOYOLA
ACERTIJO DE CARRERA OLÍMPICA DE SUMA DE LABERINTOS. Por JAVIER SOLIS NOYOLA
 
CAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCION
CAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCIONCAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCION
CAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCION
 
ensayo literario rios profundos jose maria ARGUEDAS
ensayo literario rios profundos jose maria ARGUEDASensayo literario rios profundos jose maria ARGUEDAS
ensayo literario rios profundos jose maria ARGUEDAS
 
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdfAsistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
 
True Mother's Speech at THE PENTECOST SERVICE..pdf
True Mother's Speech at THE PENTECOST SERVICE..pdfTrue Mother's Speech at THE PENTECOST SERVICE..pdf
True Mother's Speech at THE PENTECOST SERVICE..pdf
 
Módulo No. 1 Salud mental y escucha activa FINAL 25ABR2024 técnicos.pptx
Módulo No. 1 Salud mental y escucha activa FINAL 25ABR2024 técnicos.pptxMódulo No. 1 Salud mental y escucha activa FINAL 25ABR2024 técnicos.pptx
Módulo No. 1 Salud mental y escucha activa FINAL 25ABR2024 técnicos.pptx
 
Tarrajeo, tipos de tarrajeos, empastados, solaqueos y otros revestimientos.
Tarrajeo, tipos de tarrajeos, empastados, solaqueos y otros revestimientos.Tarrajeo, tipos de tarrajeos, empastados, solaqueos y otros revestimientos.
Tarrajeo, tipos de tarrajeos, empastados, solaqueos y otros revestimientos.
 
Proceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de PamplonaProceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de Pamplona
 
UNIDAD DE APRENDIZAJE DEL MES Junio 2024
UNIDAD DE APRENDIZAJE DEL MES  Junio 2024UNIDAD DE APRENDIZAJE DEL MES  Junio 2024
UNIDAD DE APRENDIZAJE DEL MES Junio 2024
 
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNETPRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
 

Pres capacidad de canal unidad6

  • 1. Tema: Capacidad de Canal Adriana Dapena Janeiro (adriana@udc.es) ´ Facultad de Informatica ˜ Universidade da Coruna ˜ Campus de Elvina s/n ˜ 15071. A Coruna ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. ı
  • 2. Objetivos Presentar el concepto de capacidad del canal. Estudiar el caso de canales SISO: Canales AWGN. Canales con desvanecimiento plano. CSI en recepción. CSI en recepción y en transmisión. Canales con desvanecimiento selectivo en frecuencia. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. ı
  • 3. Bibliografía recomendada A. Goldsmith, Wireless Communications, Cambridge University Press, 2005. http://wsl.stanford.edu/andrea/Wireless/ C. E. Shannon, “A mathematical theory of communication,” Bell System Technical Journal, vol. 27, pp. 379-423 and 623-656, July and October, 1948. http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html A. Goldsmith, P. P., Varaiya, “Capacity of fading channels with Channel Side Information,” IEEE Trans. on Information Theory, vol. 43, no. 6, pp. 1986-1992, November, 1997. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. ı
  • 4. Conceptos básicos Cantidad de información Entropía Entropía conjunta Información mutua Capacidad de canales discretos sin memoria ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. ı
  • 5. Cantidad de información Sea x una variable aleatoria que toma valores discretos xk en un alfabeto X con probabilidad p(xk ), p(xk ) = 1. El valor de p(xk ) expresa la probabilidad de que ocurra un determinado valor xk pero también nos está indicando la cantidad de información que se adquiere cuando ese valor es observado. Si p(x2 ) > p(x1 ), entonces es mayor la incertidumbre sobre el evento x = x1 que sobre x = x2 y, por ello, también es mayor la información que se adquiere cuando éste ocurre. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. ı
  • 6. Cantidad de información (cont.) La cantidad de información adquirida al observar xk está relacionada con la inversa de su probabilidad y se define como sigue: 1 I(xk ) = log = − log(p(xk )) p(xk ) donde la base del logaritmo es arbitraria. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. ı
  • 7. Entropía La cantidad media de información de x recibe el nombre de entropía: H(x) = E[I(xk )] = − x∈X p(x) log(p(x)) = −E[log p(x)] H(x) = 0 si la variable aleatoria x describe un proceso determinista. H(x) es máxima cuando la variable aleatoria es uniforme, H(x) = − log(|X |) donde |X | es el tamaño del alfabeto de x. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. ı
  • 8. Entropía conjunta Consideremos que tenemos un sistema cuya entrada x toma valores en un alfabeto X y su salida y es una versión perturbada de x que toma valores en otro alfabeto Y . Entropía conjunta: H(x, y) = − p(x, y) log(p(x, y)) = −E [log(p(x, y))] x∈X y∈Y donde p(x, y) es la probabilidad conjunta de ambas variables aleatorias. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. ı
  • 9. Información mutua Incertidumbre sobre la entrada que permanece sin resolver después de observar la salida H(x|y) = H(x, y) − H(y) Incertidumbre sobre la salida que no es resuelta al observar la entrada (perturbación) H(y|x) = H(x, y) − H(x) p(x,y) Información mutua I(x; y) = x∈X y∈Y p(x, y) log p(x)p(y) H(x) H(y) H(x|y) I(x,y) H(y|x) H(x,y) ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. ı
  • 10. Resumen Entropía H(x) = − x∈X p(x) log(p(x)) Entropía conjunta H(x, y) = − x∈X y∈Y p(x, y) log(p(x, y)) Entropía condicionada H(x|y) = − x∈X y∈Y p(x, y) log(p(y|x)) Información mutua p(x,y) I(x; y) = x∈X y∈Y p(x, y) log p(x)p(y) ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 11. Capacidad de un canal CDM Un Canal Discreto sin Memoria (CDM) es un sistema que consiste en un alfabeto de entrada X y un alfabeto de salida Y que son conjuntos finitos numerables y cuyos elementos están relacionados por una colección de funciones de masa de probabilidad (ff.m.p.) condicionales, p(y|x) ≥ 0, que expresan la probabilidad de que se observe la señal y ∈ Y a la salida del sistema cuando la entrada es x ∈ X . La capacidad de información del canal (X , p(y|x), Y) se define como C = max I(x; y) p(x) donde el máximo se toma sobre todas las posibles ff.m.p. p(x). ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 12. Canal binario sin ruido 1 x=0 y=0 1 x=1 y=1 p(y = 0|x = 0) = 1, p(y = 1|x = 0) = 0, p(y = 0|x = 1) = 0, p(y = 1|x = 1) = 1 Al no haber errores tampoco hay incertidumbre H(x|y) = 0. C = max I(x; y) = max H(x) − H(x|y) = max H(x) p(x) p(x) p(x) El valor máximo se alcanza para una distribución uniforme y es C = log2 2 = 1bit. Se puede transmitir la máxima información posible de la fuente. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 13. Canal binario simétrico 1−p x=0 y=0 p p x=1 y=1 1−p Supongamos que la fuente produce símbolos equiprobables a una velocidad de 1000 bits/seg. Si durante la transmisión el canal introduce errores de forma que (en media) la mitad de los bits recibidos son incorrectos (p = 1/2) ¿Cuál es la velocidad de transmisión? ¿500 bits/seg? ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 14. Canal binario simétrico ..... 1−p x=0 y=0 p p x=1 y=1 1−p p(y = 0|x = 0) = 1 − p, p(y = 1|x = 0) = p, p(y = 0|x = 1) = p, p(y = 1|x = 1) = 1 − p. La capacidad es C = maxp(x) (H(y) − H(y|x)) = 1 − H(p) con H(p) = −(1 − p) log(1 − p) − p log p. H(p) resta bits de información: cuanto más impredecible sea el error menor será la capacidad. Para p = 0 (o p = 1) estamos en el caso sin ruido: C = 1bit. Para p = 1/2, la salida es completamente aleatoria C = 0bit. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 15. Canal híbrido (ejercicio) 1 x=0 y=0 1−p x=1 y=1 p p x=2 y=2 1−p Suponemos p(x = 0) = P , p(x = 1) = p(x = 2) = Q tal que P + 2Q = 1. H(x) = −P log P − 2Q log Q. H(x|y) = 2Qα con α = H(p) = −(1 − p) log(1 − p) − p log p. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 16. Canal híbrido (cont.) Calcular P y Q que maximice C = H(x) − H(x|y) es equivalente a calcular los máximos del Lagrangiano: L = −P log P − 2Q log Q − 2Qα − λ(P + 2Q − 1) Los valores obtenidos son: P = βQ = β/(2 + β), Q = 1/(2 + β) con β = eα (para una base e cualquiera). Para p = 0 (o p = 1), la capacidad del canal es máxima C = log 3. Par p = 1/2, la capacidad es C = log 2. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 17. Capacidad de un canal AWGN Modelo del canal Cálculo de la capacidad ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 18. Modelo de un canal AWGN Vamos a considerar el siguiente modelo de un canal AWGN (Additive White Gaussian Noise): x[i] es la señal transmitida en el instante i. n[i] es un ruido blanco gaussiano: media cero, densidad espectral de potencia Sn (f ) = N0 , función de autocorrelación 2 RN (τ ) = N0 δ(τ ). 2 y[i] = x[i] + n[i] es la señal recibida en el instante i. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 19. Capacidad de un canal AWGN.... Sean Pr , Pn y Pt + Pn , respectivamente, la potencia de recibida de la señal transmitida, potencia del ruido y la potencia total recibida. Si el canal es de banda limitada a B Hz (ancho de banda 2B ), las entropías en bits/seg vienen dadas por: H(y) = B log(4π(Pr + Pn )) H(n) = B log(4πPn ) Por tanto, la capacidad es C = H(y) − H(y|x) = H(y) − H(n) = B log(1 + Pr /Pn ) ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 1 ı
  • 20. Capacidad de un canal AWGN (cont.) Definiendo la relación señal a ruido (SNR) como γ = Pr /Pn obtenemos: C = B log(1 + γ) Como el ruido tiene densidad espectral de potencia N0 /2, la potencia total en un ancho de banda 2B es Pn = 2B × (N0 /2) = N0 B . Por tanto, γ = Pr /(N0 B). ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 21. Ejemplo..... Supongamos que la potencia recibida de la señal viene dada por Pr (d) = Pt (d0 /d)3 donde d0 = 10m y d es la distancia entre transmisor y receptor, N0 = 10−9 W/Hz y B = 30kHz . La figura muestra la relación señal a ruido γ = Pt (d)/Pn (dB) y la capacidad del canal para distancias entre 100m y 1Km y Pt = 1W (potencia en transmisión). 20 160 140 15 120 10 100 Capacidad (kbps) 5 SNR (dB) 80 0 60 −5 40 −10 20 −15 0 100 200 300 400 500 600 700 800 900 1000 100 200 300 400 500 600 700 800 900 1000 distancia d distancia d ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 22. Canales con desvanecimiento plano Modelo de canal Capacidad con CSI en recepción. Capacidad con CSI en recepción y en transmisión. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 23. Modelo de canal El término g[i] ≥ 0 es una ganancia que modelaremos con un proceso estacionario ergódico con distribución p(g). S es la potencia media de la señal transmitida. N0 /2 es la densidad espectral de potencia del ruido. B es el ancho de banda del canal. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 24. Modelo de canal (cont.) Valor instantáneo de la SNR en recepción: Sg[i] γi = N0 B Valor medio de la SNR en recepción: Sg γ= N0 B Consideraremos dos casos: CSI en recepción. CSI en recepción y en transmisión. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 25. CSI en recepción Suponemos que el receptor conoce g[i] para cada instante i. Capacidad de Shannon (ergódica) ∞ C= B log(1 + γ)p(γ)dγ 0 Se cumple C ≤ CAW GN = B log(1 + γ). ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 26. CSI en recepción (cont.) Capacidad con outage Máxima velocidad a la que se puede transmitir sobre el canal admitiendo que puede decodificarse incorrectamente con una cierta probabilidad pout . Suponemos que la SNR en recepción, γ , es constante durante un intervalo de tiempo. El transmisor fija un valor de SNR mínimo (en recepción), γmin , y transmite a una velocidad cercana a la capacidad para ese valor C = B log(1 + γmin ) Los datos serán correctamente recibidos si γ > γmin . ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 27. CSI en recepción (cont.) Capacidad con outage Se define la probabilidad de outage como γmin pout = p(γ < γmin ) = p(γ) = P (γmin ) 0 La capacidad promedio es Co = (1 − pout )B log(1 + γmin ) ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 28. CSI en recepción (cont.) Capacidad con outage Curva de Capacidad/B en función de la probabilidad de outage. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 29. Ejemplo.... Vamos a calcular la capacidad de un canal con desvanecimiento plano que introduce las siguientes ganancias: g[i] g[1] = 0.025 g[2] = 0.25 g[3] = 10 Supongamos p(g[i]) 0.1 0.5 0.4 Pt = 10mW , N0 = 10−9 W/Hz y B = 30kHz . SNR en recepción: γ1 = 0.833(−0.79dB) γ2 = 83.333(19.2dB) γ3 = 333.33(25dB) 3 Su capacidad es: C = k=1 B log(1 + γk )p(γk ) = 151.58kbps Capacidad de un canal AWGN con γ = 137.58 (21.80dB): CAW GN = B log(1 + 137.58) = 213.43kbps ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 2 ı
  • 30. Ejemplo (cont.) Probabilidades de las SNR en recepción:: γi γ1 = 0.833 γ2 = 83.333 γ3 = 333.33 p(γ) 0.1 0.5 0.4 pout = P (γ) 0.1 0.6 1 Capacidades C = B log(1 + γi ) para γi : γi γ1 = 0.833 γ2 = 83.333 γ3 = 333.33 C 26.23 kbps 191.94 kbps 251.55 kbps Para pout = P (γ1 = 0.1), podemos transmitir a velocidades cercanas a C = 191.94kbps pero solamente decodificaremos correctamente cuando la SNR sea γ2 o γ3 . La capacidad real es Co = (1 − 0.1)191.94kbps = 172.75kbps. Para pout = 0.6 la capacidad real es C = 125.78kbps ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 31. CSI en ambos lados Asumiremos que g[i] es perfectamente conocido tanto en transmisión como en recepción. ∞ La capacidad promedio es C = 0 B log(1 + γ)p(γ)dγ . El transmisor adapta su potencia S(γ) en función de la SNR en recepción γ tal que ∞ S(γ)p(γ)dγ ≤ S 0 ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 32. CSI en ambos lados (cont.).... La capacidad de un canal variante en tiempo es ∞ S(γ) C= B log 1 + γ p(γ)dγ 0 S El objetivo es maximizarla sujeto a la restricción ∞ 0 S(γ)p(γ)dγ ≤ S . Se obtiene: 1 1 S(γ) γ0 − γ γ ≥ γ0 = S 0 γ < γ0 Solamente se transmite en los intervalos donde se cumple la condición. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 33. CSI en ambos lados (cont.) Asignación de potencia óptima: Watter-Filling ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 34. CSI en ambos lados (cont.) La capacidad resultante es ∞ γ C= B log p(γ)dγ 0 γ0 El valor de corte debe satisfacer ∞ ∞ S(γ) 1 1 p(γ)dγ = − p(γ)dγ = 1 γ0 S γ0 γ0 γ ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 35. Ejemplo ..... Vamos a continuar con el ejemplo anterior... Consideremos que las probabilidades de las SNR en recepción γi γ1 = 0.833 γ2 = 83.333 γ3 = 333.33 son: p(γ) 0.1 0.5 0.4 Calculemos el umbral γ0 de forma que 1 1 − p(γi ) = 1 γi >γ0 γ0 γ 3 3 p(γi ) p(γi ) − =1 i=1 γ0 i=1 γi 1 En nuestro caso γ0 = 1.13 = 0.8 < γ1 y, por tanto, la SNR más débil nunca se utilizará. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 36. Ejemplo (cont.) Calcularemos el umbral γ0 eliminando γ1 , 2 2 p(γi ) p(γi ) − =1 i=1 γ0 i=1 γi En nuestro caso resulta, γ0 = 0.89. La capacidad resultante es 3 γi C= B log2 ( )p(γi ) = 200.82kbps i=2 γ0 La capacidad es mayor que la obtenida con CSI en recepción y se aproxima a la de un canal AWGN. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 37. Canales con desvanecimiento selectivo en frecuencia Modelo de canal (canales invariantes en tiempo) Capacidad ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 38. Modelo de canal Supondremos un canal invariante en tiempo. Canal con respuesta en frecuencia H(f ) conocida tanto el el transmisor como en recepción. Se transmite una potencia total S . ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 39. Canal con desvanecimiento selectivo en frecuencia (cont.) H(f ) puede dividirse en subcanales de ancho de banda B . |Hj |2 Sj La SNR en cada canal es N0 B donde Sj es la potencia localizada en el j -ésimo canal, j Sj ≤ S . La capacidad del j -ésimo canal es |Hj |2 Sj Cj = B log2 1+ N0 B . ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 3 ı
  • 40. Canal con desvanecimiento selectivo en frecuencia (cont.) Como tenemos varios canales en paralelo, nos planteamos maximizar la capacidad (ejercicio) |Hj |2 Sj max C = B log2 1+ s.a. Sj ≤ S j N0 B k Se obtiene 1 1 Sj γ0 − γj γj ≥ γ0 = S 0 γ < γ0 |Hj |2 S donde γj = N oB . El parámetros γ0 debe ser elegido de forma que 1 1 j ( γ0 − γj ) = 1. La capacidad resultante es γj C= γj >γ0 B log2 γ0 ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 4 ı
  • 41. Canal con desvanecimiento selectivo en frecuencia (cont.) Watter-filling para canales con desvanecimiento selectivo en frecuencia. ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 4 ı
  • 42. Ejemplo.... Vamos a calcular la capacidad de un canal selectivo en frecuencia considerando que se puede aproximar por tres canales de B = 1M Hz y con H1 = 1, H2 = 2 y H3 = 3. Consideraremos que la restricción en potencia es S = 10mW y que N0 = 10−9 W/Hz . |Hj |2 S SNR en recepción: γj = N oB : γ1 = 10, γ2 = 40, γ3 = 90. 3 1 1 Utilizando j=1 ( γ0 − γj ) = 1, obtenemos γ0 = 2.64 < γ1 . 3 γj C= j=1 B log2 γ0 = 1000000 (log2 (10/2.64) + log2 (40/2.64) + log2 (90/2.64)) = 10.93M bps ´ ´ Teor´a de la comunicacion para redes moviles.- Adriana Dapena – p. 4 ı