SlideShare una empresa de Scribd logo
1 de 16
Descargar para leer sin conexión
´
Indice

4   MODELOS DE DISTRIBUCIONES                                                                                4.1
    4.1   Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
                    o                                                                                        4.1
    4.2   Modelos de distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . .      4.1
          4.2.1   Distribuci´n Uniforme Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . .
                            o                                                                                4.1
          4.2.2   Distribuci´n de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
                            o                                                                                4.2
          4.2.3   Distribuci´n Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
                            o                                                                                4.3
          4.2.4   Distribuci´n Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
                            o                                                                                4.5
          4.2.5   Distribuci´n Hipergeom´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . .
                            o           e                                                                    4.5
          4.2.6   Distribuci´n Geom´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
                            o      e                                                                         4.7
          4.2.7   Distribuci´n de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
                            o                                                                                4.8
    4.3   Modelos de distribuciones continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10
          4.3.1   Distribuci´n Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10
                            o
          4.3.2   Distribuci´n Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.11
                            o
          4.3.3   Distribuci´n Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.12
                            o
          4.3.4   Otras Distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.15
    4.4   Ap´ndice: Correcci´n de continuidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.15
            e               o




                                                      3.0
Tema 4

Modelos de distribuciones



4.1     Introducci´n
                  o

    En este tema estudiaremos algunas distribuciones asociadas a variables aleatorias discretas y con-
tinuas, que puedan ajustarse a una gran diversidad de problemas y campos cient´   ıficos en los que se
pueden aplicar. Podemos establecer la siguiente clasificaci´n:
                                                          o

   • Modelos de distribuciones discretas

   • Modelos de distribuciones continuas


4.2     Modelos de distribuciones discretas

   Para describir las variables aleatorias discretas asociadas a determinados experimentos basta con
proporcionar la distribuci´n de probabilidad; por ello vamos a estudiar las distribuciones de probabili-
                          o
dad m´s importantes que describan el comportamiento de muchas de las variables aleatorias discretas
      a
que se encuentran en la pr´ctica y otras caracter´
                            a                     ısticas asociadas.


4.2.1   Distribuci´n Uniforme Discreta
                  o

    Se considera la m´s simple de todas las distribuciones de probabilidad discretas, en la que la
                       a
variable aleatoria asociada toma cada uno de los valores con una probabilidad id´ntica.
                                                                                e

Definici´n 4.1 Diremos que una variable aleatoria discreta X tiene una distribuci´n Uniforme de
        o                                                                       o
par´metro N, N ≥ 1, si
   a


                                         rg(X) = {1, 2, ..., N }
y la funci´n de probabilidad puede escribirse
          o


                                                1
                                P [X = x] =           x = 1, 2, ..., N
                                                N

                                                    4.1
Tema 4.       Modelos de distribuciones

En tal caso se denotar´ como X ∼ U D(N )
                      a

Proposici´n 4.1 Sea X ∼ U D(N ) entonces
         o

                                                               N +1
                                                   E [X] =          ,
                                                                 2

                                                               N2 − 1
                                                  V ar [X] =          .
                                                                12

Ejemplo 4.1 Sea el experimento aleatorio de lanzar un dado. Definimos la variable X como la pun-
tuaci´n obtenida en dicho lanzamiento. Se tiene que
     o


                                               rg(X) = {1, 2, 3, 4, 5, 6} ,


                                                          1
                                         P [X = x] =             x ∈ rg(X).
                                                          6
Entonces X ∼ U D(6)

Esta distribuci´n tambi´n se puede definir para cualesquiera valores x1 , x2 , ..., xN . Lo que la caracte-
               o         e
riza es que todos los posibles valores que puede tomar la variable aleatoria tienen la misma probabilidad
de ocurrir.

Ejemplo 4.2 Se selecciona una bombilla al azar de una caja que contiene una bombilla de 40 vatios,
una de 60, una de 75 y una de 100. Cada elemento del espacio muestral tiene una probabilidad de
1/4. Por tanto tenemos una distribuci´n uniforme discreta donde:
                                     o


                                               rg(X) = {x1 , x2 , x3 , x4 }

      x1 = “bombilla de 40 vatios”;       x2 = “bombilla de 60 vatios”;        x3 = “bombilla de 70 vatios”;
      x4 = “bombilla de 100 vatios”

                                                      1
                                         P [X = xi ] = ,         xi ∈ rg(X).
                                                      4
      Entonces, X ∼ U D(x1 , x2 , x3 , x4 ).


4.2.2      Distribuci´n de Bernoulli
                     o

   Sea un experimento con dos posibles resultados, generalmente llamados ´xito y fracaso para los
                                                                               e
que P [´xito] = p y P [fracaso] = 1 − p = q. A este tipo de experimento se le denomina experimento o
       e
prueba de Bernoulli. Se le puede asociar una variable aleatoria de la siguiente forma:
      X : Ω → {0, 1}        Fracaso → 0           ´
                                                  Exito → 1.
      Por tanto, tenemos:
      P [X = 1] = P [´xito] = p,
                     e
      P [X = 0] = P [fracaso] = q.

4.2                                              2o Ing. Inform´tica
                                                               a
4.2. Modelos de distribuciones discretas

Definici´n 4.2 Una variable aleatoria discreta X se dice que sigue una distribuci´n de Bernoulli de
        o                                                                       o
par´metro p, X ∼ Be(p), con p ∈ [0, 1]; si se verifica:
   a


                                            rg(X) = {0, 1}
y la funci´n de probabilidad puede escribirse como:
          o

                               P [X = x] = px (1 − p)1−x          x ∈ {0, 1} .

Proposici´n 4.2 Si X ∼ Be(p) entonces
         o

                                              E[X] = p,
                                            V ar[X] = pq.

Como ejemplos de distribuci´n de Bernoulli podemos citar un sistema el´ctrico que funcione o no,
                             o                                          e
consideramos ´xito que el sistema funcione y fracaso que no funcione. De la misma forma podemos
              e
tener un conmutador en ON/OFF, un servidor con conexi´n o sin ella, un fusible defectuoso o no
                                                          o
defectuoso, etc.

                                                                  ´
Ejemplo 4.3 Consideramos el lanzamiento de una moneda. Definimos Exito=“Obtener cara al lanzar
la moneda” y Fracaso=“Obtener cruz al lanzar la moneda”. En tal caso la variable X tiene una
probabilidad de ´xito 1 y por tanto X ∼ Be(1/2) Calculamos la media y varianza
                e     2

                                                            1
                                              E[X] =          ,
                                                            2
                                                            1
                                            V ar[X] =         .
                                                            4

4.2.3   Distribuci´n Binomial
                  o

    Consideramos n experimentos de Bernoulli independientes e id´nticamente distribuidos y sea la
                                                                e
variable aleatoria X definida como el n´mero de ´xitos en n pruebas de Bernoulli. Diremos que X
                                        u        e
sigue una distribuci´n binomial de par´metros n y p,
                    o                 a


                                             X ∼ B(n, p) ,
donde n es el n´mero de pruebas, p probabilidad de ´xito en una prueba.
               u                                   e



Definici´n 4.3 Se dice que una variable aleatoria discreta X sigue una distribuci´n binomial de
        o                                                                       o
par´metros n ∈ N y p ∈ [0, 1] si se verifica:
   a


                                          rg(X) = {0, 1, ..., n}
y la funci´n de probabilidad puede escribirse como:
          o


                                            n k (n−k)
                            P [X = k] =       p q     ,       k = 0, 1, . . . , n.
                                            k


                                              Estad´
                                                   ıstica                                               4.3
Tema 4.    Modelos de distribuciones

                                                                     n
Proposici´n 4.3 Si X ∼ B(n, p) podemos expresar X =
         o                                                                Ii con
                                                                    i=1


                                       1   si se tiene ´xito en la prueba i
                                                       e
                            Ii =
                                       0 si se tiene fracaso en la prueba i ,

es decir, como una suma de n variables aleatorias independientes e id´nticamente distribuidas (i.i.d)
                                                                     e
seg´n Ii ∼ Be(p).
   u

De la Proposici´n 4.3 se deducen las siguientes propiedades.
               o

Proposici´n 4.4 Si X ∼ B(n, p) entonces
         o



                                                  E[X] = np,
                                              V ar[X] = npq.

Proposici´n 4.5 Dadas X ∼ B(n, p), Y ∼ B(m, p) independientes entonces X + Y ∼ B(n + m, p).
         o

   Como ejemplos de variables que siguen una distribuci´n binomial podemos citar: n´mero de veces
                                                        o                            u
que aparece el resultado “cara” al lanzar una moneda diez veces; n´mero de ´xitos en la recepci´n de
                                                                  u        e                   o
un mensaje enviado a 100 destinatarios; n´mero de ordenadores en una subred que han sido infectados
                                          u
por un determinado virus, etc.

Ejemplo 4.4 La probabilidad de que cierta clase de componente sobreviva a una prueba de choque
dada es 3/4. Calcular la probabilidad de que sobrevivan exactamente dos de los cuatro componentes
que se prueban.
   Supongamos que las pruebas realizadas son independientes y con probabilidad de ´xito p=3/4 para
                                                                                   e
cada una de las 4 pruebas, por tanto la variable X ∼ B(4, 3/4); tenemos que calcular
                                              2        2
                                   4      3       1             4!  32   27
                  P [X = 2] =                              =       × 4 =     = 0.2109,
                                   2      4       4            2!2! 4    128

Podemos calcular tambi´n la media y la varianza
                      e

                                                      E[X] = 3,
                                                               3
                                                      V ar[X] = .
                                                               4

Nota 4.1 La distribuci´n binomial encuentra aplicaciones en muchos campos cient´
                        o                                                           ıficos. Dentro de la
ingenier´ es normal estudiar la proporci´n de elementos defectuosos dentro de un proceso industrial;
        ıa                                o
las mediciones de control de calidad y los esquemas de muestreo se basan en la distribuci´n binomial.
                                                                                           o
 ´
Esta se aplica en cualquier situaci´n industrial donde el resultado es un proceso dicot´mico y los
                                    o                                                       o
resultados del proceso son independientes y la probabilidad de ´xito es constante de una prueba a otra.
                                                               e




4.4                                           2o Ing. Inform´tica
                                                            a
4.2. Modelos de distribuciones discretas

4.2.4    Distribuci´n Multinomial
                   o

    En muchas aplicaciones hay m´s de dos resultados posibles. A menudo la dicotom´ “defectuoso” o
                                    a                                                       ıa
“no defectuoso” en situaciones de ingenier´ es una simplificaci´n de la realidad, donde suele haber m´s
                                                 ıa                   o                                     a
de dos categor´ que caracterizan art´
                 ıas                     ıculos o partes de una l´  ınea de producci´n. Para estas situaciones
                                                                                    o
el experimento binomial se convierte en experimento multinomial cuando cada prueba tiene m´s de          a
dos resultados posibles. Si un experimento puede tener como consecuencia k posibles resultados
E1, E2,..., Ek con probabilidades p1, p2,..., pk , entonces la distribuci´n multinomial dar´ la probabilidad
                                                                         o                  a
de que E1 ocurra x1 veces, E2 ocurra x2 veces,. . . , Ek ocurra xk veces en n pruebas independientes,
donde


                                           x1 + x2 + ... + xk = n.

   La funci´n de probabilidad de las variables aleatorias X1, X2,..., Xk , que representan el n´mero de
            o                                                                                  u
ocurrencias para E1, E2,..., Ek en n pruebas independientes es

                                                                       n!
                    P [X1 = x1 , X2 = x2 , . . . , Xk = xk ] =                      px1 px2 . . . pxk
                                                                 x1 !x2 ! . . . xk ! 1 2           k

con
                                                   k
                                                        xi = n
                                                  i=1
y
                                                   k
                                                        pi = 1
                                                  i=1

A la variable (X1 , . . . , Xn ) se le dice que sigue una distribuci´n multinomial y se denota por
                                                                    o
M(p1 , p2 , . . . , pk ; n)

Ejemplo 4.5 Los fallos de impresi´n de un libro se pueden clasificar en erratas tipogr´ficas (E), mala
                                  o                                                   a
impresi´n (M) y hojas en blanco (H). Un editor presenta en los fallos de sus publicaciones un 80% de
        o
erratas, un 15% de hojas mal impresas y s´lo un 5% de hojas en blanco. Calcular la probabilidad de
                                           o
que de 10 fallos encontrados en un libro, 6 sean erratas y 3 carencias de impresi´n.
                                                                                 o
    Al considerar 10 fallos, 6 corresponden a erratas, 3 a carencias de impresi´n, el fallo restante
                                                                               o
corresponde a una hoja en blanco. Por lo tanto

                                                   10!
                 P [X1 = 6; X2 = 3; X3 = 1] =            × 0.806 × 0.153 × 0.05 = 0.03716.
                                                  6!3!1!


4.2.5    Distribuci´n Hipergeom´trica
                   o           e

   La diferencia entre la distribuci´n binomial y la distribuci´n hipergeom´trica est´ en la forma en
                                    o                          o             e        a
que se realiza el muestreo. En el caso de la binomial se requiere independencia entre las pruebas, es
decir, el muestreo se realiza con reemplazamiento. Por otro lado, la distribuci´n hipergeom´trica no
                                                                                o              e
requiere independencia y el muestreo se realiza sin reemplazamiento. Las aplicaciones de la distribuci´n
                                                                                                      o
hipergeom´trica se encuentran en muchas ´reas, con gran uso en control de calidad.
           e                               a
   Consideramos un conjunto de N elementos en el que tenemos N1 elementos del tipo 1 y N − N1
elementos de tipo 2. Extraemos n sin reemplazamiento y definimos la variable aleatoria:

                                                 Estad´
                                                      ıstica                                               4.5
Tema 4.   Modelos de distribuciones

    X = “n´mero de elementos del tipo 1 en los n extra´
            u                                         ıdos”. El modelo de distribuci´n que sigue
                                                                                    o
esta variable aleatoria es una hipergeom´trica.
                                        e

Definici´n 4.4 Se dice que una variable aleatoria discreta X sigue una distribuci´n hipergeom´trica
        o                                                                       o           e
de par´metros N, N1 y n con n ≤ N , si se verifica:
      a


                          rg(X) = {m´x (0, n − (N − N1 )) , ..., m´n(n, N1 )}
                                    a                             ı
y la funci´n de probabilidad de X es
          o

                                            N1   N −N1
                                            k     n−k
                              P [X = k] =        N
                                                         ,           k ∈ rg(X)
                                                 n
con 0 ≤ k ≤ N1 , 0 ≤ n − k ≤ N − N1 . Se denota X ∼ H(N, N1 , n).

Proposici´n 4.6 Si X ∼ H(N, N1 , n) entonces
         o
                                          N1
                                E[X] = n     ,
                                          N
                                          N1      N1                     N −n
                              V ar[X] = n      1−                                    .
                                          N       N                      N −1

Ejemplo 4.6 Un fabricante de chips de silicio los empaqueta en lotes de 25. El comprador los ins-
pecciona tomando 3 chips y acepta un lote si encuentra menos de 2 chips defectuosos.

 (a) Calcular la probabilidad de que el comprador acepte un lote con 6 chips defectuosos.

 (b) ¿Cu´l es el n´mero esperado y la varianza de chips defectuosos en los 3 inspeccionados?
        a         u

(a) Se tiene un conjunto de N = 25 chips, en los que hay N1 = 6 defectuosos, y N − N1 = 19 no
defectuosos. Extraemos n = 3 sin reemplazamiento. Consideramos la variable aleatoria X = “n´mero
                                                                                           u
de chips defectuosos en los 3 seleccionados”,

                                  X ∼ H(N = 25, N1 = 6, n = 3) .

La probabilidad de que el comprador acepte el lote es:
                                                             6      19        6      19
                                                             0       3        1       2
                  P [X < 2] = P [X = 0] + P [X = 1] =            25       +       25      = 0.8674,
                                                                  3                3


                                      6
                          E[X] = 3 ×      = 0.72 ,
                                      25
                                        6       19                   22
                        V ar[X] = 3 ×       ×                ×                = 0.5016 .
                                       25       25                   24

Ejemplo 4.7 Se dispone de una urna con 3 bolas blancas y 7 negras. Extraemos 4 bolas al azar
y queremos contar el n´mero de bolas blancas en las 4 extracciones. Enunciar los modelos que se
                       u
obtendr´ al realizar el experimento con y sin reemplazamiento.
       ıan
   Si existe reemplazamiento, la probabilidad de extraer una bola blanca no varia en el tiempo, y por
tanto
                                                      3
                                          X ∼ B 4,        .
                                                      10

4.6                                      2o Ing. Inform´tica
                                                       a
4.2. Modelos de distribuciones discretas

    Si no se realiza reemplazamiento, las probabilidades variar´n en el tiempo ya que cambia la com-
                                                               a
posici´n de la urna y, por lo tanto,
      o
                                           X ∼ H(10, 3, 4) .


4.2.6   Distribuci´n Geom´trica
                  o      e

   Realizamos una serie de pruebas de Bernoulli independientes e id´nticamente distribuidas con la
                                                                   e
misma probabilidad de ´xito, p, en cada prueba. Definimos:
                      e
   X = “n´mero de fracasos antes de obtener el primer ´xito”. Entonces se tiene un tipo de distri-
          u                                           e
buci´n denominada geom´trica.
    o                 e

Definici´n 4.5 Se dice que una variable aleatoria discreta X sigue una distribuci´n geom´trica de
        o                                                                       o      e
par´metro p ∈ (0, 1] si se verifica:
   a
                                    rg(X) = {0, 1, 2, . . .}
y la funci´n de probabilidad es:
          o

                              P [X = k] = q k p ,     k = 0, 1, ....,    k ∈ rg(X).

Se denotar´ como X ∼ Ge(p), con 0 < p ≤ 1.
          a

   Comprobamos que es funci´n de probabilidad:
                           o
                        ∞                  ∞               ∞
                                                 k                        1    1
                             P [X = k] =         q p=p          qk = p       =p =1,
                                                                         1−q   p
                       k=0                 k=0            k=0

pues 0 ≤ q < 1 .

Proposici´n 4.7 Si X ∼ Ge(p), entonces
         o

                                                             q
                                                  E[X] =       ,
                                                             p

                                                               q
                                                 V ar[X] =        .
                                                               p2

Proposici´n 4.8 Si X ∼ Ge(p), entonces
         o

                    P [X ≥ k + j|X ≥ k] = P [X ≥ j] = q j ,                 k, j = 0, 1, 2, ... .

   Se dice que la distribuci´n geom´trica carece de memoria.
                            o      e

Ejemplo 4.8 En un proceso de fabricaci´n se puede suponer por estudios previos que la probabilidad
                                         o
             ıculo sea defectuoso es p = 0.01. Inspeccionamos art´
de que un art´                                                       ıculos secuencialmente hasta en-
contrar uno defectuoso. Calcular la probabilidad de que el quinto art´
                                                                     ıculo seleccionado sea el primero
defectuoso.
  Definimos X = “n´mero de art´
                 u           ıculos seleccionados antes de encontrar el primero defectuoso”,
X ∼ Ge(0.01).

                                                    Estad´
                                                         ıstica                                              4.7
Tema 4.      Modelos de distribuciones




         P [el quinto art´
                         ıculo seleccionado sea el primero defectuoso] = P [X = 4]
                                                                                   = 0.994 × 0.01 = 0.0096 .

Calculamos tambi´n la media y la varianza
                e

                                                       q      0.99
                                     E[X] =                =        = 99 ,
                                                       p      0.01
                                                       q         0.99
                                   V ar[X] =                =          = 9900 .
                                                       p 2     (0.01)2

Nota 4.2 Algunos autores definen la distribuci´n geom´trica como Y = “n´mero de la prueba en que
                                                o        e                   u
obtengo el primer ´xito”. N´tese que Y = X + 1, siendo X la variable con la que hemos trabajado
                    e        o
antes, por lo que la funci´n de probabilidad y caracter´
                          o                            ısticas se deducen de forma inmediata.

                                  P [Y = k] = P [X = k − 1] ,
                                      E[Y ] = E[X] + 1 ,
                                    V ar[Y ] = V ar[X + 1] = V ar[X] .


Nota 4.3 C´mo ´rea de aplicaci´n de la distribuci´n geom´trica, podemos citar situaciones donde los
             o    a              o                 o       e
ingenieros intentan determinar la “eficacia” de un sistema de conmutaci´n telef´nica durante periodos
                                                                        o     o
ocupados. En este caso, el ´xito representa la conexi´n al sistema de conmutaci´n. La variable ser´
                           e                         o                          o                 ıa
el n´mero de intentos fracasados antes de una conexi´n al sistema (´xito).
    u                                                 o             e


4.2.7      Distribuci´n de Poisson
                     o

    La distribuci´n de Poisson es una distribuci´n discreta de gran utilidad donde la variable aleatoria
                 o                              o
suele estudiar el n´mero de eventos independientes que ocurren a velocidad constante en un intervalo
                   u
de tiempo o espacio. El intervalo puede ser de cualquier longitud, como un minuto, un d´ una    ıa,
semana. Por ejemplo, el n´mero de llamada telef´nicas por hora que llegan a una oficina, el n´mero
                           u                      o                                               u
de mensajes que llegan a un servidor de correos durante una hora, etc.


Definici´n 4.6 Una variable aleatoria X discreta, sigue una distribuci´n de Poisson de par´metro
        o                                                            o                   a
λ > 0, X ∼ P(λ), si:
                                             rg(X) = {0, 1, 2, . . .}

      y la funci´n de probabilidad viene dada por:
                o

                                                          λk
                                   P [X = k] = e−λ           ,     k = 0, 1, 2, ... ,
                                                          k!

      Comprobamos que es funci´n de probabilidad:
                              o

                          ∞                  ∞            k           ∞
                                                   −λ λ                     λk
                               P [X = k] =         e          =e −λ
                                                                               = e−λ eλ = 1 .
                                                         k!                 k!
                         k=0                 k=0                      k=0


4.8                                           2o Ing. Inform´tica
                                                            a
4.2. Modelos de distribuciones discretas

Proposici´n 4.9 Si X ∼ P(λ) entonces
         o



                                               E[X] = λ,
                                               V ar[X] = λ.

Proposici´n 4.10 Dadas X ∼ P(λ1 ) e Y ∼ P(λ2 ) independientes entonces X + Y ∼ P(λ1 + λ2 ) .
         o

Corolario 4.1 Dadas X1 ∼ P(λ),..., Xn ∼ P(λ) independientes e id´nticamente distribuidas enton-
                                                                e
ces S = X1 + .. + Xn ∼ P(nλ) .

Ejemplo 4.9 El n´mero medio de camiones que llega cada d´ a la d´rsena de descarga de un puerto
                  u                                        ıa     a
es 10, (λ = 10). Con las instalaciones de que dispone el puerto no se pueden descargar m´s de 15
                                                                                        a
camiones en un d´ Calcular la probabilidad de que en un d´ determinado haya camiones que no
                 ıa.                                         ıa
puedan ser descargados.
   Sea X = “n´mero de camiones que llegan en un d´
             u                                   ıa”. La variable aleatoria X ∼ P(λ = 10).

            P [en un d´ determinado haya camiones que no puedan ser descargados] =
                      ıa

                       P [X > 15] = 1 − P [X ≤ 15] = 1 − 0.9513 = 0.0487 .

Nota 4.4 La distribuci´n de Poisson se utiliza a menudo para aproximar las probabilidades de una
                      o
B(n, p), cuando n es grande y p peque˜o, aproxim´ndose por una P(λ = np). En la pr´ctica, la
                                     n            a                                    a
aproximaci´n es buena cuando p < 0.1 y np ≤ 5
           o
    En la siguiente tabla representamos en la segunda columna la P [X = x] para una distribuci´no
Binomial con par´metros n = 40 y p = 0.05, la tercera columna corresponde a la probabilidad para la
                 a
distribuci´n de Poisson con par´metro λ = 40 × 0.05 = 2.
          o                     a

                            x     B(n = 40, p = 0.05)          P (λ = 2)
                            0           0.1285                  0.1353
                            1           0.2706                  0.2707
                            2           0.2777                  0.2707
                            3           0.1851                  0.1804
                            4           0.0901                  0.0902
                            5           0.0342                  0.0361
                            6           0.0105                  0.0120

                       Tabla 4.1: Aproximaci´n de la binomial por la Poisson
                                            o



Ejemplo 4.10 En un proceso de fabricaci´n de productos de vidrio se producen rara vez burbujas que
                                           o
dejan al producto defectuoso para su venta. Se ha observado que uno de cada 1000 art´     ıculos que se
producen tienen burbujas, es decir, la probabilidad de que un producto sea defectuoso podemos suponer
que es p = 0.001 ). ¿Cu´l es la probabilidad de que en un lote de 8000 art´
                         a                                                     ıculos haya menos de 4
defectuosos?
   Sea X =“ n´mero de art´
             u           ıculos defectuosos en 8000”.

                                             Estad´
                                                  ıstica                                            4.9
Tema 4.    Modelos de distribuciones

   Podemos suponer
                                      X ∼ B(n = 8000, p = 0.001) .
Puesto que n es muy grande y p est´ muy pr´ximo a cero podemos aproximar B(n, p) ≈ P (λ = np),
                                  a       o
es decir,
                                    X ∼ P (λ = n × p = 8)
                                                          3
   P [haya menos de 4 defectuosos] = P [X < 4] =          k=0 P [X   = k] = 0.0424.


4.3     Modelos de distribuciones continuas

    En esta parte del tema se estudiar´n algunas de las distribuciones m´s comunes, que se pueden
                                        a                                   a
aplicar a una gran diversidad de situaciones en los que se estudian problemas de naturaleza continua.
Para describir este tipo de variables aleatorias basta proporcionar la funci´n de densidad.
                                                                            o


4.3.1     Distribuci´n Uniforme
                    o

Definici´n 4.7 Se dice que una variable aleatoria continua X sigue una distribuci´n uniforme en el
         o                                                                      o
intervalo (a,b), si su funci´n de densidad est´ definida como
                            o                 a

                                                1
                                               b−a     si a < x < b
                                   f (x) =
                                                0            c.c.

   Se denota por X ∼ U (a, b)

Proposici´n 4.11 Si X ∼ U (a, b) entonces
         o

                                                       a+b
                                             E [X] =       ,
                                                        2

                                                       (b − a)2
                                          V ar[X] =             .
                                                          12

   .

Ejemplo 4.11 El volumen de ventas de un almac´n se distribuye uniformemente entre 38 y 120 miles
                                             e
de euros. Calcular

(a) La probabilidad de que las ventas sean superiores a 100000 euros.

(b) La esperanza matem´tica y varianza de las ventas
                      a

Sea X= “Volumen de ventas del almac´n en miles de euros” ∼ U (38, 120).
                                   e
   (a) La funci´n de densidad de esta variable
               o
                                         1       1
                            f (x) =            =           si   38 < x < 120
                                      120 − 38   82

   Por tanto, como la variable est´ definida en miles de euros
                                  a

4.10                                      2o Ing. Inform´tica
                                                        a
4.3. Modelos de distribuciones continuas


                                  +∞                   120
                                                             1       1           20
                P [X > 100] =           f (x)dx =               dx =    [x]120 =
                                                                           100      = 0.2439
                                 100                  100    82      82          82

    (b)
                                                 a+b   38 + 120
                                   E[X] =            =          = 79
                                                  2        2
.
                                          (b − a)2   (120 − 38)2
                            V ar[X] =              =             = 560.333
                                             12          12


4.3.2     Distribuci´n Exponencial
                    o

Definici´n 4.8 Se dice que la variable aleatoria continua X sigue una distribuci´n exponencial de
        o                                                                      o
par´metro λ, con λ > 0 si su funci´n de densidad es
   a                              o



                                                   λe−λx si x > 0
                                       f (x) =
                                                     0       c.c.

    Se denota por X ∼ Exp(λ)


Proposici´n 4.12 Si X ∼ Exp(λ) entonces
         o


                                                              1
                                                   E[X] =       ,
                                                              λ
                                                                    1
                                                   V ar[X] =           .
                                                                    λ2

    Como ejemplos de una distribuci´n exponencial podemos citar el tiempo que tarda en fallar un
                                     o
sistema electr´nico, tiempo transcurrido entre la llegada de dos mensajes de correos consecutivos, etc.
              o


Proposici´n 4.13 Si X ∼ Exp(λ) entonces
         o


                                                 1 − e−λx ,          si x > 0
                                 F (x) =
                                                      0                  c.c.


                                        P [X > x] = e−λx ,           x > 0.


Proposici´n 4.14 Si X ∼ Exp(λ) entonces
         o

                        P [X ≥ x + t|X ≥ t] = P [X ≥ x] = e−λx ,                    x, t > 0.


    Se dice que la distribuci´n exponencial no tiene memoria. Por ello, esta distribuci´n se suele
                             o                                                         o
utilizar cuando medimos el tiempo de vida restante de poblaciones que no envejecen con el tiempo.

                                                  Estad´
                                                       ıstica                                                  4.11
Tema 4.    Modelos de distribuciones

Ejemplo 4.12 Se ha comprobado que la duraci´n de vida de cierto tipo de circuitos sigue una distri-
                                              o
buci´n exponencial con media 8 a˜os. Calcular:
    o                           n
   (a) La probabilidad de que un circuito tenga una vida entre 3 y 12 a˜os.
                                                                       n
   (b) La probabilidad de que un circuito que ha vivido m´s de 10 a˜os, viva 15 a˜os m´s.
                                                         a         n             n    a
   (a) Sea X=“Tiempo de vida de los circuitos”, como la media de la variable aleatoria es 8,
   X ∼ Exp(λ = 1 ), por tanto la funci´n de densidad
               8                      o

                                                    1 t
                                             f (t) = e− 8 ,     t>0
                                                    8

   donde t va medido en a˜os. Entonces:
                         n

                                            12
                                                 1 −t           t      12
                   P [3 < X < 12] =                e 8 dt = −e− 8           = 0.69 − 0.22 = 0.46
                                        3        8                     3

   (b) Utilizando la Proposici´n 1.14:
                              o

                                                           P [X > 25]
                                P [X > 25|X > 10] =                   = e−λ15
                                                           P [X > 10]

   Por tanto
                                    P [X > 25|X > 10] = P [X > 15]

   Luego podemos afirmar que la variable aleatoria X no tiene memoria.


4.3.3     Distribuci´n Normal
                    o

    Es la m´s importante de las distribuciones continuas ya que permite describir un n´mero muy
            a                                                                           u
grande de fen´menos aleatorios, como por ejemplo aquellos en los que intervienen un n´mero elevado
              o                                                                      u
de factores no controlables, que act´an de manera independiente y con efectos peque˜os.
                                    u                                               n

Definici´n 4.9 Se dice que una variable aleatoria X sigue una distribuci´n normal de par´metros
        o                                                              o               a
µ ∈ R y σ 2 > 0, si su funci´n de densidad es
                            o

                                            1         (x − µ)2
                                f (x) = √       exp −          ,               x ∈ R,
                                            2πσ         2σ 2
se denota por X ∼ N (µ, σ 2 )

Proposici´n 4.15 Si X ∼ N (µ, σ 2 ) entonces
         o



                                                     E[X] = µ,
                                                     V ar[X] = σ 2 .



   La gr´fica de la funci´n de densidad, se denomina curva normal (o campana de Gauss), es una
         a              o
curva con forma de campana, la cual describe aproximadamente muchos fen´menos que se utilizan en
                                                                       o

4.12                                             2o Ing. Inform´tica
                                                               a
4.3. Modelos de distribuciones continuas

la vida cotidiana. Por ejemplo, las mediciones f´ısicas en ´reas como los experimentos metereol´gicos,
                                                           a                                   o
estudios de lluvia, errores en las mediciones cient´
                                                   ıficas, etc.
  A continuaci´n se muestra la gr´fica de la funci´n de densidad para una distribuci´n normal con
                o                 a              o                                 o
media 0 y desviaci´n t´
                  o ıpica igual a 1.




    Gr´ficamente se observa que presenta un m´ximo en µ, tiene puntos de inflexi´n en µ − σ y µ + σ
       a                                        a                                   o
y es sim´trica respecto a µ. Se aproxima al eje horizontal de manera asint´tica conforme nos alejamos
         e                                                                 o
de la media en cualquier direcci´n. El ´rea total entre la curva y el eje horizontal es igual a 1.
                                 o     a

Proposici´n 4.16
         o
   (a)Si X ∼ N (µ, σ 2 ) entonces aX + b ∼ N (aµ + b, a2 σ 2 ) con a, b ∈ R, a = 0.
                                                        X−µ
   (b) En particular, si X ∼ N (µ, σ 2 ) entonces Z =    σ    ∼ N (0, 1)
   Por tanto, la funci´n de distribuci´n de cualquier N (µ, σ 2 ) se puede calcular utilizando la distri-
                        o             o
buci´n N (0, 1) de la siguiente forma
    o

                                          X −µ   x−µ       x−µ
                         P [X ≤ x] = P         ≤     =P Z≤
                                            σ     σ         σ
            X−µ
donde Z =    σ    es la normal tipificada. Generalmente, se denota Φ(z) = P [Z ≤ z].
   Esta propiedad permite emplear las tablas de la N (0, 1) para obtener la funci´n de distribuci´n de
                                                                                 o               o
cualquier distribuci´n normal.
                    o

Proposici´n 4.17 Sea Z ∼ N (0, 1) con funci´n de distribuci´n Φ. Si X ∼ N (µ, σ 2 ) entonces
         o                                 o               o

 (a)
                                                              x−µ
                                          P [X ≤ x] = Φ
                                                               σ
 (b)
                                                        b−µ            a−µ
                                 P [a < X < b] = Φ              −Φ
                                                         σ              σ


                                              Estad´
                                                   ıstica                                           4.13
Tema 4.   Modelos de distribuciones

Teorema 4.1 Sea Z ∼ N (0, 1) con funci´n de distribuci´n Φ. Entonces Φ(−z) = 1−Φ(z),
                                      o               o                                        z∈R

                              2                  2
Teorema 4.2 Sean X ∼ N (µ1 , σ1 ) e Y ∼ N (µ2 , σ2 ) independientes. Entonces

 (a)
                                                            2    2
                                      X + Y ∼ N (µ1 + µ2 , σ1 + σ2 )

 (b)
                                                            2    2
                                      X − Y ∼ N (µ1 − µ2 , σ1 + σ2 )

Corolario 4.2 Dadas X1,..., Xn variables aleatorias independientes e id´nticamente distribuidas seg´n
                                                                       e                           u
N (µ, σ 2 ) entonces

                                         n
                                         i=1 Xi   ∼ N (nµ, nσ 2 ).


Ejemplo 4.13 Dada una distribuci´n normal con µ = 50 y σ = 10, calcular la probabilidad de que X
                                o
tome una valor entre 45 y 62.


                                     45 − 50       62 − 50
              P [45 < X < 62] = P            <Z<           = P [−0.5 < Z < 1.2]
                                        10            10
                                = Φ(1.2) − Φ(−0.5)
                                = 0.8849 − 0.3085 = 0.5764

Ejemplo 4.14 Sea una distribuci´n normal con µ = 300 y σ = 50, obtener la probabilidad de que X
                               o
tome un valor mayor que 362.


                              362 − 300
       P [X > 362] = P Z >              = P [Z > 1.24] = 1 − Φ(1.24) = 1 − 0.8925 = 0.1075
                                  50

    La distribuci´n normal encuentra una gran aplicaci´n como distribuci´n l´
                 o                                    o                 o ımite, es decir, bajo cier-
tas condiciones la distribuci´n normal proporciona una buena aproximaci´n continua a otras distribu-
                             o                                          o
ciones. Puede utilizarse para aproximar probabilidades de variables binomiales cuando n es grande,
y p no est´ muy cercano a cero o uno, en general esta aproximaci´n se utiliza para np > 5. Entonces
          e                                                     o
aproximamos por una N (µ = np, σ 2 = npq). La distribuci´n normal tambi´n puede aproximar a la
                                                           o                e
distribuci´n de Poisson, P(λ), cuando λ es elevado, considerando N (µ = λ, σ 2 = λ).
          o




4.14                                    2o Ing. Inform´tica
                                                      a
4.4. Ap´ndice: Correcci´n de continuidad
                                                                     e               o

4.3.4   Otras Distribuciones

    Existen otras distribuciones que aunque no vamos a desarrollar en el tema pueden tener cierto
inter´s por su utilidad dentro de algunas ´reas de la ingenier´ como el control de calidad y fiabilidad
     e                                      a                    ıa
de procesos. La distribuci´n gamma es una generalizaci´n de la distribuci´n exponencial y representa
                            o                              o                 o
el tiempo transcurrido hasta que cierto suceso aparece k veces. Por tanto la distribuci´n gammao
se puede expresar como suma de exponenciales. La distribuci´n gamma no tiene en cuenta que el
                                                                    o
envejecimiento de un sistema, incrementa su probabilidad de “fallo”. Para incluir esta condici´n eno
el modelo probabil´ ıstico resulta util emplear la distribuci´n de Weibull. Esta distribuci´n se emplea a
                                   ´                         o                             o
menudo en ingenier´ ya que, seleccionado los valores adecuados para los par´metros asociados a esta
                     ıa                                                         a
distribuci´n, se puede caracterizar la fiabilidad de un gran n´mero de sistemas.
          o                                                      u


4.4     Ap´ndice: Correcci´n de continuidad
          e               o

    Cuando aproximamos una distribuci´n discreta (binomial o Poisson) por una distribuci´n normal
                                         o                                                 o
es aconsejable realizar una correcci´n por continuidad. Sabemos que en una variable aleatoria discreta
                                    o
la P [X = x] > 0, x ∈ rg(X), en cambio, cuando la variable es continua la P [X = x] = 0. Por ello
al aproximar una variable aleatoria discreta por una continua debemos evitar los problemas en los
puntos, considerando intervalos de la siguiente forma:


                                P [X = a] ≈ P [a − 1/2 < X ≤ a + 1/2]

   A continuaci´n se detalla un ejemplo donde incluimos la correcci´n de continuidad:
               o                                                   o

Ejemplo 4.15 Unos grandes almacenes estiman que el 60% de sus clientes paga con dinero en efec-
tivo, y el resto recurre a otros medios. Calcular la probabilidad de que de 30 clientes exactamente 20
paguen en efectivo.
  Sea X=“N´mero de clientes que pagan en efectivo entre 30 clientes”, por tanto la variable aleatoria
             u
X sigue una distribuci´n binomial que la vamos a aproximar a una distribuci´n normal, es decir,
                      o                                                       o
X ∼ B(30, 0.6) ≃ N (18, 7.2).
   Tenemos que calcular la P [X = 20], como hemos pasado de una distribuci´n discreta a una
                                                                          o
continua aplicamos la correcci´n de continuidad, luego
                              o


                  P [X = 20] = P [19.5 < X ≤ 20.5] = P [X ≤ 20.5] − P [X ≤ 19.5] =
                                    20.5 − 18          19.5 − 18
                             =Φ                  −Φ                = 0.115.
                                      2.68               2.68




                                                Estad´
                                                     ıstica                                         4.15

Más contenido relacionado

La actualidad más candente

Elementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinariasElementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinariasjose manuel lopez vidal
 
Teoria de la medida
Teoria de la medidaTeoria de la medida
Teoria de la medidajhorkham
 
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variablesmarcopazo
 
Aplicacion de ecuasiones de primer orden
Aplicacion de ecuasiones de primer ordenAplicacion de ecuasiones de primer orden
Aplicacion de ecuasiones de primer ordenwhitecrow2013
 
20 calculo-para-la-ingenieria-salvador-vera-tomo-ii
20 calculo-para-la-ingenieria-salvador-vera-tomo-ii20 calculo-para-la-ingenieria-salvador-vera-tomo-ii
20 calculo-para-la-ingenieria-salvador-vera-tomo-iiJuliocesarBravobravo
 
Analisis funcional cabello
Analisis funcional cabelloAnalisis funcional cabello
Analisis funcional cabelloXavier Vila Font
 
Sylabus 10 th avanzada 13
Sylabus 10 th avanzada 13Sylabus 10 th avanzada 13
Sylabus 10 th avanzada 13lezfra
 

La actualidad más candente (16)

Números reales y fundamentos de álgebra
Números reales y fundamentos de álgebraNúmeros reales y fundamentos de álgebra
Números reales y fundamentos de álgebra
 
Elementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinariasElementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinarias
 
Análisis matemático 3
Análisis matemático 3Análisis matemático 3
Análisis matemático 3
 
Problema de Brinkman
Problema de BrinkmanProblema de Brinkman
Problema de Brinkman
 
Apuntes
ApuntesApuntes
Apuntes
 
ANALISIS
ANALISISANALISIS
ANALISIS
 
Teoria de la medida
Teoria de la medidaTeoria de la medida
Teoria de la medida
 
Manual r 2
Manual r 2Manual r 2
Manual r 2
 
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
43392462 analisis-matematico-ii-derivacion-de-funciones-de-varias-variables
 
Aplicacion de ecuasiones de primer orden
Aplicacion de ecuasiones de primer ordenAplicacion de ecuasiones de primer orden
Aplicacion de ecuasiones de primer orden
 
Funciones multivariables
Funciones multivariablesFunciones multivariables
Funciones multivariables
 
20 calculo-para-la-ingenieria-salvador-vera-tomo-ii
20 calculo-para-la-ingenieria-salvador-vera-tomo-ii20 calculo-para-la-ingenieria-salvador-vera-tomo-ii
20 calculo-para-la-ingenieria-salvador-vera-tomo-ii
 
Analisis funcional cabello
Analisis funcional cabelloAnalisis funcional cabello
Analisis funcional cabello
 
Introducción edp's
Introducción edp'sIntroducción edp's
Introducción edp's
 
Sudoku
SudokuSudoku
Sudoku
 
Sylabus 10 th avanzada 13
Sylabus 10 th avanzada 13Sylabus 10 th avanzada 13
Sylabus 10 th avanzada 13
 

Similar a Apartado4

Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...L Méndez
 
411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1CarlosRoberto154965
 
Apunte ufro ecuaciones diferenciales ordinarias
Apunte ufro   ecuaciones diferenciales ordinariasApunte ufro   ecuaciones diferenciales ordinarias
Apunte ufro ecuaciones diferenciales ordinariasCristian Cofré Sepúlveda
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementalesChristian Infante
 
Solución de ecuaciones diferenciales - AERO.pdf
Solución de ecuaciones diferenciales - AERO.pdfSolución de ecuaciones diferenciales - AERO.pdf
Solución de ecuaciones diferenciales - AERO.pdfAngelRivera712229
 
Apuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferencialesApuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferencialesMay Contreritas
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementalesPaul Alexander
 
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.pptVARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.pptJuanJosGarcaAlvarado2
 
Libro de algebra lineal y geometría
Libro de algebra lineal y geometríaLibro de algebra lineal y geometría
Libro de algebra lineal y geometríaSonia10212
 
estadistica-discretas PROBABILIDAD Y ESTADISTICA
estadistica-discretas PROBABILIDAD Y ESTADISTICAestadistica-discretas PROBABILIDAD Y ESTADISTICA
estadistica-discretas PROBABILIDAD Y ESTADISTICAARACELIGINESZARATE1
 

Similar a Apartado4 (20)

Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
 
411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1
 
UNIDAD 2 VARIABLE ALEATORIA.pdf
UNIDAD 2 VARIABLE ALEATORIA.pdfUNIDAD 2 VARIABLE ALEATORIA.pdf
UNIDAD 2 VARIABLE ALEATORIA.pdf
 
Apunte ufro ecuaciones diferenciales ordinarias
Apunte ufro   ecuaciones diferenciales ordinariasApunte ufro   ecuaciones diferenciales ordinarias
Apunte ufro ecuaciones diferenciales ordinarias
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementales
 
Trabajo de grado franklin
Trabajo de grado franklinTrabajo de grado franklin
Trabajo de grado franklin
 
Edo1
Edo1Edo1
Edo1
 
Edo1
Edo1Edo1
Edo1
 
Solución de ecuaciones diferenciales - AERO.pdf
Solución de ecuaciones diferenciales - AERO.pdfSolución de ecuaciones diferenciales - AERO.pdf
Solución de ecuaciones diferenciales - AERO.pdf
 
Apuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferencialesApuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferenciales
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementales
 
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.pptVARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
 
Óptica - Hecht
Óptica - HechtÓptica - Hecht
Óptica - Hecht
 
Apuntesaed
ApuntesaedApuntesaed
Apuntesaed
 
Manual abreviado de_analisis_multivarian
Manual abreviado de_analisis_multivarianManual abreviado de_analisis_multivarian
Manual abreviado de_analisis_multivarian
 
Libro de algebra lineal y geometría
Libro de algebra lineal y geometríaLibro de algebra lineal y geometría
Libro de algebra lineal y geometría
 
T4
T4T4
T4
 
Anali iii
Anali iiiAnali iii
Anali iii
 
estadistica-discretas PROBABILIDAD Y ESTADISTICA
estadistica-discretas PROBABILIDAD Y ESTADISTICAestadistica-discretas PROBABILIDAD Y ESTADISTICA
estadistica-discretas PROBABILIDAD Y ESTADISTICA
 
Teoria 2
Teoria 2Teoria 2
Teoria 2
 

Apartado4

  • 1. ´ Indice 4 MODELOS DE DISTRIBUCIONES 4.1 4.1 Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 4.1 4.2 Modelos de distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 4.2.1 Distribuci´n Uniforme Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . o 4.1 4.2.2 Distribuci´n de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 4.2 4.2.3 Distribuci´n Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 4.3 4.2.4 Distribuci´n Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 4.5 4.2.5 Distribuci´n Hipergeom´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . . o e 4.5 4.2.6 Distribuci´n Geom´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o e 4.7 4.2.7 Distribuci´n de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 4.8 4.3 Modelos de distribuciones continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10 4.3.1 Distribuci´n Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10 o 4.3.2 Distribuci´n Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.11 o 4.3.3 Distribuci´n Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.12 o 4.3.4 Otras Distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.15 4.4 Ap´ndice: Correcci´n de continuidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.15 e o 3.0
  • 2. Tema 4 Modelos de distribuciones 4.1 Introducci´n o En este tema estudiaremos algunas distribuciones asociadas a variables aleatorias discretas y con- tinuas, que puedan ajustarse a una gran diversidad de problemas y campos cient´ ıficos en los que se pueden aplicar. Podemos establecer la siguiente clasificaci´n: o • Modelos de distribuciones discretas • Modelos de distribuciones continuas 4.2 Modelos de distribuciones discretas Para describir las variables aleatorias discretas asociadas a determinados experimentos basta con proporcionar la distribuci´n de probabilidad; por ello vamos a estudiar las distribuciones de probabili- o dad m´s importantes que describan el comportamiento de muchas de las variables aleatorias discretas a que se encuentran en la pr´ctica y otras caracter´ a ısticas asociadas. 4.2.1 Distribuci´n Uniforme Discreta o Se considera la m´s simple de todas las distribuciones de probabilidad discretas, en la que la a variable aleatoria asociada toma cada uno de los valores con una probabilidad id´ntica. e Definici´n 4.1 Diremos que una variable aleatoria discreta X tiene una distribuci´n Uniforme de o o par´metro N, N ≥ 1, si a rg(X) = {1, 2, ..., N } y la funci´n de probabilidad puede escribirse o 1 P [X = x] = x = 1, 2, ..., N N 4.1
  • 3. Tema 4. Modelos de distribuciones En tal caso se denotar´ como X ∼ U D(N ) a Proposici´n 4.1 Sea X ∼ U D(N ) entonces o N +1 E [X] = , 2 N2 − 1 V ar [X] = . 12 Ejemplo 4.1 Sea el experimento aleatorio de lanzar un dado. Definimos la variable X como la pun- tuaci´n obtenida en dicho lanzamiento. Se tiene que o rg(X) = {1, 2, 3, 4, 5, 6} , 1 P [X = x] = x ∈ rg(X). 6 Entonces X ∼ U D(6) Esta distribuci´n tambi´n se puede definir para cualesquiera valores x1 , x2 , ..., xN . Lo que la caracte- o e riza es que todos los posibles valores que puede tomar la variable aleatoria tienen la misma probabilidad de ocurrir. Ejemplo 4.2 Se selecciona una bombilla al azar de una caja que contiene una bombilla de 40 vatios, una de 60, una de 75 y una de 100. Cada elemento del espacio muestral tiene una probabilidad de 1/4. Por tanto tenemos una distribuci´n uniforme discreta donde: o rg(X) = {x1 , x2 , x3 , x4 } x1 = “bombilla de 40 vatios”; x2 = “bombilla de 60 vatios”; x3 = “bombilla de 70 vatios”; x4 = “bombilla de 100 vatios” 1 P [X = xi ] = , xi ∈ rg(X). 4 Entonces, X ∼ U D(x1 , x2 , x3 , x4 ). 4.2.2 Distribuci´n de Bernoulli o Sea un experimento con dos posibles resultados, generalmente llamados ´xito y fracaso para los e que P [´xito] = p y P [fracaso] = 1 − p = q. A este tipo de experimento se le denomina experimento o e prueba de Bernoulli. Se le puede asociar una variable aleatoria de la siguiente forma: X : Ω → {0, 1} Fracaso → 0 ´ Exito → 1. Por tanto, tenemos: P [X = 1] = P [´xito] = p, e P [X = 0] = P [fracaso] = q. 4.2 2o Ing. Inform´tica a
  • 4. 4.2. Modelos de distribuciones discretas Definici´n 4.2 Una variable aleatoria discreta X se dice que sigue una distribuci´n de Bernoulli de o o par´metro p, X ∼ Be(p), con p ∈ [0, 1]; si se verifica: a rg(X) = {0, 1} y la funci´n de probabilidad puede escribirse como: o P [X = x] = px (1 − p)1−x x ∈ {0, 1} . Proposici´n 4.2 Si X ∼ Be(p) entonces o E[X] = p, V ar[X] = pq. Como ejemplos de distribuci´n de Bernoulli podemos citar un sistema el´ctrico que funcione o no, o e consideramos ´xito que el sistema funcione y fracaso que no funcione. De la misma forma podemos e tener un conmutador en ON/OFF, un servidor con conexi´n o sin ella, un fusible defectuoso o no o defectuoso, etc. ´ Ejemplo 4.3 Consideramos el lanzamiento de una moneda. Definimos Exito=“Obtener cara al lanzar la moneda” y Fracaso=“Obtener cruz al lanzar la moneda”. En tal caso la variable X tiene una probabilidad de ´xito 1 y por tanto X ∼ Be(1/2) Calculamos la media y varianza e 2 1 E[X] = , 2 1 V ar[X] = . 4 4.2.3 Distribuci´n Binomial o Consideramos n experimentos de Bernoulli independientes e id´nticamente distribuidos y sea la e variable aleatoria X definida como el n´mero de ´xitos en n pruebas de Bernoulli. Diremos que X u e sigue una distribuci´n binomial de par´metros n y p, o a X ∼ B(n, p) , donde n es el n´mero de pruebas, p probabilidad de ´xito en una prueba. u e Definici´n 4.3 Se dice que una variable aleatoria discreta X sigue una distribuci´n binomial de o o par´metros n ∈ N y p ∈ [0, 1] si se verifica: a rg(X) = {0, 1, ..., n} y la funci´n de probabilidad puede escribirse como: o n k (n−k) P [X = k] = p q , k = 0, 1, . . . , n. k Estad´ ıstica 4.3
  • 5. Tema 4. Modelos de distribuciones n Proposici´n 4.3 Si X ∼ B(n, p) podemos expresar X = o Ii con i=1 1 si se tiene ´xito en la prueba i e Ii = 0 si se tiene fracaso en la prueba i , es decir, como una suma de n variables aleatorias independientes e id´nticamente distribuidas (i.i.d) e seg´n Ii ∼ Be(p). u De la Proposici´n 4.3 se deducen las siguientes propiedades. o Proposici´n 4.4 Si X ∼ B(n, p) entonces o E[X] = np, V ar[X] = npq. Proposici´n 4.5 Dadas X ∼ B(n, p), Y ∼ B(m, p) independientes entonces X + Y ∼ B(n + m, p). o Como ejemplos de variables que siguen una distribuci´n binomial podemos citar: n´mero de veces o u que aparece el resultado “cara” al lanzar una moneda diez veces; n´mero de ´xitos en la recepci´n de u e o un mensaje enviado a 100 destinatarios; n´mero de ordenadores en una subred que han sido infectados u por un determinado virus, etc. Ejemplo 4.4 La probabilidad de que cierta clase de componente sobreviva a una prueba de choque dada es 3/4. Calcular la probabilidad de que sobrevivan exactamente dos de los cuatro componentes que se prueban. Supongamos que las pruebas realizadas son independientes y con probabilidad de ´xito p=3/4 para e cada una de las 4 pruebas, por tanto la variable X ∼ B(4, 3/4); tenemos que calcular 2 2 4 3 1 4! 32 27 P [X = 2] = = × 4 = = 0.2109, 2 4 4 2!2! 4 128 Podemos calcular tambi´n la media y la varianza e E[X] = 3, 3 V ar[X] = . 4 Nota 4.1 La distribuci´n binomial encuentra aplicaciones en muchos campos cient´ o ıficos. Dentro de la ingenier´ es normal estudiar la proporci´n de elementos defectuosos dentro de un proceso industrial; ıa o las mediciones de control de calidad y los esquemas de muestreo se basan en la distribuci´n binomial. o ´ Esta se aplica en cualquier situaci´n industrial donde el resultado es un proceso dicot´mico y los o o resultados del proceso son independientes y la probabilidad de ´xito es constante de una prueba a otra. e 4.4 2o Ing. Inform´tica a
  • 6. 4.2. Modelos de distribuciones discretas 4.2.4 Distribuci´n Multinomial o En muchas aplicaciones hay m´s de dos resultados posibles. A menudo la dicotom´ “defectuoso” o a ıa “no defectuoso” en situaciones de ingenier´ es una simplificaci´n de la realidad, donde suele haber m´s ıa o a de dos categor´ que caracterizan art´ ıas ıculos o partes de una l´ ınea de producci´n. Para estas situaciones o el experimento binomial se convierte en experimento multinomial cuando cada prueba tiene m´s de a dos resultados posibles. Si un experimento puede tener como consecuencia k posibles resultados E1, E2,..., Ek con probabilidades p1, p2,..., pk , entonces la distribuci´n multinomial dar´ la probabilidad o a de que E1 ocurra x1 veces, E2 ocurra x2 veces,. . . , Ek ocurra xk veces en n pruebas independientes, donde x1 + x2 + ... + xk = n. La funci´n de probabilidad de las variables aleatorias X1, X2,..., Xk , que representan el n´mero de o u ocurrencias para E1, E2,..., Ek en n pruebas independientes es n! P [X1 = x1 , X2 = x2 , . . . , Xk = xk ] = px1 px2 . . . pxk x1 !x2 ! . . . xk ! 1 2 k con k xi = n i=1 y k pi = 1 i=1 A la variable (X1 , . . . , Xn ) se le dice que sigue una distribuci´n multinomial y se denota por o M(p1 , p2 , . . . , pk ; n) Ejemplo 4.5 Los fallos de impresi´n de un libro se pueden clasificar en erratas tipogr´ficas (E), mala o a impresi´n (M) y hojas en blanco (H). Un editor presenta en los fallos de sus publicaciones un 80% de o erratas, un 15% de hojas mal impresas y s´lo un 5% de hojas en blanco. Calcular la probabilidad de o que de 10 fallos encontrados en un libro, 6 sean erratas y 3 carencias de impresi´n. o Al considerar 10 fallos, 6 corresponden a erratas, 3 a carencias de impresi´n, el fallo restante o corresponde a una hoja en blanco. Por lo tanto 10! P [X1 = 6; X2 = 3; X3 = 1] = × 0.806 × 0.153 × 0.05 = 0.03716. 6!3!1! 4.2.5 Distribuci´n Hipergeom´trica o e La diferencia entre la distribuci´n binomial y la distribuci´n hipergeom´trica est´ en la forma en o o e a que se realiza el muestreo. En el caso de la binomial se requiere independencia entre las pruebas, es decir, el muestreo se realiza con reemplazamiento. Por otro lado, la distribuci´n hipergeom´trica no o e requiere independencia y el muestreo se realiza sin reemplazamiento. Las aplicaciones de la distribuci´n o hipergeom´trica se encuentran en muchas ´reas, con gran uso en control de calidad. e a Consideramos un conjunto de N elementos en el que tenemos N1 elementos del tipo 1 y N − N1 elementos de tipo 2. Extraemos n sin reemplazamiento y definimos la variable aleatoria: Estad´ ıstica 4.5
  • 7. Tema 4. Modelos de distribuciones X = “n´mero de elementos del tipo 1 en los n extra´ u ıdos”. El modelo de distribuci´n que sigue o esta variable aleatoria es una hipergeom´trica. e Definici´n 4.4 Se dice que una variable aleatoria discreta X sigue una distribuci´n hipergeom´trica o o e de par´metros N, N1 y n con n ≤ N , si se verifica: a rg(X) = {m´x (0, n − (N − N1 )) , ..., m´n(n, N1 )} a ı y la funci´n de probabilidad de X es o N1 N −N1 k n−k P [X = k] = N , k ∈ rg(X) n con 0 ≤ k ≤ N1 , 0 ≤ n − k ≤ N − N1 . Se denota X ∼ H(N, N1 , n). Proposici´n 4.6 Si X ∼ H(N, N1 , n) entonces o N1 E[X] = n , N N1 N1 N −n V ar[X] = n 1− . N N N −1 Ejemplo 4.6 Un fabricante de chips de silicio los empaqueta en lotes de 25. El comprador los ins- pecciona tomando 3 chips y acepta un lote si encuentra menos de 2 chips defectuosos. (a) Calcular la probabilidad de que el comprador acepte un lote con 6 chips defectuosos. (b) ¿Cu´l es el n´mero esperado y la varianza de chips defectuosos en los 3 inspeccionados? a u (a) Se tiene un conjunto de N = 25 chips, en los que hay N1 = 6 defectuosos, y N − N1 = 19 no defectuosos. Extraemos n = 3 sin reemplazamiento. Consideramos la variable aleatoria X = “n´mero u de chips defectuosos en los 3 seleccionados”, X ∼ H(N = 25, N1 = 6, n = 3) . La probabilidad de que el comprador acepte el lote es: 6 19 6 19 0 3 1 2 P [X < 2] = P [X = 0] + P [X = 1] = 25 + 25 = 0.8674, 3 3 6 E[X] = 3 × = 0.72 , 25 6 19 22 V ar[X] = 3 × × × = 0.5016 . 25 25 24 Ejemplo 4.7 Se dispone de una urna con 3 bolas blancas y 7 negras. Extraemos 4 bolas al azar y queremos contar el n´mero de bolas blancas en las 4 extracciones. Enunciar los modelos que se u obtendr´ al realizar el experimento con y sin reemplazamiento. ıan Si existe reemplazamiento, la probabilidad de extraer una bola blanca no varia en el tiempo, y por tanto 3 X ∼ B 4, . 10 4.6 2o Ing. Inform´tica a
  • 8. 4.2. Modelos de distribuciones discretas Si no se realiza reemplazamiento, las probabilidades variar´n en el tiempo ya que cambia la com- a posici´n de la urna y, por lo tanto, o X ∼ H(10, 3, 4) . 4.2.6 Distribuci´n Geom´trica o e Realizamos una serie de pruebas de Bernoulli independientes e id´nticamente distribuidas con la e misma probabilidad de ´xito, p, en cada prueba. Definimos: e X = “n´mero de fracasos antes de obtener el primer ´xito”. Entonces se tiene un tipo de distri- u e buci´n denominada geom´trica. o e Definici´n 4.5 Se dice que una variable aleatoria discreta X sigue una distribuci´n geom´trica de o o e par´metro p ∈ (0, 1] si se verifica: a rg(X) = {0, 1, 2, . . .} y la funci´n de probabilidad es: o P [X = k] = q k p , k = 0, 1, ...., k ∈ rg(X). Se denotar´ como X ∼ Ge(p), con 0 < p ≤ 1. a Comprobamos que es funci´n de probabilidad: o ∞ ∞ ∞ k 1 1 P [X = k] = q p=p qk = p =p =1, 1−q p k=0 k=0 k=0 pues 0 ≤ q < 1 . Proposici´n 4.7 Si X ∼ Ge(p), entonces o q E[X] = , p q V ar[X] = . p2 Proposici´n 4.8 Si X ∼ Ge(p), entonces o P [X ≥ k + j|X ≥ k] = P [X ≥ j] = q j , k, j = 0, 1, 2, ... . Se dice que la distribuci´n geom´trica carece de memoria. o e Ejemplo 4.8 En un proceso de fabricaci´n se puede suponer por estudios previos que la probabilidad o ıculo sea defectuoso es p = 0.01. Inspeccionamos art´ de que un art´ ıculos secuencialmente hasta en- contrar uno defectuoso. Calcular la probabilidad de que el quinto art´ ıculo seleccionado sea el primero defectuoso. Definimos X = “n´mero de art´ u ıculos seleccionados antes de encontrar el primero defectuoso”, X ∼ Ge(0.01). Estad´ ıstica 4.7
  • 9. Tema 4. Modelos de distribuciones P [el quinto art´ ıculo seleccionado sea el primero defectuoso] = P [X = 4] = 0.994 × 0.01 = 0.0096 . Calculamos tambi´n la media y la varianza e q 0.99 E[X] = = = 99 , p 0.01 q 0.99 V ar[X] = = = 9900 . p 2 (0.01)2 Nota 4.2 Algunos autores definen la distribuci´n geom´trica como Y = “n´mero de la prueba en que o e u obtengo el primer ´xito”. N´tese que Y = X + 1, siendo X la variable con la que hemos trabajado e o antes, por lo que la funci´n de probabilidad y caracter´ o ısticas se deducen de forma inmediata. P [Y = k] = P [X = k − 1] , E[Y ] = E[X] + 1 , V ar[Y ] = V ar[X + 1] = V ar[X] . Nota 4.3 C´mo ´rea de aplicaci´n de la distribuci´n geom´trica, podemos citar situaciones donde los o a o o e ingenieros intentan determinar la “eficacia” de un sistema de conmutaci´n telef´nica durante periodos o o ocupados. En este caso, el ´xito representa la conexi´n al sistema de conmutaci´n. La variable ser´ e o o ıa el n´mero de intentos fracasados antes de una conexi´n al sistema (´xito). u o e 4.2.7 Distribuci´n de Poisson o La distribuci´n de Poisson es una distribuci´n discreta de gran utilidad donde la variable aleatoria o o suele estudiar el n´mero de eventos independientes que ocurren a velocidad constante en un intervalo u de tiempo o espacio. El intervalo puede ser de cualquier longitud, como un minuto, un d´ una ıa, semana. Por ejemplo, el n´mero de llamada telef´nicas por hora que llegan a una oficina, el n´mero u o u de mensajes que llegan a un servidor de correos durante una hora, etc. Definici´n 4.6 Una variable aleatoria X discreta, sigue una distribuci´n de Poisson de par´metro o o a λ > 0, X ∼ P(λ), si: rg(X) = {0, 1, 2, . . .} y la funci´n de probabilidad viene dada por: o λk P [X = k] = e−λ , k = 0, 1, 2, ... , k! Comprobamos que es funci´n de probabilidad: o ∞ ∞ k ∞ −λ λ λk P [X = k] = e =e −λ = e−λ eλ = 1 . k! k! k=0 k=0 k=0 4.8 2o Ing. Inform´tica a
  • 10. 4.2. Modelos de distribuciones discretas Proposici´n 4.9 Si X ∼ P(λ) entonces o E[X] = λ, V ar[X] = λ. Proposici´n 4.10 Dadas X ∼ P(λ1 ) e Y ∼ P(λ2 ) independientes entonces X + Y ∼ P(λ1 + λ2 ) . o Corolario 4.1 Dadas X1 ∼ P(λ),..., Xn ∼ P(λ) independientes e id´nticamente distribuidas enton- e ces S = X1 + .. + Xn ∼ P(nλ) . Ejemplo 4.9 El n´mero medio de camiones que llega cada d´ a la d´rsena de descarga de un puerto u ıa a es 10, (λ = 10). Con las instalaciones de que dispone el puerto no se pueden descargar m´s de 15 a camiones en un d´ Calcular la probabilidad de que en un d´ determinado haya camiones que no ıa. ıa puedan ser descargados. Sea X = “n´mero de camiones que llegan en un d´ u ıa”. La variable aleatoria X ∼ P(λ = 10). P [en un d´ determinado haya camiones que no puedan ser descargados] = ıa P [X > 15] = 1 − P [X ≤ 15] = 1 − 0.9513 = 0.0487 . Nota 4.4 La distribuci´n de Poisson se utiliza a menudo para aproximar las probabilidades de una o B(n, p), cuando n es grande y p peque˜o, aproxim´ndose por una P(λ = np). En la pr´ctica, la n a a aproximaci´n es buena cuando p < 0.1 y np ≤ 5 o En la siguiente tabla representamos en la segunda columna la P [X = x] para una distribuci´no Binomial con par´metros n = 40 y p = 0.05, la tercera columna corresponde a la probabilidad para la a distribuci´n de Poisson con par´metro λ = 40 × 0.05 = 2. o a x B(n = 40, p = 0.05) P (λ = 2) 0 0.1285 0.1353 1 0.2706 0.2707 2 0.2777 0.2707 3 0.1851 0.1804 4 0.0901 0.0902 5 0.0342 0.0361 6 0.0105 0.0120 Tabla 4.1: Aproximaci´n de la binomial por la Poisson o Ejemplo 4.10 En un proceso de fabricaci´n de productos de vidrio se producen rara vez burbujas que o dejan al producto defectuoso para su venta. Se ha observado que uno de cada 1000 art´ ıculos que se producen tienen burbujas, es decir, la probabilidad de que un producto sea defectuoso podemos suponer que es p = 0.001 ). ¿Cu´l es la probabilidad de que en un lote de 8000 art´ a ıculos haya menos de 4 defectuosos? Sea X =“ n´mero de art´ u ıculos defectuosos en 8000”. Estad´ ıstica 4.9
  • 11. Tema 4. Modelos de distribuciones Podemos suponer X ∼ B(n = 8000, p = 0.001) . Puesto que n es muy grande y p est´ muy pr´ximo a cero podemos aproximar B(n, p) ≈ P (λ = np), a o es decir, X ∼ P (λ = n × p = 8) 3 P [haya menos de 4 defectuosos] = P [X < 4] = k=0 P [X = k] = 0.0424. 4.3 Modelos de distribuciones continuas En esta parte del tema se estudiar´n algunas de las distribuciones m´s comunes, que se pueden a a aplicar a una gran diversidad de situaciones en los que se estudian problemas de naturaleza continua. Para describir este tipo de variables aleatorias basta proporcionar la funci´n de densidad. o 4.3.1 Distribuci´n Uniforme o Definici´n 4.7 Se dice que una variable aleatoria continua X sigue una distribuci´n uniforme en el o o intervalo (a,b), si su funci´n de densidad est´ definida como o a 1 b−a si a < x < b f (x) = 0 c.c. Se denota por X ∼ U (a, b) Proposici´n 4.11 Si X ∼ U (a, b) entonces o a+b E [X] = , 2 (b − a)2 V ar[X] = . 12 . Ejemplo 4.11 El volumen de ventas de un almac´n se distribuye uniformemente entre 38 y 120 miles e de euros. Calcular (a) La probabilidad de que las ventas sean superiores a 100000 euros. (b) La esperanza matem´tica y varianza de las ventas a Sea X= “Volumen de ventas del almac´n en miles de euros” ∼ U (38, 120). e (a) La funci´n de densidad de esta variable o 1 1 f (x) = = si 38 < x < 120 120 − 38 82 Por tanto, como la variable est´ definida en miles de euros a 4.10 2o Ing. Inform´tica a
  • 12. 4.3. Modelos de distribuciones continuas +∞ 120 1 1 20 P [X > 100] = f (x)dx = dx = [x]120 = 100 = 0.2439 100 100 82 82 82 (b) a+b 38 + 120 E[X] = = = 79 2 2 . (b − a)2 (120 − 38)2 V ar[X] = = = 560.333 12 12 4.3.2 Distribuci´n Exponencial o Definici´n 4.8 Se dice que la variable aleatoria continua X sigue una distribuci´n exponencial de o o par´metro λ, con λ > 0 si su funci´n de densidad es a o λe−λx si x > 0 f (x) = 0 c.c. Se denota por X ∼ Exp(λ) Proposici´n 4.12 Si X ∼ Exp(λ) entonces o 1 E[X] = , λ 1 V ar[X] = . λ2 Como ejemplos de una distribuci´n exponencial podemos citar el tiempo que tarda en fallar un o sistema electr´nico, tiempo transcurrido entre la llegada de dos mensajes de correos consecutivos, etc. o Proposici´n 4.13 Si X ∼ Exp(λ) entonces o 1 − e−λx , si x > 0 F (x) = 0 c.c. P [X > x] = e−λx , x > 0. Proposici´n 4.14 Si X ∼ Exp(λ) entonces o P [X ≥ x + t|X ≥ t] = P [X ≥ x] = e−λx , x, t > 0. Se dice que la distribuci´n exponencial no tiene memoria. Por ello, esta distribuci´n se suele o o utilizar cuando medimos el tiempo de vida restante de poblaciones que no envejecen con el tiempo. Estad´ ıstica 4.11
  • 13. Tema 4. Modelos de distribuciones Ejemplo 4.12 Se ha comprobado que la duraci´n de vida de cierto tipo de circuitos sigue una distri- o buci´n exponencial con media 8 a˜os. Calcular: o n (a) La probabilidad de que un circuito tenga una vida entre 3 y 12 a˜os. n (b) La probabilidad de que un circuito que ha vivido m´s de 10 a˜os, viva 15 a˜os m´s. a n n a (a) Sea X=“Tiempo de vida de los circuitos”, como la media de la variable aleatoria es 8, X ∼ Exp(λ = 1 ), por tanto la funci´n de densidad 8 o 1 t f (t) = e− 8 , t>0 8 donde t va medido en a˜os. Entonces: n 12 1 −t t 12 P [3 < X < 12] = e 8 dt = −e− 8 = 0.69 − 0.22 = 0.46 3 8 3 (b) Utilizando la Proposici´n 1.14: o P [X > 25] P [X > 25|X > 10] = = e−λ15 P [X > 10] Por tanto P [X > 25|X > 10] = P [X > 15] Luego podemos afirmar que la variable aleatoria X no tiene memoria. 4.3.3 Distribuci´n Normal o Es la m´s importante de las distribuciones continuas ya que permite describir un n´mero muy a u grande de fen´menos aleatorios, como por ejemplo aquellos en los que intervienen un n´mero elevado o u de factores no controlables, que act´an de manera independiente y con efectos peque˜os. u n Definici´n 4.9 Se dice que una variable aleatoria X sigue una distribuci´n normal de par´metros o o a µ ∈ R y σ 2 > 0, si su funci´n de densidad es o 1 (x − µ)2 f (x) = √ exp − , x ∈ R, 2πσ 2σ 2 se denota por X ∼ N (µ, σ 2 ) Proposici´n 4.15 Si X ∼ N (µ, σ 2 ) entonces o E[X] = µ, V ar[X] = σ 2 . La gr´fica de la funci´n de densidad, se denomina curva normal (o campana de Gauss), es una a o curva con forma de campana, la cual describe aproximadamente muchos fen´menos que se utilizan en o 4.12 2o Ing. Inform´tica a
  • 14. 4.3. Modelos de distribuciones continuas la vida cotidiana. Por ejemplo, las mediciones f´ısicas en ´reas como los experimentos metereol´gicos, a o estudios de lluvia, errores en las mediciones cient´ ıficas, etc. A continuaci´n se muestra la gr´fica de la funci´n de densidad para una distribuci´n normal con o a o o media 0 y desviaci´n t´ o ıpica igual a 1. Gr´ficamente se observa que presenta un m´ximo en µ, tiene puntos de inflexi´n en µ − σ y µ + σ a a o y es sim´trica respecto a µ. Se aproxima al eje horizontal de manera asint´tica conforme nos alejamos e o de la media en cualquier direcci´n. El ´rea total entre la curva y el eje horizontal es igual a 1. o a Proposici´n 4.16 o (a)Si X ∼ N (µ, σ 2 ) entonces aX + b ∼ N (aµ + b, a2 σ 2 ) con a, b ∈ R, a = 0. X−µ (b) En particular, si X ∼ N (µ, σ 2 ) entonces Z = σ ∼ N (0, 1) Por tanto, la funci´n de distribuci´n de cualquier N (µ, σ 2 ) se puede calcular utilizando la distri- o o buci´n N (0, 1) de la siguiente forma o X −µ x−µ x−µ P [X ≤ x] = P ≤ =P Z≤ σ σ σ X−µ donde Z = σ es la normal tipificada. Generalmente, se denota Φ(z) = P [Z ≤ z]. Esta propiedad permite emplear las tablas de la N (0, 1) para obtener la funci´n de distribuci´n de o o cualquier distribuci´n normal. o Proposici´n 4.17 Sea Z ∼ N (0, 1) con funci´n de distribuci´n Φ. Si X ∼ N (µ, σ 2 ) entonces o o o (a) x−µ P [X ≤ x] = Φ σ (b) b−µ a−µ P [a < X < b] = Φ −Φ σ σ Estad´ ıstica 4.13
  • 15. Tema 4. Modelos de distribuciones Teorema 4.1 Sea Z ∼ N (0, 1) con funci´n de distribuci´n Φ. Entonces Φ(−z) = 1−Φ(z), o o z∈R 2 2 Teorema 4.2 Sean X ∼ N (µ1 , σ1 ) e Y ∼ N (µ2 , σ2 ) independientes. Entonces (a) 2 2 X + Y ∼ N (µ1 + µ2 , σ1 + σ2 ) (b) 2 2 X − Y ∼ N (µ1 − µ2 , σ1 + σ2 ) Corolario 4.2 Dadas X1,..., Xn variables aleatorias independientes e id´nticamente distribuidas seg´n e u N (µ, σ 2 ) entonces n i=1 Xi ∼ N (nµ, nσ 2 ). Ejemplo 4.13 Dada una distribuci´n normal con µ = 50 y σ = 10, calcular la probabilidad de que X o tome una valor entre 45 y 62. 45 − 50 62 − 50 P [45 < X < 62] = P <Z< = P [−0.5 < Z < 1.2] 10 10 = Φ(1.2) − Φ(−0.5) = 0.8849 − 0.3085 = 0.5764 Ejemplo 4.14 Sea una distribuci´n normal con µ = 300 y σ = 50, obtener la probabilidad de que X o tome un valor mayor que 362. 362 − 300 P [X > 362] = P Z > = P [Z > 1.24] = 1 − Φ(1.24) = 1 − 0.8925 = 0.1075 50 La distribuci´n normal encuentra una gran aplicaci´n como distribuci´n l´ o o o ımite, es decir, bajo cier- tas condiciones la distribuci´n normal proporciona una buena aproximaci´n continua a otras distribu- o o ciones. Puede utilizarse para aproximar probabilidades de variables binomiales cuando n es grande, y p no est´ muy cercano a cero o uno, en general esta aproximaci´n se utiliza para np > 5. Entonces e o aproximamos por una N (µ = np, σ 2 = npq). La distribuci´n normal tambi´n puede aproximar a la o e distribuci´n de Poisson, P(λ), cuando λ es elevado, considerando N (µ = λ, σ 2 = λ). o 4.14 2o Ing. Inform´tica a
  • 16. 4.4. Ap´ndice: Correcci´n de continuidad e o 4.3.4 Otras Distribuciones Existen otras distribuciones que aunque no vamos a desarrollar en el tema pueden tener cierto inter´s por su utilidad dentro de algunas ´reas de la ingenier´ como el control de calidad y fiabilidad e a ıa de procesos. La distribuci´n gamma es una generalizaci´n de la distribuci´n exponencial y representa o o o el tiempo transcurrido hasta que cierto suceso aparece k veces. Por tanto la distribuci´n gammao se puede expresar como suma de exponenciales. La distribuci´n gamma no tiene en cuenta que el o envejecimiento de un sistema, incrementa su probabilidad de “fallo”. Para incluir esta condici´n eno el modelo probabil´ ıstico resulta util emplear la distribuci´n de Weibull. Esta distribuci´n se emplea a ´ o o menudo en ingenier´ ya que, seleccionado los valores adecuados para los par´metros asociados a esta ıa a distribuci´n, se puede caracterizar la fiabilidad de un gran n´mero de sistemas. o u 4.4 Ap´ndice: Correcci´n de continuidad e o Cuando aproximamos una distribuci´n discreta (binomial o Poisson) por una distribuci´n normal o o es aconsejable realizar una correcci´n por continuidad. Sabemos que en una variable aleatoria discreta o la P [X = x] > 0, x ∈ rg(X), en cambio, cuando la variable es continua la P [X = x] = 0. Por ello al aproximar una variable aleatoria discreta por una continua debemos evitar los problemas en los puntos, considerando intervalos de la siguiente forma: P [X = a] ≈ P [a − 1/2 < X ≤ a + 1/2] A continuaci´n se detalla un ejemplo donde incluimos la correcci´n de continuidad: o o Ejemplo 4.15 Unos grandes almacenes estiman que el 60% de sus clientes paga con dinero en efec- tivo, y el resto recurre a otros medios. Calcular la probabilidad de que de 30 clientes exactamente 20 paguen en efectivo. Sea X=“N´mero de clientes que pagan en efectivo entre 30 clientes”, por tanto la variable aleatoria u X sigue una distribuci´n binomial que la vamos a aproximar a una distribuci´n normal, es decir, o o X ∼ B(30, 0.6) ≃ N (18, 7.2). Tenemos que calcular la P [X = 20], como hemos pasado de una distribuci´n discreta a una o continua aplicamos la correcci´n de continuidad, luego o P [X = 20] = P [19.5 < X ≤ 20.5] = P [X ≤ 20.5] − P [X ≤ 19.5] = 20.5 − 18 19.5 − 18 =Φ −Φ = 0.115. 2.68 2.68 Estad´ ıstica 4.15