Esquema inicial

1. Variables aleatorias bidimensionales. Distribución conjunta

2. Distribuciones marginales

3. Distribuciones condicionadas

4. Independencia

5. Momentos

6. Teorema de Bayes

7. Reproductividad de v. aleatorias
                                               Probabilidades y Estadística I
3. Distribuciones condicionadas                                              (1/6)



  EJEMPLO
La variable X representa la proporción de errores tipo A que existen en un documento,
mientras que la variable Y representa la proporción de errores tipo B. En ese documento
existen otros tipos de errores como el C, el D etc...La falta de información sobre el estudio nos
lleva a que la distribución conjunta del vector (X, Y) sigue una distribución uniforme.


 El 75% de los errores son de tipo B                     Y=0.75




                                         X | Y=0.75




                                                                   Probabilidades y Estadística I
3. Distribuciones condicionadas                                                           (2/6)


  Variable aleatoria bidimensional discreta

Sea y0 un número real tal que p2 ( y0 ) > 0 . Se denomina función de probabilidad de X
condicionada al Y = y0 , y se denota por p ( x | y0 ) , a la siguiente función real de variable real.


                                                     p ( x, y0 )
                                  p ( x | y0 ) =
                                                      p2 ( y0 )


                                                      p ( x0 , y )
                                    p ( y | x0 ) =
                                                       p1 ( x0 )



    FAMILIAS                   { p( x | y0 )} y ∈Rg Y
                                                0
                                                                     { p( y | x0 )}x ∈Rg X
                                                                                   0




                                                                                  Probabilidades y Estadística I
3. Distribuciones condicionadas                                                             (3/6)


  Variable aleatoria bidimensional continua

Sea y0 un número real tal que f 2 ( y0 ) > 0 . Se denomina función de densidad de X
condicionada al Y = y0 , y se denota por f ( x | y0 ) , a la siguiente función real de variable real.


                                                       f ( x, y0 )
                                  f ( x | y0 ) =
                                                        f 2 ( y0 )


                                                        f ( x0 , y )
                                    f ( y | x0 ) =
                                                          f1 ( x0 )



    FAMILIAS                   { f ( x | y0 )} y ∈Rg Y
                                                   0
                                                                       { f ( y | x0 )}x ∈Rg X
                                                                                      0




                                                                                     Probabilidades y Estadística I
3. Distribuciones condicionadas                                          (4/6)



EJEMPLO


                       0 ≤ x, y ≤ 1             1− y
             2      si                                 2(1 − y ) 0 ≤ y ≤ 1
f ( x, y ) =            x + y ≤1      =
                                         f2 ( y)    ∫ 2dx 0
                                                    =
                                                                    resto
             0                                     o
                    en el resto



                                             1
                     f ( x, y0 )     2                   si 0 ≤ x ≤ 1 − y0
       f=
        ( x | y0 )   = = 1 − y0
                      f 2 ( y0 ) 2(1 − y0 ) 
                                            0                  resto



                                                            Probabilidades y Estadística I
3. Distribuciones condicionadas                                                       (5/6)




Relaciones entre los tres tipos de distribuciones asociadas a un vector aleatorio
bidimensional


                      CONJUNTA = MARGINAL × CONDICIONADA


Esta clase de relación se obtiene en los tres escenarios en donde se desarrolla el contenido de
esta asignatura:

•   Estadística Descriptiva:                   fij = fi • × f ji = f • j × f i j
•   Probabilidades con Álgebra de Boole: P ( A ∩ B )= P( A) × P( B | A)= P ( B ) × P ( A | B )
•   Variables aleatorias:                = f= f 2 ( y ) f ( x | y )
                                         f ( x, y ) 1 ( x ) f ( y | x )




                                                                              Probabilidades y Estadística I
3. Distribuciones condicionadas                                   (6/6)


Variable aleatoria bidimensional mixta



                           ( X ,Y ) ∈ R2

                  X es discreta y Y es continua


                     DISTRIBUCUÓN CONJUNTA



        p1 ( x) × f ( y | x)           f 2 ( y) × p( x | y)


                                                   Probabilidades y Estadística I
Esquema inicial

1. Variables aleatorias bidimensionales. Distribución conjunta

2. Distribuciones marginales

3. Distribuciones condicionadas

4. Independencia

5. Momentos

6. Teorema de Bayes

7. Reproductividad de v. aleatorias
                                               Probabilidades y Estadística I
4. V. aleatorias independientes                                         (1/2)


    DEFINICIÓN 1

               f ( x | y ) = f1 ( x) ∀y ⇔ f ( y | x) = f 2 ( y ) ∀x

    DEFINICIÓN 2

       f ( x, y ) f1 ( x) × f 2 ( y )
           =                                  F ( x, y ) F1 ( x) × F2 ( y )
                                                  =



•   Estadística Descriptiva:                      f= fi • × f • j
                                                   ij

•   Probabilidades con Álgebra de Boole: P ( A ∩ B )= P( A) × P( B)



                                                             Probabilidades y Estadística I
4. V. aleatorias independientes                                          (2/2)




         P [ a ≤ X ≤ b, c ≤ Y ≤ d ] P [ a ≤ X ≤ b ] × P [ c ≤ Y ≤ d ]
                                  =



EJEMPLO


                              4 xy     si 0 ≤ x, y ≤ 1
                 f ( x, y ) = 
                              0        resto

          2 x       si 0 ≤ x ≤ 1                   2 y          si 0 ≤ y ≤ 1
f1 ( x) =                                f2 ( y) = 
          0          resto                         0             resto

                                                           Probabilidades y Estadística I
Esquema inicial

1. Variables aleatorias bidimensionales. Distribución conjunta

2. Distribuciones marginales

3. Distribuciones condicionadas

4. Independencia

5. Momentos

6. Teorema de Bayes

7. Reproductividad de v. aleatorias
                                               Probabilidades y Estadística I
5. Momentos                                                    (1/3)



   Caso discreto   E [ g ( x, y ) ] = ∑∑ g ( x, y ) p ( x, y )
                                         x      y
                                        +∞ +∞
   Caso continuo   E [ g ( x, y ) ] =   ∫ ∫ g ( x, y) f ( x, y) dx dy
                                        −∞ −∞




Momentos centrados en el origen                 α k , l = E[ x k y l ]

Momentos centrados en la media                  µ k ,l   =
                                                          E  ( x − α ) k ( y − α )l 
                                                                                 0, 1 
                                                                    1, 0
                                                                                      

                                                                 Probabilidades y Estadística I
5. Momentos                                      (2/3)




Momentos destacados


  = E[ X ] µ X
  α1,0 =                      = E[Y ] µY
                              α 0,1 =

= Var [ X ] σ X
µ2, 0 = 2                     = Var [Y ] σ Y
                              µ0, 2 = 2


                                       cov( X , Y )
        µ1,1 = Cov( X , Y )       ρ=
                                         σ Xσ y




                                               Probabilidades y Estadística I
5. Momentos                                         (3/3)




Propiedades


    a)       E [ aX + bY= aE [ X ] + bE [Y ]
                        ]
    b)      Var (aX + = a 2Var ( X ) + b 2Var (Y ) + 2ab cov( X , Y )
                      bY )

    c)       cov( X , Y ) E [ XY ] − E [ X ] E [Y ]
                =

 BAJO INDEPENDENCIA

    d)      E [ XY ] = E [ X ] E [Y ]

         cov( X , Y ) = 0      Var (aX + = a 2Var ( X ) + b 2Var (Y )
                                         bY )
                                                      Probabilidades y Estadística I
Esquema inicial

1. Variables aleatorias bidimensionales. Distribución conjunta

2. Distribuciones marginales

3. Distribuciones condicionadas

4. Independencia

5. Momentos

6. Teorema de Bayes

7. Reproductividad de v. aleatorias
                                               Probabilidades y Estadística I
6. Teorema de Bayes
                                                 p ( y x) p1 ( x)
                                     p( x y ) =
a) Caso 1: X e Y discretas
                                                ∑ p( y x) p1 ( x)
                                                    x


                                                        f ( y x) f1 ( x)
b) Caso 2: X e Y continuas           f ( x y) =
                                                  ∫ f ( y x) f ( x) dx
                                                                     1


                                                  f ( y x) p1 ( x)
                                      p( x y ) =
c) Caso 3: X discreta e Y continua
                                                 ∑ f ( y x) p1 ( x)
                                                        x



                                                            p ( y x) f1 ( x)
d) Caso 4: X continua e Y discreta   f ( x y) =
                                                   ∫ p( y x) f ( x) dx
                                                                     1

                                                  Probabilidades y Estadística I
Esquema inicial

1. Variables aleatorias bidimensionales. Distribución conjunta

2. Distribuciones marginales

3. Distribuciones condicionadas

4. Independencia

5. Momentos

6. Teorema de Bayes

7. Reproductividad de v. aleatorias
                                               Probabilidades y Estadística I
7. Reproductividad                                  (1/3)



 BAJO INDEPENDENCIA



Caso 1: Binomial            X ∼ β (n1 , p )     Y ∼ β (n2 , p )

                X + Y ∼ β (n1 + n2 , p )


Caso 2: Binomial negativa        X ∼ β N (n1 , p ) Y ∼ β N (n2 , p )

                   X + Y ∼ β N (n1 + n2 , p )

                                                Probabilidades y Estadística I
7. Reproductividad                                    (2/3)



 BAJO INDEPENDENCIA



Caso 3: Poisson               X ∼ P (λ1 )          Y ∼ P (λ2 )

                      X + Y ∼ P (λ1 + λ2 )


Caso 4: Normal           X ∼ N ( µ1 , σ 1 )   Y ∼ N ( µ2 , σ 2 )


                  X + Y ∼ N ( µ1 + µ2 , σ 12 + σ 2 )
                                                 2



                                                  Probabilidades y Estadística I
7. Reproductividad                                   (3/3)



 BAJO INDEPENDENCIA



Caso 5: Erlang       X ∼ Erlang (k1 , λ )   Y ∼ Erlang (k2 , λ )


                 X + Y ∼ Erlang (k1 + k2 , λ )




                                                 Probabilidades y Estadística I

Tema8b ud3

  • 1.
    Esquema inicial 1. Variablesaleatorias bidimensionales. Distribución conjunta 2. Distribuciones marginales 3. Distribuciones condicionadas 4. Independencia 5. Momentos 6. Teorema de Bayes 7. Reproductividad de v. aleatorias Probabilidades y Estadística I
  • 2.
    3. Distribuciones condicionadas (1/6) EJEMPLO La variable X representa la proporción de errores tipo A que existen en un documento, mientras que la variable Y representa la proporción de errores tipo B. En ese documento existen otros tipos de errores como el C, el D etc...La falta de información sobre el estudio nos lleva a que la distribución conjunta del vector (X, Y) sigue una distribución uniforme. El 75% de los errores son de tipo B Y=0.75 X | Y=0.75 Probabilidades y Estadística I
  • 3.
    3. Distribuciones condicionadas (2/6) Variable aleatoria bidimensional discreta Sea y0 un número real tal que p2 ( y0 ) > 0 . Se denomina función de probabilidad de X condicionada al Y = y0 , y se denota por p ( x | y0 ) , a la siguiente función real de variable real. p ( x, y0 ) p ( x | y0 ) = p2 ( y0 ) p ( x0 , y ) p ( y | x0 ) = p1 ( x0 ) FAMILIAS { p( x | y0 )} y ∈Rg Y 0 { p( y | x0 )}x ∈Rg X 0 Probabilidades y Estadística I
  • 4.
    3. Distribuciones condicionadas (3/6) Variable aleatoria bidimensional continua Sea y0 un número real tal que f 2 ( y0 ) > 0 . Se denomina función de densidad de X condicionada al Y = y0 , y se denota por f ( x | y0 ) , a la siguiente función real de variable real. f ( x, y0 ) f ( x | y0 ) = f 2 ( y0 ) f ( x0 , y ) f ( y | x0 ) = f1 ( x0 ) FAMILIAS { f ( x | y0 )} y ∈Rg Y 0 { f ( y | x0 )}x ∈Rg X 0 Probabilidades y Estadística I
  • 5.
    3. Distribuciones condicionadas (4/6) EJEMPLO  0 ≤ x, y ≤ 1 1− y 2 si   2(1 − y ) 0 ≤ y ≤ 1 f ( x, y ) =   x + y ≤1  = f2 ( y) ∫ 2dx 0 =  resto 0 o  en el resto  1 f ( x, y0 ) 2  si 0 ≤ x ≤ 1 − y0 f= ( x | y0 ) = = 1 − y0 f 2 ( y0 ) 2(1 − y0 )  0 resto Probabilidades y Estadística I
  • 6.
    3. Distribuciones condicionadas (5/6) Relaciones entre los tres tipos de distribuciones asociadas a un vector aleatorio bidimensional CONJUNTA = MARGINAL × CONDICIONADA Esta clase de relación se obtiene en los tres escenarios en donde se desarrolla el contenido de esta asignatura: • Estadística Descriptiva: fij = fi • × f ji = f • j × f i j • Probabilidades con Álgebra de Boole: P ( A ∩ B )= P( A) × P( B | A)= P ( B ) × P ( A | B ) • Variables aleatorias: = f= f 2 ( y ) f ( x | y ) f ( x, y ) 1 ( x ) f ( y | x ) Probabilidades y Estadística I
  • 7.
    3. Distribuciones condicionadas (6/6) Variable aleatoria bidimensional mixta ( X ,Y ) ∈ R2 X es discreta y Y es continua DISTRIBUCUÓN CONJUNTA p1 ( x) × f ( y | x) f 2 ( y) × p( x | y) Probabilidades y Estadística I
  • 8.
    Esquema inicial 1. Variablesaleatorias bidimensionales. Distribución conjunta 2. Distribuciones marginales 3. Distribuciones condicionadas 4. Independencia 5. Momentos 6. Teorema de Bayes 7. Reproductividad de v. aleatorias Probabilidades y Estadística I
  • 9.
    4. V. aleatoriasindependientes (1/2) DEFINICIÓN 1 f ( x | y ) = f1 ( x) ∀y ⇔ f ( y | x) = f 2 ( y ) ∀x DEFINICIÓN 2 f ( x, y ) f1 ( x) × f 2 ( y ) = F ( x, y ) F1 ( x) × F2 ( y ) = • Estadística Descriptiva: f= fi • × f • j ij • Probabilidades con Álgebra de Boole: P ( A ∩ B )= P( A) × P( B) Probabilidades y Estadística I
  • 10.
    4. V. aleatoriasindependientes (2/2) P [ a ≤ X ≤ b, c ≤ Y ≤ d ] P [ a ≤ X ≤ b ] × P [ c ≤ Y ≤ d ] = EJEMPLO 4 xy si 0 ≤ x, y ≤ 1 f ( x, y ) =  0 resto 2 x si 0 ≤ x ≤ 1 2 y si 0 ≤ y ≤ 1 f1 ( x) =  f2 ( y) =  0 resto 0 resto Probabilidades y Estadística I
  • 11.
    Esquema inicial 1. Variablesaleatorias bidimensionales. Distribución conjunta 2. Distribuciones marginales 3. Distribuciones condicionadas 4. Independencia 5. Momentos 6. Teorema de Bayes 7. Reproductividad de v. aleatorias Probabilidades y Estadística I
  • 12.
    5. Momentos (1/3) Caso discreto E [ g ( x, y ) ] = ∑∑ g ( x, y ) p ( x, y ) x y +∞ +∞ Caso continuo E [ g ( x, y ) ] = ∫ ∫ g ( x, y) f ( x, y) dx dy −∞ −∞ Momentos centrados en el origen α k , l = E[ x k y l ] Momentos centrados en la media µ k ,l = E  ( x − α ) k ( y − α )l  0, 1   1, 0  Probabilidades y Estadística I
  • 13.
    5. Momentos (2/3) Momentos destacados = E[ X ] µ X α1,0 = = E[Y ] µY α 0,1 = = Var [ X ] σ X µ2, 0 = 2 = Var [Y ] σ Y µ0, 2 = 2 cov( X , Y ) µ1,1 = Cov( X , Y ) ρ= σ Xσ y Probabilidades y Estadística I
  • 14.
    5. Momentos (3/3) Propiedades a) E [ aX + bY= aE [ X ] + bE [Y ] ] b) Var (aX + = a 2Var ( X ) + b 2Var (Y ) + 2ab cov( X , Y ) bY ) c) cov( X , Y ) E [ XY ] − E [ X ] E [Y ] = BAJO INDEPENDENCIA d) E [ XY ] = E [ X ] E [Y ] cov( X , Y ) = 0 Var (aX + = a 2Var ( X ) + b 2Var (Y ) bY ) Probabilidades y Estadística I
  • 15.
    Esquema inicial 1. Variablesaleatorias bidimensionales. Distribución conjunta 2. Distribuciones marginales 3. Distribuciones condicionadas 4. Independencia 5. Momentos 6. Teorema de Bayes 7. Reproductividad de v. aleatorias Probabilidades y Estadística I
  • 16.
    6. Teorema deBayes p ( y x) p1 ( x) p( x y ) = a) Caso 1: X e Y discretas ∑ p( y x) p1 ( x) x f ( y x) f1 ( x) b) Caso 2: X e Y continuas f ( x y) = ∫ f ( y x) f ( x) dx 1 f ( y x) p1 ( x) p( x y ) = c) Caso 3: X discreta e Y continua ∑ f ( y x) p1 ( x) x p ( y x) f1 ( x) d) Caso 4: X continua e Y discreta f ( x y) = ∫ p( y x) f ( x) dx 1 Probabilidades y Estadística I
  • 17.
    Esquema inicial 1. Variablesaleatorias bidimensionales. Distribución conjunta 2. Distribuciones marginales 3. Distribuciones condicionadas 4. Independencia 5. Momentos 6. Teorema de Bayes 7. Reproductividad de v. aleatorias Probabilidades y Estadística I
  • 18.
    7. Reproductividad (1/3) BAJO INDEPENDENCIA Caso 1: Binomial X ∼ β (n1 , p ) Y ∼ β (n2 , p ) X + Y ∼ β (n1 + n2 , p ) Caso 2: Binomial negativa X ∼ β N (n1 , p ) Y ∼ β N (n2 , p ) X + Y ∼ β N (n1 + n2 , p ) Probabilidades y Estadística I
  • 19.
    7. Reproductividad (2/3) BAJO INDEPENDENCIA Caso 3: Poisson X ∼ P (λ1 ) Y ∼ P (λ2 ) X + Y ∼ P (λ1 + λ2 ) Caso 4: Normal X ∼ N ( µ1 , σ 1 ) Y ∼ N ( µ2 , σ 2 ) X + Y ∼ N ( µ1 + µ2 , σ 12 + σ 2 ) 2 Probabilidades y Estadística I
  • 20.
    7. Reproductividad (3/3) BAJO INDEPENDENCIA Caso 5: Erlang X ∼ Erlang (k1 , λ ) Y ∼ Erlang (k2 , λ ) X + Y ∼ Erlang (k1 + k2 , λ ) Probabilidades y Estadística I