Modelos Estocásticos Esperanza Matemática SESIÓN 04
Esperanza Matemática 1 Definición 4.1 : Si  x  es una variable aleatoria discreta y f(x) es el valor de su distribución de probabilidad en x, el  valor esperado  de esta variable aleatoria es E(x) =   x x  f(x) En forma correspondiente, si  x  es una variable aleatoria continua y f(x) es el valor de su densidad de probabilidad en x, el  valor esperado  de esta variable aleatoria es
Esperanza Matemática 2 Teorema 4.1 : Si  x  es una variable aleatoria discreta y f(x) es el valor de su distribución de probabilidad en x, el valor esperado   de la variable aleatoria g( x ) es E[g( x )] =   x g(x)  f(x) En forma correspondiente, si  x  es una variable aleatoria continua y f(x) es el valor de su densidad de probabilidad en x, el valor esperado de la variable aleatoria g( x ) es
Esperanza Matemática 3 Teorema 4.2 : Si a y b son constantes, entonces E(a x +b) =a E( x ) + b Teorema 4.3 : Si c 1 , c 2 ,…, y c n  son constantes, entonces
Esperanza Matemática 4 Teorema 4.4 : Si  x  y  y  son variables aleatorias discretas y f(x,y) es el valor de su distribución de probabilidad conjunta en (x,y), el valor esperado de la variable aleatoria g( x , y ) es E[g( x,y )] =  x  y g(x,y)f(x,y) En forma correspondiente, si  x  y  y  son variables aleatorias continuas y f(x,y) es el valor de su densidad conjunta en (x,y), el valor esperado de la variable aleatoria g( x,y ) es
Esperanza Matemática 5 Teorema 4.5 : Si c 1 , c 2 ,…, y c n  son constantes, entonces
Momentos 1 Definición 4.2 : El r-ésimo  momento con respecto al origen  de la variable aleatoria  x , representado por   ’ r, , es el valor esperado de  x r ; en forma simbólica se tiene para r = 0, 1, 2 ,3,…, cuando  x  es discreta y cuando  x  es continua
Momentos 2 Definición 4.3 :   ’ r  se conoce como la media de la distribución de x, o simplemente la media de x, y está denotada por   Definición 4.4 : El r-’esimo momento con respecto a la media de la variable aleatoria x, denotado por   r, , es el valor esperado de  (x-  ) r,  simbólica se tiene para r = 0, 1, 2 ,3,…, cuando  x  es discreta y cuando  x  es continua
Momentos 3 Definición 4.5 :   2  se denomina  varianza de la distribución  de  x , o simplemente  varianza  de  x , y se representa mediante   2 , var ( x ) o V( x ). La raíz cuadrada positiva de la varianza recibe el nombre de  desviación estándar  y se representa por   ( x ) Teorema 4.6 :   2  =   ’ 2  -   2
Momentos 4 Teorema 4.7 : Si  x  tiene varianza   2  entonces var (a x +b) = a 2  2 Teorema 4.8 : ( Teorema de Tchebycheff ) Si    y    son, respectivamente, la media y la desviación estándar de la variable aleatoria  x , entonces para una constante positiva k cualquiera la probabilidad es cuando menos 1 -  1/k 2  de que  x  tomará un valor contenido en k desviaciones estándar de la media; en forma simbólica se tiene, o
Función Generatriz de Momentos 1 Definición 4.6 : La función generatriz de momentos de la variable aleatoria  x , donde exista, está dada por cuando x es discreta y cuando x es continua
Función Generatriz de Momentos 2 Teorema 4.9 : Teorema 4.10 : Si a y b son constantes, entonces
Momentos Producto 1 Definición 4.7 : El  r-ésimo  y  s-ésimo momento producto con respecto al origen  de las variables aleatorias  x  y  y , representado por   ’ r,s , es el valor esperado de  x r y s ; en forma simbólica, se tiene para r = 0, 1, 2,… y s = 0, 1, 2,…, cuando  x  y  y  son   discretas y cuando  x  y  y  son continuas
Momentos Producto 2 Definición 4.8 : El  r-ésimo  y  s-ésimo momento producto con respecto a las medias  respectivas de las variables aleatorias  x  y  y , representado por   r,s , es el valor esperado de  (x-  x ) r (y-  y ) s ; en forma simbólica, se tiene para r = 0, 1, 2,… y s = 0, 1, 2,…, cuando  x  y  y  son   discretas y cuando  x  y  y  son continuas
Momentos Producto 3 Definición 4.9 :   1,1  recibe el nombre de  covarianza  de  x  y  y , y se representa por medio de   x , y , cov ( x , y ) o C ( x , y ) Teorema 4.11:    x , y  =   ’ 1,1  -   x   y   Teorema 4.12:  Si  x  y  y  son independientes, entonces E( xy ) = E( x ) E( y ) y   x , y  = 0 Teorema 4.13:  Si  x 1 , x 2 ,  …y  x n  son independientes, entonces  E( x 1 x 2 …x n ) = E( x 1 ) E( x 2 ) …E( x n )
Momentos de Combinaciones Lineales 1 Teorema 4.14:  Si  x 1 , x 2 ,  …y  x n  son variables aleatorias y  donde a 1 , a 2 ,…a n  son constantes, entonces  donde la doble suma se extiende sobre todos los valores de i y j, de 1 a n, para los cuales i < j
Momentos de Combinaciones Lineales 2 Corolario:  Si las variables aleatorias  x 1 , x 2 ,  …y  x n  son independientes y  entonces
Momentos de Combinaciones Lineales 3 Teorema 4.15:  Si las variables aleatorias  x 1 , x 2 ,  …y  x n  son independientes y  y donde a 1 , a 2 ,…,a n , b 1 , b 2 ,…,b n  son constantes, entonces
Momentos de Combinaciones Lineales 4 Corolario:  Si las variables aleatorias  x 1 , x 2 ,  …y  x n  son independientes y  y  entonces
Esperanzas Condicionales Definición 4.10:  Si  x  es una variable aleatoria discreta y f(xly) es el valor de la distribución de probabilidad condicional de  x  dada  y  = y en x, la  esperanza condicional  de   ( x ) dada  y  = y es  En forma correspondiente, si x es la variable aleatoria continua y f(xly) es el valor de la densidad de probabilidad condicional de  x  dada  y  = y en x, la  esperanza condicional  de   ( x ) dada  y  = y es
Técnica de Transformación: una variable Teorema 4.16 : Sea f(x) el valor de la densidad de probabilidad de la variable aleatoria continua  x  en x. Si la función dada por y = u(x) es diferenciable y creciente o decreciente para todos los valores contenidos en el rango de  x  para los cuales f(x)    0, entonces, para estos valores de x, la ecuación y = u(x) puede resolverse de manera única para cada x con el fin de producir x = w(y) y para los valores de y correspondientes la densidad de probabilidad de  y  = u( x ) está dada por g(y) = f[w(y)][w’(y)] siempre que u’ (x)    0. En cualquier parte, g(y) = 0
Técnica de Transformación: dos variables 1 Teorema 4.17 : Sea f(x 1 ,x 2 ) el valor de la densidad de probabilidad conjunta de las variables aleatorias continuas  x 1  y  x 2  en (x 1 ,x 2 ) .  Si las funciones dadas por y 1  = u 1  (x 1 ,x 2 )  y y 2  = u 2  (x 1 ,x 2 ) son parcialmente diferenciables con respecto a x 1  y x 2  y representan una transformación biunívoca de todos los valores contenidos en el rango de  x 1  y  x 2  para los cuales f(x 1 ,x 2 ) = 0, entonces, para estos valores de x 1  y x 2  , las ecuaciones y 1  = u 1  (x 1 ,x 2 )  y y 2  = u 2  (x 1 ,x 2 ) pueden resolverse de manera única para cada x 1  y x 2  con el fin de producir x 1  = w 1  (y 1 , y 2 ) y x 2  = w 2  (y 1 , y 2 ), y para los valores correspondientes de y 1  y y 2  la densidad de probabilidad conjunta de  y 1   = u 1  ( x1 ,   x 2  ) y  y 2   = u 2  ( x1 ,   x 2  ) está dada por g (y 1 , y 2 )  = f [w 1  (y 1 , y 2 ), w 2  (y 1 , y 2 )] IJI
Técnica de Transformación: dos variables 2 Aquí, J es el Jacobiano de la transformación, dado por el determinante  En cualquier otra parte, g(y 1 , y 2 ) = 0
Técnica de la Función Generatriz de Momentos Teorema 4.18 : Si  x 1 ,  x 2 ,…, y  x n , son variables aleatorias independientes y  y  =  x 1  +  x 2  +…+  x n , entonces  donde M xi  (t) es el valor de la función generatriz de momentos de  x i  en t

0 Prob4

  • 1.
    Modelos Estocásticos EsperanzaMatemática SESIÓN 04
  • 2.
    Esperanza Matemática 1Definición 4.1 : Si x es una variable aleatoria discreta y f(x) es el valor de su distribución de probabilidad en x, el valor esperado de esta variable aleatoria es E(x) =  x x  f(x) En forma correspondiente, si x es una variable aleatoria continua y f(x) es el valor de su densidad de probabilidad en x, el valor esperado de esta variable aleatoria es
  • 3.
    Esperanza Matemática 2Teorema 4.1 : Si x es una variable aleatoria discreta y f(x) es el valor de su distribución de probabilidad en x, el valor esperado de la variable aleatoria g( x ) es E[g( x )] =  x g(x)  f(x) En forma correspondiente, si x es una variable aleatoria continua y f(x) es el valor de su densidad de probabilidad en x, el valor esperado de la variable aleatoria g( x ) es
  • 4.
    Esperanza Matemática 3Teorema 4.2 : Si a y b son constantes, entonces E(a x +b) =a E( x ) + b Teorema 4.3 : Si c 1 , c 2 ,…, y c n son constantes, entonces
  • 5.
    Esperanza Matemática 4Teorema 4.4 : Si x y y son variables aleatorias discretas y f(x,y) es el valor de su distribución de probabilidad conjunta en (x,y), el valor esperado de la variable aleatoria g( x , y ) es E[g( x,y )] =  x  y g(x,y)f(x,y) En forma correspondiente, si x y y son variables aleatorias continuas y f(x,y) es el valor de su densidad conjunta en (x,y), el valor esperado de la variable aleatoria g( x,y ) es
  • 6.
    Esperanza Matemática 5Teorema 4.5 : Si c 1 , c 2 ,…, y c n son constantes, entonces
  • 7.
    Momentos 1 Definición4.2 : El r-ésimo momento con respecto al origen de la variable aleatoria x , representado por  ’ r, , es el valor esperado de x r ; en forma simbólica se tiene para r = 0, 1, 2 ,3,…, cuando x es discreta y cuando x es continua
  • 8.
    Momentos 2 Definición4.3 :  ’ r se conoce como la media de la distribución de x, o simplemente la media de x, y está denotada por  Definición 4.4 : El r-’esimo momento con respecto a la media de la variable aleatoria x, denotado por  r, , es el valor esperado de (x-  ) r, simbólica se tiene para r = 0, 1, 2 ,3,…, cuando x es discreta y cuando x es continua
  • 9.
    Momentos 3 Definición4.5 :  2 se denomina varianza de la distribución de x , o simplemente varianza de x , y se representa mediante  2 , var ( x ) o V( x ). La raíz cuadrada positiva de la varianza recibe el nombre de desviación estándar y se representa por  ( x ) Teorema 4.6 :  2 =  ’ 2 -  2
  • 10.
    Momentos 4 Teorema4.7 : Si x tiene varianza  2 entonces var (a x +b) = a 2  2 Teorema 4.8 : ( Teorema de Tchebycheff ) Si  y  son, respectivamente, la media y la desviación estándar de la variable aleatoria x , entonces para una constante positiva k cualquiera la probabilidad es cuando menos 1 - 1/k 2 de que x tomará un valor contenido en k desviaciones estándar de la media; en forma simbólica se tiene, o
  • 11.
    Función Generatriz deMomentos 1 Definición 4.6 : La función generatriz de momentos de la variable aleatoria x , donde exista, está dada por cuando x es discreta y cuando x es continua
  • 12.
    Función Generatriz deMomentos 2 Teorema 4.9 : Teorema 4.10 : Si a y b son constantes, entonces
  • 13.
    Momentos Producto 1Definición 4.7 : El r-ésimo y s-ésimo momento producto con respecto al origen de las variables aleatorias x y y , representado por  ’ r,s , es el valor esperado de x r y s ; en forma simbólica, se tiene para r = 0, 1, 2,… y s = 0, 1, 2,…, cuando x y y son discretas y cuando x y y son continuas
  • 14.
    Momentos Producto 2Definición 4.8 : El r-ésimo y s-ésimo momento producto con respecto a las medias respectivas de las variables aleatorias x y y , representado por  r,s , es el valor esperado de (x-  x ) r (y-  y ) s ; en forma simbólica, se tiene para r = 0, 1, 2,… y s = 0, 1, 2,…, cuando x y y son discretas y cuando x y y son continuas
  • 15.
    Momentos Producto 3Definición 4.9 :  1,1 recibe el nombre de covarianza de x y y , y se representa por medio de  x , y , cov ( x , y ) o C ( x , y ) Teorema 4.11:  x , y =  ’ 1,1 -  x  y Teorema 4.12: Si x y y son independientes, entonces E( xy ) = E( x ) E( y ) y  x , y = 0 Teorema 4.13: Si x 1 , x 2 , …y x n son independientes, entonces E( x 1 x 2 …x n ) = E( x 1 ) E( x 2 ) …E( x n )
  • 16.
    Momentos de CombinacionesLineales 1 Teorema 4.14: Si x 1 , x 2 , …y x n son variables aleatorias y donde a 1 , a 2 ,…a n son constantes, entonces donde la doble suma se extiende sobre todos los valores de i y j, de 1 a n, para los cuales i < j
  • 17.
    Momentos de CombinacionesLineales 2 Corolario: Si las variables aleatorias x 1 , x 2 , …y x n son independientes y entonces
  • 18.
    Momentos de CombinacionesLineales 3 Teorema 4.15: Si las variables aleatorias x 1 , x 2 , …y x n son independientes y y donde a 1 , a 2 ,…,a n , b 1 , b 2 ,…,b n son constantes, entonces
  • 19.
    Momentos de CombinacionesLineales 4 Corolario: Si las variables aleatorias x 1 , x 2 , …y x n son independientes y y entonces
  • 20.
    Esperanzas Condicionales Definición4.10: Si x es una variable aleatoria discreta y f(xly) es el valor de la distribución de probabilidad condicional de x dada y = y en x, la esperanza condicional de  ( x ) dada y = y es En forma correspondiente, si x es la variable aleatoria continua y f(xly) es el valor de la densidad de probabilidad condicional de x dada y = y en x, la esperanza condicional de  ( x ) dada y = y es
  • 21.
    Técnica de Transformación:una variable Teorema 4.16 : Sea f(x) el valor de la densidad de probabilidad de la variable aleatoria continua x en x. Si la función dada por y = u(x) es diferenciable y creciente o decreciente para todos los valores contenidos en el rango de x para los cuales f(x)  0, entonces, para estos valores de x, la ecuación y = u(x) puede resolverse de manera única para cada x con el fin de producir x = w(y) y para los valores de y correspondientes la densidad de probabilidad de y = u( x ) está dada por g(y) = f[w(y)][w’(y)] siempre que u’ (x)  0. En cualquier parte, g(y) = 0
  • 22.
    Técnica de Transformación:dos variables 1 Teorema 4.17 : Sea f(x 1 ,x 2 ) el valor de la densidad de probabilidad conjunta de las variables aleatorias continuas x 1 y x 2 en (x 1 ,x 2 ) . Si las funciones dadas por y 1 = u 1 (x 1 ,x 2 ) y y 2 = u 2 (x 1 ,x 2 ) son parcialmente diferenciables con respecto a x 1 y x 2 y representan una transformación biunívoca de todos los valores contenidos en el rango de x 1 y x 2 para los cuales f(x 1 ,x 2 ) = 0, entonces, para estos valores de x 1 y x 2 , las ecuaciones y 1 = u 1 (x 1 ,x 2 ) y y 2 = u 2 (x 1 ,x 2 ) pueden resolverse de manera única para cada x 1 y x 2 con el fin de producir x 1 = w 1 (y 1 , y 2 ) y x 2 = w 2 (y 1 , y 2 ), y para los valores correspondientes de y 1 y y 2 la densidad de probabilidad conjunta de y 1 = u 1 ( x1 , x 2 ) y y 2 = u 2 ( x1 , x 2 ) está dada por g (y 1 , y 2 ) = f [w 1 (y 1 , y 2 ), w 2 (y 1 , y 2 )] IJI
  • 23.
    Técnica de Transformación:dos variables 2 Aquí, J es el Jacobiano de la transformación, dado por el determinante En cualquier otra parte, g(y 1 , y 2 ) = 0
  • 24.
    Técnica de laFunción Generatriz de Momentos Teorema 4.18 : Si x 1 , x 2 ,…, y x n , son variables aleatorias independientes y y = x 1 + x 2 +…+ x n , entonces donde M xi (t) es el valor de la función generatriz de momentos de x i en t