SlideShare una empresa de Scribd logo
1 de 35
Descargar para leer sin conexión
Parte 1 - Probabilidades Prof. María B. Pintarelli
83
5- VARIABLES ALEATORIAS BIDIMENSIONALES
5.1 – Generalidades
Hasta ahora hemos considerado el caso de variables aleatorias unidimensionales. Esto es, el resultado
del experimento de interés se registra como un único número real.
En muchos casos, sin embargo, nos puede interesar asociar a cada resultado de un experimento aleatorio,
dos o más características numéricas. Por ejemplo, de los remaches que salen de una línea de producción
nos puede interesar el diámetro X y la longitud Y. Teniendo en cuenta la inevitable variabilidad en las
dimensiones de los remaches debido a las numerosas causas presentes en el proceso de fabricación, los
podemos representar asociándoles dos variables aleatorias X e Y que pueden pensarse como una variable
aleatoria bidimensional: ( )
Y
X , .
Sea ε un experimento aleatorio y S un espacio muestral asociado a él. Sean R
S
X →
: , R
S
Y →
: , que
a cada resultado S
s ∈ le asignan el par de números reales ( )
y
x,
Llamaremos a ( )
Y
X, variable aleatoria bidimensional.
Si en lugar de dos variables aleatorias, tenemos n variables aleatorias n
X
X
X ,...,
, 2
1 , llamaremos a
( )
n
X
,...,
X
,
X 2
1 variable aleatoria n-dimensional
En lo que sigue nos referiremos en particular a variables aleatorias n-dimensionales con n=2, es decir
nos concentraremos en variables aleatorias bidimensionales por cuanto son las más simples de
describir, fundamentalmente en relación a la notación. Pero debemos tener presente que las propiedades
que estudiemos para ellas se pueden extender sin demasiada dificultad al caso general.
Al conjunto de valores que toma la variable aleatoria bidimensional (X,Y) lo llamaremos recorrido de la
v.a. (X,Y) y lo indicaremos XY
R . En otras palabras ( ) ( ) ( )






∈
=
=
= S
s
con
s
Y
y
e
s
X
x
:
y
,
x
RXY , es
decir, es la imagen por ( )
Y
,
X del espacio muestral S.
Notar que el recorrido de (X,Y) es un subconjunto del espacio Euclidiano: 2
R
RXY ⊆ . Como antes,
puede considerarse al recorrido XY
R como un espacio muestral cuyos elementos son ahora pares de
números reales.
Como con cualquier espacio muestral, según el número de elementos que lo constituyen, podemos
clasificar a los recorridos XY
R en numerables (finitos o infinitos) y no-numerables.
Los recorridos numerables son, en general, de la forma
( ) ( ) ( ) ( )
{ }
m
n
j
i
XY y
,
x
,...,
y
,
x
,
y
,
x
m
,..
,
j
y
n
,...,
,
i
con
y
,
x
R 2
1
1
1
2
1
2
1 =






=
=
= (finito)
( ) ( ) ( )
{ }
,...
y
,
x
,
y
,
x
,..
,
j
y
,...
,
i
con
y
,
x
R j
i
XY 2
1
1
1
2
1
2
1 =






=
=
= (infinito numerable)
Los recorridos no numerables son regiones o subconjuntos no numerables del plano Euclidiano. Por
ejemplo:
( )






≤
≤
≤
≤
= d
y
c
;
b
x
a
:
y
,
x
RXY (no numerable)
Parte 1 - Probabilidades Prof. María B. Pintarelli
84
( )
{ }
1
:
, 2
2
≤
+
= y
x
y
x
RXY (no numerable)
( )






=
≤
≤
= 3
2
1 c
,
c
,
c
y
,
b
x
a
:
y
,
x
R j
j
XY (no numerable “mixto”)
cuyas gráficas se pueden apreciar en la figura siguiente. Notar en el último recorrido, X es v.a. continua
e Y discreta.
Clasificaremos a las variables aleatorias bidimensionales de la siguiente manera:
( )
Y
,
X es v.a. bidimensional discreta si X e Y son discretas
( )
Y
,
X es v.a. bidimensional continua si X e Y son continuas
El caso X continua, Y discreta (o viceversa) no lo consideramos.
Sea ( )
Y
,
X una variable aleatoria bidimensional discreta y sea XY
R su recorrido (numerable). Sea
R
R
:
p XY → una función que a cada elemento ( )
j
i y
,
x le asigna un número real ( )
j
i y
,
x
p tal que
( ) ( ) XY
j
i
j
i
j
i R
y
,
x
y
,
x
p
y
Y
,
x
X
P ∈
∀
=






=
= y que verifica.
a) ( ) ( ) XY
j
i
j
i R
y
,
x
y
,
x
p ∈
∀
≥ 0
b) ( ) ( )
( )
∑ ∑∑
∈
=
=
XY
j
i R
y
x
j
i
i j
j
i y
x
p
y
x
p
,
1
,
,
A esta función la llamaremos función de probabilidad puntual conjunta de la variable aleatoria
bidimensional ( )
Y
,
X . En forma abreviada la designaremos fdp conjunta.
Ejemplos:
1-Dos líneas de producción, señaladas I y II, manufacturan cierto tipo de artículo a pequeña escala.
Supóngase que la capacidad máxima de producción de la línea I es cinco artículos por día, mientras que
para la línea II es 3 artículos/día. Debido a los innumerables factores presentes en todo proceso de
producción, el número de artículos realmente producido por cada línea puede pensarse como una
variable aleatoria. En conjunto podemos pensar en una variable aleatoria bidimensional ( )
Y
,
X discreta,
donde la primera componente X corresponde a la producción de la línea I y la segunda componente
Y a los artículos que salen de la línea II. La fdp conjunta correspondiente a variables aleatorias
bidimensionales suele presentarse, por comodidad, como una tabla. Supongamos que la para la v.a.
( )
Y
,
X que nos interesa aquí la tabla correspondiente a ( )
j
i y
,
x
p es
0
0
0
0
0
a b x
c
d
y y y
1
2
3
1 2 a b x
RXY
c1
c2
c3
-1
-1
Parte 1 - Probabilidades Prof. María B. Pintarelli
85
X
Y 0 1 2 3 4 5
0 0 0.01 0.03 0.05 0.07 0.09
1 0.01 0.02 0.04 0.05 0.06 0.08
2 0.01 0.03 0.05 0.05 0.05 0.06
3 0.01 0.02 0.04 0.06 0.06 0.05
¿Cuál es la probabilidad de qué salgan más artículos de la línea I que de la línea II?
Antes de calcular la probabilidad que nos pide el problema, hagamos algunas consideraciones sobre la
tabla que representa a ( )
j
i y
,
x
p .
Se trata de una tabla a doble entrada donde en la primera fila se indican los valores que puede tomar la
v.a. X (en este caso X=0,1,2,3,4,5) y la primera columna indica los valores que puede tomar la variable Y
( 0,1,2,3). Para determinar el valor de la ( )
j
i y
,
x
p cuando la v.a. ( )
Y
,
X toma el valor ( )
j
i y
,
x
consideramos el número que se encuentra en la columna correspondiente a i
x
X = y la fila
correspondiente a j
y
Y = . Por ejemplo: ( ) ( ) 05
0
2
4
2
4 .
Y
,
X
P
,
p =
=
=
= .
Podemos verificar fácilmente que la fdp conjunta definida por esta bien definida. En efecto verifica las
condiciones a) ( ) ( ) XY
j
i
j
i R
y
,
x
y
,
x
p ∈
∀
≥ 0 y b) ( )
( )
∑
∈
=
XY
j
i R
y
,
x
j
i y
,
x
p 1.
Para contestar la pregunta del enunciado, consideremos el suceso XY
R
B ⊂ definido
B: “es el suceso que ocurre cuando la línea I produce más artículos que la línea II” o,
{ }
Y
X
B >
= . Luego:
( ) ( ) ( )
∑ ∑
= >
=
=
>
=
3
0
j j
i
y y
x
j
i y
,
x
p
Y
X
P
B
P 0.01+0.03+0.05+0.07+0.09+0.04+0.05+0.06+0.08+
+0.05+0.05+0.06+0.06+0.05=0.75.
2- Hay tres cajas registradoras a la salida de un supermercado. Dos clientes llegan a las cajas en
diferentes momentos cuando no hay otros clientes ante aquellas. Cada cliente escoge una caja al azar e
independientemente del otro.
Sean las variables aleatorias X: “ nº de clientes que escogen la caja 1” e Y: “nº de clientes que escogen la
caja 2”. Hallar la fdp conjunta de (X,Y)
Podemos suponer que el espacio muestral original S es el conjunto de pares ordenados
{ }
)
3
,
3
(
);
2
,
3
(
);
1
,
3
(
);
3
,
2
(
);
2
,
2
(
);
1
,
2
(
);
3
,
1
(
);
2
,
1
(
);
1
,
1
(
=
S donde la primera componente del par indica la
caja elegida por el cliente 1 y la segunda componente del par indica la caja elegida por el cliente 2.
Además notar que X como Y pueden tomar los valores 0, 1, 2
El punto muestral (3,3) es el único punto muestral que corresponde al evento { }
0
,
0 =
= Y
X
Entonces
9
1
)
0
,
0
( =
=
= Y
X
P ; pensando de forma análoga los otros casos:
9
2
)
0
,
1
( =
=
= Y
X
P ;
9
1
)
0
,
2
( =
=
= Y
X
P ;
9
2
)
1
,
0
( =
=
= Y
X
P ,
9
2
)
1
,
1
( =
=
= Y
X
P ,
9
1
)
2
,
0
( =
=
= Y
X
P ; 0
)
2
,
2
(
)
2
,
1
( =
=
=
=
=
= Y
X
P
Y
X
P
Disponemos estas probabilidades en una tabla de la siguiente forma
Parte 1 - Probabilidades Prof. María B. Pintarelli
86
5.2 - Funciones de distribución marginales de una v.a. (X,Y) discreta
En el ejemplo 1, supongamos que queremos saber cuál es la probabilidad de que el número de artículos
producidos por la línea I sea 2, o sea )
2
( =
X
P
Como el evento { }
2
=
X es igual a { } { } { } { } { }
( )
3
2
1
0
2 =
∪
=
∪
=
∪
=
∩
= Y
Y
Y
Y
X , y a su vez
{ } { } { } { } { }
( )
{ } { }
( ) { } { }
( ) { } { }
( ) { } { }
( )
3
2
2
2
1
2
0
2
3
2
1
0
2
=
∩
=
∪
=
∩
=
∪
=
∩
=
∪
=
∩
=
=
=
=
∪
=
∪
=
∪
=
∩
=
Y
X
Y
X
Y
X
Y
X
Y
Y
Y
Y
X
Entonces
( )
{ } { }
( ) { } { }
( ) { } { }
( ) { } { }
( )
∑
=
=
=
=
=
=
+
=
=
+
=
=
+
=
=
=
=
=
∩
=
+
=
∩
=
+
=
∩
=
+
=
∩
=
=
=
=
3
0
)
,
2
(
)
3
,
2
(
)
2
,
2
(
)
1
,
2
(
)
0
,
2
(
3
2
2
2
1
2
0
2
2
j
j
Y
X
P
Y
X
P
Y
X
P
Y
X
P
Y
X
P
Y
X
P
Y
X
P
Y
X
P
Y
X
P
X
P
Razonando de la misma forma podemos escribir
( ) 5
,...,
1
,
0
)
,
(
3
0
=
=
=
=
= ∑
=
i
j
Y
i
X
P
i
X
P
j
Es decir obtenemos la función de distribución de probabilidad de X
Análogamente obtenemos
( ) 3
,
2
,
1
,
0
)
,
(
5
0
=
=
=
=
= ∑
=
j
j
Y
i
X
P
j
Y
P
i
Que es la función de distribución de probabilidad de Y
En general se las denomina distribuciones marginales de X e Y, y su definición sería la siguiente
Sea (X,Y) discreta y sea ( )
j
i y
,
x
p (i=1,2,…n, j=1,2,…,m) su función de probabilidad conjunta
(Eventualmente n y/o m pueden ser ∞).
La función de probabilidad marginal de X es
( ) ( ) ( )
∑
=
=
=
=
m
j
j
i
i
i y
x
p
x
X
P
x
p
1
, (i=1,2,…,n)
La función de probabilidad marginal de Y es
( ) ( ) ( )
∑
=
=
=
=
n
i
j
i
j
j y
x
p
y
Y
P
y
q
1
, (j=1,2,…,m)
Observación: Remarcamos que la función de probabilidad marginal de X, es decir ( )
i
x
p calculada a
partir de ( )
j
i y
,
x
p en la forma indicada, coincide con la función de probabilidad de la variable aleatoria
unidimensional X considerada en forma aislada. Análogamente la función de probabilidad marginal de
Y  X 0 1 2
0 1/9 2/9 1/9
1 2/9 2/9 0
2 1/9 0 0
Parte 1 - Probabilidades Prof. María B. Pintarelli
87
Y, es decir ( )
j
y
q calculada a partir de ( )
j
i y
,
x
p en la forma indicada, coincide con la función de
probabilidad de variable aleatoria unidimensional Y considerada en forma aislada.
Ejemplo:
Siguiendo con el ejemplo 1,
( ) ( ) ( ) ( ) ( ) ( )
28
0
05
0
06
0
08
0
09
0
3
5
2
5
1
5
0
5
5
5
.
.
.
.
.
,
p
,
p
,
p
,
p
X
P
p
=
+
+
+
=
+
+
+
=
=
=
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
26
0
06
0
05
0
04
0
02
0
01
0
1
5
1
4
1
3
1
2
1
1
1
0
1
1
.
.
.
.
.
.
,
p
,
p
,
p
,
p
,
p
,
p
Y
P
q
=
+
+
+
+
=
+
+
+
+
+
=
=
=
Observemos que se verifica la condición de normalización para cada una de las marginales:
( )
∑
=
=
+
+
+
+
+
=
5
0
1
28
0
24
0
21
0
16
0
08
0
03
0
i
x
i .
.
.
.
.
.
x
p
( )
∑
=
=
+
+
+
=
3
0
1
24
0
25
0
26
0
25
0
j
y
j .
.
.
.
y
q
5.3 - Funciones de probabilidades condicionales
Consideremos nuevamente el ejemplo de las dos líneas I y II que producen cierto artículo a pequeña
escala. Definimos la v.a. ( )
Y
,
X cuya función de probabilidad conjunta ( )
j
i y
,
x
p está dada por la tabla
anterior que repetimos
X
Y 0 1 2 3 4 5 q(yj)
0 0 0.01 0.03 0.05 0.07 0.09 0.25
1 0.01 0.02 0.04 0.05 0.06 0.08 0.26
2 0.01 0.03 0.05 0.05 0.05 0.06 0.25
3 0.01 0.02 0.04 0.06 0.06 0.05 0.24
p(xi) 0.03 0.08 0.16 0.21 0.24 0.28 1
Supongamos que deseamos conocer la probabilidad de que la línea I produzca tres artículos sabiendo
que la línea II ha fabricado dos. Tenemos que calcular una probabilidad condicional. Entonces
( )
( )
( )
( )
2
.
0
25
.
0
05
.
0
2
2
,
3
2
2
,
3
2
3 =
=
=
=






=
=
=
=
=
q
p
Y
P
Y
X
P
Y
X
P
En general definimos la función de probabilidad puntual de X condicional a Y como sigue:
( ) ( ) ( )
( )
j
j
i
j
i
j
i
y
q
y
,
x
p
y
Y
x
X
P
y
x
p =
=
=
= , es decir como el cociente de la función de probabilidad
conjunta de ( )
Y
,
X y la función de probabilidad puntual marginal de Y.
Análogamente, definimos la función de probabilidad puntual de Y condicional a X :
Parte 1 - Probabilidades Prof. María B. Pintarelli
88
( ) ( ) ( )
( )
i
j
i
i
j
i
j
x
p
y
,
x
p
x
X
y
Y
P
x
y
q =
=
=
= , es decir como el cociente de la función de probabilidad puntual
conjunta de ( )
Y
,
X y la función de probabilidad puntual marginal de X.
5.4– Variables aleatorias independientes
Ya se discutió el concepto de independencia entre dos eventos A y B. Esas mismas ideas podemos
trasladarlas en relación a dos variables aleatorias X e Y que, eventualmente, podemos considerarlas como
las componentes de una variable aleatoria bidimensional ( )
Y
,
X .
De acuerdo con esto, intuitivamente decimos que dos variables, X e Y, son independientes si el valor que
toma una de ellas no influye de ninguna manera sobre el valor que toma la otra. Esto lo establecemos
más formalmente:
Sea ( )
Y
,
X una variable aleatoria bidimensional discreta. Sea ( )
j
i y
,
x
p su fdp conjunta y ( )
i
x
p y ( )
j
y
q
las correspondientes fdp marginales de X e Y. Decimos que X e Y son variables aleatorias
independientes si y sólo si
( ) ( ) ( ) ( ) XY
j
i
j
i
j
i R
y
,
x
y
q
x
p
y
,
x
p ∈
∀
=
Observación: Notar que para poder afirmar la independencia de X e Y debe cumplirse la factorización
de la fdp conjunta como producto de las fdp marginales para todos los pares de valores de la v.a. ( )
Y
,
X .
Por lo tanto, para verificar la independencia es necesario demostrar la validez de la factorización para
todos los pares. En cambio, es suficiente encontrar un solo par que no la verifica, para afirmar, de
acuerdo con la definición, que las variables X e Y son no independientes, es decir, que son dependientes.
Esto es, para demostrar la dependencia es suficiente con encontrar un solo par que no verifique la
factorización señalada.
Vimos que dos sucesos A y B son independientes si y sólo si ( ) ( )
A
P
B
A
P = y ( ) ( )
B
P
A
B
P = (donde
por supuesto debía ser ( ) 0
≠
A
P y ( ) 0
≠
B
P ). En términos de variables aleatorias, esta forma de ver la
independencia se manifiesta en la igualdad entre las fdp condicionales y las correspondientes fdp
marginales, como demostramos en este
Teorema
Sea ( )
Y
,
X una variable aleatoria bidimensional discreta cuyas fdp conjunta, condicionales y marginales
son, respectivamente, ( )
j
i y
,
x
p ; ( )
j
i y
x
p , ( )
i
j x
y
q y ( )
i
x
p , ( )
j
y
q .
Entonces, X e Y son variables aleatorias independientes si y sólo si
1) ( ) ( ) ( ) XY
j
i
i
j
i R
y
,
x
x
p
y
x
p ∈
∀
= , o
2) ( ) ( ) ( ) XY
j
i
j
i
j R
y
,
x
y
q
x
y
q ∈
∀
= , que es equivalente a lo anterior
Parte 1 - Probabilidades Prof. María B. Pintarelli
89
Dem.)
Demostraremos solamente 1). La equivalencia entre1) y 2) la dejamos como ejercicio.
Para demostrar 1) verificaremos la doble equivalencia entre ésta y la definición de v.a. independientes.
⇒)
Sean X e Y variables aleatorias independientes. Entonces ( ) XY
j
i R
y
,
x ∈
∀
( ) ( )
( )
( ) ( )
( ) ( )
i
j
j
i
j
j
i
j
i x
p
y
q
y
q
x
p
y
q
y
,
x
p
y
x
p =
=
=
Aquí la primera igualdad es la definición de fdp condicional y la segunda sale de la definición de
independencia al suponer que X e Y son independientes.
⇐)
Supongamos que se verifica 1). Entonces ( ) XY
j
i R
y
,
x ∈
∀
( ) ( )
( )
( ) ( ) ( ) ( ) ( )
j
i
j
i
i
j
j
i
i
j
i y
q
x
p
y
,
x
p
x
p
y
q
y
,
x
p
x
p
y
x
p =
→
=
→
= → X e Y independientes
Aquí, la primera implicación se debe a la definición de fdp condicional y la tercera a la definición de v.a.
independientes.
Ejemplo:
1- Supongamos que una máquina se usa para un trabajo específico a la mañana y para uno diferente en
la tarde. Representemos por X e Y el número de veces que la máquina falla en la mañana y en la tarde
respectivamente. Supongamos que la tabla siguiente da la función de probabilidad conjunta ( )
j
i y
,
x
p de
la variable aleatoria bidimensional discreta ( )
Y
,
X .
Y/X 0 1 2 q(yj)
0 0.1 0.2 0.2 0.5
1 0.04 0.08 0.08 0.2
2 0.06 0.12 0.12 0.3
P(xi) 0.2 0.4 0.4 1
Deseamos saber si las variables aleatorias X e Y son independientes o dependientes.
Para demostrar que son independientes debemos probar que se verifica ( ) XY
j
i R
y
,
x ∈
∀
( ) ( ) ( )
j
i
j
i y
q
x
p
y
,
x
p = Verificamos directamente que
( ) ( ) ( ) 5
0
2
0
0
0
1
0
0
0 .
.
q
p
.
,
p ×
=
=
=
( ) ( ) ( ) 2
0
2
0
1
0
04
0
1
0 .
.
q
p
.
,
p ×
=
=
=
( ) ( ) ( ) 3
0
2
0
2
0
06
0
2
0 .
.
q
p
.
,
p ×
=
=
=
( ) ( ) ( ) 5
0
4
0
0
1
2
0
0
1 .
.
q
p
.
,
p ×
=
=
=
( ) ( ) ( ) 2
0
4
0
1
1
08
0
1
1 .
.
q
p
.
,
p ×
=
=
=
( ) ( ) ( ) 3
0
4
0
2
1
12
0
2
1 .
.
q
p
.
,
p ×
=
=
=
( ) ( ) ( ) 5
0
4
0
0
2
2
0
0
2 .
.
q
p
.
,
p ×
=
=
=
( ) ( ) ( ) 2
0
4
0
1
2
08
0
1
2 .
.
q
p
.
,
p ×
=
=
=
( ) ( ) ( ) 3
0
4
0
2
2
12
0
2
2 .
.
q
p
.
,
p ×
=
=
=
Luego X e Y son independientes.
Parte 1 - Probabilidades Prof. María B. Pintarelli
90
Podríamos haber usado las condiciones 1) ( ) ( ) ( ) XY
j
i
i
j
i R
y
,
x
x
p
y
x
p ∈
∀
= , o su equivalente
2) ( ) ( ) ( ) XY
j
i
j
i
j R
y
,
x
y
q
x
y
q ∈
∀
= . Veamos, como muestra para un solo valor, que se verifica
( ) ( )
( )
( )
2
4
0
2
0
08
0
1
1
2
1
2 p
.
.
.
q
,
p
p =
=
=
= . Para demostrar la independencia por este camino habría que
demostrar que se cumple la condición para el resto de los pares de valores. Se deja este cálculo como
ejercicio optativo.
Observaciones
1- De la definición de las fdp marginales, vemos que tanto en el caso discreto como en el continuo, la
fdp conjunta determina unívocamente las fdp marginales. Es decir, si ( )
Y
,
X es discreta del
conocimiento de la función de probabilidad conjunta ( )
j
i y
,
x
p podemos determinar unívocamente las
funciones de probabilidad ( )
i
x
p y ( )
j
y
q . Sin embargo la inversa no se cumple en general. Es decir del
conocimiento de ( )
i
x
p y ( )
j
y
q no se puede, en general, reconstruir ( )
j
i y
,
x
p a menos que X e Y sean
variables independientes en cuyo caso es ( ) ( ) ( )
j
i
j
i y
q
x
p
y
,
x
p = .
2- El concepto de independencia entre dos variables aleatorias se puede generalizar a n variables
aleatorias n
X
X
X ,...,
, 2
1
5.5 - Función de una variable aleatoria bidimensional
Existen muchas situaciones en las que dado una variable aleatoria bidimensional nos interesa considerar
otra variable aleatoria que es función de aquélla. Por ejemplo, supongamos que las variables aleatorias X
e Y denotan la longitud y el ancho, respectivamente, de una pieza, entonces Y
X
Z 2
2 +
= es una v.a. que
representa el perímetro de la pieza, o la v.a. Y
X
W .
= representa el área de la pieza. Tanto Z como W
son variables aleatorias.
En general, sea S un espacio muestral asociado a un experimento probabilístico ε , sean R
S
:
X → e
R
S
:
Y → dos variables aleatorias que definen una variable aleatoria bidimensional ( )
Y
,
X cuyo
recorrido es XY
R , y sea una función de dos variables reales R
R
:
H XY → que a cada elemento( )
y
,
x del
recorrido XY
R le hace corresponder un número real ( )
y
,
x
H
z = , entonces la función compuesta
( ) R
S
Y
X
H
Z →
= :
, es una variable aleatoria, puesto que a cada elemento S
s ∈ le hace corresponder
un número real ( ) ( )
[ ]
s
Y
,
s
X
H
z = . Diremos que la variable aleatoria Z es función de la variable
aleatoria bidimensional (X,Y).
Algunas variables aleatorias que son función de variables aleatorias bidimensionales son Y
X
Z +
= ,
Y
.
X
Z = , Y
/
X
Z = , ( )
Y
,
X
mín
Z = , ( )
Y
,
X
máx
Z = , etc.
Lo anterior se puede generalizar si en lugar de dos variables aleatorias tenemos n variables aleatorias
n
X
X
X ,...,
, 2
1 , y ( )
n
x
x
x
H
z ,...
, 2
1
= es una función de n variables a valores reales.
Parte 1 - Probabilidades Prof. María B. Pintarelli
91
Ejemplos:
1- Sea )
,
(
~ p
n
B
Z
Podemos escribir a Z como suma de variables aleatorias de la siguiente forma.
Recordar que Z cuenta el número de éxitos en n repeticiones o ensayos del experimento ε
Si definimos




 −
=
contrario
caso
éxito
ocurre
de
repetición
ésima
í
la
en
si
Xi
0
1 ε
n
i ,...,
2
,
1
=
Notar que a cada i
X se la puede considerar )
,
1
( p
B , y además n
X
X
X ,...,
, 2
1 son independientes
Podemos escribir n
X
X
X
Z +
+
+
= ...
2
1
2- Sea Z v.a. binomial negativa con parámetros r y p, es decir )
,
(
~ p
r
BN
Z
Si definimos
1
X : “número de repeticiones del experimento requeridos hasta el 1º éxito”
2
X : “número de repeticiones del experimento adicionales requeridos hasta el 2º éxito”
3
X : “número de repeticiones del experimento adicionales requeridos hasta el 3º éxito”
Y en general
i
X : “número de repeticiones del experimento adicionales después del (i-1)–ésimo éxito requeridos hasta
el i-ésimo éxito”
Entonces cada variable tiene distribución geométrica con parámetro p y r
X
X
X
Z +
+
+
= ...
2
1
Notar además que r
X
X
X ,...,
, 2
1 son independientes
Esperanza de una v.a. que es función de una v.a. bidimensional
Sea una variable aleatoria bidimensional ( )
Y
,
X cuya fdp conjunta es la función de probabilidad
conjunta ( )
j
i y
,
x
p si es discreta o la función de densidad de probabilidad conjunta ( )
y
,
x
f si es continua
y sea una función real de dos variables ( )
y
,
x
H
z = de manera que podemos definir una variable
aleatoria Z que es función de la variable aleatoria bidimensional ( )
Y
,
X de la forma ( )
Y
,
X
H
Z = . Si la
fdp de Z es ( )
i
z
q , siendo Z discreta, entonces la esperanza matemática de Z es, de acuerdo con la
definición general,
( ) ( )
∑
∈
=
X
i R
x
i
i z
q
.
z
Z
E (Z discreta)
Nuevamente lo interesante es considerar la posibilidad de evaluar ( )
Z
E sin tener que calcular
previamente la fdp de Z. El siguiente teorema nos muestra cómo hacerlo.
Teorema Sea (X,Y) una variable aleatoria bidimensional y sea Z=H(X,Y) una variable aleatoria que es
función de (X,Y).
Si Z es variable aleatoria discreta que proviene de la variable aleatoria bidimensional discreta (X,Y) cuyo
recorrido es XY
R y su fdp conjunta es ( )
j
i y
,
x
p , entonces:
( ) ( )
[ ] ( ) ( )
( )
∑
∈
=
=
XY
j
i R
y
,
x
j
i
j
i y
,
x
p
y
,
x
H
Y
,
X
H
E
Z
E
Dem.) sin demostración
Parte 1 - Probabilidades Prof. María B. Pintarelli
92
Esperanza de una suma de variables aleatorias
Dem.) en el teorema anterior consideramos y
x
y
x
H +
=
)
,
(
Si (X,Y) es discreta
( ) ( )
[ ] ( ) ( )
( )
=
+
=
=
= ∑
∑ ∈
∈
)
,
(
)
(
,
,
,
)
,
(
,
j
R
y
x
i
j
i
R
y
x
j
i
j
i y
x
p
y
x
y
x
p
y
x
H
Y
X
H
E
Z
E
XY
j
i
XY
j
i
Aplicando la propiedad distributiva y separando en dos sumas
( ) =
+
=
+
= ∑
∑
∑ ∈
∈
∈
)
,
(
)
,
(
)
,
(
)
(
)
,
(
)
,
(
)
,
(
j
R
y
x
i
j
j
i
R
y
x
i
j
R
y
x
i
j
i y
x
p
y
y
x
p
x
y
x
p
y
x
Z
E
XY
j
i
XY
j
i
XY
j
i
∑ ∑
∑ ∑
∑∑
∑∑ =
+
=
+
=
j i
j
i
j
i j
j
i
i
j
i
i j
j
j
i
i j
i y
x
p
y
y
x
p
x
y
x
p
y
y
x
p
x )
,
(
)
,
(
)
,
(
)
,
(
Pero )
(
)
,
(
∑ =
j
i
j
i x
p
y
x
p y )
(
)
,
(
∑ =
i
j
j
i y
q
y
x
p , por lo tanto
)
(
)
(
)
(
)
( Y
E
X
E
y
q
y
x
p
x
j
j
j
i
i
i +
=
+
= ∑
∑
Para el caso (X,Y) continua sigue siendo válida esta propiedad.
Podemos generalizar la propiedad anterior a un número finito cualquiera de variables aleatorias:
(leeremos: “la esperanza de la suma es la suma de las esperanzas”)
Dem.) Se deduce por inducción completa sobre el número n de variables aleatorias.
Observación: se deduce que la esperanza verifica la propiedad lineal:
( )
∑
∑ =
=
=





 n
i
i
i
n
i
i
i X
E
a
X
a
E
1
1
.
Ejemplos:
1- Vamos a aplicar algunas de las propiedades anteriores para calcular de una manera alternativa la
esperanza matemática de una variable aleatoria X distribuida binomialmente.
Sea entonces una v.a. X∼B(n,p).
Ya vimos que podemos escribir n
X
X
X
X +
+
+
= ...
2
1 donde cada i
X se la puede considerar )
,
1
( p
B ,
y además n
X
X
X ,...,
, 2
1 son independientes
Sean X e Y dos variables aleatorias arbitrarias. Entonces ( ) ( ) ( )
Y
E
X
E
Y
X
E +
=
+ .
Sean n
X
,...,
X
,
X 2
1 n variables aleatorias arbitrarias. Entonces:
( ) ( ) ( ) ( )
n
n X
E
...
X
E
X
E
X
...
X
X
E +
+
+
=
+
+
+ 2
1
2
1 o, en notación más concentrada,:
( )
∑
∑ =
=
=





 n
i
i
n
i
X
E
X
E
1
1
1
Parte 1 - Probabilidades Prof. María B. Pintarelli
93
Entonces
p
X
P
X
P
X
P
X
E i
i
i
i =
=
=
=
×
+
=
×
= )
1
(
)
0
(
0
)
1
(
1
)
( para cualquier i
Por lo tanto
( ) ( ) ( ) ( ) np
p
p
p
X
E
X
E
X
E
X
X
X
E
X
E
veces
n
n
n =
+
+
+
=
+
+
+
=
+
+
+
=
4
4 3
4
4 2
1
...
...
...
)
( 2
1
2
1
Observación: muchas veces es conveniente descomponer una variable aleatoria como suma de otras más
simples para facilitar los cálculos
2- Esperanza de una v.a. binomial negativa
Cuando se trató la v.a. binomial negativa se dijo cuál era su esperanza. Ahora damos una demostración
Sea X v.a. binomial negativa con parámetros r y p, es decir )
,
(
~ p
r
BN
X
Si definimos
1
X : “número de repeticiones del experimento requeridos hasta el 1º éxito”
2
X : “número de repeticiones del experimento adicionales requeridos hasta el 2º éxito”
3
X : “número de repeticiones del experimento adicionales requeridos hasta el 3º éxito”
Y en general
i
X : “número de repeticiones del experimento adicionales después del (i-1)–ésimo éxito requeridos hasta
el i-ésimo éxito”
Entonces cada variable tiene distribución geométrica con parámetro p y r
X
X
X
X +
+
+
= ...
2
1
Por lo tanto
( ) ( ) ( ) ( )
p
r
p
r
p
p
p
X
E
X
E
X
E
X
X
X
E
X
E
veces
r
r
r =
=
+
+
+
=
+
+
+
=
+
+
+
=
1
1
...
1
1
...
...
)
( 2
1
2
1
4
4 3
4
4 2
1
3- Esperanza de una v.a. hipergeométrica
)
(
entonces
)
,
(
~
Si
N
nM
X
E
N
M,
n
H
X =
Para facilitar la demostración supongamos que tenemos N bolillas en una urna de las cuales M son rojas
y N-M son blancas. Queremos hallar el número esperado de bolillas rojas extraídas
Definimos las variables




 −
=
contrario
caso
extraída
es
roja
bolilla
ésima
i
la
si
Xi
0
1
Las variables M
X
X
X ,...
, 2
1 no son independientes
Se puede escribir M
X
X
X
X +
+
+
= ...
2
1 , además
N
n
n
N
n
N
X
P
X
E i
i =
















−
−








=
=
=
1
1
1
1
)
1
(
)
(
Por lo tanto
Parte 1 - Probabilidades Prof. María B. Pintarelli
94
( ) ( ) ( ) ( )
N
nM
N
n
M
N
n
N
n
N
n
X
E
X
E
X
E
X
X
X
E
X
E
veces
M
Mr
M =
=
+
+
+
=
+
+
+
=
+
+
+
=
4
4 3
4
4 2
1
...
...
...
)
( 2
1
2
1
Ejemplo
El espesor X de una cuña de madera (en milímetros) tiene una función de densidad de probabilidad
a) Determine E(X)
b) Si Y denota el espesor de una cuña en pulgadas (1mm = 0.0394 pulgadas), determine E(Y)
c) Si se seleccionan tres cuñas de manera independiente y las apilamos una encima de otra, encuentre la me-
dia y la varianza del espesor total.
a) Verifique el lector que
5
)
5
(
4
3
4
3
)
(
6
4
2
=








−
−
= ∫ dx
x
x
X
E
b) X
Y 0394
.
0
= entonces 197
.
0
)
(
0394
.
0
)
0394
.
0
(
)
( =
=
= X
E
X
E
Y
E
c) Notar que si i
X : “espesor de cuña i” , i = 1, 2, 3 entonces X
X
X
X 3
2
1 +
+
= es el espesor total
Por lo tanto 15
5
5
5
)
(
)
(
)
(
)
(
)
( 3
2
1
3
2
1 =
+
+
=
+
+
=
+
+
= X
E
X
E
X
E
X
X
X
E
X
E
En general la esperanza de un producto de variables aleatorias no es igual al producto de las
esperanzas
(leeremos:” la esperanza del producto es el producto de las esperanzas”).
Dem.) análoga a la demostración de la propiedad anterior.
Para el caso (X,Y) continua sigue siendo válida esta propiedad.
Ejemplo:
Supongamos que debido a innumerables causas incontrolables la corriente i y la resistencia r de un
circuito varían aleatoriamente de forma tal que pueden considerarse como variables aleatorias I y R
independientes. Supongamos que las correspondientes fdp son:
( )




 ≤
≤
=
valores
demás
i
i
i
g
0
1
0
2
( )





≤
≤
=
valores
demás
r
r
r
h
0
3
0
9
2
Nos interesa considerar el voltaje r
.
i
v = de manera que podemos definir la variable aleatoria R
.
I
V = .
Hallar el valor esperado o esperanza matemática del voltaje: ( )
V
E .
Como I y R son independientes, usando la propiedad anterior
( ) )
(
)
( R
E
I
E
V
E =
Si ( )
Y
,
X es una variable aleatoria bidimensional tal que X e Y son variables aleatorias
independientes, entonces: ( ) ( ) ( )
Y
E
.
X
E
Y
.
X
E =
( )





≤
≤
−
−
=
lado
otro
en
0
6
4
4
5
3
4
3
)
(
2
x
x
x
f
Parte 1 - Probabilidades Prof. María B. Pintarelli
95
3
2
3
2
)
2
(
)
(
1
0
3
1
0
=
=
= ∫
i
di
i
i
I
E 1
9
3
9
1
4
9
1
9
)
(
4
3
0
4
3
0
2
=
×
=
=








= ∫
r
dr
r
r
R
E
3
2
1
3
2
)
( =
×
=
∴ V
E
Varianza de una suma de variables aleatorias
.
Dem.) Escribimos la varianza en su forma alternativa
( ) [ ]
( ) ( )
[ ]2
2
Y
X
E
Y
X
E
Y
X
V +
−
+
=
+ . Desarrollamos los cuadrados y aplicamos la propiedad lineal de
la esperanza:
( ) ( ) ( ) ( )
[ ]
( ) ( ) ( ) ( )
[ ] ( ) ( ) ( )
[ ]
{ }
2
2
2
2
2
2
2
2
2
2
Y
E
Y
E
X
E
X
E
Y
E
Y
.
X
E
X
E
Y
E
X
E
Y
Y
.
X
.
X
E
Y
X
V
+
+
−
+
+
=
+
−
+
+
=
+
Agrupando convenientemente:
( ) ( ) ( )
[ ]
{ } ( ) ( )
[ ]
{ } ( ) ( ) ( )
{ }
( ) ( ) ( ) ( ) ( )
{ }
Y
E
X
E
Y
.
X
E
Y
V
X
V
Y
E
X
E
Y
.
X
E
Y
E
Y
E
X
E
X
E
Y
X
V
−
+
+
=
−
+
−
+
−
=
+
2
2
2
2
2
2
, es decir
( ) ( ) ( ) XY
σ
Y
V
X
V
Y
X
V 2
+
+
=
+
Observaciones:
1- Teniendo presente la definición de la desviación estándar de una v.a. X: ( )
X
V
σX = , vemos que a la
propiedad anterior la podemos escribir:
( ) XY
Y
X σ
σ
σ
Y
X
V 2
2
2
+
+
=
+
2- Análogamente se prueba que ( ) XY
Y
X
Y
X
V σ
σ
σ 2
2
2
−
+
=
−
3- X e Y son independientes, entonces ( ) ( ) ( )
Y
V
X
V
Y
X
V
Y
X
V +
=
−
=
+ )
(
Esto es porque si las variables aleatorias X e Y son independientes, entonces ( ) ( ) ( )
Y
E
.
X
E
Y
.
X
E = .
Por lo tanto la covarianza vale cero : ( ) ( ) ( ) 0
=
−
= Y
E
.
X
E
Y
.
X
E
σXY .
( ) ( ) ( ) XY
Y
V
X
V
Y
X
V σ
2
+
+
=
+ con ( ) ( ) ( )
Y
E
.
X
E
Y
.
X
E
σXY −
=
( ) ( ) ( )
Y
E
.
X
E
Y
.
X
E
σXY −
= se la llama la covarianza de X e Y.
Parte 1 - Probabilidades Prof. María B. Pintarelli
96
4- Podemos generalizar, usando el principio de inducción completa, al caso de n variables aleatorias
independientes:
Si n
X
,...,
X
,
X 2
1 son n variables aleatorias independientes entonces:
( ) ( ) ( ) ( )
n
n X
V
...
X
V
X
V
X
...
X
X
V +
+
+
=
+
+
+ 2
1
2
1 o, en forma más compacta, ( )
∑
∑ =
=
=





 n
i
i
n
i
i X
V
X
V
1
1
.
5- Vemos que la esperanza de la suma de dos variables aleatorias X e Y es igual a la suma de las
esperanzas ( ) ( ) ( )
Y
E
X
E
Y
X
E +
=
+ cualesquiera sean X e Y . En cambio la varianza de la suma de las
variables aleatorias X e Y es, en general, igual a la suma de las varianzas, ( ) ( ) ( )
Y
V
X
V
Y
X
V +
=
+ , sólo
si X e Y son variables independientes.
Ejemplos:
1- Podemos ejemplificar la aplicación de las propiedades de la varianza, calculando nuevamente la
varianza de una v.a. X distribuida binomialmente con parámetros n y p.
Sea entonces una v.a. X∼B(n,p). Vimos que se puede escribir:
n
X
X
X
X +
+
+
= ...
2
1 , donde las n variables aleatorias son independientes entre sí y tienen todas la
misma distribución:
( )
p
B
Xi ,
1
∼ n
,...,
,
i 2
1
=
∀
Entonces, tratándose de n variables aleatorias independientes
( ) ( ) ( ) ( )
n
X
V
X
V
X
V
X
V +
+
+
= ...
2
1 todas la varianzas son iguales y podemos escribir la suma como n
veces una cualquiera de ellas:
( ) ( )
i
X
nV
X
V = . Pero
( ) ( ) ( )
[ ]2
2
i
i
i X
E
X
E
X
V −
= .
Ya vimos que ( ) ( ) 0
1
0
.
1 =
−
+
= p
p
X
E i
Además es: ( ) ( ) p
p
p
X
E i =
−
+
= 1
0
.
1 2
2
2
Entonces: ( ) ( ) ( )
[ ] ( )
p
p
p
p
X
E
X
E
X
V i
i
i −
=
−
=
−
= 1
2
2
2
.
Luego:
( ) ( ) ( )
p
np
X
nV
X
V i −
=
= 1
que es el resultado que habíamos obtenido a partir de la definición y llevando las sumas involucradas a
la forma del desarrollo de un binomio de Newton.
2- Varianza de una v.a. binomial negativa
Ya vimos que podemos escribir r
X
X
X
X +
+
+
= ...
2
1 , donde cada variable i
X tiene distribución
geométrica con parámetro p
Por lo tanto
( ) ( ) ( ) ( ) 2
2
1
1
...
p
p
r
X
V
X
V
X
V
X
V r
−
=
+
+
+
=
5.6 - Covarianza
Sean X e Y dos variables aleatorias. La covarianza de X e Y se define:
( )
[ ] ( )
[ ]
{ } ( ) ( ) ( )
Y
E
X
E
Y
X
E
Y
E
Y
X
E
X
E
Y
X
Cov .
.
.
)
,
( −
=
−
−
=
Parte 1 - Probabilidades Prof. María B. Pintarelli
97
Notación: la notación usual para la covarianza de X e Y es XY
σ o )
,
( Y
X
Cov
La última igualdad surge de desarrollar el producto y aplicar las propiedades de la esperanza:
( )
[ ] ( )
[ ]
{ } ( ) ( ) ( ) ( )
{ }
Y
E
X
E
Y
.
X
E
Y
E
.
X
Y
.
X
E
Y
E
Y
.
X
E
X
E +
−
−
=
−
−
Teniendo presente que ( )
X
E y ( )
Y
E son constantes:
( )
[ ] ( )
[ ]
{ } ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
Y
E
.
X
E
Y
.
X
E
Y
E
X
E
Y
E
X
E
Y
E
.
X
E
Y
.
X
E
Y
E
Y
.
X
E
X
E −
=
+
−
−
=
−
− .
Dem. )
Según vimos, si X e Y son variables aleatorias independientes, entonces ( ) ( ) ( )
Y
E
.
X
E
Y
.
X
E = , de donde
se sigue la propiedad.
Propiedades de la covarianza
Las siguientes propiedades son útiles y su verificación se deja como ejercicio
1- )
,
(
)
,
( Y
X
bdCov
dY
c
bX
a
Cov =
+
+
2- )
,
(
)
,
(
)
,
( Z
Y
Cov
Z
X
Cov
Z
Y
X
Cov +
=
+
3- ∑∑
∑
∑ = =
=
=
=







 n
i
m
j
j
i
m
j
j
n
i
i Y
X
Cov
Y
X
Cov
1 1
1
1
)
,
(
,
4- )
(
)
,
( X
V
X
X
Cov =
Ejemplos:
1)Varianza de una v.a. hipergeométrica






−
−





 −
=
1
)
(
entonces
)
,
(
~
Si
N
n
N
N
M
N
N
M
n
X
V
N
M,
n
H
X
Para facilitar la demostración supongamos que tenemos N bolillas en una urna de las cuales M son rojas
y N-M son blancas. Queremos hallar la varianza del número de bolillas blancas extraídas
Como antes definimos las variables




 −
=
contrario
caso
extraída
es
roja
bolilla
ésima
i
la
si
Xi
0
1
Las variables M
X
X
X ,...
, 2
1 no son independientes
Se puede escribir M
X
X
X
X +
+
+
= ...
2
1 , además
N
n
n
N
n
N
X
P
X
E i
i =
















−
−








=
=
=
1
1
1
1
)
1
(
)
( y
( ) 





−
=






−
=
−
=
N
n
N
n
N
n
N
n
X
E
X
E
X
V i
i
i 1
)
(
)
(
)
(
2
2
2
Si X e Y son variables aleatorias independientes, entonces 0
)
,
( =
Y
X
Cov .
Parte 1 - Probabilidades Prof. María B. Pintarelli
98
Por lo tanto )
,
(
2
)
(
)
...
(
)
(
1 1
2
1 j
M
i M
j
i
i
i
M X
X
Cov
X
V
X
X
X
V
X
V ∑ ∑
= ≤
≤<
+
=
+
+
+
=
Por otro lado )
(
)
(
)
(
)
;
( j
i
j
i
j
i Y
E
X
E
X
X
E
X
X
Cov −
=
Y
)
1
(
)
1
(
)
(
−
−
=
N
N
n
n
X
X
E j
i , entonces
2
)
1
(
)
1
(
)
;
( 





−
−
−
=
N
n
N
N
n
n
X
X
Cov j
i
Aplicando algunos pasos algebraicos se llega a 





−






−
−
=






−
−
−
=
N
n
N
N
n
N
n
N
N
n
n
X
X
Cov j
i 1
1
1
)
1
(
)
1
(
)
;
(
2
Reemplazando












−






−
−








+






−
=
+
= ∑ ∑
= ≤
≤< N
n
N
n
N
M
N
n
N
n
M
X
X
Cov
X
V
X
V j
M
i M
j
i
i
i 1
1
1
2
2
1
)
,
(
2
)
(
)
(
1 1
Nuevamente, luego de algunos cálculos algebraicos se llega a






−
−





 −
=
1
)
(
N
n
N
N
M
N
N
M
n
X
V
2) De una caja con frutas que contiene 3 naranjas, 2 manzanas y 3 plátanos se selecciona una muestra de
4 frutas.
Sean las variables aleatorias
X: “ nº de naranjas extraídas”
Y: “nº de manzanas extraídas”
Notar que la f.d.p. conjunta de (X,Y) es
4
1
;
2
,
1
,
0
;
3
,
2
,
1
,
0
4
8
4
3
2
3
)
,
( ≤
+
≤
=
=
















−
−
















=
=
= y
x
y
x
y
x
y
x
y
Y
x
X
P
Es un ejemplo de v.a. hipergeométrica bidimensional.
También se podría haber presentado la f.d.p. conjunta en una tabla, donde también figuran las distri-
buciones marginales de X e Y.
a) ¿Cuales son E(X) , V(X), E(Y) y V(Y)?
2
3
70
105
70
3
3
70
9
2
70
3
1
0
0
)
(
=
=
=
×
+
×
+
×
+
×
=
X
E
1
70
15
2
70
40
1
70
15
0
)
( =
×
+
×
+
×
=
Y
E
Verifique el lector que
28
15
)
( =
X
V y
7
3
)
( =
Y
V
X/Y 0 1 2
0 0 2/70 3/70 5/70
1 3/70 18/70 9/70 30/70
2 9/70 18/70 3/70 30/70
3 3/70 2/70 0 5/70
15/70 40/70 15/70
Parte 1 - Probabilidades Prof. María B. Pintarelli
99
b) ¿Son X e Y independientes?
0
)
0
,
0
( =
=
= Y
X
P pero 0
70
15
70
5
)
0
(
)
0
( ≠
=
=
= Y
P
X
P
Por lo tanto X e Y son dependientes, lo que implica que 0
)
,
( ≠
Y
X
Cov
c) ¿Cuál es la Cov(X,Y)?
)
(
)
(
)
(
)
,
( Y
E
X
E
XY
E
Y
X
Cov −
=
70
90
0
2
3
70
2
1
3
70
3
0
3
70
3
2
2
70
18
1
2
70
9
0
2
70
9
2
1
70
18
1
1
70
3
0
1
70
3
2
0
70
2
1
0
0
0
0
)
(
=
×
×
+
×
×
+
×
×
+
+
×
×
+
×
×
+
×
×
+
+
×
×
+
×
×
+
×
×
+
+
×
×
+
×
×
+
×
×
=
XY
E
Entonces
14
3
1
2
3
7
9
)
(
)
(
)
(
)
,
( −
=
×
−
=
−
= Y
E
X
E
XY
E
Y
X
Cov
d) Z = X+Y simboliza el total de naranjas y manzanas extraídas
¿Cuál es la E(Z) y V(Z) ?
5
.
2
1
2
3
)
(
)
(
)
(
)
( =
+
=
+
=
+
= Y
E
X
E
Y
X
E
Z
E
28
15
14
3
2
7
3
18
15
)
,
(
2
)
(
)
(
)
( =








−
×
+
+
=
+
+
= Y
X
Cov
Y
V
X
V
Z
V
e) Supongamos que cada naranja cuesta 2$ y cada manzana cuesta 1.5$ entonces
Y
X
W 5
.
1
2 +
= es el costo del total de frutas extraídas. Hallar E(W) y V(W)
$
5
.
4
)
(
5
.
1
)
(
2
)
5
.
1
2
(
)
( =
+
=
+
= Y
E
X
E
Y
X
E
W
E
28
51
)
,
(
5
.
1
2
2
)
(
5
.
1
)
(
2
)
5
.
1
2
(
)
( 2
2
=
×
×
+
+
=
+
= Y
X
Cov
Y
V
X
V
Y
X
V
W
V
5.7 - Coeficiente de correlación lineal.
En realidad más que la covarianza aquí nos interesa considerar una cantidad relacionada con XY
σ y que
según veremos nos dará información sobre el grado de asociación que existe entre X e Y . Más
concretamente nos contará si existe algún grado de relación lineal entre X e Y . Esa cantidad es el
coeficiente de correlación lineal.
En el mismo sentido en que podemos tener una idea aproximada sobre la probabilidad de un suceso A si
repetimos el experimento y consideramos las ocurrencias de A en las n repeticiones,
así podemos tener también una primera idea sobre la existencia de una relación funcional,
específicamente una relación lineal, entre X e Y si consideramos un diagrama de dispersión. Consiste en
Parte 1 - Probabilidades Prof. María B. Pintarelli
100
dibujar pares de valores ( )
j
i y
,
x medidos de la variable aleatoria ( )
Y
,
X en un sistema de coordenadas.
En la figura mostramos diversas situaciones posibles.
De la figura a se deduciría que entre X e Y no hay ningún tipo de relación funcional. La figura b sugiere
la posibilidad de que exista una relación funcional que corresponde a una parábola. La figura c, por su
parte, sugiere una relación lineal entre X e Y . Este último es el comportamiento que nos interesa
caracterizar. Con ese fin definimos el coeficiente de correlación lineal como sigue:
En consecuencia:
( )
[ ] ( )
[ ]
{ }
( ) ( )
( ) ( ) ( )
( ) ( )
Y
V
.
X
V
Y
E
.
X
E
Y
.
X
E
Y
V
.
X
V
Y
E
Y
.
X
E
X
E
ρXY
−
=
−
−
= .
Daremos una serie de propiedades de XY
ρ que nos permitirán establecer más concretamente su
significado.
Propiedad 1
Dem.) inmediata a partir del hecho que si X e Y son independientes entonces )
(
)
(
)
( Y
E
X
E
XY
E =
Observación: La inversa no es necesariamente cierta. Puede ser que 0
=
XY
ρ y sin embargo X e Y no
sean variables aleatorias independientes. En efecto si tenemos una v.a. bidimensional ( )
Y
,
X que da
lugar a un diagrama de dispersión como el que se muestra en la figura, veremos que correspondería a un
coeficiente de correlación lineal 0
=
XY
ρ y sin embargo la figura sugiere que entre X e Y existe la
relación funcional 1
2
2
=
+ Y
X , es decir X e Y son v.a. dependientes. En realidad, como veremos, XY
ρ es
0 0
a b c
x x
y y y
(xi yi)
x
Sea ( )
Y
,
X una variable aleatoria bidimensional. Definimos el coeficiente de correlación lineal entre
X e Y como
Y
X
XY
Y
X
Cov
σ
σ
ρ
)
,
(
=
Si X e Y son variables aleatorias independientes entonces 0
=
XY
ρ .
Parte 1 - Probabilidades Prof. María B. Pintarelli
101
una medida de la existencia de una relación lineal entre X e Y y una circunferencia se aleja mucho de
una línea recta.
Propiedad 2 :
Dem.)
Si consideramos la v.a.
Y
X
Y
X
σ
σ
+ entonces
( )
XY
Y
X
Y
X
Y
X
Y
X
Cov
Y
V
X
V
Y
X
V ρ
σ
σ
σ
σ
σ
σ
+
=
+
+
=








+
≤ 1
2
)
,
(
2
)
(
)
(
0 2
2
Implicando que XY
ρ
≤
−1
Por otro lado: ( )
XY
Y
X
Y
X
Y
X
Y
X
Cov
Y
V
X
V
Y
X
V ρ
σ
σ
σ
σ
σ
σ
−
=
−
+
=








−
≤ 1
2
)
,
(
2
)
(
)
(
0 2
2
Implicando que 1
≤
XY
ρ
1
1 ≤
≤
−
∴ XY
ρ
Propiedad 3 :
Dem.) Si 1
2
=
XY
ρ entonces 1
=
XY
ρ o 1
−
=
XY
ρ
Si 1
−
=
XY
ρ entonces de la demostración anterior se deduce que
y
x
0 1 2 3
-1
-2
-1
1
1
1 ≤
≤
− XY
ρ
Si 1
2
=
XY
ρ , entonces con probabilidad 1 es B
X
.
A
Y +
= donde A y B son constantes.
Parte 1 - Probabilidades Prof. María B. Pintarelli
102
( ) 0
1
2 =
+
=








+ XY
Y
X
Y
X
V ρ
σ
σ
, lo que implica que la v.a.
Y
X
Y
X
Z
σ
σ
+
= tiene varianza cero. Según la
interpretación de varianza podemos deducir (en forma intuitiva) que la v.a. no tiene dispersión con
respecto a su esperanza, es decir la v.a. Z es una constante con probabilidad 1
Por lo tanto esto implica que B
X
.
A
Y +
= con 0
<
−
=
X
Y
A
σ
σ
Análogamente 1
=
XY
ρ implica que B
X
.
A
Y +
= con 0
>
=
X
Y
A
σ
σ
Propiedad 4 :
Dem.) se deja como ejercicio
Observación: Claramente las propiedades anteriores establecen que el coeficiente de correlación lineal
es una medida del grado de linealidad entre X e Y.
Ejemplo
En el ejemplo anterior
44721
.
0
5
5
7
3
28
15
14
3
)
(
)
(
)
,
(
−
=
−
=
−
=
=
Y
V
X
V
Y
X
Cov
XY
ρ
Si X e Y son dos variables aleatorias tales que B
X
.
A
Y +
= , donde A y B son constantes,
entonces 1
2
=
XY
ρ . Si 0
>
A es 1
=
XY
ρ y si 0
<
A es 1
−
=
XY
ρ .
Parte 1 - Probabilidades Prof. María B. Pintarelli
103
6- SUMA DE VARIABLES ALEATORIAS Y TEOREMA
CENTRAL DEL LÍMITE
6.1 – Suma de variables aleatorias independientes
Cuando se estudiaron las variables aleatorias bidimensionales se habló de una función de variable
aleatoria bidimensional. En particular se nombró la suma de n variables aleatorias, pero no se dijo nada
sobre la distribución de esa v.a. suma.
Es a menudo importante saber cuál es la distribución de una suma de variables aleatorias independientes.
Consideramos algunos ejemplos en el caso discreto
1- Suma de variables aleatorias independientes con distribución Poisson
)
(
~
ntes
independie
Y
y
;
)
(
~
;
)
(
~ 2
1
2
1 λ
λ
λ
λ +
+
⇒ P
Y
X
X
P
Y
P
X
Dem.)
Consideramos el evento { }
n
Y
X =
+ como unión de eventos excluyentes { } n
k
k
n
Y
k
X ≤
≤
−
=
= 0
,
, entonces
( )
=
−
=
−
=
=
=
−
=
=
=
=
+
−
−
=
−
=
=
∑
∑
∑ !
!
)
(
)
(
)
,
(
)
( 2
0
1
0
0
2
1
k
n
e
k
e
k
n
Y
P
k
X
P
k
n
Y
k
X
P
n
Y
X
P
k
n
n
k
k
n
k
n
k
λ
λ λ
λ
X e Y independientes
( ) ( )
( )n
k
n
n
k
k
n
k
k
n
k
n
e
k
n
k
n
n
e
k
n
k
e 2
1
)
(
2
0
1
)
(
0
2
1
)
(
!
!
!
!
!
!
!
2
1
2
1
2
1
λ
λ
λ
λ
λ
λ λ
λ
λ
λ
λ
λ
+
=
−
=
−
=
+
−
−
=
+
−
=
−
+
−
∑
∑
Binomio de Newton
O sea X+Y tiene distribución Poisson con parámetro 2
1 λ
λ +
2- Suma de variables aleatorias binomiales independientes
)
,
(
~
ntes
independie
Y
y
;
)
,
(
~
;
)
,
(
~ 2
1
2
1 p
n
n
B
Y
X
X
p
n
B
Y
p
n
B
X +
+
⇒
Dem.)
Nuevamente consideramos el evento { }
k
Y
X =
+ como unión de eventos excluyentes
{ } 1
0
, n
i
i
k
Y
i
X ≤
≤
−
=
= , entonces
=
−








−
−








=
−
=
=
=
−
=
=
=
=
+ +
−
−
−
=
=
=
∑
∑
∑ i
k
n
i
k
i
n
i
n
k
n
i
n
i
p
p
i
k
n
p
p
i
n
i
k
Y
P
i
X
P
i
k
Y
i
X
P
k
Y
X
P 2
1
1
1
1
)
1
(
)
1
(
)
(
)
(
)
,
(
)
( 2
0
1
0
0
X e Y independientes








−








−
= ∑
=
−
+
i
k
n
i
n
p
p
n
i
k
n
n
k 2
0
1
1
2
1
)
1
(
En la expresión anterior si r
j > entonces 0
=








j
r
Parte 1 - Probabilidades Prof. María B. Pintarelli
104
Por último usamos la siguiente identidad combinatoria ∑
=







 +
=








−








1
0
2
1
2
1
n
i k
n
n
i
k
n
i
n
Y entonces
k
n
n
k
p
p
k
n
n
k
Y
X
P −
+
−







 +
=
=
+ 2
1
)
1
(
)
( 2
1
O sea X+Y tiene distribución binomial con parámetros 2
1 n
n + y p
Observación: en los dos casos anteriores se puede generalizar el resultado a n variables aleatorias
independientes, usando el principio de inducción completa, es decir
1- Si n
X
X
X ,...,
, 2
1 son n variables aleatorias independientes donde )
(
~ i
i P
X λ para todo
n
i ,...,
2
,
1
= entonces )
(
~
0
0
∑
∑ =
=
n
i
i
n
i
i P
X λ
2- Si n
X
X
X ,...,
, 2
1 son n variables aleatorias independientes donde )
,
(
~ p
n
B
X i
i para todo
n
i ,...,
2
,
1
= entonces )
,
(
~
0
0
p
n
B
X
n
i
i
n
i
i ∑
∑ =
=
Suma de variables aleatorias normales independientes
Si X e Y son dos variables aleatorias continuas independientes con densidades g(x) y h(y)
respectivamente se puede probar (no lo demostraremos aquí) que la v.a. Y
X
Z +
= tiene densidad dada
por ∫
∞
∞
−
+ −
= dy
y
h
y
z
g
z
f Y
X )
(
)
(
)
(
Usando esto se puede demostrar el siguiente importante resultado:
Por inducción completa se puede generalizar este resultado a n variables:
De lo anterior y del hecho que ( ) )
,
~
,
~ 2
2
2
σ
µ
σ
µ a
b
N(a
b
aX
N
X +
+
⇒ tenemos:
Si n
X
X
X ,...,
, 2
1 son n variables aleatorias independientes donde )
,
(
~ 2
i
i
i N
X σ
µ para todo
n
i ,...,
2
,
1
= entonces )
,
(
~
1
2
0
0
∑
∑
∑ =
=
=
n
i
i
n
i
i
n
i
i N
X σ
µ
Si n
X
X
X ,...,
, 2
1 son n variables aleatorias independientes donde )
,
(
~ 2
i
i
i N
X σ
µ para todo
n
i ,...,
2
,
1
= entonces )
,
(
~
1
2
2
0
0
∑
∑
∑ =
=
=
n
i
i
i
n
i
i
i
n
i
i
i a
a
N
X
a σ
µ donde n
a
a
a ,...,
, 2
1 son números reales
Si X e Y son variables aleatorias independientes donde ( )
,
~
2
1
1 σ
µ
N
X y ( )
,
~
2
2
2 σ
µ
N
Y entonces
( )
,
~
2
2
2
1
2
1 σ
σ
µ
µ +
+
+ N
Y
X
Parte 1 - Probabilidades Prof. María B. Pintarelli
105
Se dice que ∑
=
n
i
i
i X
a
0
es una combinación lineal de variables aleatorias.
Ejemplos:
1- La envoltura de plástico para un disco magnético está formada por dos hojas. El espesor de cada
una tiene una distribución normal con media 1.5 milímetros y desviación estándar de 0.1 milí-
metros. Las hojas son independientes.
a) Determine la media y la desviación estándar del espesor total de las dos hojas.
b) ¿Cuál es la probabilidad de que el espesor total sea mayor que 3.3 milímetros?
Solución: Sean las variables aleatorias
X: “espesor de la hoja 1” e Y: “espesor de la hoja 2”
Entonces )
1
.
0
,
5
.
1
~ 2
N(
X ; )
1
.
0
,
5
.
1
~ 2
N(
Y y X e Y independientes
a) Si definimos la v.a. Z: “espesor total de las dos hojas” , entonces Y
X
Z +
=
Por lo tanto )
1
.
0
1
.
0
,
5
.
1
5
.
1
~ 2
2
+
+
N(
Z es decir )
02
.
0
,
3
~ N(
Z
En consecuencia 3
)
( =
Z
E , 02
.
0
)
( =
= Z
V
Z
σ
b) Se pide calcular )
3
.
3
( >
Z
P
( ) 017
.
0
983
.
0
1
12132
.
2
1
02
.
0
3
3
.
3
1
02
.
0
3
3
.
3
02
.
0
3
)
3
.
3
( =
−
=
Φ
−
=







 −
Φ
−
=







 −
>
−
=
>
Z
P
Z
P
2-Tengo tres mensajes que atender en el edificio administrativo. Sea Xi : “ el tiempo que toma el i-
ésimo mensaje” (i = 1, 2 ,3), y sea X4 : “ el tiempo total que utilizo para caminar hacia y desde el
edificio y entre cada mensaje”. Suponga que las Xi son independientes, normalmente distribui-
das, con las siguientes medias y desviaciones estándar:
3
,
12
,
2
,
8
,
1
,
5
,
4
min,
15 4
4
3
3
2
2
1
1 =
=
=
=
=
=
=
= σ
µ
σ
µ
σ
µ
σ
µ
Pienso salir de mi oficina precisamente a las 10.00 a.m. y deseo pegar una nota en mi puerta que
dice “regreso a las t a.m.” ¿A qué hora t debo escribir si deseo que la probabilidad de mi llegada
después de t sea 0.01?
Solución: Definimos la v.a. Z: “tiempo transcurrido desde que salgo de mi oficina hasta que re-
greso”, entonces 4
3
2
1 X
X
X
X
T +
+
+
=
Por lo tanto 





∑
∑ =
=
4
1
2
4
1
,
~
i
i
i
i
N
T σ
µ , y se pide hallar t tal que 01
.
0
)
( =
> t
T
P
50
12
8
5
15
4
1
=
+
+
+
=
∑
=
i
i
µ y 30
3
2
1
4 2
2
2
4
1
2
2
=
+
+
+
=
∑
=
i
i
σ
Entonces 01
.
0
30
50
1
)
( =







 −
Φ
−
=
>
t
t
T
P , es decir 99
.
0
30
50
=







 −
Φ
t
Buscando en la tabla de la normal 7619
.
62
50
30
33
.
2
33
.
2
30
50
=
+
×
=
⇒
=
−
t
t
3- El ancho del marco de una puerta tiene una distribución normal con media 24 pulgadas y des-
viación estándar de 1/8 de pulgada. El ancho de la puerta tiene una distribución normal con me-
dia 23.875 de pulgadas y desviación estándar de 1/16 de pulgadas. Suponer independencia.
a) Determine la distribución, la media y la desviación estándar de la diferencia entre el ancho
del marco y de la puerta.
Parte 1 - Probabilidades Prof. María B. Pintarelli
106
b) ¿Cuál es la probabilidad de que la diferencia entre el ancho del marco y de la puerta sea ma-
yor que ¼ de pulgada?.
c) ¿Cuál es la probabilidad de que la puerta no quepa en el marco?.
Solución: Sean las variables aleatorias
X: “ancho del marco de la puerta en pulgadas”
Y: “ancho de la puerta en pulgadas”
Entonces )
1/8)
(
,
24
~ 2
N(
X , )
1/16)
(
,
875
.
23
~ 2
N(
Y , X e Y independientes
a) Se pide la distribución de X-Y , )
( Y
X
E − , )
( Y
X
V
Y
X −
=
−
σ
125
.
0
875
.
23
24
)
(
)
(
)
( =
−
=
−
=
− Y
E
X
E
Y
X
E
16
5
256
5
16
1
8
1
)
(
)
(
)
(
2
2
=
∴
=






+






=
+
=
− −Y
X
Y
V
X
V
Y
X
V σ
Por lo tanto
















−
2
16
5
,
125
.
0
~ N
Y
X
b) Se pide la probabilidad )
4
/
1
( >
−Y
X
P
1867
.
0
8133
.
0
1
)
8944
.
0
(
1
5
5
2
1
16
5
125
.
0
25
.
0
1
)
4
/
1
( =
−
=
Φ
−
=








Φ
−
=












−
Φ
−
=
>
−Y
X
P
c) Si la puerta no entra en el marco entonces se da el evento { }
Y
X < o equivalentemente
{ }
0
<
−Y
X , por lo tanto
1867
.
0
5
5
2
1
5
5
2
16
5
125
.
0
0
)
0
( =








Φ
−
=








−
Φ
=












−
Φ
=
<
−Y
X
P
4- Supongamos que las variables aleatorias X e Y denotan la longitud y el ancho en cm, respecti-
vamente, de una pieza.
Supongamos además que X e Y son independientes y que X ~ N(2 , 0.12
) , Y ~ N(5 , 0.22
).
Entonces Z = 2X + 2Y es una v.a. que representa el perímetro de la pieza.
Calcular la probabilidad de que el perímetro sea mayor que 14.5 cm.
Solución: tenemos que ( )
2
2
2
2
2
.
0
2
1
.
0
2
,
5
2
2
2
~ ×
+
×
×
+
×
N
Z , o sea ( )
0.2
,
14
~ N
Z
La probabilidad pedida es )
5
.
14
( >
Z
P , entonces
( ) 119
.
0
8810
.
0
1
1180
.
1
1
2
5
1
2
.
0
14
5
.
14
1
)
5
.
14
( =
−
=
Φ
−
=








Φ
−
=







 −
Φ
−
=
>
Z
P
5- Si se aplican dos cargas aleatorias 2
1 y X
X a una viga voladiza como se muestra en la figura si-
guiente, el momento de flexión en 0 debido a las cargas es 2
2
1
1 X
a
X
a + .
a) Suponga que 2
1 y X
X son v.a. independientes con medias 2
y 4 KLbs respectivamente, y desviaciones estándar 0.5 y
1.0 KLbs, respectivamente.
Parte 1 - Probabilidades Prof. María B. Pintarelli
107
Si 5
1 =
a pies y 10
2 =
a pies, ¿cuál es el momento de flexión esperado y cuál es la desviación
estándar del momento de flexión?
b) Si 2
1 y X
X están normalmente distribuidas, ¿cuál es la probabilidad de que el momento de
flexión supere 75 KLbs?
Solución: Sea la v.a. Z: “momento de flexión en 0”, entonces 2
1 10
5 X
X
Z +
=
Por lo tanto
a) 50
4
10
2
5
)
(
10
)
(
5
)
( 2
1 =
×
+
×
=
+
= X
E
X
E
Z
E
4
65
4
65
1
10
25
.
0
25
1
10
5
.
0
5
)
( 2
2
2
2
=
∴
=
×
+
×
=
×
+
×
= Z
Z
V σ
b) Si 2
1 y X
X están normalmente distribuidas, entonces 





4
65
,
50
~ N
Z
Por lo tanto
( ) 0
1
1
20
.
6
1
13
65
10
1
4
65
50
75
1
)
75
( =
−
≈
Φ
−
=








Φ
−
=












−
Φ
−
=
>
Z
P
Promedio de variables aleatorias normales independientes
Dem.) Notar que
n
X
X
n
i
i
∑
=
= 1
es un caso particular de combinación lineal de variables aleatorias donde
n
ai
1
= para todo n
i ,...,
2
,
1
=
Además en este caso µ
µ =
i y 2
2
σ
σ =
i para todo n
i ,...,
2
,
1
=
Por lo tanto, X tiene distribución normal con esperanza µ
µ
µ
µ =
=
= ∑
∑ =
=
n
i
n
i
i n
n
n
n 1
1
1
1
1
y varianza
n
n
n
n
n
n
i
i
n
i
2
2
2
2
2
1
2
2
1
1
1
1 σ
σ
σ
σ =






=






=






∑
∑ =
=
Es decir, 







n
N
X
2
,
~
σ
µ
Observación: a X se lo llama promedio muestral o media muestral
Si n
X
X
X ,...,
, 2
1 son n variables aleatorias independientes donde )
,
(
~ 2
σ
µ
N
Xi para todo
n
i ,...,
2
,
1
= entonces la v.a.
n
X
X
n
i
i
∑
=
= 1
tiene distribución normal con
media µ y varianza
n
2
σ
Parte 1 - Probabilidades Prof. María B. Pintarelli
108
Ejemplos:
1) El diámetro interno de un anillo de pistón seleccionado al azar es una v.a. con distribución normal con
media 12 cm y desviación estándar de 0.04 cm.
a) Si X es el diámetro promedio en una muestra de 16
=
n anillos, calcule )
01
.
12
99
.
11
( ≤
≤ X
P
b) ¿Qué tan probable es que el diámetro promedio exceda de 12.01 cuando 25
=
n ?
Solución:
a) Sean las variables aleatorias :
i
X “diámetro del anillo i” 16
,...,
2
,
1
=
i
Entonces ( )
04
.
0
,
12
~ 2
N
X i para cada i.
Por lo tanto








16
04
.
0
,
12
~
2
N
X . Entonces
() ( )
6826
.
0
1
8413
.
0
2
1
)
1
(
2
1
1
16
04
.
0 2
12
99
.
11
16
04
.
0 2
12
01
.
12
)
16
04
.
0 2
12
01
.
12
16
04
.
0 2
12
16
04
.
0 2
12
99
.
11
(
)
01
.
12
99
.
11
(
=
−
×
=
=
−
=
−
−
=
















−
−
















−
=
=
−
≤
−
≤
−
=
≤
≤
φ
φ
φ
φ
φ
X
P
X
P
b) En este caso








25
04
.
0
,
12
~
2
N
X , entonces
1056
.
0
8944
.
0
1
)
25
.
1
(
1
25
04
.
0
12
01
.
12
1
)
01
.
12
( 2
=
−
=
−
=














−
−
=
> φ
φ
X
P
2)Una máquina embotelladora puede regularse de tal manera que llene un promedio de µ onzas por
botella. Se ha observado que la cantidad de contenido que suministra la máquina presenta una
distribución normal con 1
=
σ onza. De la producción de la máquina un cierto día, se obtiene una
muestra de 9 botellas llenas (todas fueron llenadas con las mismas posiciones del control operativo) y se
miden las onzas del contenido de cada una.
a) Determinar la probabilidad de que la media muestral se encuentre a lo más a 0.3 onzas de la
media real µ para tales posiciones de control
b) ¿Cuántas observaciones deben incluirse en la muestra si se desea que la media muestral esté a
lo más a 0.3 onzas de µ con una probabilidad de 0.95?
Solución:
a) Sean las variables aleatorias :
i
X “contenido en onzas de la botella i” 9
,...,
2
,
1
=
i
Parte 1 - Probabilidades Prof. María B. Pintarelli
109
Entonces ( )
1
,
~ µ
N
Xi para cada i.
Por lo tanto 





9
1
,
~ µ
N
X . Se desea calcular
6318
.
0
1
)
9
.
0
(
2
)
9
.
0
(
)
9
.
0
(
9
.
0
9
.
0
3
.
0
3
.
0
3
.
0
3
.
0
)
3
.
0
3
.
0
(
)
3
.
0
(
=
−
Φ
=
=
−
Φ
−
Φ
=










≤
−
≤
−
=










≤
−
≤
−
=
=










≤
−
≤
−
=
≤
−
≤
−
=
≤
−
n
X
P
n
n
X
n
P
n
n
X
n
P
X
P
X
P
σ
µ
σ
σ
µ
σ
σ
σ
µ
σ
µ
µ
b) Ahora se pretende que
95
.
0
)
3
.
0
3
.
0
(
)
3
.
0
( =
≤
−
≤
−
=
≤
− µ
µ X
P
X
P
Entonces
95
.
0
3
.
0
1
3
.
0
3
.
0
3
.
0
)
3
.
0
( =










≤
−
≤
−
=










≤
−
≤
−
=
≤
− n
n
X
n
P
n
n
X
n
P
X
P
µ
σ
σ
µ
σ
µ
Mediante la tabla de la acumulada de la normal estándar se tiene que
( ) ( ) ( ) 96
.
1
3
.
0
0.975
3
.
0
95
.
0
1
3
.
0
2
3
.
0
1
3
.
0 =
⇒
=
Φ
⇒
=
−
Φ
=










≤
−
≤
− n
n
n
n
n
X
n
P
µ
O sea 68
.
42
3
.
0
96
.
1
2
=






≈
n
Si tomamos 43
=
n , entonces )
3
.
0
( ≤
− µ
X
P será un poco mayor que 0.95
6.2 - Teorema central del límite
Acabamos de ver que la suma de un número finito n de variables aleatorias independientes que están
normalmente distribuidas es una variable aleatoria también normalmente distribuida. Esta propiedad
reproductiva no es exclusiva de la distribución normal. En efecto, por ejemplo, ya vimos que existen
variables aleatorias discretas que la cumplen, es el caso de la Poisson y la Binomial.
En realidad, la propiedad que le da a la distribución normal el lugar privilegiado que ocupa entre todas
las distribuciones es el hecho de que la suma de un número muy grande, rigurosamente un número
infinito numerable, de variables aleatorias independientes con distribuciones arbitrarias (no
necesariamente normales) es una variable aleatoria que tiene, aproximadamente, una distribución
normal. Este es, esencialmente, el contenido del
Parte 1 - Probabilidades Prof. María B. Pintarelli
110
Dem.) sin demostración
Observaciones:
1- Notar que ( ) ( ) µ
n
X
E
X
E
S
E
n
i
i
n
i
i
n =
=






= ∑
∑ =
= 1
1
y ( ) ( ) 2
1
1
σ
n
X
V
X
V
S
V
n
i
i
n
i
i
n =
=






= ∑
∑ =
=
Por lo tanto
2
σ
µ
n
n
S
Z n
n
−
= es la v.a. n
S estandarizada
2- Notar que










−
=














≤
−
=








≤
−
n
X
P
z
n
n
n
n
S
P
z
n
n
S
P
n
n
σ
µ
σ
µ
σ
µ
2
2
, por lo tanto también se puede enunciar
el Teorema central del límite de la siguiente forma
Donde
n
X
Zn
σ
µ
−
= es el promedio muestral estandarizado
3- Aunque en muchos casos el T.C.L. funciona bien para valores de n pequeños , en particular donde la
población es continua y simétrica, en otras situaciones se requieren valores de n mas grandes,
dependiendo de la forma de la distribución de las i
X . En muchos casos de interés práctico, si 30
≥
n , la
aproximación normal será satisfactoria sin importar cómo sea la forma de la distribución de las i
X . Si
30
<
n , el T.C.L. funciona si la distribución de las i
X no está muy alejada de una distribución normal
4- Para interpretar el significado del T.C.L., se generan (por computadora) n valores de una v.a.
exponencial con parámetro 5
.
0
=
λ , y se calcula el promedio de esos n valores. Esto se repite 1000
veces, por lo tanto tenemos 1000 valores de la v.a. X .
Teorema central del límite (T.C.L.):
Sean n
X
,...,
X
,
X 2
1 variables aleatorias independientes con ( ) µ
=
i
X
E y ( ) 2
σ
=
i
X
V para todo
n
,...,
,
i 2
1
= , es decir independientes idénticamente distribuidas
Sea la v.a. ∑
=
=
n
i
i
n X
S
1
y sea
2
σ
µ
n
n
S
Z n
n
−
= .
Entonces ( ) ( )
z
z
Z
P
lim n
n
Φ
=
≤
∞
→
, esto es ∫∞
−
−
∞
→
=








≤
− z
x
n
n
dx
e
z
n
n
S
P 2
2
2
2
1
lim
π
σ
µ
Sean n
X
,...,
X
,
X 2
1 variables aleatorias independientes con ( ) µ
=
i
X
E y ( ) 2
σ
=
i
X
V para todo
n
,...,
,
i 2
1
= , es decir independientes idénticamente distribuidas
Sea la v.a. promedio muestral ∑
=
=
n
i
i
X
n
X
1
1
y sea
n
X
Zn
σ
µ
−
= .
Entonces ( ) ( )
z
z
Z
P
lim n
n
Φ
=
≤
∞
→
, esto es ∫∞
−
−
∞
→
=








≤
−
z
x
n
dx
e
z
n
X
P 2
2
2
1
lim
π
σ
µ
Parte 1 - Probabilidades Prof. María B. Pintarelli
111
Hacemos un histograma de frecuencias de X , esto es, tomamos un intervalo )
,
( b
a donde “caen”
todos los valores de X , y lo subdividimos en intervalos mas chicos de igual longitud. La frecuencia de
cada subintervalo es la cantidad de valores de X que caen en dicho subintervalo. Se grafican estas
frecuencias obteniéndose los gráficos siguientes que se pueden considerar una aproximación a la
verdadera distribución de X .
Se observa que a medida que aumenta el valor de n los gráficos se van haciendo más simétricos,
pareciéndose a la gráfica de una distribución normal.
Ejemplos:
1- Supóngase que 30 instrumentos electrónicos D1, D2, ......,D30, se usan de la manera siguiente: tan
pronto como D1 falla empieza a actuar D2. Cuando D2 falla empieza a actuar D3, etc. Supóngase que el
tiempo de falla de Di es una v.a. distribuida exponencialmente con parámetro λ = 0.1 por hora. Sea T el
tiempo total de operación de los 30 instrumentos. ¿Cuál es la probabilidad de que T exceda 350 horas?
Solución:
Si i
X : “tiempo de falla del instrumento i
D ” 30
,...,
2
,
1
=
i
Entonces )
1
.
0
(
~ Exp
X i para 30
,...,
2
,
1
=
i
El tiempo total de operación de los 30 instrumentos es ∑
=
=
30
1
i
i
X
T , donde
300
1
.
0
1
30
)
(
30
)
(
30
1
=
×
=
×
=






= ∑
=
i
i
i X
E
X
E
T
E
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
50
100
150
1 2 3 4 56 7 8910
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
20
40
60
80
1 2 3 4 5 6 7 8 910
1112
13
14
1516
17
1819
20
21
2223
24
2526
27
2829
10
20
30
40
50
1 2 3 4 5 6 7 8 9 1011121314 1516171819202122
10
20
30
40
n=2
n = 5
n = 15
n = 30
Parte 1 - Probabilidades Prof. María B. Pintarelli
112
3000
1
.
0
1
30
)
(
30
)
( 2
30
1
=
×
=
×
=






= ∑
=
i
i
i X
V
X
V
T
V
Entonces por T.C.L. N(0,1)
~
3000
300
−
T
aproximadamente pues 30
=
n
La probabilidad pedida es
( ) 18141
.
0
81859
.
0
1
9128
.
0
1
3000
300
350
1
3000
300
350
3000
300
)
350
( =
−
=
Φ
−
=







 −
Φ
−
≈







 −
>
−
=
>
T
P
T
P
T.C.L.
2- Suponga que el consumo de calorías por día de una determinada persona es una v.a. con media
3000 calorías y desviación estándar de 230 calorías. ¿Cuál es la probabilidad de que el promedio de
consumo de calorías diario de dicha persona en el siguiente año (365 días) sea entre 2959 y 3050?
Solución:
Definimos las variables aleatorias
i
X : “cantidad de calorías que una persona consume en el día i” 365
,...,
2
,
1
=
i
Se sabe que 3000
)
( =
i
X
E y 2
230
)
( =
i
X
V
Si ∑
=
=
365
1
365
1
i
i
X
X entonces 3000
)
( =
X
E y
365
230
)
(
2
2
=
=
n
X
V
σ
La probabilidad pedida es
( )
( ) ( ) 1
0
1
40
.
3
15
.
4
365
230
3000
2959
365
230
3000
3050
365
230
3000
3050
365
230
3000
365
230
3000
2959
3050
2959
=
−
≈
−
Φ
−
Φ
=










−
Φ
−










−
Φ
≈
≈










−
≤
−
≤
−
=
≤
≤
X
P
X
P
T.C.L.
Aplicaciones del Teorema central del límite
Aproximación normal a la distribución binomial
El Teorema central del límite se puede utilizar para aproximar las probabilidades de algunas variables
aleatorias discretas cuando es difícil calcular las probabilidades exactas para valores grandes de los
parámetros.
Supongamos que X tiene una distribución binomial con parámetros n y p. Para calcular )
( k
X
P ≤
debemos hacer la suma ∑
=
=
=
≤
k
i
i
X
P
k
X
P
0
)
(
)
( o recurrir a las tablas de la F.d.a. , pero para valores de
n grandes no existen tablas, por lo tanto habría que hacer el cálculo en forma directa y muchas veces es
laborioso.
Como una opción podemos considerar a X como suma de variables aleatorias más simples,
específicamente, si definimos




 −
=
contrario
caso
éxito
ocurre
de
repetición
ésima
í
la
en
si
Xi
0
1 ε
n
i ,...,
2
,
1
=
Parte 1 - Probabilidades Prof. María B. Pintarelli
113
entonces cada i
X se la puede considerar )
,
1
( p
B , y además n
X
X
X ,...,
, 2
1 son independientes
Podemos escribir ∑
=
=
+
+
+
=
n
i
i
n X
X
X
X
X
1
2
1 ... y si n es grande entonces X tendrá aproximadamente
una distribución normal con parámetros np y )
1
( p
np − , es decir
( )
( )
1
,
0
1
.
.
2
N
p
p
n
p
n
X
n
n
X
Zn ≈
−
−
=
−
=
σ
µ
si n es lo suficientemente grande
Observaciones:
1- La aproximación normal a la distribución binomial funciona bien aun cuando n no sea muy grande si
p no está demasiado cerca de cero o de uno. En particular la aproximación normal a la binomial es buena
si n es grande , 5
>
np y 5
)
1
( >
− p
n , pero es más efectivo aplicar esta aproximación cuando 10
>
np
y 10
)
1
( >
− p
n
2- Corrección por continuidad.
Acabamos de ver que si X∼B(n,p) entonces, para n suficientemente grande, podemos considerar que
aproximadamente es X∼ ( )
[ ]
p
p
.
n
,
p
.
n
N −
1 . El problema que surge de inmediato si deseo calcular, por
ejemplo, la probabilidad de que k
X = (con k alguno de los valores posibles 0,1,2,…,n) es que la
binomial es una distribución discreta y tiene sentido calcular probabilidades como ( )
k
X
P = mientras
que la normal es una distribución continua y, en consecuencia, ( ) 0
=
= k
X
P puesto que para una
variable aleatoria continua la probabilidad de que ésta tome un valor aislado es cero. Esto se resuelve si
se considera ( ) 





+
≤
≤
−
≈
=
2
1
2
1
k
X
k
P
k
X
P
También se puede usar esta corrección para mejorar la aproximación en otros casos, específicamente en
lugar de )
( k
X
P ≤ calculamos






+
≤
≈
≤
2
1
)
( k
X
P
k
X
P
Y en lugar de 





−
≥
≈
≥
2
1
)
( k
X
P
k
X
P
En los gráficos siguientes se muestra para diferentes valores de n y p cómo aproxima la distribución
))
1
(
,
( p
np
np
N − a la distribución )
,
( p
n
B
5 10 15 20 25
0.025
0.05
0.075
0.1
0.125
0.15
0.175
2 4 6 8 10 12 14
0.05
0.1
0.15
0.2
n = 25
p = 0.7 n = 15
p = 0.5
Parte 1 - Probabilidades Prof. María B. Pintarelli
114
5 10 15 20
0.05
0.1
0.15
0.2
0.25
0.3
0.35
50 60 70 80 90 100
0.02
0.04
0.06
0.08
20 40 60 80 100 120 140
0.02
0.04
0.06
0.08
0.1
2 4 6 8 10
0.1
0.2
0.3
0.4
Ejemplos:
1- Sea X∼ B(25,0.4). Hallar las probabilidades exactas de que 8
≤
X y 8
=
X y comparar estos
resultados con los valores correspondientes encontrados por la aproximación normal.
Solución:
De la tabla de la F.d.a. de la binomial encontramos 274
.
0
)
8
( =
≤
X
P
Y 120
.
0
154
.
0
274
.
0
)
7
(
)
8
(
)
8
( =
−
=
≤
−
≤
=
= X
P
X
P
X
P
Ahora usamos la aproximación normal
( ) 2709
.
0
61
.
0
6
.
0
4
.
0
25
10
5
.
8
)
1
(
)
5
.
8
(
)
8
( =
−
Φ
≈








×
×
−
≤
−
−
=
≤
≈
≤
p
np
np
X
P
X
P
X
P
corrección por continuidad
Observar que el valor aproximado está muy cercano al valor exacto para 274
.
0
)
8
( =
≤
X
P
( )
1170
.
0
1593
.
0
2709
.
0
61
.
0
6
10
02
.
1
6
10
5
.
8
6
10
6
10
5
.
7
5
.
8
5
.
7
)
8
(
=
−
=
=








−
≤
−
≤
−
=







 −
≤
−
≤
−
=
≤
≤
≈
=
X
P
X
P
X
P
X
P
Nuevamente este valor aproximado está muy cerca del valor real de 120
.
0
)
8
( =
=
X
P
2- Suponga que el 10% de todos los ejes de acero producidos por cierto proceso están fuera de
especificaciones, pero se pueden volver a trabajar (en lugar de tener que enviarlos a la chatarra).
n =15
p = 0.9
n = 100
p = 0.7
n = 150
p = 0.1
n = 10
p = 0.1
Parte 1 - Probabilidades Prof. María B. Pintarelli
115
Considere una muestra aleatoria de 200 ejes y denote por X el número entre ellos que estén fuera de
especificaciones y se puedan volver a trabajar. ¿Cuál es la probabilidad (aproximada) de que X sea
a) a lo sumo 30?
b) menos de 30?
c) entre 15 y 25 (inclusive)?
Solución:
Sea la v.a. X: “número de ejes fuera de especificaciones”
Entonces )
1
.
0
,
200
(
~ B
X , además 5
20
1
.
0
200 >
=
×
=
np y 5
180
)
1
.
0
1
(
200
)
1
( >
=
−
×
=
− p
n
Por lo tanto podemos aplicar la aproximación normal a la binomial
a) la probabilidad pedida es )
30
( ≤
X
P
( ) 993244
.
0
474
.
2
18
20
5
.
30
18
20
5
.
30
)
1
(
)
5
.
30
(
)
30
( =
Φ
=







 −
Φ
≈







 −
≤
−
−
=
≤
≈
≤
p
np
np
X
P
X
P
X
P
b) La probabilidad pedida es )
30
( <
X
P
Al ser X una v.a. discreta con distribución binomial )
29
(
)
30
( ≤
=
< X
P
X
P
( ) 98745
.
0
2391
.
2
18
20
5
.
29
)
5
.
29
(
)
29
( =
Φ
=







 −
Φ
≈
≤
≈
≤ X
P
X
P
c)
( ) ( )
( ) ( ) ( ) 80294
.
0
1
90147
.
0
2
1
2963
.
1
2
2963
.
1
2963
.
1
18
20
5
.
14
18
20
5
.
25
5
.
25
5
.
14
25
15
=
−
×
=
−
Φ
=
−
Φ
−
Φ
=
=







 −
Φ
−







 −
Φ
≈
≤
≤
≈
≤
≤ X
P
X
P
3- El gerente de un supermercado desea recabar información sobre la proporción de clientes a los que no
les agrada una nueva política respecto de la aceptación de cheques. ¿Cuántos clientes tendría que incluir
en una muestra si desea que la fracción de la muestra se desvíe a lo mas en 0.15 de la verdadera
fracción, con probabilidad de 0.98?.
Solución:
Sea X: “número de clientes a los que no les agrada la nueva política de aceptación de cheques”
Entonces )
,
(
~ p
n
B
X donde p es desconocido y es la verdadera proporción de clientes a los que no
les agrada la nueva política de aceptación de cheques. El gerente tomará una muestra de n clientes para
“estimar” p con
n
X
X = ya que
n
X
X = es la proporción de clientes a los que no les agrada la nueva
política de aceptación de cheques en la muestra de n clientes. Si no se toman a todos los clientes,
entonces
n
X
X = no será igual a p.
La pregunta es cuál debe ser n para que
n
X
X = se aleje del verdadero p en menos de 0.15 con
probabilidad 0.98 por lo menos, o sea para que ( ) 98
.
0
15
.
0 ≥
≤
− p
X
P
Entonces planteamos
( ) ( ) ≈








−
≤
−
−
≤
−
−
=
≤
−
≤
−
=
≤
−
)
1
(
15
.
0
)
1
(
)
1
(
15
.
0
15
.
0
15
.
0
15
.
0
p
np
n
p
np
np
X
p
np
n
P
p
X
P
p
X
P
T.C.L.
Parte 1 - Probabilidades Prof. María B. Pintarelli
116
98
.
0
1
)
1
(
15
.
0
2
)
1
(
15
.
0
)
1
(
15
.
0
≥
−








−
Φ
=








−
−
Φ
−








−
Φ
≈
p
np
n
p
np
n
p
np
n
Por lo tanto 99
.
0
2
1
98
.
0
)
1
(
15
.
0
=
+
≥








−
Φ
p
np
n
Además n
n
p
p
n
p
np
n
3
.
0
)
5
.
0
1
(
5
.
0
15
.
0
)
1
(
15
.
0
)
1
(
15
.
0
=
−
≥
−
=
−
Entonces debe cumplirse que 33
.
2
3
.
0 ≥
n o sea 3211
.
60
3
.
0
33
.
2
2
=






≥
n
O sea se debe tomar una muestra de al menos 61 clientes
Aproximación normal a la distribución Poisson
Se puede probar aplicando Teorema central del límite que
Es decir para λ suficientemente grande )
1
,
0
(
N
X
≈
−
λ
λ
En la práctica si 30
≥
λ la aproximación es buena.
Observación: la demostración es sencilla si λ es igual a un número natural n pues, si consideramos las
variables aleatorias )
1
(
~ P
Xi con n
i ,...,
2
,
1
= independientes, entonces ya sabemos que






∑
∑ =
=
n
i
n
i
i P
X
1
1
1
~ , es decir )
(
~
1
n
P
X
n
i
i
∑
=
Pero además por T.C.L. si n es grande ∑
=
n
i
i
X
1
tiene aproximadamente distribución normal con
parámetros n
n
n =
×
= 1
µ y n
n
n =
×
= 1
2
σ
O sea la distribución de ∑
=
n
i
i
X
1
que es exactamente Poisson con parámetro n, se puede aproximar con
una )
,
( n
n
N , por lo tanto )
1
,
0
(
N
n
n
X
≈
−
aproximadamente para valores de n suficientemente grandes
En los gráficos siguientes se muestra para diferentes valores de λ cómo aproxima la distribución
)
,
( λ
λ
N a la distribución )
(λ
P
Si )
(
~ λ
P
X entonces para λ suficientemente grande
λ
λ
−
X
tiene aproximadamente distribución
)
1
,
0
(
N
Parte 1 - Probabilidades Prof. María B. Pintarelli
117
20 40 60 80 100
0.01
0.02
0.03
0.04
0.05
5 10 15 20 25 30
0.05
0.1
0.15
0.2
Ejemplo:
El número de infracciones por estacionamiento en cierta ciudad en cualquier día hábil tiene una
distribución de Poisson con parámetro λ = 50. ¿Cuál es la probabilidad aproximada de que:
a) entre 35 y 70 infracciones se expidan en un día en particular?
b) el número total de infracciones expedidas durante una semana de 5 días sea entre 225 y 275?
Solución:
Sea X: “número de infracciones por estacionamiento en cierta ciudad en cualquier día hábil”
Entonces )
(
~ λ
P
X donde 50
=
λ
Como 50
=
λ entonces )
1
,
0
(
50
50
N
X
≈
−
(aproximadamente)
a) la probabilidad pedida es
( ) ( ) ( )
9805
.
0
017
.
0
997599
.
0
12132
.
2
8284
.
2
50
50
35
50
50
70
70
35
=
−
=
=
−
Φ
−
Φ
=







 −
Φ
−







 −
Φ
≈
≤
≤ X
P
b) Sea Y: “número total de infracciones expedidas durante una semana de 5 días”
Entonces )
(
~ λ
P
Y donde 250
5
50 =
×
=
λ
La probabilidad pedida es
( ) ( ) ( )
( ) 8859
.
0
1
94295
.
0
2
1
5811
.
1
2
5811
.
1
5811
.
1
250
250
225
250
250
275
275
225
=
−
×
=
−
Φ
=
=
−
Φ
−
Φ
=







 −
Φ
−







 −
Φ
≈
≤
≤ Y
P
50
=
λ
3
=
λ

Más contenido relacionado

La actualidad más candente (20)

Chi cuadrado
Chi  cuadradoChi  cuadrado
Chi cuadrado
 
Prueba de hipótesis
Prueba de hipótesisPrueba de hipótesis
Prueba de hipótesis
 
CAPITULO 6.pdf
CAPITULO 6.pdfCAPITULO 6.pdf
CAPITULO 6.pdf
 
Distribucion Normal
Distribucion NormalDistribucion Normal
Distribucion Normal
 
Distribucion binomial explicación
Distribucion binomial explicaciónDistribucion binomial explicación
Distribucion binomial explicación
 
Presentación probabilidad
Presentación probabilidadPresentación probabilidad
Presentación probabilidad
 
Teorema de bayes estrella
Teorema de bayes estrellaTeorema de bayes estrella
Teorema de bayes estrella
 
Manejo de tabla distribución normal estándar
Manejo de tabla distribución normal estándarManejo de tabla distribución normal estándar
Manejo de tabla distribución normal estándar
 
Distribucion Binomial
Distribucion BinomialDistribucion Binomial
Distribucion Binomial
 
14 enano
14 enano14 enano
14 enano
 
Fase2 100402 grupo_9
Fase2 100402 grupo_9Fase2 100402 grupo_9
Fase2 100402 grupo_9
 
Distribuciones discretas
Distribuciones discretasDistribuciones discretas
Distribuciones discretas
 
Taller 3
Taller 3Taller 3
Taller 3
 
Diapositivas probabilidades
Diapositivas probabilidadesDiapositivas probabilidades
Diapositivas probabilidades
 
Pruebas de hipótesis
Pruebas de hipótesisPruebas de hipótesis
Pruebas de hipótesis
 
Clase8-Estadística
Clase8-EstadísticaClase8-Estadística
Clase8-Estadística
 
Ejercicios1er con respuestas
Ejercicios1er con respuestasEjercicios1er con respuestas
Ejercicios1er con respuestas
 
Diferenciacion integracion
Diferenciacion integracionDiferenciacion integracion
Diferenciacion integracion
 
Varianza y covarianza
Varianza y covarianzaVarianza y covarianza
Varianza y covarianza
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 

Similar a Variables aleatorias bidemensionales (20)

117_3_25062021012559.pdf
117_3_25062021012559.pdf117_3_25062021012559.pdf
117_3_25062021012559.pdf
 
Estadística i tema 3
Estadística i tema 3Estadística i tema 3
Estadística i tema 3
 
4 varible aleatoriadiscreta (1)
4 varible aleatoriadiscreta (1)4 varible aleatoriadiscreta (1)
4 varible aleatoriadiscreta (1)
 
Estadistica 2
Estadistica 2Estadistica 2
Estadistica 2
 
Inferencia
InferenciaInferencia
Inferencia
 
Documento 05 variable_aleatoria
Documento 05 variable_aleatoriaDocumento 05 variable_aleatoria
Documento 05 variable_aleatoria
 
Clase 9 Variables aleatorias.pdf
Clase 9 Variables aleatorias.pdfClase 9 Variables aleatorias.pdf
Clase 9 Variables aleatorias.pdf
 
Tema2
Tema2Tema2
Tema2
 
PROBABILIDAD IV
PROBABILIDAD IVPROBABILIDAD IV
PROBABILIDAD IV
 
Funciones y progresiones
Funciones y progresionesFunciones y progresiones
Funciones y progresiones
 
Demostraciones probabilidad
Demostraciones probabilidadDemostraciones probabilidad
Demostraciones probabilidad
 
Problemario de Álgebra Lineal
Problemario de Álgebra LinealProblemario de Álgebra Lineal
Problemario de Álgebra Lineal
 
Mat i tema 02 funciones
Mat i tema 02 funcionesMat i tema 02 funciones
Mat i tema 02 funciones
 
Limites
LimitesLimites
Limites
 
2015 29-04 matematica
2015 29-04 matematica2015 29-04 matematica
2015 29-04 matematica
 
2015 29-04 matematica
2015 29-04 matematica2015 29-04 matematica
2015 29-04 matematica
 
Extremos absolutos analisis 3
Extremos absolutos analisis 3Extremos absolutos analisis 3
Extremos absolutos analisis 3
 
Tema 6. variables aleatorias y distribuciones de probabilidad
Tema 6. variables aleatorias y distribuciones de probabilidadTema 6. variables aleatorias y distribuciones de probabilidad
Tema 6. variables aleatorias y distribuciones de probabilidad
 
Teorema Bayes Ejemplo
Teorema Bayes EjemploTeorema Bayes Ejemplo
Teorema Bayes Ejemplo
 
Variables aleatorias discretas
Variables aleatorias discretasVariables aleatorias discretas
Variables aleatorias discretas
 

Más de Luisa Mee 666

J_Johnston_J_Dinardo_Econometric_Methods.pdf
J_Johnston_J_Dinardo_Econometric_Methods.pdfJ_Johnston_J_Dinardo_Econometric_Methods.pdf
J_Johnston_J_Dinardo_Econometric_Methods.pdfLuisa Mee 666
 
Greene_econometric_5ta edición.pdf
Greene_econometric_5ta edición.pdfGreene_econometric_5ta edición.pdf
Greene_econometric_5ta edición.pdfLuisa Mee 666
 
20_Las tres crisis del FMI_Ariel Buira.pdf
20_Las tres crisis del FMI_Ariel Buira.pdf20_Las tres crisis del FMI_Ariel Buira.pdf
20_Las tres crisis del FMI_Ariel Buira.pdfLuisa Mee 666
 
criterios_tecnicos_para_medir_concentracin_del_mercado.pdf
criterios_tecnicos_para_medir_concentracin_del_mercado.pdfcriterios_tecnicos_para_medir_concentracin_del_mercado.pdf
criterios_tecnicos_para_medir_concentracin_del_mercado.pdfLuisa Mee 666
 
04 Zirahuen Villamar - Union Europea.pdf
04 Zirahuen Villamar - Union Europea.pdf04 Zirahuen Villamar - Union Europea.pdf
04 Zirahuen Villamar - Union Europea.pdfLuisa Mee 666
 
03 Gonzalez Ibarra - Comercio mundial de servicios (1).pdf
03 Gonzalez Ibarra - Comercio mundial de servicios (1).pdf03 Gonzalez Ibarra - Comercio mundial de servicios (1).pdf
03 Gonzalez Ibarra - Comercio mundial de servicios (1).pdfLuisa Mee 666
 
02 Rodriguez Casillas - La organizacion del comercio mundial del GATT a la OM...
02 Rodriguez Casillas - La organizacion del comercio mundial del GATT a la OM...02 Rodriguez Casillas - La organizacion del comercio mundial del GATT a la OM...
02 Rodriguez Casillas - La organizacion del comercio mundial del GATT a la OM...Luisa Mee 666
 
01_Irma Portos - Acerca del concepto de EEM (1).pdf
01_Irma Portos - Acerca del concepto de EEM (1).pdf01_Irma Portos - Acerca del concepto de EEM (1).pdf
01_Irma Portos - Acerca del concepto de EEM (1).pdfLuisa Mee 666
 
Actividad 2 uiv regla de cramer
Actividad 2 uiv regla de cramerActividad 2 uiv regla de cramer
Actividad 2 uiv regla de cramerLuisa Mee 666
 
Actividad 1 iv sistemas de ecuaciones y gauss-jordan
Actividad 1 iv sistemas de ecuaciones y gauss-jordanActividad 1 iv sistemas de ecuaciones y gauss-jordan
Actividad 1 iv sistemas de ecuaciones y gauss-jordanLuisa Mee 666
 
Cálculo Multivariado
Cálculo Multivariado Cálculo Multivariado
Cálculo Multivariado Luisa Mee 666
 
Calculo multivariado y álgebra lineal
Calculo multivariado y álgebra linealCalculo multivariado y álgebra lineal
Calculo multivariado y álgebra linealLuisa Mee 666
 

Más de Luisa Mee 666 (20)

J_Johnston_J_Dinardo_Econometric_Methods.pdf
J_Johnston_J_Dinardo_Econometric_Methods.pdfJ_Johnston_J_Dinardo_Econometric_Methods.pdf
J_Johnston_J_Dinardo_Econometric_Methods.pdf
 
Greene_econometric_5ta edición.pdf
Greene_econometric_5ta edición.pdfGreene_econometric_5ta edición.pdf
Greene_econometric_5ta edición.pdf
 
20_Las tres crisis del FMI_Ariel Buira.pdf
20_Las tres crisis del FMI_Ariel Buira.pdf20_Las tres crisis del FMI_Ariel Buira.pdf
20_Las tres crisis del FMI_Ariel Buira.pdf
 
criterios_tecnicos_para_medir_concentracin_del_mercado.pdf
criterios_tecnicos_para_medir_concentracin_del_mercado.pdfcriterios_tecnicos_para_medir_concentracin_del_mercado.pdf
criterios_tecnicos_para_medir_concentracin_del_mercado.pdf
 
AmorosLerner.pdf
AmorosLerner.pdfAmorosLerner.pdf
AmorosLerner.pdf
 
04 Zirahuen Villamar - Union Europea.pdf
04 Zirahuen Villamar - Union Europea.pdf04 Zirahuen Villamar - Union Europea.pdf
04 Zirahuen Villamar - Union Europea.pdf
 
03 Gonzalez Ibarra - Comercio mundial de servicios (1).pdf
03 Gonzalez Ibarra - Comercio mundial de servicios (1).pdf03 Gonzalez Ibarra - Comercio mundial de servicios (1).pdf
03 Gonzalez Ibarra - Comercio mundial de servicios (1).pdf
 
02 Rodriguez Casillas - La organizacion del comercio mundial del GATT a la OM...
02 Rodriguez Casillas - La organizacion del comercio mundial del GATT a la OM...02 Rodriguez Casillas - La organizacion del comercio mundial del GATT a la OM...
02 Rodriguez Casillas - La organizacion del comercio mundial del GATT a la OM...
 
01_Irma Portos - Acerca del concepto de EEM (1).pdf
01_Irma Portos - Acerca del concepto de EEM (1).pdf01_Irma Portos - Acerca del concepto de EEM (1).pdf
01_Irma Portos - Acerca del concepto de EEM (1).pdf
 
CALCULO MULTIVARIADO
CALCULO MULTIVARIADOCALCULO MULTIVARIADO
CALCULO MULTIVARIADO
 
Actividad 2 uiv regla de cramer
Actividad 2 uiv regla de cramerActividad 2 uiv regla de cramer
Actividad 2 uiv regla de cramer
 
Actividad 1 iv sistemas de ecuaciones y gauss-jordan
Actividad 1 iv sistemas de ecuaciones y gauss-jordanActividad 1 iv sistemas de ecuaciones y gauss-jordan
Actividad 1 iv sistemas de ecuaciones y gauss-jordan
 
calculo multivafriado
 calculo multivafriado  calculo multivafriado
calculo multivafriado
 
Cálculo Multivariado
Cálculo Multivariado Cálculo Multivariado
Cálculo Multivariado
 
Calculo multivariado y álgebra lineal
Calculo multivariado y álgebra linealCalculo multivariado y álgebra lineal
Calculo multivariado y álgebra lineal
 
5
55
5
 
4 mal1
4 mal1 4 mal1
4 mal1
 
4
44
4
 
3 mal1
3 mal13 mal1
3 mal1
 
3
33
3
 

Último

Manual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfManual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfMaryRotonda1
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticosisabeltrejoros
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para eventoDiegoMtsS
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscaeliseo91
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxAna Fernandez
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.DaluiMonasterio
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFlor Idalia Espinoza Ortega
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...JAVIER SOLIS NOYOLA
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosCesarFernandez937857
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 

Último (20)

Manual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfManual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdf
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticos
 
Unidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDIUnidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDI
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para evento
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fisca
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docx
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamica
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos Básicos
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 

Variables aleatorias bidemensionales

  • 1. Parte 1 - Probabilidades Prof. María B. Pintarelli 83 5- VARIABLES ALEATORIAS BIDIMENSIONALES 5.1 – Generalidades Hasta ahora hemos considerado el caso de variables aleatorias unidimensionales. Esto es, el resultado del experimento de interés se registra como un único número real. En muchos casos, sin embargo, nos puede interesar asociar a cada resultado de un experimento aleatorio, dos o más características numéricas. Por ejemplo, de los remaches que salen de una línea de producción nos puede interesar el diámetro X y la longitud Y. Teniendo en cuenta la inevitable variabilidad en las dimensiones de los remaches debido a las numerosas causas presentes en el proceso de fabricación, los podemos representar asociándoles dos variables aleatorias X e Y que pueden pensarse como una variable aleatoria bidimensional: ( ) Y X , . Sea ε un experimento aleatorio y S un espacio muestral asociado a él. Sean R S X → : , R S Y → : , que a cada resultado S s ∈ le asignan el par de números reales ( ) y x, Llamaremos a ( ) Y X, variable aleatoria bidimensional. Si en lugar de dos variables aleatorias, tenemos n variables aleatorias n X X X ,..., , 2 1 , llamaremos a ( ) n X ,..., X , X 2 1 variable aleatoria n-dimensional En lo que sigue nos referiremos en particular a variables aleatorias n-dimensionales con n=2, es decir nos concentraremos en variables aleatorias bidimensionales por cuanto son las más simples de describir, fundamentalmente en relación a la notación. Pero debemos tener presente que las propiedades que estudiemos para ellas se pueden extender sin demasiada dificultad al caso general. Al conjunto de valores que toma la variable aleatoria bidimensional (X,Y) lo llamaremos recorrido de la v.a. (X,Y) y lo indicaremos XY R . En otras palabras ( ) ( ) ( )       ∈ = = = S s con s Y y e s X x : y , x RXY , es decir, es la imagen por ( ) Y , X del espacio muestral S. Notar que el recorrido de (X,Y) es un subconjunto del espacio Euclidiano: 2 R RXY ⊆ . Como antes, puede considerarse al recorrido XY R como un espacio muestral cuyos elementos son ahora pares de números reales. Como con cualquier espacio muestral, según el número de elementos que lo constituyen, podemos clasificar a los recorridos XY R en numerables (finitos o infinitos) y no-numerables. Los recorridos numerables son, en general, de la forma ( ) ( ) ( ) ( ) { } m n j i XY y , x ,..., y , x , y , x m ,.. , j y n ,..., , i con y , x R 2 1 1 1 2 1 2 1 =       = = = (finito) ( ) ( ) ( ) { } ,... y , x , y , x ,.. , j y ,... , i con y , x R j i XY 2 1 1 1 2 1 2 1 =       = = = (infinito numerable) Los recorridos no numerables son regiones o subconjuntos no numerables del plano Euclidiano. Por ejemplo: ( )       ≤ ≤ ≤ ≤ = d y c ; b x a : y , x RXY (no numerable)
  • 2. Parte 1 - Probabilidades Prof. María B. Pintarelli 84 ( ) { } 1 : , 2 2 ≤ + = y x y x RXY (no numerable) ( )       = ≤ ≤ = 3 2 1 c , c , c y , b x a : y , x R j j XY (no numerable “mixto”) cuyas gráficas se pueden apreciar en la figura siguiente. Notar en el último recorrido, X es v.a. continua e Y discreta. Clasificaremos a las variables aleatorias bidimensionales de la siguiente manera: ( ) Y , X es v.a. bidimensional discreta si X e Y son discretas ( ) Y , X es v.a. bidimensional continua si X e Y son continuas El caso X continua, Y discreta (o viceversa) no lo consideramos. Sea ( ) Y , X una variable aleatoria bidimensional discreta y sea XY R su recorrido (numerable). Sea R R : p XY → una función que a cada elemento ( ) j i y , x le asigna un número real ( ) j i y , x p tal que ( ) ( ) XY j i j i j i R y , x y , x p y Y , x X P ∈ ∀ =       = = y que verifica. a) ( ) ( ) XY j i j i R y , x y , x p ∈ ∀ ≥ 0 b) ( ) ( ) ( ) ∑ ∑∑ ∈ = = XY j i R y x j i i j j i y x p y x p , 1 , , A esta función la llamaremos función de probabilidad puntual conjunta de la variable aleatoria bidimensional ( ) Y , X . En forma abreviada la designaremos fdp conjunta. Ejemplos: 1-Dos líneas de producción, señaladas I y II, manufacturan cierto tipo de artículo a pequeña escala. Supóngase que la capacidad máxima de producción de la línea I es cinco artículos por día, mientras que para la línea II es 3 artículos/día. Debido a los innumerables factores presentes en todo proceso de producción, el número de artículos realmente producido por cada línea puede pensarse como una variable aleatoria. En conjunto podemos pensar en una variable aleatoria bidimensional ( ) Y , X discreta, donde la primera componente X corresponde a la producción de la línea I y la segunda componente Y a los artículos que salen de la línea II. La fdp conjunta correspondiente a variables aleatorias bidimensionales suele presentarse, por comodidad, como una tabla. Supongamos que la para la v.a. ( ) Y , X que nos interesa aquí la tabla correspondiente a ( ) j i y , x p es 0 0 0 0 0 a b x c d y y y 1 2 3 1 2 a b x RXY c1 c2 c3 -1 -1
  • 3. Parte 1 - Probabilidades Prof. María B. Pintarelli 85 X Y 0 1 2 3 4 5 0 0 0.01 0.03 0.05 0.07 0.09 1 0.01 0.02 0.04 0.05 0.06 0.08 2 0.01 0.03 0.05 0.05 0.05 0.06 3 0.01 0.02 0.04 0.06 0.06 0.05 ¿Cuál es la probabilidad de qué salgan más artículos de la línea I que de la línea II? Antes de calcular la probabilidad que nos pide el problema, hagamos algunas consideraciones sobre la tabla que representa a ( ) j i y , x p . Se trata de una tabla a doble entrada donde en la primera fila se indican los valores que puede tomar la v.a. X (en este caso X=0,1,2,3,4,5) y la primera columna indica los valores que puede tomar la variable Y ( 0,1,2,3). Para determinar el valor de la ( ) j i y , x p cuando la v.a. ( ) Y , X toma el valor ( ) j i y , x consideramos el número que se encuentra en la columna correspondiente a i x X = y la fila correspondiente a j y Y = . Por ejemplo: ( ) ( ) 05 0 2 4 2 4 . Y , X P , p = = = = . Podemos verificar fácilmente que la fdp conjunta definida por esta bien definida. En efecto verifica las condiciones a) ( ) ( ) XY j i j i R y , x y , x p ∈ ∀ ≥ 0 y b) ( ) ( ) ∑ ∈ = XY j i R y , x j i y , x p 1. Para contestar la pregunta del enunciado, consideremos el suceso XY R B ⊂ definido B: “es el suceso que ocurre cuando la línea I produce más artículos que la línea II” o, { } Y X B > = . Luego: ( ) ( ) ( ) ∑ ∑ = > = = > = 3 0 j j i y y x j i y , x p Y X P B P 0.01+0.03+0.05+0.07+0.09+0.04+0.05+0.06+0.08+ +0.05+0.05+0.06+0.06+0.05=0.75. 2- Hay tres cajas registradoras a la salida de un supermercado. Dos clientes llegan a las cajas en diferentes momentos cuando no hay otros clientes ante aquellas. Cada cliente escoge una caja al azar e independientemente del otro. Sean las variables aleatorias X: “ nº de clientes que escogen la caja 1” e Y: “nº de clientes que escogen la caja 2”. Hallar la fdp conjunta de (X,Y) Podemos suponer que el espacio muestral original S es el conjunto de pares ordenados { } ) 3 , 3 ( ); 2 , 3 ( ); 1 , 3 ( ); 3 , 2 ( ); 2 , 2 ( ); 1 , 2 ( ); 3 , 1 ( ); 2 , 1 ( ); 1 , 1 ( = S donde la primera componente del par indica la caja elegida por el cliente 1 y la segunda componente del par indica la caja elegida por el cliente 2. Además notar que X como Y pueden tomar los valores 0, 1, 2 El punto muestral (3,3) es el único punto muestral que corresponde al evento { } 0 , 0 = = Y X Entonces 9 1 ) 0 , 0 ( = = = Y X P ; pensando de forma análoga los otros casos: 9 2 ) 0 , 1 ( = = = Y X P ; 9 1 ) 0 , 2 ( = = = Y X P ; 9 2 ) 1 , 0 ( = = = Y X P , 9 2 ) 1 , 1 ( = = = Y X P , 9 1 ) 2 , 0 ( = = = Y X P ; 0 ) 2 , 2 ( ) 2 , 1 ( = = = = = = Y X P Y X P Disponemos estas probabilidades en una tabla de la siguiente forma
  • 4. Parte 1 - Probabilidades Prof. María B. Pintarelli 86 5.2 - Funciones de distribución marginales de una v.a. (X,Y) discreta En el ejemplo 1, supongamos que queremos saber cuál es la probabilidad de que el número de artículos producidos por la línea I sea 2, o sea ) 2 ( = X P Como el evento { } 2 = X es igual a { } { } { } { } { } ( ) 3 2 1 0 2 = ∪ = ∪ = ∪ = ∩ = Y Y Y Y X , y a su vez { } { } { } { } { } ( ) { } { } ( ) { } { } ( ) { } { } ( ) { } { } ( ) 3 2 2 2 1 2 0 2 3 2 1 0 2 = ∩ = ∪ = ∩ = ∪ = ∩ = ∪ = ∩ = = = = ∪ = ∪ = ∪ = ∩ = Y X Y X Y X Y X Y Y Y Y X Entonces ( ) { } { } ( ) { } { } ( ) { } { } ( ) { } { } ( ) ∑ = = = = = = + = = + = = + = = = = = ∩ = + = ∩ = + = ∩ = + = ∩ = = = = 3 0 ) , 2 ( ) 3 , 2 ( ) 2 , 2 ( ) 1 , 2 ( ) 0 , 2 ( 3 2 2 2 1 2 0 2 2 j j Y X P Y X P Y X P Y X P Y X P Y X P Y X P Y X P Y X P X P Razonando de la misma forma podemos escribir ( ) 5 ,..., 1 , 0 ) , ( 3 0 = = = = = ∑ = i j Y i X P i X P j Es decir obtenemos la función de distribución de probabilidad de X Análogamente obtenemos ( ) 3 , 2 , 1 , 0 ) , ( 5 0 = = = = = ∑ = j j Y i X P j Y P i Que es la función de distribución de probabilidad de Y En general se las denomina distribuciones marginales de X e Y, y su definición sería la siguiente Sea (X,Y) discreta y sea ( ) j i y , x p (i=1,2,…n, j=1,2,…,m) su función de probabilidad conjunta (Eventualmente n y/o m pueden ser ∞). La función de probabilidad marginal de X es ( ) ( ) ( ) ∑ = = = = m j j i i i y x p x X P x p 1 , (i=1,2,…,n) La función de probabilidad marginal de Y es ( ) ( ) ( ) ∑ = = = = n i j i j j y x p y Y P y q 1 , (j=1,2,…,m) Observación: Remarcamos que la función de probabilidad marginal de X, es decir ( ) i x p calculada a partir de ( ) j i y , x p en la forma indicada, coincide con la función de probabilidad de la variable aleatoria unidimensional X considerada en forma aislada. Análogamente la función de probabilidad marginal de Y X 0 1 2 0 1/9 2/9 1/9 1 2/9 2/9 0 2 1/9 0 0
  • 5. Parte 1 - Probabilidades Prof. María B. Pintarelli 87 Y, es decir ( ) j y q calculada a partir de ( ) j i y , x p en la forma indicada, coincide con la función de probabilidad de variable aleatoria unidimensional Y considerada en forma aislada. Ejemplo: Siguiendo con el ejemplo 1, ( ) ( ) ( ) ( ) ( ) ( ) 28 0 05 0 06 0 08 0 09 0 3 5 2 5 1 5 0 5 5 5 . . . . . , p , p , p , p X P p = + + + = + + + = = = ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 26 0 06 0 05 0 04 0 02 0 01 0 1 5 1 4 1 3 1 2 1 1 1 0 1 1 . . . . . . , p , p , p , p , p , p Y P q = + + + + = + + + + + = = = Observemos que se verifica la condición de normalización para cada una de las marginales: ( ) ∑ = = + + + + + = 5 0 1 28 0 24 0 21 0 16 0 08 0 03 0 i x i . . . . . . x p ( ) ∑ = = + + + = 3 0 1 24 0 25 0 26 0 25 0 j y j . . . . y q 5.3 - Funciones de probabilidades condicionales Consideremos nuevamente el ejemplo de las dos líneas I y II que producen cierto artículo a pequeña escala. Definimos la v.a. ( ) Y , X cuya función de probabilidad conjunta ( ) j i y , x p está dada por la tabla anterior que repetimos X Y 0 1 2 3 4 5 q(yj) 0 0 0.01 0.03 0.05 0.07 0.09 0.25 1 0.01 0.02 0.04 0.05 0.06 0.08 0.26 2 0.01 0.03 0.05 0.05 0.05 0.06 0.25 3 0.01 0.02 0.04 0.06 0.06 0.05 0.24 p(xi) 0.03 0.08 0.16 0.21 0.24 0.28 1 Supongamos que deseamos conocer la probabilidad de que la línea I produzca tres artículos sabiendo que la línea II ha fabricado dos. Tenemos que calcular una probabilidad condicional. Entonces ( ) ( ) ( ) ( ) 2 . 0 25 . 0 05 . 0 2 2 , 3 2 2 , 3 2 3 = = = =       = = = = = q p Y P Y X P Y X P En general definimos la función de probabilidad puntual de X condicional a Y como sigue: ( ) ( ) ( ) ( ) j j i j i j i y q y , x p y Y x X P y x p = = = = , es decir como el cociente de la función de probabilidad conjunta de ( ) Y , X y la función de probabilidad puntual marginal de Y. Análogamente, definimos la función de probabilidad puntual de Y condicional a X :
  • 6. Parte 1 - Probabilidades Prof. María B. Pintarelli 88 ( ) ( ) ( ) ( ) i j i i j i j x p y , x p x X y Y P x y q = = = = , es decir como el cociente de la función de probabilidad puntual conjunta de ( ) Y , X y la función de probabilidad puntual marginal de X. 5.4– Variables aleatorias independientes Ya se discutió el concepto de independencia entre dos eventos A y B. Esas mismas ideas podemos trasladarlas en relación a dos variables aleatorias X e Y que, eventualmente, podemos considerarlas como las componentes de una variable aleatoria bidimensional ( ) Y , X . De acuerdo con esto, intuitivamente decimos que dos variables, X e Y, son independientes si el valor que toma una de ellas no influye de ninguna manera sobre el valor que toma la otra. Esto lo establecemos más formalmente: Sea ( ) Y , X una variable aleatoria bidimensional discreta. Sea ( ) j i y , x p su fdp conjunta y ( ) i x p y ( ) j y q las correspondientes fdp marginales de X e Y. Decimos que X e Y son variables aleatorias independientes si y sólo si ( ) ( ) ( ) ( ) XY j i j i j i R y , x y q x p y , x p ∈ ∀ = Observación: Notar que para poder afirmar la independencia de X e Y debe cumplirse la factorización de la fdp conjunta como producto de las fdp marginales para todos los pares de valores de la v.a. ( ) Y , X . Por lo tanto, para verificar la independencia es necesario demostrar la validez de la factorización para todos los pares. En cambio, es suficiente encontrar un solo par que no la verifica, para afirmar, de acuerdo con la definición, que las variables X e Y son no independientes, es decir, que son dependientes. Esto es, para demostrar la dependencia es suficiente con encontrar un solo par que no verifique la factorización señalada. Vimos que dos sucesos A y B son independientes si y sólo si ( ) ( ) A P B A P = y ( ) ( ) B P A B P = (donde por supuesto debía ser ( ) 0 ≠ A P y ( ) 0 ≠ B P ). En términos de variables aleatorias, esta forma de ver la independencia se manifiesta en la igualdad entre las fdp condicionales y las correspondientes fdp marginales, como demostramos en este Teorema Sea ( ) Y , X una variable aleatoria bidimensional discreta cuyas fdp conjunta, condicionales y marginales son, respectivamente, ( ) j i y , x p ; ( ) j i y x p , ( ) i j x y q y ( ) i x p , ( ) j y q . Entonces, X e Y son variables aleatorias independientes si y sólo si 1) ( ) ( ) ( ) XY j i i j i R y , x x p y x p ∈ ∀ = , o 2) ( ) ( ) ( ) XY j i j i j R y , x y q x y q ∈ ∀ = , que es equivalente a lo anterior
  • 7. Parte 1 - Probabilidades Prof. María B. Pintarelli 89 Dem.) Demostraremos solamente 1). La equivalencia entre1) y 2) la dejamos como ejercicio. Para demostrar 1) verificaremos la doble equivalencia entre ésta y la definición de v.a. independientes. ⇒) Sean X e Y variables aleatorias independientes. Entonces ( ) XY j i R y , x ∈ ∀ ( ) ( ) ( ) ( ) ( ) ( ) ( ) i j j i j j i j i x p y q y q x p y q y , x p y x p = = = Aquí la primera igualdad es la definición de fdp condicional y la segunda sale de la definición de independencia al suponer que X e Y son independientes. ⇐) Supongamos que se verifica 1). Entonces ( ) XY j i R y , x ∈ ∀ ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) j i j i i j j i i j i y q x p y , x p x p y q y , x p x p y x p = → = → = → X e Y independientes Aquí, la primera implicación se debe a la definición de fdp condicional y la tercera a la definición de v.a. independientes. Ejemplo: 1- Supongamos que una máquina se usa para un trabajo específico a la mañana y para uno diferente en la tarde. Representemos por X e Y el número de veces que la máquina falla en la mañana y en la tarde respectivamente. Supongamos que la tabla siguiente da la función de probabilidad conjunta ( ) j i y , x p de la variable aleatoria bidimensional discreta ( ) Y , X . Y/X 0 1 2 q(yj) 0 0.1 0.2 0.2 0.5 1 0.04 0.08 0.08 0.2 2 0.06 0.12 0.12 0.3 P(xi) 0.2 0.4 0.4 1 Deseamos saber si las variables aleatorias X e Y son independientes o dependientes. Para demostrar que son independientes debemos probar que se verifica ( ) XY j i R y , x ∈ ∀ ( ) ( ) ( ) j i j i y q x p y , x p = Verificamos directamente que ( ) ( ) ( ) 5 0 2 0 0 0 1 0 0 0 . . q p . , p × = = = ( ) ( ) ( ) 2 0 2 0 1 0 04 0 1 0 . . q p . , p × = = = ( ) ( ) ( ) 3 0 2 0 2 0 06 0 2 0 . . q p . , p × = = = ( ) ( ) ( ) 5 0 4 0 0 1 2 0 0 1 . . q p . , p × = = = ( ) ( ) ( ) 2 0 4 0 1 1 08 0 1 1 . . q p . , p × = = = ( ) ( ) ( ) 3 0 4 0 2 1 12 0 2 1 . . q p . , p × = = = ( ) ( ) ( ) 5 0 4 0 0 2 2 0 0 2 . . q p . , p × = = = ( ) ( ) ( ) 2 0 4 0 1 2 08 0 1 2 . . q p . , p × = = = ( ) ( ) ( ) 3 0 4 0 2 2 12 0 2 2 . . q p . , p × = = = Luego X e Y son independientes.
  • 8. Parte 1 - Probabilidades Prof. María B. Pintarelli 90 Podríamos haber usado las condiciones 1) ( ) ( ) ( ) XY j i i j i R y , x x p y x p ∈ ∀ = , o su equivalente 2) ( ) ( ) ( ) XY j i j i j R y , x y q x y q ∈ ∀ = . Veamos, como muestra para un solo valor, que se verifica ( ) ( ) ( ) ( ) 2 4 0 2 0 08 0 1 1 2 1 2 p . . . q , p p = = = = . Para demostrar la independencia por este camino habría que demostrar que se cumple la condición para el resto de los pares de valores. Se deja este cálculo como ejercicio optativo. Observaciones 1- De la definición de las fdp marginales, vemos que tanto en el caso discreto como en el continuo, la fdp conjunta determina unívocamente las fdp marginales. Es decir, si ( ) Y , X es discreta del conocimiento de la función de probabilidad conjunta ( ) j i y , x p podemos determinar unívocamente las funciones de probabilidad ( ) i x p y ( ) j y q . Sin embargo la inversa no se cumple en general. Es decir del conocimiento de ( ) i x p y ( ) j y q no se puede, en general, reconstruir ( ) j i y , x p a menos que X e Y sean variables independientes en cuyo caso es ( ) ( ) ( ) j i j i y q x p y , x p = . 2- El concepto de independencia entre dos variables aleatorias se puede generalizar a n variables aleatorias n X X X ,..., , 2 1 5.5 - Función de una variable aleatoria bidimensional Existen muchas situaciones en las que dado una variable aleatoria bidimensional nos interesa considerar otra variable aleatoria que es función de aquélla. Por ejemplo, supongamos que las variables aleatorias X e Y denotan la longitud y el ancho, respectivamente, de una pieza, entonces Y X Z 2 2 + = es una v.a. que representa el perímetro de la pieza, o la v.a. Y X W . = representa el área de la pieza. Tanto Z como W son variables aleatorias. En general, sea S un espacio muestral asociado a un experimento probabilístico ε , sean R S : X → e R S : Y → dos variables aleatorias que definen una variable aleatoria bidimensional ( ) Y , X cuyo recorrido es XY R , y sea una función de dos variables reales R R : H XY → que a cada elemento( ) y , x del recorrido XY R le hace corresponder un número real ( ) y , x H z = , entonces la función compuesta ( ) R S Y X H Z → = : , es una variable aleatoria, puesto que a cada elemento S s ∈ le hace corresponder un número real ( ) ( ) [ ] s Y , s X H z = . Diremos que la variable aleatoria Z es función de la variable aleatoria bidimensional (X,Y). Algunas variables aleatorias que son función de variables aleatorias bidimensionales son Y X Z + = , Y . X Z = , Y / X Z = , ( ) Y , X mín Z = , ( ) Y , X máx Z = , etc. Lo anterior se puede generalizar si en lugar de dos variables aleatorias tenemos n variables aleatorias n X X X ,..., , 2 1 , y ( ) n x x x H z ,... , 2 1 = es una función de n variables a valores reales.
  • 9. Parte 1 - Probabilidades Prof. María B. Pintarelli 91 Ejemplos: 1- Sea ) , ( ~ p n B Z Podemos escribir a Z como suma de variables aleatorias de la siguiente forma. Recordar que Z cuenta el número de éxitos en n repeticiones o ensayos del experimento ε Si definimos      − = contrario caso éxito ocurre de repetición ésima í la en si Xi 0 1 ε n i ,..., 2 , 1 = Notar que a cada i X se la puede considerar ) , 1 ( p B , y además n X X X ,..., , 2 1 son independientes Podemos escribir n X X X Z + + + = ... 2 1 2- Sea Z v.a. binomial negativa con parámetros r y p, es decir ) , ( ~ p r BN Z Si definimos 1 X : “número de repeticiones del experimento requeridos hasta el 1º éxito” 2 X : “número de repeticiones del experimento adicionales requeridos hasta el 2º éxito” 3 X : “número de repeticiones del experimento adicionales requeridos hasta el 3º éxito” Y en general i X : “número de repeticiones del experimento adicionales después del (i-1)–ésimo éxito requeridos hasta el i-ésimo éxito” Entonces cada variable tiene distribución geométrica con parámetro p y r X X X Z + + + = ... 2 1 Notar además que r X X X ,..., , 2 1 son independientes Esperanza de una v.a. que es función de una v.a. bidimensional Sea una variable aleatoria bidimensional ( ) Y , X cuya fdp conjunta es la función de probabilidad conjunta ( ) j i y , x p si es discreta o la función de densidad de probabilidad conjunta ( ) y , x f si es continua y sea una función real de dos variables ( ) y , x H z = de manera que podemos definir una variable aleatoria Z que es función de la variable aleatoria bidimensional ( ) Y , X de la forma ( ) Y , X H Z = . Si la fdp de Z es ( ) i z q , siendo Z discreta, entonces la esperanza matemática de Z es, de acuerdo con la definición general, ( ) ( ) ∑ ∈ = X i R x i i z q . z Z E (Z discreta) Nuevamente lo interesante es considerar la posibilidad de evaluar ( ) Z E sin tener que calcular previamente la fdp de Z. El siguiente teorema nos muestra cómo hacerlo. Teorema Sea (X,Y) una variable aleatoria bidimensional y sea Z=H(X,Y) una variable aleatoria que es función de (X,Y). Si Z es variable aleatoria discreta que proviene de la variable aleatoria bidimensional discreta (X,Y) cuyo recorrido es XY R y su fdp conjunta es ( ) j i y , x p , entonces: ( ) ( ) [ ] ( ) ( ) ( ) ∑ ∈ = = XY j i R y , x j i j i y , x p y , x H Y , X H E Z E Dem.) sin demostración
  • 10. Parte 1 - Probabilidades Prof. María B. Pintarelli 92 Esperanza de una suma de variables aleatorias Dem.) en el teorema anterior consideramos y x y x H + = ) , ( Si (X,Y) es discreta ( ) ( ) [ ] ( ) ( ) ( ) = + = = = ∑ ∑ ∈ ∈ ) , ( ) ( , , , ) , ( , j R y x i j i R y x j i j i y x p y x y x p y x H Y X H E Z E XY j i XY j i Aplicando la propiedad distributiva y separando en dos sumas ( ) = + = + = ∑ ∑ ∑ ∈ ∈ ∈ ) , ( ) , ( ) , ( ) ( ) , ( ) , ( ) , ( j R y x i j j i R y x i j R y x i j i y x p y y x p x y x p y x Z E XY j i XY j i XY j i ∑ ∑ ∑ ∑ ∑∑ ∑∑ = + = + = j i j i j i j j i i j i i j j j i i j i y x p y y x p x y x p y y x p x ) , ( ) , ( ) , ( ) , ( Pero ) ( ) , ( ∑ = j i j i x p y x p y ) ( ) , ( ∑ = i j j i y q y x p , por lo tanto ) ( ) ( ) ( ) ( Y E X E y q y x p x j j j i i i + = + = ∑ ∑ Para el caso (X,Y) continua sigue siendo válida esta propiedad. Podemos generalizar la propiedad anterior a un número finito cualquiera de variables aleatorias: (leeremos: “la esperanza de la suma es la suma de las esperanzas”) Dem.) Se deduce por inducción completa sobre el número n de variables aleatorias. Observación: se deduce que la esperanza verifica la propiedad lineal: ( ) ∑ ∑ = = =       n i i i n i i i X E a X a E 1 1 . Ejemplos: 1- Vamos a aplicar algunas de las propiedades anteriores para calcular de una manera alternativa la esperanza matemática de una variable aleatoria X distribuida binomialmente. Sea entonces una v.a. X∼B(n,p). Ya vimos que podemos escribir n X X X X + + + = ... 2 1 donde cada i X se la puede considerar ) , 1 ( p B , y además n X X X ,..., , 2 1 son independientes Sean X e Y dos variables aleatorias arbitrarias. Entonces ( ) ( ) ( ) Y E X E Y X E + = + . Sean n X ,..., X , X 2 1 n variables aleatorias arbitrarias. Entonces: ( ) ( ) ( ) ( ) n n X E ... X E X E X ... X X E + + + = + + + 2 1 2 1 o, en notación más concentrada,: ( ) ∑ ∑ = = =       n i i n i X E X E 1 1 1
  • 11. Parte 1 - Probabilidades Prof. María B. Pintarelli 93 Entonces p X P X P X P X E i i i i = = = = × + = × = ) 1 ( ) 0 ( 0 ) 1 ( 1 ) ( para cualquier i Por lo tanto ( ) ( ) ( ) ( ) np p p p X E X E X E X X X E X E veces n n n = + + + = + + + = + + + = 4 4 3 4 4 2 1 ... ... ... ) ( 2 1 2 1 Observación: muchas veces es conveniente descomponer una variable aleatoria como suma de otras más simples para facilitar los cálculos 2- Esperanza de una v.a. binomial negativa Cuando se trató la v.a. binomial negativa se dijo cuál era su esperanza. Ahora damos una demostración Sea X v.a. binomial negativa con parámetros r y p, es decir ) , ( ~ p r BN X Si definimos 1 X : “número de repeticiones del experimento requeridos hasta el 1º éxito” 2 X : “número de repeticiones del experimento adicionales requeridos hasta el 2º éxito” 3 X : “número de repeticiones del experimento adicionales requeridos hasta el 3º éxito” Y en general i X : “número de repeticiones del experimento adicionales después del (i-1)–ésimo éxito requeridos hasta el i-ésimo éxito” Entonces cada variable tiene distribución geométrica con parámetro p y r X X X X + + + = ... 2 1 Por lo tanto ( ) ( ) ( ) ( ) p r p r p p p X E X E X E X X X E X E veces r r r = = + + + = + + + = + + + = 1 1 ... 1 1 ... ... ) ( 2 1 2 1 4 4 3 4 4 2 1 3- Esperanza de una v.a. hipergeométrica ) ( entonces ) , ( ~ Si N nM X E N M, n H X = Para facilitar la demostración supongamos que tenemos N bolillas en una urna de las cuales M son rojas y N-M son blancas. Queremos hallar el número esperado de bolillas rojas extraídas Definimos las variables      − = contrario caso extraída es roja bolilla ésima i la si Xi 0 1 Las variables M X X X ,... , 2 1 no son independientes Se puede escribir M X X X X + + + = ... 2 1 , además N n n N n N X P X E i i =                 − −         = = = 1 1 1 1 ) 1 ( ) ( Por lo tanto
  • 12. Parte 1 - Probabilidades Prof. María B. Pintarelli 94 ( ) ( ) ( ) ( ) N nM N n M N n N n N n X E X E X E X X X E X E veces M Mr M = = + + + = + + + = + + + = 4 4 3 4 4 2 1 ... ... ... ) ( 2 1 2 1 Ejemplo El espesor X de una cuña de madera (en milímetros) tiene una función de densidad de probabilidad a) Determine E(X) b) Si Y denota el espesor de una cuña en pulgadas (1mm = 0.0394 pulgadas), determine E(Y) c) Si se seleccionan tres cuñas de manera independiente y las apilamos una encima de otra, encuentre la me- dia y la varianza del espesor total. a) Verifique el lector que 5 ) 5 ( 4 3 4 3 ) ( 6 4 2 =         − − = ∫ dx x x X E b) X Y 0394 . 0 = entonces 197 . 0 ) ( 0394 . 0 ) 0394 . 0 ( ) ( = = = X E X E Y E c) Notar que si i X : “espesor de cuña i” , i = 1, 2, 3 entonces X X X X 3 2 1 + + = es el espesor total Por lo tanto 15 5 5 5 ) ( ) ( ) ( ) ( ) ( 3 2 1 3 2 1 = + + = + + = + + = X E X E X E X X X E X E En general la esperanza de un producto de variables aleatorias no es igual al producto de las esperanzas (leeremos:” la esperanza del producto es el producto de las esperanzas”). Dem.) análoga a la demostración de la propiedad anterior. Para el caso (X,Y) continua sigue siendo válida esta propiedad. Ejemplo: Supongamos que debido a innumerables causas incontrolables la corriente i y la resistencia r de un circuito varían aleatoriamente de forma tal que pueden considerarse como variables aleatorias I y R independientes. Supongamos que las correspondientes fdp son: ( )      ≤ ≤ = valores demás i i i g 0 1 0 2 ( )      ≤ ≤ = valores demás r r r h 0 3 0 9 2 Nos interesa considerar el voltaje r . i v = de manera que podemos definir la variable aleatoria R . I V = . Hallar el valor esperado o esperanza matemática del voltaje: ( ) V E . Como I y R son independientes, usando la propiedad anterior ( ) ) ( ) ( R E I E V E = Si ( ) Y , X es una variable aleatoria bidimensional tal que X e Y son variables aleatorias independientes, entonces: ( ) ( ) ( ) Y E . X E Y . X E = ( )      ≤ ≤ − − = lado otro en 0 6 4 4 5 3 4 3 ) ( 2 x x x f
  • 13. Parte 1 - Probabilidades Prof. María B. Pintarelli 95 3 2 3 2 ) 2 ( ) ( 1 0 3 1 0 = = = ∫ i di i i I E 1 9 3 9 1 4 9 1 9 ) ( 4 3 0 4 3 0 2 = × = =         = ∫ r dr r r R E 3 2 1 3 2 ) ( = × = ∴ V E Varianza de una suma de variables aleatorias . Dem.) Escribimos la varianza en su forma alternativa ( ) [ ] ( ) ( ) [ ]2 2 Y X E Y X E Y X V + − + = + . Desarrollamos los cuadrados y aplicamos la propiedad lineal de la esperanza: ( ) ( ) ( ) ( ) [ ] ( ) ( ) ( ) ( ) [ ] ( ) ( ) ( ) [ ] { } 2 2 2 2 2 2 2 2 2 2 Y E Y E X E X E Y E Y . X E X E Y E X E Y Y . X . X E Y X V + + − + + = + − + + = + Agrupando convenientemente: ( ) ( ) ( ) [ ] { } ( ) ( ) [ ] { } ( ) ( ) ( ) { } ( ) ( ) ( ) ( ) ( ) { } Y E X E Y . X E Y V X V Y E X E Y . X E Y E Y E X E X E Y X V − + + = − + − + − = + 2 2 2 2 2 2 , es decir ( ) ( ) ( ) XY σ Y V X V Y X V 2 + + = + Observaciones: 1- Teniendo presente la definición de la desviación estándar de una v.a. X: ( ) X V σX = , vemos que a la propiedad anterior la podemos escribir: ( ) XY Y X σ σ σ Y X V 2 2 2 + + = + 2- Análogamente se prueba que ( ) XY Y X Y X V σ σ σ 2 2 2 − + = − 3- X e Y son independientes, entonces ( ) ( ) ( ) Y V X V Y X V Y X V + = − = + ) ( Esto es porque si las variables aleatorias X e Y son independientes, entonces ( ) ( ) ( ) Y E . X E Y . X E = . Por lo tanto la covarianza vale cero : ( ) ( ) ( ) 0 = − = Y E . X E Y . X E σXY . ( ) ( ) ( ) XY Y V X V Y X V σ 2 + + = + con ( ) ( ) ( ) Y E . X E Y . X E σXY − = ( ) ( ) ( ) Y E . X E Y . X E σXY − = se la llama la covarianza de X e Y.
  • 14. Parte 1 - Probabilidades Prof. María B. Pintarelli 96 4- Podemos generalizar, usando el principio de inducción completa, al caso de n variables aleatorias independientes: Si n X ,..., X , X 2 1 son n variables aleatorias independientes entonces: ( ) ( ) ( ) ( ) n n X V ... X V X V X ... X X V + + + = + + + 2 1 2 1 o, en forma más compacta, ( ) ∑ ∑ = = =       n i i n i i X V X V 1 1 . 5- Vemos que la esperanza de la suma de dos variables aleatorias X e Y es igual a la suma de las esperanzas ( ) ( ) ( ) Y E X E Y X E + = + cualesquiera sean X e Y . En cambio la varianza de la suma de las variables aleatorias X e Y es, en general, igual a la suma de las varianzas, ( ) ( ) ( ) Y V X V Y X V + = + , sólo si X e Y son variables independientes. Ejemplos: 1- Podemos ejemplificar la aplicación de las propiedades de la varianza, calculando nuevamente la varianza de una v.a. X distribuida binomialmente con parámetros n y p. Sea entonces una v.a. X∼B(n,p). Vimos que se puede escribir: n X X X X + + + = ... 2 1 , donde las n variables aleatorias son independientes entre sí y tienen todas la misma distribución: ( ) p B Xi , 1 ∼ n ,..., , i 2 1 = ∀ Entonces, tratándose de n variables aleatorias independientes ( ) ( ) ( ) ( ) n X V X V X V X V + + + = ... 2 1 todas la varianzas son iguales y podemos escribir la suma como n veces una cualquiera de ellas: ( ) ( ) i X nV X V = . Pero ( ) ( ) ( ) [ ]2 2 i i i X E X E X V − = . Ya vimos que ( ) ( ) 0 1 0 . 1 = − + = p p X E i Además es: ( ) ( ) p p p X E i = − + = 1 0 . 1 2 2 2 Entonces: ( ) ( ) ( ) [ ] ( ) p p p p X E X E X V i i i − = − = − = 1 2 2 2 . Luego: ( ) ( ) ( ) p np X nV X V i − = = 1 que es el resultado que habíamos obtenido a partir de la definición y llevando las sumas involucradas a la forma del desarrollo de un binomio de Newton. 2- Varianza de una v.a. binomial negativa Ya vimos que podemos escribir r X X X X + + + = ... 2 1 , donde cada variable i X tiene distribución geométrica con parámetro p Por lo tanto ( ) ( ) ( ) ( ) 2 2 1 1 ... p p r X V X V X V X V r − = + + + = 5.6 - Covarianza Sean X e Y dos variables aleatorias. La covarianza de X e Y se define: ( ) [ ] ( ) [ ] { } ( ) ( ) ( ) Y E X E Y X E Y E Y X E X E Y X Cov . . . ) , ( − = − − =
  • 15. Parte 1 - Probabilidades Prof. María B. Pintarelli 97 Notación: la notación usual para la covarianza de X e Y es XY σ o ) , ( Y X Cov La última igualdad surge de desarrollar el producto y aplicar las propiedades de la esperanza: ( ) [ ] ( ) [ ] { } ( ) ( ) ( ) ( ) { } Y E X E Y . X E Y E . X Y . X E Y E Y . X E X E + − − = − − Teniendo presente que ( ) X E y ( ) Y E son constantes: ( ) [ ] ( ) [ ] { } ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) Y E . X E Y . X E Y E X E Y E X E Y E . X E Y . X E Y E Y . X E X E − = + − − = − − . Dem. ) Según vimos, si X e Y son variables aleatorias independientes, entonces ( ) ( ) ( ) Y E . X E Y . X E = , de donde se sigue la propiedad. Propiedades de la covarianza Las siguientes propiedades son útiles y su verificación se deja como ejercicio 1- ) , ( ) , ( Y X bdCov dY c bX a Cov = + + 2- ) , ( ) , ( ) , ( Z Y Cov Z X Cov Z Y X Cov + = + 3- ∑∑ ∑ ∑ = = = = =         n i m j j i m j j n i i Y X Cov Y X Cov 1 1 1 1 ) , ( , 4- ) ( ) , ( X V X X Cov = Ejemplos: 1)Varianza de una v.a. hipergeométrica       − −       − = 1 ) ( entonces ) , ( ~ Si N n N N M N N M n X V N M, n H X Para facilitar la demostración supongamos que tenemos N bolillas en una urna de las cuales M son rojas y N-M son blancas. Queremos hallar la varianza del número de bolillas blancas extraídas Como antes definimos las variables      − = contrario caso extraída es roja bolilla ésima i la si Xi 0 1 Las variables M X X X ,... , 2 1 no son independientes Se puede escribir M X X X X + + + = ... 2 1 , además N n n N n N X P X E i i =                 − −         = = = 1 1 1 1 ) 1 ( ) ( y ( )       − =       − = − = N n N n N n N n X E X E X V i i i 1 ) ( ) ( ) ( 2 2 2 Si X e Y son variables aleatorias independientes, entonces 0 ) , ( = Y X Cov .
  • 16. Parte 1 - Probabilidades Prof. María B. Pintarelli 98 Por lo tanto ) , ( 2 ) ( ) ... ( ) ( 1 1 2 1 j M i M j i i i M X X Cov X V X X X V X V ∑ ∑ = ≤ ≤< + = + + + = Por otro lado ) ( ) ( ) ( ) ; ( j i j i j i Y E X E X X E X X Cov − = Y ) 1 ( ) 1 ( ) ( − − = N N n n X X E j i , entonces 2 ) 1 ( ) 1 ( ) ; (       − − − = N n N N n n X X Cov j i Aplicando algunos pasos algebraicos se llega a       −       − − =       − − − = N n N N n N n N N n n X X Cov j i 1 1 1 ) 1 ( ) 1 ( ) ; ( 2 Reemplazando             −       − −         +       − = + = ∑ ∑ = ≤ ≤< N n N n N M N n N n M X X Cov X V X V j M i M j i i i 1 1 1 2 2 1 ) , ( 2 ) ( ) ( 1 1 Nuevamente, luego de algunos cálculos algebraicos se llega a       − −       − = 1 ) ( N n N N M N N M n X V 2) De una caja con frutas que contiene 3 naranjas, 2 manzanas y 3 plátanos se selecciona una muestra de 4 frutas. Sean las variables aleatorias X: “ nº de naranjas extraídas” Y: “nº de manzanas extraídas” Notar que la f.d.p. conjunta de (X,Y) es 4 1 ; 2 , 1 , 0 ; 3 , 2 , 1 , 0 4 8 4 3 2 3 ) , ( ≤ + ≤ = =                 − −                 = = = y x y x y x y x y Y x X P Es un ejemplo de v.a. hipergeométrica bidimensional. También se podría haber presentado la f.d.p. conjunta en una tabla, donde también figuran las distri- buciones marginales de X e Y. a) ¿Cuales son E(X) , V(X), E(Y) y V(Y)? 2 3 70 105 70 3 3 70 9 2 70 3 1 0 0 ) ( = = = × + × + × + × = X E 1 70 15 2 70 40 1 70 15 0 ) ( = × + × + × = Y E Verifique el lector que 28 15 ) ( = X V y 7 3 ) ( = Y V X/Y 0 1 2 0 0 2/70 3/70 5/70 1 3/70 18/70 9/70 30/70 2 9/70 18/70 3/70 30/70 3 3/70 2/70 0 5/70 15/70 40/70 15/70
  • 17. Parte 1 - Probabilidades Prof. María B. Pintarelli 99 b) ¿Son X e Y independientes? 0 ) 0 , 0 ( = = = Y X P pero 0 70 15 70 5 ) 0 ( ) 0 ( ≠ = = = Y P X P Por lo tanto X e Y son dependientes, lo que implica que 0 ) , ( ≠ Y X Cov c) ¿Cuál es la Cov(X,Y)? ) ( ) ( ) ( ) , ( Y E X E XY E Y X Cov − = 70 90 0 2 3 70 2 1 3 70 3 0 3 70 3 2 2 70 18 1 2 70 9 0 2 70 9 2 1 70 18 1 1 70 3 0 1 70 3 2 0 70 2 1 0 0 0 0 ) ( = × × + × × + × × + + × × + × × + × × + + × × + × × + × × + + × × + × × + × × = XY E Entonces 14 3 1 2 3 7 9 ) ( ) ( ) ( ) , ( − = × − = − = Y E X E XY E Y X Cov d) Z = X+Y simboliza el total de naranjas y manzanas extraídas ¿Cuál es la E(Z) y V(Z) ? 5 . 2 1 2 3 ) ( ) ( ) ( ) ( = + = + = + = Y E X E Y X E Z E 28 15 14 3 2 7 3 18 15 ) , ( 2 ) ( ) ( ) ( =         − × + + = + + = Y X Cov Y V X V Z V e) Supongamos que cada naranja cuesta 2$ y cada manzana cuesta 1.5$ entonces Y X W 5 . 1 2 + = es el costo del total de frutas extraídas. Hallar E(W) y V(W) $ 5 . 4 ) ( 5 . 1 ) ( 2 ) 5 . 1 2 ( ) ( = + = + = Y E X E Y X E W E 28 51 ) , ( 5 . 1 2 2 ) ( 5 . 1 ) ( 2 ) 5 . 1 2 ( ) ( 2 2 = × × + + = + = Y X Cov Y V X V Y X V W V 5.7 - Coeficiente de correlación lineal. En realidad más que la covarianza aquí nos interesa considerar una cantidad relacionada con XY σ y que según veremos nos dará información sobre el grado de asociación que existe entre X e Y . Más concretamente nos contará si existe algún grado de relación lineal entre X e Y . Esa cantidad es el coeficiente de correlación lineal. En el mismo sentido en que podemos tener una idea aproximada sobre la probabilidad de un suceso A si repetimos el experimento y consideramos las ocurrencias de A en las n repeticiones, así podemos tener también una primera idea sobre la existencia de una relación funcional, específicamente una relación lineal, entre X e Y si consideramos un diagrama de dispersión. Consiste en
  • 18. Parte 1 - Probabilidades Prof. María B. Pintarelli 100 dibujar pares de valores ( ) j i y , x medidos de la variable aleatoria ( ) Y , X en un sistema de coordenadas. En la figura mostramos diversas situaciones posibles. De la figura a se deduciría que entre X e Y no hay ningún tipo de relación funcional. La figura b sugiere la posibilidad de que exista una relación funcional que corresponde a una parábola. La figura c, por su parte, sugiere una relación lineal entre X e Y . Este último es el comportamiento que nos interesa caracterizar. Con ese fin definimos el coeficiente de correlación lineal como sigue: En consecuencia: ( ) [ ] ( ) [ ] { } ( ) ( ) ( ) ( ) ( ) ( ) ( ) Y V . X V Y E . X E Y . X E Y V . X V Y E Y . X E X E ρXY − = − − = . Daremos una serie de propiedades de XY ρ que nos permitirán establecer más concretamente su significado. Propiedad 1 Dem.) inmediata a partir del hecho que si X e Y son independientes entonces ) ( ) ( ) ( Y E X E XY E = Observación: La inversa no es necesariamente cierta. Puede ser que 0 = XY ρ y sin embargo X e Y no sean variables aleatorias independientes. En efecto si tenemos una v.a. bidimensional ( ) Y , X que da lugar a un diagrama de dispersión como el que se muestra en la figura, veremos que correspondería a un coeficiente de correlación lineal 0 = XY ρ y sin embargo la figura sugiere que entre X e Y existe la relación funcional 1 2 2 = + Y X , es decir X e Y son v.a. dependientes. En realidad, como veremos, XY ρ es 0 0 a b c x x y y y (xi yi) x Sea ( ) Y , X una variable aleatoria bidimensional. Definimos el coeficiente de correlación lineal entre X e Y como Y X XY Y X Cov σ σ ρ ) , ( = Si X e Y son variables aleatorias independientes entonces 0 = XY ρ .
  • 19. Parte 1 - Probabilidades Prof. María B. Pintarelli 101 una medida de la existencia de una relación lineal entre X e Y y una circunferencia se aleja mucho de una línea recta. Propiedad 2 : Dem.) Si consideramos la v.a. Y X Y X σ σ + entonces ( ) XY Y X Y X Y X Y X Cov Y V X V Y X V ρ σ σ σ σ σ σ + = + + =         + ≤ 1 2 ) , ( 2 ) ( ) ( 0 2 2 Implicando que XY ρ ≤ −1 Por otro lado: ( ) XY Y X Y X Y X Y X Cov Y V X V Y X V ρ σ σ σ σ σ σ − = − + =         − ≤ 1 2 ) , ( 2 ) ( ) ( 0 2 2 Implicando que 1 ≤ XY ρ 1 1 ≤ ≤ − ∴ XY ρ Propiedad 3 : Dem.) Si 1 2 = XY ρ entonces 1 = XY ρ o 1 − = XY ρ Si 1 − = XY ρ entonces de la demostración anterior se deduce que y x 0 1 2 3 -1 -2 -1 1 1 1 ≤ ≤ − XY ρ Si 1 2 = XY ρ , entonces con probabilidad 1 es B X . A Y + = donde A y B son constantes.
  • 20. Parte 1 - Probabilidades Prof. María B. Pintarelli 102 ( ) 0 1 2 = + =         + XY Y X Y X V ρ σ σ , lo que implica que la v.a. Y X Y X Z σ σ + = tiene varianza cero. Según la interpretación de varianza podemos deducir (en forma intuitiva) que la v.a. no tiene dispersión con respecto a su esperanza, es decir la v.a. Z es una constante con probabilidad 1 Por lo tanto esto implica que B X . A Y + = con 0 < − = X Y A σ σ Análogamente 1 = XY ρ implica que B X . A Y + = con 0 > = X Y A σ σ Propiedad 4 : Dem.) se deja como ejercicio Observación: Claramente las propiedades anteriores establecen que el coeficiente de correlación lineal es una medida del grado de linealidad entre X e Y. Ejemplo En el ejemplo anterior 44721 . 0 5 5 7 3 28 15 14 3 ) ( ) ( ) , ( − = − = − = = Y V X V Y X Cov XY ρ Si X e Y son dos variables aleatorias tales que B X . A Y + = , donde A y B son constantes, entonces 1 2 = XY ρ . Si 0 > A es 1 = XY ρ y si 0 < A es 1 − = XY ρ .
  • 21. Parte 1 - Probabilidades Prof. María B. Pintarelli 103 6- SUMA DE VARIABLES ALEATORIAS Y TEOREMA CENTRAL DEL LÍMITE 6.1 – Suma de variables aleatorias independientes Cuando se estudiaron las variables aleatorias bidimensionales se habló de una función de variable aleatoria bidimensional. En particular se nombró la suma de n variables aleatorias, pero no se dijo nada sobre la distribución de esa v.a. suma. Es a menudo importante saber cuál es la distribución de una suma de variables aleatorias independientes. Consideramos algunos ejemplos en el caso discreto 1- Suma de variables aleatorias independientes con distribución Poisson ) ( ~ ntes independie Y y ; ) ( ~ ; ) ( ~ 2 1 2 1 λ λ λ λ + + ⇒ P Y X X P Y P X Dem.) Consideramos el evento { } n Y X = + como unión de eventos excluyentes { } n k k n Y k X ≤ ≤ − = = 0 , , entonces ( ) = − = − = = = − = = = = + − − = − = = ∑ ∑ ∑ ! ! ) ( ) ( ) , ( ) ( 2 0 1 0 0 2 1 k n e k e k n Y P k X P k n Y k X P n Y X P k n n k k n k n k λ λ λ λ X e Y independientes ( ) ( ) ( )n k n n k k n k k n k n e k n k n n e k n k e 2 1 ) ( 2 0 1 ) ( 0 2 1 ) ( ! ! ! ! ! ! ! 2 1 2 1 2 1 λ λ λ λ λ λ λ λ λ λ λ λ + = − = − = + − − = + − = − + − ∑ ∑ Binomio de Newton O sea X+Y tiene distribución Poisson con parámetro 2 1 λ λ + 2- Suma de variables aleatorias binomiales independientes ) , ( ~ ntes independie Y y ; ) , ( ~ ; ) , ( ~ 2 1 2 1 p n n B Y X X p n B Y p n B X + + ⇒ Dem.) Nuevamente consideramos el evento { } k Y X = + como unión de eventos excluyentes { } 1 0 , n i i k Y i X ≤ ≤ − = = , entonces = −         − −         = − = = = − = = = = + + − − − = = = ∑ ∑ ∑ i k n i k i n i n k n i n i p p i k n p p i n i k Y P i X P i k Y i X P k Y X P 2 1 1 1 1 ) 1 ( ) 1 ( ) ( ) ( ) , ( ) ( 2 0 1 0 0 X e Y independientes         −         − = ∑ = − + i k n i n p p n i k n n k 2 0 1 1 2 1 ) 1 ( En la expresión anterior si r j > entonces 0 =         j r
  • 22. Parte 1 - Probabilidades Prof. María B. Pintarelli 104 Por último usamos la siguiente identidad combinatoria ∑ =         + =         −         1 0 2 1 2 1 n i k n n i k n i n Y entonces k n n k p p k n n k Y X P − + −         + = = + 2 1 ) 1 ( ) ( 2 1 O sea X+Y tiene distribución binomial con parámetros 2 1 n n + y p Observación: en los dos casos anteriores se puede generalizar el resultado a n variables aleatorias independientes, usando el principio de inducción completa, es decir 1- Si n X X X ,..., , 2 1 son n variables aleatorias independientes donde ) ( ~ i i P X λ para todo n i ,..., 2 , 1 = entonces ) ( ~ 0 0 ∑ ∑ = = n i i n i i P X λ 2- Si n X X X ,..., , 2 1 son n variables aleatorias independientes donde ) , ( ~ p n B X i i para todo n i ,..., 2 , 1 = entonces ) , ( ~ 0 0 p n B X n i i n i i ∑ ∑ = = Suma de variables aleatorias normales independientes Si X e Y son dos variables aleatorias continuas independientes con densidades g(x) y h(y) respectivamente se puede probar (no lo demostraremos aquí) que la v.a. Y X Z + = tiene densidad dada por ∫ ∞ ∞ − + − = dy y h y z g z f Y X ) ( ) ( ) ( Usando esto se puede demostrar el siguiente importante resultado: Por inducción completa se puede generalizar este resultado a n variables: De lo anterior y del hecho que ( ) ) , ~ , ~ 2 2 2 σ µ σ µ a b N(a b aX N X + + ⇒ tenemos: Si n X X X ,..., , 2 1 son n variables aleatorias independientes donde ) , ( ~ 2 i i i N X σ µ para todo n i ,..., 2 , 1 = entonces ) , ( ~ 1 2 0 0 ∑ ∑ ∑ = = = n i i n i i n i i N X σ µ Si n X X X ,..., , 2 1 son n variables aleatorias independientes donde ) , ( ~ 2 i i i N X σ µ para todo n i ,..., 2 , 1 = entonces ) , ( ~ 1 2 2 0 0 ∑ ∑ ∑ = = = n i i i n i i i n i i i a a N X a σ µ donde n a a a ,..., , 2 1 son números reales Si X e Y son variables aleatorias independientes donde ( ) , ~ 2 1 1 σ µ N X y ( ) , ~ 2 2 2 σ µ N Y entonces ( ) , ~ 2 2 2 1 2 1 σ σ µ µ + + + N Y X
  • 23. Parte 1 - Probabilidades Prof. María B. Pintarelli 105 Se dice que ∑ = n i i i X a 0 es una combinación lineal de variables aleatorias. Ejemplos: 1- La envoltura de plástico para un disco magnético está formada por dos hojas. El espesor de cada una tiene una distribución normal con media 1.5 milímetros y desviación estándar de 0.1 milí- metros. Las hojas son independientes. a) Determine la media y la desviación estándar del espesor total de las dos hojas. b) ¿Cuál es la probabilidad de que el espesor total sea mayor que 3.3 milímetros? Solución: Sean las variables aleatorias X: “espesor de la hoja 1” e Y: “espesor de la hoja 2” Entonces ) 1 . 0 , 5 . 1 ~ 2 N( X ; ) 1 . 0 , 5 . 1 ~ 2 N( Y y X e Y independientes a) Si definimos la v.a. Z: “espesor total de las dos hojas” , entonces Y X Z + = Por lo tanto ) 1 . 0 1 . 0 , 5 . 1 5 . 1 ~ 2 2 + + N( Z es decir ) 02 . 0 , 3 ~ N( Z En consecuencia 3 ) ( = Z E , 02 . 0 ) ( = = Z V Z σ b) Se pide calcular ) 3 . 3 ( > Z P ( ) 017 . 0 983 . 0 1 12132 . 2 1 02 . 0 3 3 . 3 1 02 . 0 3 3 . 3 02 . 0 3 ) 3 . 3 ( = − = Φ − =         − Φ − =         − > − = > Z P Z P 2-Tengo tres mensajes que atender en el edificio administrativo. Sea Xi : “ el tiempo que toma el i- ésimo mensaje” (i = 1, 2 ,3), y sea X4 : “ el tiempo total que utilizo para caminar hacia y desde el edificio y entre cada mensaje”. Suponga que las Xi son independientes, normalmente distribui- das, con las siguientes medias y desviaciones estándar: 3 , 12 , 2 , 8 , 1 , 5 , 4 min, 15 4 4 3 3 2 2 1 1 = = = = = = = = σ µ σ µ σ µ σ µ Pienso salir de mi oficina precisamente a las 10.00 a.m. y deseo pegar una nota en mi puerta que dice “regreso a las t a.m.” ¿A qué hora t debo escribir si deseo que la probabilidad de mi llegada después de t sea 0.01? Solución: Definimos la v.a. Z: “tiempo transcurrido desde que salgo de mi oficina hasta que re- greso”, entonces 4 3 2 1 X X X X T + + + = Por lo tanto       ∑ ∑ = = 4 1 2 4 1 , ~ i i i i N T σ µ , y se pide hallar t tal que 01 . 0 ) ( = > t T P 50 12 8 5 15 4 1 = + + + = ∑ = i i µ y 30 3 2 1 4 2 2 2 4 1 2 2 = + + + = ∑ = i i σ Entonces 01 . 0 30 50 1 ) ( =         − Φ − = > t t T P , es decir 99 . 0 30 50 =         − Φ t Buscando en la tabla de la normal 7619 . 62 50 30 33 . 2 33 . 2 30 50 = + × = ⇒ = − t t 3- El ancho del marco de una puerta tiene una distribución normal con media 24 pulgadas y des- viación estándar de 1/8 de pulgada. El ancho de la puerta tiene una distribución normal con me- dia 23.875 de pulgadas y desviación estándar de 1/16 de pulgadas. Suponer independencia. a) Determine la distribución, la media y la desviación estándar de la diferencia entre el ancho del marco y de la puerta.
  • 24. Parte 1 - Probabilidades Prof. María B. Pintarelli 106 b) ¿Cuál es la probabilidad de que la diferencia entre el ancho del marco y de la puerta sea ma- yor que ¼ de pulgada?. c) ¿Cuál es la probabilidad de que la puerta no quepa en el marco?. Solución: Sean las variables aleatorias X: “ancho del marco de la puerta en pulgadas” Y: “ancho de la puerta en pulgadas” Entonces ) 1/8) ( , 24 ~ 2 N( X , ) 1/16) ( , 875 . 23 ~ 2 N( Y , X e Y independientes a) Se pide la distribución de X-Y , ) ( Y X E − , ) ( Y X V Y X − = − σ 125 . 0 875 . 23 24 ) ( ) ( ) ( = − = − = − Y E X E Y X E 16 5 256 5 16 1 8 1 ) ( ) ( ) ( 2 2 = ∴ =       +       = + = − −Y X Y V X V Y X V σ Por lo tanto                 − 2 16 5 , 125 . 0 ~ N Y X b) Se pide la probabilidad ) 4 / 1 ( > −Y X P 1867 . 0 8133 . 0 1 ) 8944 . 0 ( 1 5 5 2 1 16 5 125 . 0 25 . 0 1 ) 4 / 1 ( = − = Φ − =         Φ − =             − Φ − = > −Y X P c) Si la puerta no entra en el marco entonces se da el evento { } Y X < o equivalentemente { } 0 < −Y X , por lo tanto 1867 . 0 5 5 2 1 5 5 2 16 5 125 . 0 0 ) 0 ( =         Φ − =         − Φ =             − Φ = < −Y X P 4- Supongamos que las variables aleatorias X e Y denotan la longitud y el ancho en cm, respecti- vamente, de una pieza. Supongamos además que X e Y son independientes y que X ~ N(2 , 0.12 ) , Y ~ N(5 , 0.22 ). Entonces Z = 2X + 2Y es una v.a. que representa el perímetro de la pieza. Calcular la probabilidad de que el perímetro sea mayor que 14.5 cm. Solución: tenemos que ( ) 2 2 2 2 2 . 0 2 1 . 0 2 , 5 2 2 2 ~ × + × × + × N Z , o sea ( ) 0.2 , 14 ~ N Z La probabilidad pedida es ) 5 . 14 ( > Z P , entonces ( ) 119 . 0 8810 . 0 1 1180 . 1 1 2 5 1 2 . 0 14 5 . 14 1 ) 5 . 14 ( = − = Φ − =         Φ − =         − Φ − = > Z P 5- Si se aplican dos cargas aleatorias 2 1 y X X a una viga voladiza como se muestra en la figura si- guiente, el momento de flexión en 0 debido a las cargas es 2 2 1 1 X a X a + . a) Suponga que 2 1 y X X son v.a. independientes con medias 2 y 4 KLbs respectivamente, y desviaciones estándar 0.5 y 1.0 KLbs, respectivamente.
  • 25. Parte 1 - Probabilidades Prof. María B. Pintarelli 107 Si 5 1 = a pies y 10 2 = a pies, ¿cuál es el momento de flexión esperado y cuál es la desviación estándar del momento de flexión? b) Si 2 1 y X X están normalmente distribuidas, ¿cuál es la probabilidad de que el momento de flexión supere 75 KLbs? Solución: Sea la v.a. Z: “momento de flexión en 0”, entonces 2 1 10 5 X X Z + = Por lo tanto a) 50 4 10 2 5 ) ( 10 ) ( 5 ) ( 2 1 = × + × = + = X E X E Z E 4 65 4 65 1 10 25 . 0 25 1 10 5 . 0 5 ) ( 2 2 2 2 = ∴ = × + × = × + × = Z Z V σ b) Si 2 1 y X X están normalmente distribuidas, entonces       4 65 , 50 ~ N Z Por lo tanto ( ) 0 1 1 20 . 6 1 13 65 10 1 4 65 50 75 1 ) 75 ( = − ≈ Φ − =         Φ − =             − Φ − = > Z P Promedio de variables aleatorias normales independientes Dem.) Notar que n X X n i i ∑ = = 1 es un caso particular de combinación lineal de variables aleatorias donde n ai 1 = para todo n i ,..., 2 , 1 = Además en este caso µ µ = i y 2 2 σ σ = i para todo n i ,..., 2 , 1 = Por lo tanto, X tiene distribución normal con esperanza µ µ µ µ = = = ∑ ∑ = = n i n i i n n n n 1 1 1 1 1 y varianza n n n n n n i i n i 2 2 2 2 2 1 2 2 1 1 1 1 σ σ σ σ =       =       =       ∑ ∑ = = Es decir,         n N X 2 , ~ σ µ Observación: a X se lo llama promedio muestral o media muestral Si n X X X ,..., , 2 1 son n variables aleatorias independientes donde ) , ( ~ 2 σ µ N Xi para todo n i ,..., 2 , 1 = entonces la v.a. n X X n i i ∑ = = 1 tiene distribución normal con media µ y varianza n 2 σ
  • 26. Parte 1 - Probabilidades Prof. María B. Pintarelli 108 Ejemplos: 1) El diámetro interno de un anillo de pistón seleccionado al azar es una v.a. con distribución normal con media 12 cm y desviación estándar de 0.04 cm. a) Si X es el diámetro promedio en una muestra de 16 = n anillos, calcule ) 01 . 12 99 . 11 ( ≤ ≤ X P b) ¿Qué tan probable es que el diámetro promedio exceda de 12.01 cuando 25 = n ? Solución: a) Sean las variables aleatorias : i X “diámetro del anillo i” 16 ,..., 2 , 1 = i Entonces ( ) 04 . 0 , 12 ~ 2 N X i para cada i. Por lo tanto         16 04 . 0 , 12 ~ 2 N X . Entonces () ( ) 6826 . 0 1 8413 . 0 2 1 ) 1 ( 2 1 1 16 04 . 0 2 12 99 . 11 16 04 . 0 2 12 01 . 12 ) 16 04 . 0 2 12 01 . 12 16 04 . 0 2 12 16 04 . 0 2 12 99 . 11 ( ) 01 . 12 99 . 11 ( = − × = = − = − − =                 − −                 − = = − ≤ − ≤ − = ≤ ≤ φ φ φ φ φ X P X P b) En este caso         25 04 . 0 , 12 ~ 2 N X , entonces 1056 . 0 8944 . 0 1 ) 25 . 1 ( 1 25 04 . 0 12 01 . 12 1 ) 01 . 12 ( 2 = − = − =               − − = > φ φ X P 2)Una máquina embotelladora puede regularse de tal manera que llene un promedio de µ onzas por botella. Se ha observado que la cantidad de contenido que suministra la máquina presenta una distribución normal con 1 = σ onza. De la producción de la máquina un cierto día, se obtiene una muestra de 9 botellas llenas (todas fueron llenadas con las mismas posiciones del control operativo) y se miden las onzas del contenido de cada una. a) Determinar la probabilidad de que la media muestral se encuentre a lo más a 0.3 onzas de la media real µ para tales posiciones de control b) ¿Cuántas observaciones deben incluirse en la muestra si se desea que la media muestral esté a lo más a 0.3 onzas de µ con una probabilidad de 0.95? Solución: a) Sean las variables aleatorias : i X “contenido en onzas de la botella i” 9 ,..., 2 , 1 = i
  • 27. Parte 1 - Probabilidades Prof. María B. Pintarelli 109 Entonces ( ) 1 , ~ µ N Xi para cada i. Por lo tanto       9 1 , ~ µ N X . Se desea calcular 6318 . 0 1 ) 9 . 0 ( 2 ) 9 . 0 ( ) 9 . 0 ( 9 . 0 9 . 0 3 . 0 3 . 0 3 . 0 3 . 0 ) 3 . 0 3 . 0 ( ) 3 . 0 ( = − Φ = = − Φ − Φ =           ≤ − ≤ − =           ≤ − ≤ − = =           ≤ − ≤ − = ≤ − ≤ − = ≤ − n X P n n X n P n n X n P X P X P σ µ σ σ µ σ σ σ µ σ µ µ b) Ahora se pretende que 95 . 0 ) 3 . 0 3 . 0 ( ) 3 . 0 ( = ≤ − ≤ − = ≤ − µ µ X P X P Entonces 95 . 0 3 . 0 1 3 . 0 3 . 0 3 . 0 ) 3 . 0 ( =           ≤ − ≤ − =           ≤ − ≤ − = ≤ − n n X n P n n X n P X P µ σ σ µ σ µ Mediante la tabla de la acumulada de la normal estándar se tiene que ( ) ( ) ( ) 96 . 1 3 . 0 0.975 3 . 0 95 . 0 1 3 . 0 2 3 . 0 1 3 . 0 = ⇒ = Φ ⇒ = − Φ =           ≤ − ≤ − n n n n n X n P µ O sea 68 . 42 3 . 0 96 . 1 2 =       ≈ n Si tomamos 43 = n , entonces ) 3 . 0 ( ≤ − µ X P será un poco mayor que 0.95 6.2 - Teorema central del límite Acabamos de ver que la suma de un número finito n de variables aleatorias independientes que están normalmente distribuidas es una variable aleatoria también normalmente distribuida. Esta propiedad reproductiva no es exclusiva de la distribución normal. En efecto, por ejemplo, ya vimos que existen variables aleatorias discretas que la cumplen, es el caso de la Poisson y la Binomial. En realidad, la propiedad que le da a la distribución normal el lugar privilegiado que ocupa entre todas las distribuciones es el hecho de que la suma de un número muy grande, rigurosamente un número infinito numerable, de variables aleatorias independientes con distribuciones arbitrarias (no necesariamente normales) es una variable aleatoria que tiene, aproximadamente, una distribución normal. Este es, esencialmente, el contenido del
  • 28. Parte 1 - Probabilidades Prof. María B. Pintarelli 110 Dem.) sin demostración Observaciones: 1- Notar que ( ) ( ) µ n X E X E S E n i i n i i n = =       = ∑ ∑ = = 1 1 y ( ) ( ) 2 1 1 σ n X V X V S V n i i n i i n = =       = ∑ ∑ = = Por lo tanto 2 σ µ n n S Z n n − = es la v.a. n S estandarizada 2- Notar que           − =               ≤ − =         ≤ − n X P z n n n n S P z n n S P n n σ µ σ µ σ µ 2 2 , por lo tanto también se puede enunciar el Teorema central del límite de la siguiente forma Donde n X Zn σ µ − = es el promedio muestral estandarizado 3- Aunque en muchos casos el T.C.L. funciona bien para valores de n pequeños , en particular donde la población es continua y simétrica, en otras situaciones se requieren valores de n mas grandes, dependiendo de la forma de la distribución de las i X . En muchos casos de interés práctico, si 30 ≥ n , la aproximación normal será satisfactoria sin importar cómo sea la forma de la distribución de las i X . Si 30 < n , el T.C.L. funciona si la distribución de las i X no está muy alejada de una distribución normal 4- Para interpretar el significado del T.C.L., se generan (por computadora) n valores de una v.a. exponencial con parámetro 5 . 0 = λ , y se calcula el promedio de esos n valores. Esto se repite 1000 veces, por lo tanto tenemos 1000 valores de la v.a. X . Teorema central del límite (T.C.L.): Sean n X ,..., X , X 2 1 variables aleatorias independientes con ( ) µ = i X E y ( ) 2 σ = i X V para todo n ,..., , i 2 1 = , es decir independientes idénticamente distribuidas Sea la v.a. ∑ = = n i i n X S 1 y sea 2 σ µ n n S Z n n − = . Entonces ( ) ( ) z z Z P lim n n Φ = ≤ ∞ → , esto es ∫∞ − − ∞ → =         ≤ − z x n n dx e z n n S P 2 2 2 2 1 lim π σ µ Sean n X ,..., X , X 2 1 variables aleatorias independientes con ( ) µ = i X E y ( ) 2 σ = i X V para todo n ,..., , i 2 1 = , es decir independientes idénticamente distribuidas Sea la v.a. promedio muestral ∑ = = n i i X n X 1 1 y sea n X Zn σ µ − = . Entonces ( ) ( ) z z Z P lim n n Φ = ≤ ∞ → , esto es ∫∞ − − ∞ → =         ≤ − z x n dx e z n X P 2 2 2 1 lim π σ µ
  • 29. Parte 1 - Probabilidades Prof. María B. Pintarelli 111 Hacemos un histograma de frecuencias de X , esto es, tomamos un intervalo ) , ( b a donde “caen” todos los valores de X , y lo subdividimos en intervalos mas chicos de igual longitud. La frecuencia de cada subintervalo es la cantidad de valores de X que caen en dicho subintervalo. Se grafican estas frecuencias obteniéndose los gráficos siguientes que se pueden considerar una aproximación a la verdadera distribución de X . Se observa que a medida que aumenta el valor de n los gráficos se van haciendo más simétricos, pareciéndose a la gráfica de una distribución normal. Ejemplos: 1- Supóngase que 30 instrumentos electrónicos D1, D2, ......,D30, se usan de la manera siguiente: tan pronto como D1 falla empieza a actuar D2. Cuando D2 falla empieza a actuar D3, etc. Supóngase que el tiempo de falla de Di es una v.a. distribuida exponencialmente con parámetro λ = 0.1 por hora. Sea T el tiempo total de operación de los 30 instrumentos. ¿Cuál es la probabilidad de que T exceda 350 horas? Solución: Si i X : “tiempo de falla del instrumento i D ” 30 ,..., 2 , 1 = i Entonces ) 1 . 0 ( ~ Exp X i para 30 ,..., 2 , 1 = i El tiempo total de operación de los 30 instrumentos es ∑ = = 30 1 i i X T , donde 300 1 . 0 1 30 ) ( 30 ) ( 30 1 = × = × =       = ∑ = i i i X E X E T E 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 50 100 150 1 2 3 4 56 7 8910 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 20 40 60 80 1 2 3 4 5 6 7 8 910 1112 13 14 1516 17 1819 20 21 2223 24 2526 27 2829 10 20 30 40 50 1 2 3 4 5 6 7 8 9 1011121314 1516171819202122 10 20 30 40 n=2 n = 5 n = 15 n = 30
  • 30. Parte 1 - Probabilidades Prof. María B. Pintarelli 112 3000 1 . 0 1 30 ) ( 30 ) ( 2 30 1 = × = × =       = ∑ = i i i X V X V T V Entonces por T.C.L. N(0,1) ~ 3000 300 − T aproximadamente pues 30 = n La probabilidad pedida es ( ) 18141 . 0 81859 . 0 1 9128 . 0 1 3000 300 350 1 3000 300 350 3000 300 ) 350 ( = − = Φ − =         − Φ − ≈         − > − = > T P T P T.C.L. 2- Suponga que el consumo de calorías por día de una determinada persona es una v.a. con media 3000 calorías y desviación estándar de 230 calorías. ¿Cuál es la probabilidad de que el promedio de consumo de calorías diario de dicha persona en el siguiente año (365 días) sea entre 2959 y 3050? Solución: Definimos las variables aleatorias i X : “cantidad de calorías que una persona consume en el día i” 365 ,..., 2 , 1 = i Se sabe que 3000 ) ( = i X E y 2 230 ) ( = i X V Si ∑ = = 365 1 365 1 i i X X entonces 3000 ) ( = X E y 365 230 ) ( 2 2 = = n X V σ La probabilidad pedida es ( ) ( ) ( ) 1 0 1 40 . 3 15 . 4 365 230 3000 2959 365 230 3000 3050 365 230 3000 3050 365 230 3000 365 230 3000 2959 3050 2959 = − ≈ − Φ − Φ =           − Φ −           − Φ ≈ ≈           − ≤ − ≤ − = ≤ ≤ X P X P T.C.L. Aplicaciones del Teorema central del límite Aproximación normal a la distribución binomial El Teorema central del límite se puede utilizar para aproximar las probabilidades de algunas variables aleatorias discretas cuando es difícil calcular las probabilidades exactas para valores grandes de los parámetros. Supongamos que X tiene una distribución binomial con parámetros n y p. Para calcular ) ( k X P ≤ debemos hacer la suma ∑ = = = ≤ k i i X P k X P 0 ) ( ) ( o recurrir a las tablas de la F.d.a. , pero para valores de n grandes no existen tablas, por lo tanto habría que hacer el cálculo en forma directa y muchas veces es laborioso. Como una opción podemos considerar a X como suma de variables aleatorias más simples, específicamente, si definimos      − = contrario caso éxito ocurre de repetición ésima í la en si Xi 0 1 ε n i ,..., 2 , 1 =
  • 31. Parte 1 - Probabilidades Prof. María B. Pintarelli 113 entonces cada i X se la puede considerar ) , 1 ( p B , y además n X X X ,..., , 2 1 son independientes Podemos escribir ∑ = = + + + = n i i n X X X X X 1 2 1 ... y si n es grande entonces X tendrá aproximadamente una distribución normal con parámetros np y ) 1 ( p np − , es decir ( ) ( ) 1 , 0 1 . . 2 N p p n p n X n n X Zn ≈ − − = − = σ µ si n es lo suficientemente grande Observaciones: 1- La aproximación normal a la distribución binomial funciona bien aun cuando n no sea muy grande si p no está demasiado cerca de cero o de uno. En particular la aproximación normal a la binomial es buena si n es grande , 5 > np y 5 ) 1 ( > − p n , pero es más efectivo aplicar esta aproximación cuando 10 > np y 10 ) 1 ( > − p n 2- Corrección por continuidad. Acabamos de ver que si X∼B(n,p) entonces, para n suficientemente grande, podemos considerar que aproximadamente es X∼ ( ) [ ] p p . n , p . n N − 1 . El problema que surge de inmediato si deseo calcular, por ejemplo, la probabilidad de que k X = (con k alguno de los valores posibles 0,1,2,…,n) es que la binomial es una distribución discreta y tiene sentido calcular probabilidades como ( ) k X P = mientras que la normal es una distribución continua y, en consecuencia, ( ) 0 = = k X P puesto que para una variable aleatoria continua la probabilidad de que ésta tome un valor aislado es cero. Esto se resuelve si se considera ( )       + ≤ ≤ − ≈ = 2 1 2 1 k X k P k X P También se puede usar esta corrección para mejorar la aproximación en otros casos, específicamente en lugar de ) ( k X P ≤ calculamos       + ≤ ≈ ≤ 2 1 ) ( k X P k X P Y en lugar de       − ≥ ≈ ≥ 2 1 ) ( k X P k X P En los gráficos siguientes se muestra para diferentes valores de n y p cómo aproxima la distribución )) 1 ( , ( p np np N − a la distribución ) , ( p n B 5 10 15 20 25 0.025 0.05 0.075 0.1 0.125 0.15 0.175 2 4 6 8 10 12 14 0.05 0.1 0.15 0.2 n = 25 p = 0.7 n = 15 p = 0.5
  • 32. Parte 1 - Probabilidades Prof. María B. Pintarelli 114 5 10 15 20 0.05 0.1 0.15 0.2 0.25 0.3 0.35 50 60 70 80 90 100 0.02 0.04 0.06 0.08 20 40 60 80 100 120 140 0.02 0.04 0.06 0.08 0.1 2 4 6 8 10 0.1 0.2 0.3 0.4 Ejemplos: 1- Sea X∼ B(25,0.4). Hallar las probabilidades exactas de que 8 ≤ X y 8 = X y comparar estos resultados con los valores correspondientes encontrados por la aproximación normal. Solución: De la tabla de la F.d.a. de la binomial encontramos 274 . 0 ) 8 ( = ≤ X P Y 120 . 0 154 . 0 274 . 0 ) 7 ( ) 8 ( ) 8 ( = − = ≤ − ≤ = = X P X P X P Ahora usamos la aproximación normal ( ) 2709 . 0 61 . 0 6 . 0 4 . 0 25 10 5 . 8 ) 1 ( ) 5 . 8 ( ) 8 ( = − Φ ≈         × × − ≤ − − = ≤ ≈ ≤ p np np X P X P X P corrección por continuidad Observar que el valor aproximado está muy cercano al valor exacto para 274 . 0 ) 8 ( = ≤ X P ( ) 1170 . 0 1593 . 0 2709 . 0 61 . 0 6 10 02 . 1 6 10 5 . 8 6 10 6 10 5 . 7 5 . 8 5 . 7 ) 8 ( = − = =         − ≤ − ≤ − =         − ≤ − ≤ − = ≤ ≤ ≈ = X P X P X P X P Nuevamente este valor aproximado está muy cerca del valor real de 120 . 0 ) 8 ( = = X P 2- Suponga que el 10% de todos los ejes de acero producidos por cierto proceso están fuera de especificaciones, pero se pueden volver a trabajar (en lugar de tener que enviarlos a la chatarra). n =15 p = 0.9 n = 100 p = 0.7 n = 150 p = 0.1 n = 10 p = 0.1
  • 33. Parte 1 - Probabilidades Prof. María B. Pintarelli 115 Considere una muestra aleatoria de 200 ejes y denote por X el número entre ellos que estén fuera de especificaciones y se puedan volver a trabajar. ¿Cuál es la probabilidad (aproximada) de que X sea a) a lo sumo 30? b) menos de 30? c) entre 15 y 25 (inclusive)? Solución: Sea la v.a. X: “número de ejes fuera de especificaciones” Entonces ) 1 . 0 , 200 ( ~ B X , además 5 20 1 . 0 200 > = × = np y 5 180 ) 1 . 0 1 ( 200 ) 1 ( > = − × = − p n Por lo tanto podemos aplicar la aproximación normal a la binomial a) la probabilidad pedida es ) 30 ( ≤ X P ( ) 993244 . 0 474 . 2 18 20 5 . 30 18 20 5 . 30 ) 1 ( ) 5 . 30 ( ) 30 ( = Φ =         − Φ ≈         − ≤ − − = ≤ ≈ ≤ p np np X P X P X P b) La probabilidad pedida es ) 30 ( < X P Al ser X una v.a. discreta con distribución binomial ) 29 ( ) 30 ( ≤ = < X P X P ( ) 98745 . 0 2391 . 2 18 20 5 . 29 ) 5 . 29 ( ) 29 ( = Φ =         − Φ ≈ ≤ ≈ ≤ X P X P c) ( ) ( ) ( ) ( ) ( ) 80294 . 0 1 90147 . 0 2 1 2963 . 1 2 2963 . 1 2963 . 1 18 20 5 . 14 18 20 5 . 25 5 . 25 5 . 14 25 15 = − × = − Φ = − Φ − Φ = =         − Φ −         − Φ ≈ ≤ ≤ ≈ ≤ ≤ X P X P 3- El gerente de un supermercado desea recabar información sobre la proporción de clientes a los que no les agrada una nueva política respecto de la aceptación de cheques. ¿Cuántos clientes tendría que incluir en una muestra si desea que la fracción de la muestra se desvíe a lo mas en 0.15 de la verdadera fracción, con probabilidad de 0.98?. Solución: Sea X: “número de clientes a los que no les agrada la nueva política de aceptación de cheques” Entonces ) , ( ~ p n B X donde p es desconocido y es la verdadera proporción de clientes a los que no les agrada la nueva política de aceptación de cheques. El gerente tomará una muestra de n clientes para “estimar” p con n X X = ya que n X X = es la proporción de clientes a los que no les agrada la nueva política de aceptación de cheques en la muestra de n clientes. Si no se toman a todos los clientes, entonces n X X = no será igual a p. La pregunta es cuál debe ser n para que n X X = se aleje del verdadero p en menos de 0.15 con probabilidad 0.98 por lo menos, o sea para que ( ) 98 . 0 15 . 0 ≥ ≤ − p X P Entonces planteamos ( ) ( ) ≈         − ≤ − − ≤ − − = ≤ − ≤ − = ≤ − ) 1 ( 15 . 0 ) 1 ( ) 1 ( 15 . 0 15 . 0 15 . 0 15 . 0 p np n p np np X p np n P p X P p X P T.C.L.
  • 34. Parte 1 - Probabilidades Prof. María B. Pintarelli 116 98 . 0 1 ) 1 ( 15 . 0 2 ) 1 ( 15 . 0 ) 1 ( 15 . 0 ≥ −         − Φ =         − − Φ −         − Φ ≈ p np n p np n p np n Por lo tanto 99 . 0 2 1 98 . 0 ) 1 ( 15 . 0 = + ≥         − Φ p np n Además n n p p n p np n 3 . 0 ) 5 . 0 1 ( 5 . 0 15 . 0 ) 1 ( 15 . 0 ) 1 ( 15 . 0 = − ≥ − = − Entonces debe cumplirse que 33 . 2 3 . 0 ≥ n o sea 3211 . 60 3 . 0 33 . 2 2 =       ≥ n O sea se debe tomar una muestra de al menos 61 clientes Aproximación normal a la distribución Poisson Se puede probar aplicando Teorema central del límite que Es decir para λ suficientemente grande ) 1 , 0 ( N X ≈ − λ λ En la práctica si 30 ≥ λ la aproximación es buena. Observación: la demostración es sencilla si λ es igual a un número natural n pues, si consideramos las variables aleatorias ) 1 ( ~ P Xi con n i ,..., 2 , 1 = independientes, entonces ya sabemos que       ∑ ∑ = = n i n i i P X 1 1 1 ~ , es decir ) ( ~ 1 n P X n i i ∑ = Pero además por T.C.L. si n es grande ∑ = n i i X 1 tiene aproximadamente distribución normal con parámetros n n n = × = 1 µ y n n n = × = 1 2 σ O sea la distribución de ∑ = n i i X 1 que es exactamente Poisson con parámetro n, se puede aproximar con una ) , ( n n N , por lo tanto ) 1 , 0 ( N n n X ≈ − aproximadamente para valores de n suficientemente grandes En los gráficos siguientes se muestra para diferentes valores de λ cómo aproxima la distribución ) , ( λ λ N a la distribución ) (λ P Si ) ( ~ λ P X entonces para λ suficientemente grande λ λ − X tiene aproximadamente distribución ) 1 , 0 ( N
  • 35. Parte 1 - Probabilidades Prof. María B. Pintarelli 117 20 40 60 80 100 0.01 0.02 0.03 0.04 0.05 5 10 15 20 25 30 0.05 0.1 0.15 0.2 Ejemplo: El número de infracciones por estacionamiento en cierta ciudad en cualquier día hábil tiene una distribución de Poisson con parámetro λ = 50. ¿Cuál es la probabilidad aproximada de que: a) entre 35 y 70 infracciones se expidan en un día en particular? b) el número total de infracciones expedidas durante una semana de 5 días sea entre 225 y 275? Solución: Sea X: “número de infracciones por estacionamiento en cierta ciudad en cualquier día hábil” Entonces ) ( ~ λ P X donde 50 = λ Como 50 = λ entonces ) 1 , 0 ( 50 50 N X ≈ − (aproximadamente) a) la probabilidad pedida es ( ) ( ) ( ) 9805 . 0 017 . 0 997599 . 0 12132 . 2 8284 . 2 50 50 35 50 50 70 70 35 = − = = − Φ − Φ =         − Φ −         − Φ ≈ ≤ ≤ X P b) Sea Y: “número total de infracciones expedidas durante una semana de 5 días” Entonces ) ( ~ λ P Y donde 250 5 50 = × = λ La probabilidad pedida es ( ) ( ) ( ) ( ) 8859 . 0 1 94295 . 0 2 1 5811 . 1 2 5811 . 1 5811 . 1 250 250 225 250 250 275 275 225 = − × = − Φ = = − Φ − Φ =         − Φ −         − Φ ≈ ≤ ≤ Y P 50 = λ 3 = λ