SlideShare una empresa de Scribd logo
1 de 129
Descargar para leer sin conexión
Astrometr´ I:
ıa
Probabilidad y Estad´
ıstica
Parte I
28 de abril de 2011

1
´
Indice

´
Indice
1. Probabilidad: Nociones B´sicas
a
1.1. Fen´menos y modelos . . . .
o
1.1.1. Modelos determin´
ısticos
1.1.2. Modelos aleatorios . . .
1.2. Conceptos utiles . . . . . . . .
´
1.2.1. Experimento aleatorio .
1.2.2. Espacio muestral . . . .
1.2.3. Evento o Suceso . . . .
1.3. La Probabilidad . . . . . . . .
1.3.1. Axiomas . . . . . . . . .
1.3.2. Reglas para el c´lculo .
a
1.3.3. C´lculo . . . . . . . . .
a
1.4. Probabilidad Condicional . .
1.5. Eventos Independientes . . .
1.6. Teorema de Bayes . . . . . . .

5
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

2. Variables Aleatorias
2.1. Definici´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
2.2. Discretas y Continuas . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Funci´n de Probabilidad . . . . . . . . . . . . . . . . . . . . . . .
o
2.3.1. Funci´n de probabilidad de una variable aleatoria discreta .
o
2.3.2. Funci´n de probabilidad de una variable aleatoria continua
o
2.4. Funci´n de Distribuci´n Acumulada . . . . . . . . . . . . . . . .
o
o
2.4.1. Funci´n acumulada para variables discretas . . . . . . . . .
o
2.4.2. Funci´n acumulada para variables continuas . . . . . . . . .
o

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

3. Distribuciones de Probabilidad
3.1. Modelos probabil´
ısticos discretos . . . . . . .
3.1.1. Modelo de Bernoulli . . . . . . . . . . .
3.1.2. Modelo Binomial . . . . . . . . . . . . .
3.1.3. Modelo de Poisson . . . . . . . . . . . .
3.1.4. Otros modelos discretos . . . . . . . . .
3.2. Modelos probabil´
ısticos continuos . . . . . .
3.2.1. Modelo Normal . . . . . . . . . . . . . .
3.2.2. Modelo Exponencial . . . . . . . . . . .
3.2.3. Otros modelos continuos . . . . . . . . .
3.3. Generadores de n´meros (pseudo) aleatorios
u
3.3.1. N´meros aleatorios uniformes . . . . . .
u
3.3.2. Variables aleatorias discretas . . . . . .
3.3.3. M´todo de Inversi´n . . . . . . . . . . .
e
o
3.3.4. M´todo de Rechazo . . . . . . . . . . .
e

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

2

5
5
6
6
6
6
7
8
10
11
12
13
14
15

19
19
21
21
22
25
26
26
28

30
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

30
30
31
34
37
39
39
41
43
44
44
46
46
47
´
Indice
3.3.5. M´todo de Box-M¨ ller . . . . . . . . . . . . . . . . . . . . . . .
e
u
3.4. Caracterizaci´n completa de las distribuciones de probabilidades .
o
3.4.1. Momentos de una distribuci´n . . . . . . . . . . . . . . . . . .
o
3.4.2. Funci´n generatriz de momentos . . . . . . . . . . . . . . . . .
o
3.4.3. Cumulantes de una distribuci´n . . . . . . . . . . . . . . . . . .
o
4. Inferencia Estad´
ıstica
4.1. Conceptos importantes . . . . . . . . . . . .
4.1.1. Universos, poblaci´n y muestra . . . .
o
4.1.2. Par´metros y estad´
a
ısticos . . . . . . .
4.2. Muestra y Muestreo . . . . . . . . . . . . .
4.2.1. Muestra representativa . . . . . . . . .
4.2.2. Muestreo aleatorio . . . . . . . . . . .
4.3. Distribuciones Muestrales . . . . . . . . . .
4.3.1. Distribuci´n de la media muestral . .
o
4.3.2. Distribuci´n de la diferencia de medias
o
4.4. M´todos Inferenciales . . . . . . . . . . . . .
e
5. Inf. Est.: Estimaci´n (I)
o
5.1. Estimaci´n puntual . . . . . . . . . . . .
o
5.1.1. Estimador insesgado . . . . . . . .
5.1.2. Estimador consistente . . . . . . .
5.1.3. Estimador eficiente . . . . . . . . .
5.2. Intervalos de confianza (IC) . . . . . . .
5.2.1. IC para una media poblacional . .
5.2.2. IC para la diferencia de dos medias

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

51
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
muestrales
. . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

6. Inf. Est.: Estimaci´n (II)
o
6.1. Histogramas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1. Definici´n . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
6.1.2. Intervalo de confianza . . . . . . . . . . . . . . . . . . . . .
6.1.3. Histogramas para variables continuas . . . . . . . . . . . . .
6.1.4. Funciones ”kernel”para histogramas de variables continuas
6.2. T´cnicas de Remuestreo . . . . . . . . . . . . . . . . . . . . . . .
e
6.2.1. M´todo Bootstrap . . . . . . . . . . . . . . . . . . . . . . .
e
6.2.2. M´todo Jackknife . . . . . . . . . . . . . . . . . . . . . . . .
e

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

3

51
51
53
54
54
54
55
56
59
61

62
.
.
.
.
.
.
.

7. Inf. Est.: Prueba de Hip´tesis (I)
o
7.1. PH: un procedimiento de decisi´n
o
7.2. Procedimiento general para la PH
7.2.1. Hip´tesis . . . . . . . . . . .
o
7.2.2. Nivel de significaci´n . . . . .
o
7.2.3. Estad´
ıstico de prueba . . . .
7.2.4. Zona de aceptaci´n . . . . . .
o

47
48
48
49
50

. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
poblacionales

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

62
62
63
64
64
64
70

75
75
75
75
77
77
79
79
87

88
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

88
90
90
92
94
95
´
Indice
7.2.5. C´mputos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
7.2.6. Decisi´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
7.2.7. Conclusi´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
7.3. PH para una media poblacional . . . . . . . . . . . . . . . . . . . . .
7.3.1. PH para una media pobl. cuando la muestra proviene de una poblaci´n distribuida normalmente y con varianza conocida . . . .
o
7.3.2. PH para una media pobl. cuando la muestra proviene de una poblaci´n distribuida normalmente con varianza desconocida y tama˜o
o
n
de muestra grande (n ≥ 30) . . . . . . . . . . . . . . . . . . . . .
7.3.3. PH para una media pobl. cuando la muestra proviene de una poblaci´n distribuida normalmente con varianza desconocida y tama˜o
o
n
de muestra peque˜o (n < 30) . . . . . . . . . . . . . . . . . . . .
n
7.3.4. PH para una media pobl. cuando la muestra proviene de una poblaci´n con distribuci´n no normal y tama˜o de muestra grande
o
o
n
(n ≥ 30) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4. PH para dos medias poblacionales . . . . . . . . . . . . . . . . . . . .
7.4.1. PH para dos medias pobl. cuando las muestras provienen de poblaciones distribuidas normalmente y con varianza conocidas . .
7.4.2. PH para dos medias pobl. cuando las muestras provienen de poblaciones distribuidas normalmente, con varianza desconocidas y
tama˜o de muestras grandes (n1 , n2 ≥ 30) . . . . . . . . . . . . .
n
7.4.3. PH para dos medias pobl. cuando las muestras provienen de poblaciones distribuidas normalmente, con varianza desconocidas y
tama˜o de muestras peque˜as (n1 , n2 < 30) . . . . . . . . . . . .
n
n
7.4.4. PH para dos medias pobl. cuando las muestras provienen de poblaciones con distribuci´n no normal y tama˜o de muestras grandes
o
n
(n1 , n2 ≥ 30) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5. PH para dos varianzas poblacionales . . . . . . . . . . . . . . . . . . .
8. Inf.
8.1.
8.2.
8.3.

.
.
.
.

. 97

. 98

. 99

. 100
. 101
. 101

. 102

. 103

. 105
. 106

Est.: Prueba de Hip´tesis (II)
o
M´todo Chi-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . .
e
M´todo de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . .
e
Independencia estad´
ıstica . . . . . . . . . . . . . . . . . . . . . . . . .

109

.
.
.
2 ... el regreso . . . . . . . . . . . . . . . . . . . . . . .
8.3.1. El m´todo χ
e
8.3.2. Coeficiente de correlaci´n lineal de Pearson . . . . . . . . . . . . .
o
8.3.3. Funci´n de correlaci´n . . . . . . . . . . . . . . . . . . . . . . . . .
o
o

9. Estimadores Generales
9.1. M´xima Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . .
a
9.2. Ajuste de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.1. Cuadrados m´
ınimos como estimador de m´xima probabilidad
a
9.2.2. Ajuste por chi-cuadrado . . . . . . . . . . . . . . . . . . . . .
9.2.3. Ajustando datos con una recta usando chi-cuadrado . . . . .

4

96
96
96
97

109
112
115
116
119
120

121
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

121
123
123
125
127
1 Probabilidad: Nociones B´sicas
a

1.

Probabilidad: Nociones B´sicas
a

Para emprender el estudio de la estad´
ıstica y su alcance a la hora de analizar un
conjunto de datos es necesario tener a mano las nociones b´sicas de probabilidad. La
a
probabilidad y la estad´
ıstica son dos disciplinas ´
ıntimamente conectadas. Inicialmente el
unico punto de uni´n que se puede establecer es que ambas disciplinas tienen en com´n
´
o
u
el estudio de los fen´menos aleatorios. La teor´ de probabilidades tiene como probleo
ıa
ma general describir mediante un modelo matem´tico cada tipo de fen´meno aleatorio,
a
o
mientras que la inferencia estad´
ıstica tiene planteado el problema inverso, es decir, a
partir del conocimiento de una parte del fen´meno pretende establecer sus propiedao
des, para lo cual forzosamente debe utilizar alg´n modelo probabil´
u
ıstico que describa
el fen´meno. Es ´sta dependencia de la estad´
o
e
ıstica con la teor´ de probabilidad lo que
ıa
justifica profundizar el estudio de esta ultima.
´

1.1.

Fen´menos y modelos
o

Un fen´meno natural es toda manifestaci´n natural que puede ser percibida mediante
o
o
los sentidos o instrumentos. Los fen´menos naturales se pueden clasificar en determin´
o
ısticos y aleatorios. Los determin´
ısticos se pueden definir como toda manifestaci´n natual
o
que observada repetidamente bajo las mismas condiciones, produce siempre resultados
id´nticos. Por ejemplo, el tiempo que tarda un objeto en llegar al suelo invariablemente
e
ser´ el mismo, si las condiciones son iguales en cada repetici´n de la experiencia. Los
a
o
aleatorios, en cambio, son todo proceso que al observarlo repetidamente bajo el mismo
conjunto de condiciones, producen resultados diferentes. Tirar un dado es un ejemplo
de este fen´meno, ya que aunque se conozcan todos los resultados posibles, no se puede
o
predecir con completa certeza uno en particular.
Una manera de estudiar estos fen´menos es mediante la construcci´n de modelos mao
o
tem´ticos, los cuales intentan (simplificando u omitiendo algunos detalles) representar,
a
mediante expresiones cuantitativas, las caracter´
ısticas, propiedades y/o funcionamiento
de los procesos naturales. De acuerdo con los fen´menos ya mencionados los modelos
o
existentes pueden ser determin´
ısticos o aleatorios.
1.1.1.

Modelos determin´
ısticos

Estos modelos establecen que las condiciones en las cuales se realiza un experimento
determinan la ocurrencia de un resultado particular. Por ej., si observamos el desplazamiento de un m´vil cierta distancia (d), podemos utilizar como modelo matem´tico para
o
a
describir la velocidad media desarrollada (v) la ecuaci´n v = d/t (con t el tiempo transo
´
currido). Este es un modelo determin´
ıstico, porque cada vez que se repita la experiencia
y se obtengan los mismos valores d y t, se producir´ el mismo valor de v. Obviamente,
a
este es un modelo simplificado en el que muchos factores no han sido tenidos en cuenta
(temperatura del aire, presi´n atmosf´rica, etc.), sin embargo, las peque˜as desviaciones
o
e
n
que se podr´ llegar a obtener no invalidan el modelo.
ıan

5
1 Probabilidad: Nociones B´sicas
a
1.1.2.

Modelos aleatorios

En estos modelos las condiciones de un experimento no determinan un resultado particular, sino su probabilidad de ocurrencia dentro de un conjunto de resultados posibles.
Es decir, que estos modelos son f´rmulas que permiten obtener la distribuci´n de proo
o
babilidad de los resultados posibles del experimento. Por ej., cu´ntas veces saldr´ el
a
a
n´mero 6 al lanzar un dado 5 veces? En ´ste caso se debe utilizar un modelo prou
e
babil´
ıstico, que permite conocer cual es la probabilidad de obtener cualquiera de los
n
resultados posibles. El modelo que buscamos es el siguiente: p(x) = Cx px q n−x con x el
num. de veces o ensayos donde ocurre el resultado esperado, n el num. total de ensayos,
n
p la probabilidad de ´xito, q = (1 − p) la probabilidad de fracaso y Cx = n!/x!(n − x)!.
e
Por ej., la probabilidad de obtener 3 veces el num. 6 en 5 lanzamientos de un dado es
5
p(3) = C3 (1/6)3 (5/6)2 = 0,0312.

Conceptos utiles
´

1.2.

A continuaci´n detallaremos ciertos conceptos y nomenclaturas que nos ser´n utiles
o
a ´
cada vez que enfrentemos un problema probabil´
ıstico.
1.2.1.

Experimento aleatorio

Un experimento, desde el punto de vista estad´
ıstico, est´ constituido por uno o m´s
a
a
ensayos, t´rmino que identifica cualquier acto repetible que produce un resultado unico
e
´
cada vez que se ejecuta. Cualquier experimento que puede tener m´s de un resultado se
a
califica como aleatorio y es posible encontrar un modelo que permita determinar la probabilidad de ocurrencia de cada resultado. Las caracter´
ısticas comunes de experimento
aleatorio son:
Pueden repetirse indefinidamente manteniendo las condiciones en las que se realiza
Previo a cualquier ensayo no es posible predecir un resultado particular
Previo al experimento es posible predecir el conjunto de posibles resultados
La frecuencia de aparici´n de los diferentes resultados tiende a regularizarse al
o
aumentar el n´mero de repeticiones.
u
Ejemplos de experimentos aleatorios: lanzar una o m´s monedas, tirar un dado, detera
minar el n´mero de individuos en varias unidades de muestreo, etc.
u
1.2.2.

Espacio muestral

Asociado a cualquier experimento aleatorio (E) existe un espacio muestral (S) que se
define como el conjunto de todos los posibles resultados de E.
Ejemplo: Si el experimento fuese determinar el n´mero de hijas mujeres en familias con 4
u
hijos, se puede identificar el resultado de cada ensayo con las letras V=var´n y M=mujer.
o
El espacio muestral estar´ integrado por todas las posibles formas de ocurrencia del
ıa

6
1 Probabilidad: Nociones B´sicas
a
experimento:






S=






VVVV
V V V M, VVMV, V M V V, MVVV
VVMM; V M V M, VMMV, M V M V, MMVV, M V V M
V M M M, MVMM, M M V M, MMMV
MMMM













Si las posibles ocurrencias son numerosas se pueden representar los resultados con un
n´mero. En nuestro ejemplo, si cada resultado es el n´mero de mujeres entonces tenu
u
dremos que V V V V le corresponde el 0, a la segunda linea le corresponder´ el 1 y
a
as´ sucesivamente de modo que el espacio muestral se puede representar como
ı
S = {0, 1, 2, 3, 4}
Cuando se describe el espacio muestral de esta manera se dice que se lo ha hecho por
extensi´n o descripci´n. Otra manera de hacerlo es por comprensi´n como
o
o
o
S = {x

N / 0 ≤ x ≤ 4}

.
De acuerdo a la naturaleza de la variable que se est´ utilizando los espacios muestrales
e
pueden ser discretos o continuos. Es discreto si est´ formado por elementos numerables,
a
es decir que son consecuencia de contar los resultados individuales de un experimento. A
su vez el n´mero de elementos contables puede ser finito o infinito. Ejemplo de espacio
u
discreto y finito es el que usamos con anterioriodad, es decir, el n´mero de mujeres en
u
familias de 4 hijos, mientras que si el experimento es el n´mero de veces que hay que
u
lanzar una moneda hasta obtener cara por primera vez, entonces se genera un espacio
discreto e infinito. Por otro lado, el espacio muestral es continuo si esta formado por
elementos no numerables. Entonces, por naturaleza, todo espacio continuo es infinito.
Ejemplos de este tipo de espacio resultan con las variables de un proceso de medici´n
o
(tiempo, altura, peso, densidad, temperatura, etc.)
1.2.3.

Evento o Suceso

Cualquier conjunto de resultados dentro de un espacio muestral se denomina evento
o suceso. En la terminolog´ de conjuntos se puede decir que un evento (A) es un subıa
conjunto del espacio muestral (S). El evento integrado por todos los resultados es igual
al espacio muestral. A continuaci´n especificamos terminolog´
o
ıa:
Evento elemental: es cada resultado que conforma un espacio muestral
Evento complemento: Dado un evento A en el espacio muestral S, el evento complemento de A (A), est´ constituido por todos los elementos que pertenecen a S y
a
que no est´n en A.
a
Evento vacio: es el evento que no tiene elementos y que por lo tanto no puede
ocurrir (∅).

7
1 Probabilidad: Nociones B´sicas
a
Con los eventos de un mismo espacio muestral se pueden realizar operacines que resultan en la formaci´n de nuevos eventos,
o
los cuales siguen siendo subconjuntos del espacio muestral. Existen dos operaciones b´sicas: la uni´n y la intersecci´n de eventos,
a
o
o
que en cierto modo son paralelas a las operaciones de suma y
multiplicaci´n respectivamente. La uni´n de dos eventos A y B,
o
o
se representa A B, y da como resultado otro evento, el cual
est´ formado por todos los elementos que pertenecen al evento
a
A, al evento B o a ambos a la vez (fig. (a)). Cuando la uni´n
o
de dos eventos equivale a todo el espacio muestral, se dice que
los dos eventos son mutuamente exhaustivos. La intersecci´n de
o
dos eventos A y B se representa A B, y da como resultado otro
evento, el cual est´ formado por los elementos que pertenecen
a
a ambos eventos a la vez (fig. (b)). Cuando la intersecci´n de
o
dos eventos es vac´ se dice que los dos eventos son mutuamente
ıa,
excluyentes. Por ultimo, los elementos de un evento A que no se
´
encuentran en el evento B, forman otro evento llamado diferencia
de A y B, representado por A − B (fig. (c)).

1.3.

(a) A

S

B

(b) A

T

B

(c) A − B

La Probabilidad

La teor´ del azar consiste en reducir todos los acontecimientos del mismo tipo a un cierto
ıa
n´mero de casos igualmente posibles, es decir, tales que estemos igual de indecisos respecto a su
u
existencia, y en determinar el n´mero de casos favorables al acontecimiento cuya probabilidad
u
se busca. La proporci´n entre este n´mero y el de todos los casos posibles es la medida de esta
o
u
probabilidad, que no es, pues, m´s que una fracci´n cuyo numerador es el n´mero de casos
a
o
u
favorables y cuyo denominador el de todos los posibles.
Pierr´ Simon Laplace (1749-1827)
e

Ha llegado el momento de establecer que entendemos como probabilidad. La noci´n de
o
probabilidad es algo con lo que convivimos diariamente haciendo conjeturas acerca de que
esperamos que pase y consecuentemente, tomando decisiones. Por lo que nuestra primera
definici´n de probabilidad ser´ ¸ualquier probabilidad establecida es una afirmaci´n que
o
ıa c
o
indica cu´n posible se cree que es que un evento ocurra”. Pero, m´s alla de establecer
a
a
una definici´n intuitiva necesitamos convertir la intuici´n al lenguaje matem´tico. Por
o
o
a
lo tanto empezaremos reescribiendo la definici´n y diremos que ”la probabilidad es un
o
valor num´rico que cuantifica la posibilidad o factibilidad de ocurrencia de un resultado
e
determinado dentro de un conjunto de resultados posibles”. A un resultado imposible de
ocurrir se le asigna una probabilidad de 0, si por el contrario es segura su ocurrencia, se
le asigna una probabilidad de 1. A las probabilidades intermedias se les asocian valores
entre 0 y 1.

8
1 Probabilidad: Nociones B´sicas
a
Hay dos enfoques diferentes sobre c´mo asignar la probabilidad a un evento: la asigo
naci´n objetiva o frecuentista y la asignaci´n subjetiva o bayesiana.
o
o
Asignaci´n Objetiva: Se basa en el conocimiento f´ctico del espacio muestral y de
o
a
la frecuencia relativa de ocurrencia de sus eventos elementales. El conocimiento de
estas dos caracter´
ısticas puede ser de dos maneras:
• Probabilidad a priori: Este enfoque supone que la probabilidad de ocurrencia
de un resultado particular se conoce antes de producirse el mismo. Para esto
esto es necesario asumir que todos los resultados elementeales son igualmente
probables y excluyentes.
Si el espacio muestral S tiene n elementos ei equiprobables, es decir con
probabilidad 1/n, y adem´s se define un suceso A formado por r eventos
a
elementos, la probabilidad de ocurrencia de A ser´ :
a
n

n

P (A) =

P (ei ) =
i=1

1/n = r/n
i=1

es decir, en esta concepci´n (usualmente llamada cl´sica), la probabilidad de
o
a
un evento es igual al n´mero de resultados en que el evento ocurre dividido
u
por el n´mero de resultados posibles. A modo de ayuda, tambien puede ser
u
util pensar la probabilidad de un conjunto como el tama˜o relativo del mismo
´
n
con respecto al evento seguro.
Ejemplo: Si de un mazo de cartas de poker se extrae aleatoriamente una
carta, se quiere saber la probabilidad con la cual pueden ocurrir los siguientes
eventos: a) sale un As, b) sale una espada negra o c) sale una J o una Q. El
espacio muestral est´ formado por 52 eventos elementales equiprobables:
a


 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, Q, K (♦ rojo) 




1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, Q, K (♥ rojo)
S=
 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, Q, K (♣ negro) 




1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, Q, K (♠ negra)
Entonces: a) A={ 1 ♦, 1 ♥, 1 ♣, 1 ♠ } −→ P(A)=4/52=0.077
b) B={1,2,3,4,5,6,7,8,9,10,J,Q,K (♠ negra) } −→ P(B)=13/52=0.25
c) C={ J ♦ , J ♥ , J ♣ , J ♠ , Q ♦ , Q ♥ , Q ♣ , Q ♠ } −→ P(C)=8/52=0.154
• Probabilidad a posteriori: Cuando no se tiene un experimento con un n´mero
u
finito de resultados equiprobables el concepto anterior no sirve, por lo que se
requiere una definici´n m´s general de probabilidad. La concepci´n de probao
a
o
bilidad a posteriori surgi´ de la comprobaci´n emp´
o
o
ırica. Es una observaci´n
o
com´n que en los experimentos aleatorios repetidos muchas veces la frecuenu
cia relativa con la cual se produce un resultado se estabiliza alrededor de un
cierto valor. Por lo tanto, si un experimento aleatorio se repite indefinidamente, la frecuencia relativa (f r) con las cuales aparecen los resultados se pueden

9
1 Probabilidad: Nociones B´sicas
a
hacer equivalentes a su probabilidad de ocurrencia, ya que
l´ f r(A) = P (A)
ım

n→∞

Esta forma de proceder permite acercarnos al verdadero valor de la probabilidad de un evento, pero obviamente, en t´rminos pr´cticos, este valor es
e
a
imposible de obtener. A´n as´ se puede asumir que es una buena aproximau
ı,
ci´n, que mejorar´ mientras m´s repeticiones del experimento existan.
o
a
a
Ejemplo: Se quiere conocer la probabilidad de obtener cara al lanzar una moneda cargada. El espacio muestral est´ dado por las dos posibilidades cara
a
o seca, S = {c, s}, pero no es equiprobable. Para poder conocer la probabilidad de ocurrencia de los eventos, es necesario lanzar la moneda una gran
cantidad de veces, anotar el resultado y calcular la frecuencia relativa. Si se
lanz´ 200 veces la moneda, de las cuales el evento cara ocurrio 75 veces, eno
tonces f r(c) = 75/200 = 0,375 y f r(s) = 125/200 = 0,625. Por lo tanto,
estas frecuencias se asignan como probabilidades de ocurrencia de los eventos
considerados.
Asignaci´n Subjetiva: Muchos fen´menos puede que nunca hayan ocurrido o que se
o
o
hayan producido muy pocas veces. Por ejemplo, una carrera de caballos es un hecho
unico, que nunca puede repetirse bajo las mismas condiciones o el descubrimiento
´
de una droga nueva para curar una enfermedad. En estos casos, la asignaci´n de
o
la probabilidad no puede estar basada ni en el conocimiento previo del espacio
muestral, ni en la frecuencia de ocurrencia de los hechos, de modo que el enfoque
objetivo es obsoleto. Por lo tanto, aqu´ es cuando entra en acci´n el m´todo de
ı
o
e
asignaci´n subjetiva. De acuerdo a esta visi´n, el valor de probabilidad es asignado
o
o
por una persona de acuerdo al grado de confianza que ella tenga en la ocurrencia
del hecho. Bajo este punto de vista, diferentes individuos disponiendo de la misma
informaci´n pueden tener distintos grados de confianza acerca de la ocurrencia de
o
un evento (un ejemplo de esto son las apuestas deportivas). A´n cuando parezca
u
que este m´todo de asignaci´n esta fuera del ´mbito cient´
e
o
a
ıfico, no hay otra cosa
m´s alejada de la realidad, ya que actualmente el enfoque subjetivo tiene gran utilia
dad en la Teor´ Bayesiana de la desici´n, ´rea de la estad´
ıa
o a
ıstica en pleno desarrollo.

1.3.1.

Axiomas

Los axiomas o postulados que debe cumplir la probabilidad son los siguientes:
De positividad: la probabilidad de un evento nunca es un n´mero negativo, es cero
u
(evento imposible de ocurrir) o un real positivo. Este axioma puede denotarse
como: P (A) ≥ 0.
De certidumbre: la probabilidad de todo el espacio muestral es uno, P (S) = 1, es
decir, la probabilidad de todo evento con un certidumbre total de ocurrencia es
uno. Estos dos axiomas en conjunto establecen que 0 ≤ P (A) ≤ 1.

10
1 Probabilidad: Nociones B´sicas
a
De la adici´n: la probabilidad de un evento A es igual a la suma de las probabilio
dades de los eventos elementales que lo conforman.
Ejemplo: En familias de 4 hijos, cu´l es la probabilidad de encontrar una que tenga
a
menos de 3 hijos varones ? Del espacio muestral que ya hab´
ıamos especificado en la
p´gina 7, sabemos que posee 16 elementos equiprobables y que el evento que buscamos
a
posee 11 elementos:


 VVMM; V M V M, VMMV, M V M V, MMVV, M V V M 
V M M M, MVMM, M M V M, MMMV
A=


MMMM
por lo que la probabilidad del evento A ser´ igual a la suma de las probabilidades de los
a
11 elementos, P (A) = 11/16 = 0,6875
1.3.2.

Reglas para el c´lculo
a

A partir de los axiomas anteriores se pueden deducir algunas reglas b´sicas para
a
calcular las probabilidades de diferentes tipos de eventos:
Del conjunto vac´ Si ∅ es el conjunto vac´ entonces P (∅) = 0, es decir representa
ıo:
ıo,
un evento que no puede ocurrir.
De adici´n para eventos mutuamente excluyentes: Si A y B son dos eventos muo
tuamente excluyentes, la probabilidad de ocurrencia de A o de B es la suma de
sus probabilidades separadas, es decir, P (A B) = P (A) + P (B).
De adici´n para eventos solapados: Si A y B son dos eventos cualesquiera que
o
pueden ocurrir juntos, significa que algunos de los eventos elementales que los
conforman pertenecen tanto a A como a B, es decir forman parte de la intersecci´n
o
de los dos eventos. Por el 3er axioma sabemos que la probabildad de ocurrencia de
la uni´n de dos eventos es la suma de las probabilidades de los eventos elementales
o
que los forman. Ahora, si solo se suman las probabilidades de los eventos A y B
para el c´lculo de la probabilidad de la uni´n, estaremos contando dos veces las
a
o
probabilidades de los eventos elementales que pertenecen a la intersecci´n, por lo
o
tanto es necesario sustraer sus probabilidades una vez, es decir,
P (A

B) = P (A) + P (B) − P (A

B)

De la complementaci´n: Sean A y A dos eventos complementarios en un espacio
o
muestral S. Ya que los eventos complementarios son mutuamente excluyentes, se
deduce de los axiomas 2do y 3ro que la probabilidad de la union de A con A es
P (A

A) = P (A) + P (A) = P (S) = 1

por lo tanto, P (A) = 1 − P (A).

11
1 Probabilidad: Nociones B´sicas
a
1.3.3.

C´lculo
a

A continuaci´n se detalla un procedimiento general que puede facilitar el c´lculo de la
o
a
probabilidad.
Paso 1: En primer
t´rmino se debe definir
e
correctamente el espacio muestral. En la figura de la derecha se
muestra un esquema
de los distintos tipos
de espacios muestrales
que puede generar un
experimento aleatorio.
Paso 2: Se asigna un
valor de probabilidad
a cada evento elemental de modo que cumpla que
S p(ei ) =
1,0.
Paso 3: Se define el o
los eventos de inter´s
e
en funci´n de los eveno
tos elementales que los
componen.
Paso 4: Se calcula la
probabilidad del evento o los eventos de nuestro inter´s de acuerdo a las formulaciones
e
dadas en la figura.
Ejemplo 1: Cu´l es la probabilidad de obtener dos n´meros pares cuando se lanzan dos
a
u
dados?
Paso 1: Se tiene un espacio muestral discreto, finito y con 36 resultados equiprobables:


 (1, 1)(1, 2)(1, 3)(1, 4)(1, 5)(1, 6) 



 (2, 1)(2, 2)(2, 3)(2, 4)(2, 5)(2, 6) 







(3, 1)(3, 2)(3, 3)(3, 4)(3, 5)(3, 6)
S=
 (4, 1)(4, 2)(4, 3)(4, 4)(4, 5)(4, 6) 



 (5, 1)(5, 2)(5, 3)(5, 4)(5, 5)(5, 6) 







(6, 1)(6, 2)(6, 3)(6, 4)(6, 5)(6, 6)
Paso 2: Cada evento elemental tiene la misma probabilidad de ocurrencia, P (ei ) = 1/36
de modo que se cumpla que S p(ei ) = 1,0.
Paso 3: El evento definido es: A = {(2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)}
Paso 4: La probabilidad de A es el n´mero de veces que ocurre A sobre el total de pou
sibles resultados: P (A) = 9/36 = 1/4.

12
1 Probabilidad: Nociones B´sicas
a
Ejemplo 2: En el transcurso de una investigaci´n efectuada para evaluar el efecto de
o
una droga sobre cierta enfermedad parasitaria, se seleccionaron 200 grupos de cinco ratas, que despu´s de dos d´ de haber sido inoculadas con el par´sito se les aplic´ una
e
ıas
a
o
dosis de la droga y al cabo de dos semanas se registr´ el n´mero de animales muertos.
o
u
Se quiere conocer cu´l es la probabia
lidad de que muera alguna rata si se
repite la experiencia.
Num. de ratas Frecuencia Probabilidad
Paso 1: El espacio muestral es discremuertas x
fr
f r/200
to, finito y con 6 resultados no equi0
120
0.60
probables.
1
40
0.20
Paso 2: En ´ste caso es necesario recue
2
20
0.10
rrir al concepto de frecuencia relativa
3
10
0.05
(num. de grupos con x ratas muertas),
4
6
0.03
para asignar un valor de probabilidad
5
4
0.02
a cada evento elemental. En la 3era columna de la tabla pueden verse dichas
probabilidades que cumplen que S p(ei ) = 1,0
Paso 3: El evento definido es A = {una o m´s ratas muertas} = {1, 2, 3, 4, 5}
a
Paso 4: Para calcular la probabilidad del evento A se puede recurrir a la regla de la
complementaci´n, sabiendo que A = {ninguna rata muerta} = {0}. Entonces tendremos
o
que P (A) = 1 − P (A) = 1 − P (0) = 1 − 0,60 = 0,40. Observar que la regla de la adici´n
o
arroja el mismo resultado.

1.4.

Probabilidad Condicional

En muchas ocasiones la probabilidad de ocurrencia de un evento depende de la ocurrencia o no de otro suceso. Supongamos que de grupo de 100 ratones 80 hembras y 20
machos; se eligen aleatoriamente dos individuos y se verifica su sexo. Cu´l es la proa
babilidad de que el segundo rat´n sea hembra? Definamos los eventos A = {1er rat´n
o
o
hembra} y B = {2do rat´n hembra}. Si elegimos aleatoriamente un ejemplar y despu´s
o
e
de verificar su sexo se regresa al lote, la probabilidad de obtener una hembra siempre
ser´ P (A) = P (B) = 80/100 = 0,8. Pero supongamos que se decide que si en la primera
a
extracci´n el rat´n es macho debe regresar al lote, entonces la probabilidad del 2do reo
o
sultado depender´ del 1ero. As´ seguir´ siendo P (A) = 0,8 pero P (B) vendr´ dada por
a
ı,
a
a
las siguientes opciones: a) P (B) = 80/100 si A no ocurri´, es decir si el 1er individuo
o
fue macho; b) P (B) = 79/99 si A ocurri´, es decir si el 1er individuo fue hembra.
o
En otras palabras, para poder calcular la P (B) debemos saber si A ocurri´ o
o
no. Este tipo de probabilidad se llama condicional, se indica P (B/A) y se lee
la probabilidad de B dado que ocurri´ A. Lo m´s importante de notar es que
o
a
se est´ calculando la probabilidad de B sobre un nuevo espacio muestral, el
a
cual es mas reducido.

13
1 Probabilidad: Nociones B´sicas
a
Veamos otro ejemplo: En familias de 4 hijos, cu´l es la probabilidad de que 2 y solo 2
a
sean mujeres si se sabe que la familia tiene 2 o m´s mujeres?
a
Recordemos que el espacio muestral para este ejemplo ya fu´ detallado por extensi´n en
e
o
la p´gina 7. El evento del cual se quiere conocer la probabilidad es:
a
A = {2 y solo 2 mujeres} = {VVMM; V M V M, VMMV, M V M V, MMVV, M V V M }
La probabilidad de A sin ninguna condici´n es P (A) = 6/16 = 0,375. Sin embargo como
o
ya se conoce que la familia seleccionada tiene 2 o m´s hijas, la informaci´n es mayor. El
a
o
evento que ya ocurri´ lo designamos como B y sus 11 resultados que lo integran son:
o


 VVMM; V M V M, VMMV, M V M V, MMVV, M V V M 
V M M M, MVMM, M M V M, MMMV
B=


MMMM
De modo que la probabilidad de obtener 2 y s´lo 2 mujeres dado que se sabe que hay 2 o
o
m´s mujeres, se obtiene dividiendo el n´mero de elementos de A entre el nuevo n´mero
a
u
u
de resultados posibles, es decir, P (A/B) = 6/11 = 0,545.
Si observamos detenidamente los dos eventos involucrados, nos podremos dar
cuenta que los elementos de A est´n incluidos en B, y esto no es otra cosa
a
que el conjunto A B. De modo que la probabilidad condicionada se puede
expresar en forma general como:
P (A/B) =

1.5.

P (A B)
P (B)

Eventos Independientes

Se dice que una serie de eventos que ocurren unidos o en secuencia son independientes si
el resultado de uno no afecta al otro. Hay casos en los cuales se puede precisar f´cilmente
a
que dos eventos son independientes. Por ejemplo, si le preguntamos a unas cuantas
personas en la calle si sufren de miop´ y si comen ravioles a la bolognesa, podr´
ıa
ıamos
asegurar que los resultados a las preguntas son eventos independientes ya que dichas
acciones no est´n relacionadas. Pero si les preguntamos a dichas personas si les gusta el
a
futbol y si han visto TyC Sports alguna vez, no es posible responder con certeza si los
dos eventos son independientes, porque es muy posible que la frecuencia de personas que
miran partidos de f´tbol por dicho canal sea alta. Una manera objetiva de decidir si dos
u
eventos son independientes es comparar las probabilidades de ocurrencia de uno de los
eventos antes y despu´s que el otro evento ocurra. En t´rminos formales, dos eventos A
e
e
y B, se dice que son independientes si se cumple:
P (A/B) = P (A)
es decir, la probabilidad del evento A no cambia cuando haya ocurrido el evento B.

14
1 Probabilidad: Nociones B´sicas
a
Observar que dicha relaci´n tambi´n puede expresarse como P (A B)/P (B) = P (A)
o
e
por lo tanto se deduce que la ocurrencia conjunta de dos eventos independientes es igual
a P (A B) = P (A)P (B), lo que constituye otra manera de definir la independencia de
dos eventos (siempre que las probabilidades sean mayores que cero).
Ejemplo: En un estudio sobre la calidad del agua de los r´ que conforman cierta cuenca
ıos
hidrogr´fica, se encontr´ que el 28 % de los r´ tienen una altitud superior a los 2500
a
o
ıos
m; un 20 % tienen temperatura del agua menor a 12◦ C y un 10 % tienen ambas caracter´
ısticas.
Son independientes los eventos altitud ≥ 2500 m (A) y temperatura ≤ 12◦ C (B)?
Los valores de probabilidad se asignan a partir de las frecuencias relativas:
P (A) = 0,28

P (B) = 0,20

P (A

B) = 0,10

La comprobaci´n de la independencia o dependencia de los eventos A y B, se puede
o
hacer a partir de la igualdad que establece que la probabilidad de ocurrencia conjunta
de dos eventos independientes es igual al producto de sus probabilidades individuales.
Tenemos entonces que
P (A

B) = 0,10

P (A)P (B) = 0,20 × 0,28 = 0,06

Al ser P (A B) = P (A)P (B) se concluye que los eventos A y B no son independientes. Es decir, el hecho de que un r´ tenga una altitud superior a 2500 m aumenta la
ıo
probabilidad de que tenga una temperatura menor a 12◦ C.

1.6.

Teorema de Bayes

En el a˜o 1763, dos a˜os despu´s de la muerte de Thomas Bayes (1702-1761), se
n
n
e
public´ una memoria en la que aparece, por vez primera, la determinaci´n de la probao
o
bilidad de las causas a partir de los efectos que han podido ser observados. El c´lculo de
a
dichas probabilidades recibe el nombre de teorema de Bayes. Este teorema proporciona
la probabilidad condicional de un evento A dado otro evento B (probabilidad posteriori), en funci´n de la probabilidad condicional del evento B dado A y de la probabilidad
o
marginal del evento A (probabilidad apriori).
Recordemos que la probabilidad condicional de 2 eventos A y B est´ definida como
a
P (A/B) = P (A B)/P (B), por lo que P (A/B)P (B) = P (A B). An´logamente por
a
simetr´ tambi´n podemos escribir P (B/A)P (A) = P (A B). Combinando ambas ecuaıa
e
ciones obtenemos lo que se conoce como el teorema de Bayes:
P (A/B) =

P (B/A)P (A)
P (B)

Notar que el denominador P (B) puede ser reescrito de la siguiente manera:
P (B) = P (B

(A

A)) = P ((B

A)

15

(B

A)) = P (B

A) + P (B

A)
1 Probabilidad: Nociones B´sicas
a
usando las formulas para la probabilidad condicional e introduciendo el resultado para
P (B) en la ecuaci´n del teorema nos queda
o
P (A/B) =

P (B/A)P (A)
P (B/A)P (A) + P (B/A)P (A)

Observar que el denominador es una sumatoria sobre los eventos A y A que conforman
todo el espacio muestral. Una manera general de escribir el Teorema de Bayes es la
siguiente: Sea A1 , A2 , ...,An un sistema completo de sucesos (es decir que abarca todo el
espacio muestral S), tales que la probabilidad de cada uno de ellos es distinta de cero, y
sea B un suceso cualquiera del que se conocen las probabilidades condicionales P (B/Ai ).
entonces la probabilidad P (Ai /B) viene dada por la expresi´n:
o
P (Ai /B) =

P (B/Ai )P (Ai )
n
i=1 P (B/Ai )P (Ai )

En resumen, este teorema nos permite, si conocemos la probabilidad de que ocurra un
suceso, modificar su valor cuando disponemos de nueva informaci´n.
o
Ejemplo: Un ejemplo cl´sico del uso del teorema de Bayes es el problema de oro y plata.
a
Hay tres bolsas que tienen, cada una 2 monedas. Las de la primera son de oro, las de la
segunda son de plata y las de la tercera son una de plata y otra de oro. Se escoje una
bolsa al azar y de ella una moneda tambi´n al azar. Si la moneda es de oro, cu´l es la
e
a
probabilidad de que la otra moneda en la bolsa sea de oro tambi´n?
e
Primero, notemos que la segunda bolsa no pudo haber sido elegida (porque no tiene
monedas de oro), s´lo pudo haber sido seleccionada la primera o la tercera. Si la bolsa
o
elegida hubiese sido la tercera, el evento cuya probabilidad nos interesa no se realiza.
De modo que el evento que nos interesa es equivalente a que se haya elegido la primera
bolsa. Una vez establecido lo anterior, apliquemos el teorema de Bayes para calcular:
P (1◦ |Au) =

P (1◦ )P (Au|1◦ )
P (1◦ )P (Au|1◦ ) + P (2◦ )P (Au|2◦ ) + P (3◦ )P (Au|3◦ )

Las probabilidades que entran al lado derecho de la igualdad las sacamos, inmediatamente, de las condiciones del problema y despu´s de hacer cuentas tenemos que
e
P (1◦ |Au) = 2/3
Este problema es cl´sico porque existe una soluci´n a la que muchas personas llegan y
a
o
es falsa. El argumento es el siguiente. Como todas las bolsas son igualmente posibles, y
el hecho de que la primer moneda extra´ sea de oro, nos indica que no se trata de la
ıda
segunda bolsa. Conclu´
ımos que las dos bolsas restantes tienen igual probabilidad y, por
tanto, la probabilidad de que la otra moneda sea de oro es 1/2. Si Ud. piensa de acuerdo
a este razonamiento (err´neo!), es muy dif´ que encuentre en qu´ se equivoca. Lo que
o
ıcil
e
est´ mal es que lo que averiguamos, al saber que la moneda extra´ es de oro, es algo
a
ıda
m´s que el rechazo de la segunda bolsa. Si s´lo nos dijeran que la bolsa escogida al azar
a
o

16
1 Probabilidad: Nociones B´sicas
a
no fu´ la segunda, sin informarnos del metal de la moneda sacada, todav´ tendr´
e
ıa
ıamos
incertidumbre respecto a la primera moneda; todav´ podr´
ıa
ıamos apostar a si ´sta es de
e
oro o de plata. Al decirnos que la moneda fu´ de oro, estamos aprendiendo algo m´s,
e
a
y eso echa por tierra el argumento de igual probabilidad para las dos bolsas restantes.
La informaci´n con la que contamos nos indica que nos hallamos frente a un caso en
o
el que la bolsa era la primera y sacamos, la primera de las monedas que contenia, o la
segunda, (ya llevamos 2 posibilidades), o bien la bolsa era la tercera y en ese caso tan
solo podr´ ser que sac´ramos en primer lugar la moneda de oro, luego la que queda
ıa
a
dentro es de plata (una unica posibilidad). Tenemos 3 posibles sucesos en los que en 2
´
de ellos sacar´
ıamos a continuaci´n una moneda de oro (2/3 de probabilidad), y tan s´lo
o
o
una de las veces la nueva moneda ser´ de plata (1/3 de probabilidad). Lo interesante del
ıa
problema es que, si nos hubieran dicho que la moneda sacada fu´ de plata, aplicando la
e
f´rmula de Bayes, llegamos a la conclusi´n de que la probabilidad de que la otra moneda
o
o
sea tambi´n de plata es 2/3!. Es decir, si vamos a apostar al metal de la otra moneda, nos
e
conviene apostar por el metal de la primera. Este ejemplo nos lleva a reflexionar sobre
el uso adecuado de la informaci´n contenida en ”lo dado.en el c´lculo de la probabilidad
o
a
condicional.
Otro ejemplo:
En este ejemplo veremos una herramienta util a la hora de estimar las
´
probabilidades usando el Teorema de
Bayes. Esta herramienta es la construcci´n del ´rbol de probabilidades.
o
a
Veamos: En un aula el 70 % de los
alumnos son mujeres. De ellas, el 10 %
son fumadoras. De los varones, son fumadores el 20 %. En la figura de la derecha puede verse la construcci´n de
o
dicho ´rbol con la informaci´n brina
o
dada por el problema. Por lo tanto,
formulemos el evento que nos interesa
resolver: Si se elije a un individuo al
azar y es fumador, que probabilidad
hay de que sea un hombre?
Seg´n el Teorema de Bayes la probau
bilidad de que siendo fumador F sea
hombre H es P (H/F ) = P (H)P (F/H) .
P (F )
El numerador de esta fracci´n se pueo
de calcular siguiendo la linea de flechas
gruesas rojas y multiplicando sus probabilidades, ya que P (H) = 0,3 y P (F/H) = 0,2.
Por ultimo, la probabilidad de ser fumador es P (F ) = P (M )P (F/M ) + P (H)P (F/H) =
´
0,7 × 0,1 + 0,3 × 0,2 = 0,13, en consecuencia la respuesta a nuestro problema es
P (H/F ) = (0,3 × 0,2)/0,13 = 0,46.

17
1 Probabilidad: Nociones B´sicas
a
Curiosidad Bayesiana
Aunque probablemente todos razonamos de una forma m´s parecida a la metodolog´
a
ıa
bayesiana que a la frecuentista, resulta dif´ traducirlo en t´rminos matem´ticos y dif´
ıcil
e
a
ıcil
de evaluar y de transmitir, por lo que para finalizar voy a citar un art´
ıculo escrito por
el matem´tico John Allen Paulos sobre la utilizaci´n de las estad´
a
o
ısticas que efectu´ el
o
abogado defensor en el famoso juicio del jugador y actor norteamericano O.J. Simpson,
acusado del asesinato de su mujer, donde vemos que la comprensi´n del concepto de
o
probabilidad condicional, y al menos una idea intuitiva del teorema de Bayes, es de
utilidad y aplicaci´n en la vida diaria:
o
El abogado defensor Alan Dershowitz afirmaba que, puesto que menos del uno por
mil de las mujeres maltratadas por sus compa˜eros mueren a manos de ´stos (c´lculo
n
e
a
frecuentista), los malos tratos producidos en el matrimonio Simpson no ten´ que ver
ıan
con el caso. Aunque las cifras son correctas, las palabras del se˜or Dershowitz son de
n
una incongruencia apabullante; no tienen en cuenta un hecho ineludible: Nicole Simpson
muri´ de muerte violenta. Dadas ciertas suposiciones f´cticas razonables de homicidio y
o
a
malos tratos conyugales, se puede ver f´cilmente, empleando el teorema de Bayes, que si
a
un hombre maltrata a su mujer o novia, y ´sta muere asesinada despu´s, el vapuleador
e
e
es el homicida m´s del 80 % de las veces. As´ pues estaba matem´ticamente justificado,
a
ı
a
a falta de otros indicios, que la polic´ sospechara inmediatamente del se˜or Simpson.
ıa
n
No estoy defendiendo en modo alguno la derogaci´n de los derechos de nuestra cuarta
o
enmienda; me limito a puntualizar que se˜alar con el dedo al se˜or Simpson no era, tal
n
n
como estaban las cosas, il´gico, ni fue como sosten´ el defensor una muestra de racismo.
o
ıa
Me pregunto, ser´ frecuentistas o bayesianos los miembros del jurado?
ıan

18
2 Variables Aleatorias

2.

Variables Aleatorias

La identificaci´n de cada resultado, en algunos experimentos aleatorios, obedece a
o
un reconocimiento de las propiedades que lo caracterizan. Por ejemplo, la condici´n
o
de ser hembra en un reci´n nacido es un resultado cuya calificaci´n depende de una
e
o
serie de caracter´
ısticas cualitativas espec´
ıficas, al igual que con la raza o la salud. En
otros tipos de experimentos aleatorios no basta con calificar los resultados, sino que es
necesario caracterizarlos cuantitativamente. En algunos casos esta cuantificaci´n resulta
o
de un proceso de conteo, as´ se habla del n´mero de hijos, de dientes, de cromosomas,
ı
u
de electrones, de emisiones radiactivas, etc. En otros casos, al determinar caracter´
ısticas
como el peso, la talla, la temperatura o la concentraci´n de alguna sustancia en ciertos
o
objetos o elementos, se asigna a cada resultado un valor dentro de una escala de medici´n
o
espec´
ıfica. Cada una de esas caracter´
ısticas cuantificables por conteo o por medici´n
o
recibe el nombre gen´rico de variables aleatorias; son variables porque su valor cambia
e
de un elemento a otro; y son aleatorias porque su comportamiento es impredecible. Las
variables aleatorias son importantes porque ellas caracterizan los fen´menos o procesos
o
naturales, por lo que resulta muy valioso comprender en la forma m´s completa posible
a
sus propiedades y comportamiento. Una primera aproximaci´n a este conocimiento se
o
logra estableciendo el conjunto de posibles valores que puede asumir la variable y su
respectiva probabilidad de ocurrencia.

2.1.

Definici´n
o

Hasta el momento a los resultados de un experimento aleatorio los hemos calificado
como caras de una moneda, lados del dado, colores de ojos, etc. En matem´ticas, es
a
frecuentemente m´s f´cil manejar n´meros que objetos arbitrarios. Por eso, la idea es
a a
u
representar los resultados de un experimento random por n´meros que pueden ser asigu
nados mediante funciones especiales. Veamos como funciona.
Supongamos el espacio muestral de lanzar 3 monedas. Los 8 resultados posibles son:
S = {ccc, ccs, csc, scc, css, scs, ssc, sss}
Este mismo espacio muestral se puede expresar
en n´meros. Para esto, es necesario definir una
u
regla o norma que al aplicarla le adjudique a
cada resultado un valor. Por ejemplo, se puede
establecer la siguiente regla: contar el n´meu
ro de secas que aparecen en cada resultado del
espacio muestral. La asociaci´n de n´meros a
o
u
cada resultado puede verse en el caso (a) de
la siguiente tabla. Si seguimos viendo la tabla,
cu´les ser´n las reglas definidas para los casos
a
a
(b) y (c)? Los 3 espacios num´ricos mostrados
e

19

(a)
ccc −→ 0
ccs −→ 1
csc −→ 1
scc −→ 1
css −→ 2
scs −→ 2
ssc −→ 2
sss −→ 3

(b)
ccc −→ 1
ccs −→ 2
csc −→ 2
scc −→ 2
css −→ 3
scs −→ 3
ssc −→ 3
sss −→ 4

(c)
ccc −→ 0
ccs −→ 1
csc −→ 1
scc −→ 1
css −→ 4
scs −→ 4
ssc −→ 4
sss −→ 9
2 Variables Aleatorias
en la tabla pueden ser expresados como
S1 = {0, 1, 2, 3}

S2 = {1, 2, 3, 4}

S3 = {0, 1, 4, 9}

Si adoptamos como x la letra que significa cantidad de n´mero de sellos entonces las
u
funciones matem´ticas que generan dichos espacios son:
a
f1 (x) = x

f3 (x) = x2

f2 (x) = x + 1

Si cada una de estas reglas se define en forma gen´rica como una variable aleatoria, y
e
a su vez sabemos que cada regla es una funci´n matem´tica, la definici´n de variable
o
a
o
aleatoria se puede enunciar como:
Sea E un experimento aleatorio y S su espacio muestral, toda funci´n que asigne a cada
o
uno de los elementos de S un n´mero real X(s), se llama variable aleatoria.
u
Las variables aleatorias se identifican con letras mayusculas, por lo que nuestros ejemplos
podr´ ser identificados de la siguiente manera:
ıan
X = n◦ de sellos

Y = n◦ de sellos + 1

Z = cuadrado del n◦ de sellos

El resultado de definir una variable aleatoria es que genera un nuevo espacio muestral
num´rico que se denomina recorrido o rango espacial y se identifica con la letra R. En
e
nuestro ejemplo tendr´
ıamos:
Rx = {0, 1, 2, 3}

Ry = {1, 2, 3, 4}

Rz = {0, 1, 4, 9}

Es importante puntualizar algunas cosas con relaci´n al concepto de variable aleatoria:
o
1. Para un mismo experimento es posible definir diferentes variables aleatorias. En
nuestro ejemplo se pudieron especificar otras variables aleatorias como el n´mero
u
de lanzamientos o la distancia entre las monedas.
2. En muchos casos el resultado de un experimento es directamente un n´mero. Por
u
ej., si se mide la altura de un individuo se obtiene directamente un valor.
3. En t´rminos pr´cticos, en el estudio de una variable aleatoria es m´s importante
e
a
a
conocer los valores que ella asume que saber cu´les son los elementos que conforman
a
su espacio muestral.
4. Los valores que asumen las variables aleatorias se identifican con letras min´sculas
u
por ej. x, y, z. Si se define como variable aleatoria X =tama˜o de una persona,
n
y se quiere indicar la probabilidad de que esa persona supere determinada altura,
este evento se puede expresar como P (X > x), donde x asume el valor que se
especifique.

20
2 Variables Aleatorias

2.2.

Discretas y Continuas

De acuerdo con las caracter´
ısticas del rango espacial, las variables aleatorias se clasifican en discretas y continuas.
Discretas: Se denomina discreta si el rango espacial esta constituido por un n´mero
u
finito o infinito contable de valores:
Rx = {x1 , x2 , x3 , ..., xr , ..., xn , ....}
´
Estas se generan a partir del recuento de elementos: n´mero de hijos, de part´
u
ıculas,
de ´tomos, etc.
a
Ejemplo: Se registra el n´mero de varones nacidos en los primeros 4 partos ocurriu
dos el primer d´ del a˜o. El espacio muestral S estar´ formado por 16 resultados
ıa
n
a
equiprobables. La variable aleatoria n´mero de varones origina un espacio Rx foru
mado por 5 resulados numerables.


 
 MMMM

 0 


 


 
 VMMM, MVMM, MMVM, MMMV

 1 


 
VVMM; VMVM, VMMV, MVMV, MMVV, MVVM
2
S=
=⇒ RX =


 
 VVVM, VVMV, VMVV, MVVV

 3 


 


 


 
VVVV
4
Continuas: Se denomina continua si el rango espacial est´ constituido por un n´mea
u
ro infinito de valores en un intervalo dado:
Rx = {X(S) = x / x1 ≤ X ≤ x2 }
Estas se generan por la medici´n de magnitudes como la longitud, el peso, el voo
lumen, la densidad, la temperatura, etc.
Ejemplo: Se atrap´ una trucha en un r´ y se le determin´ el tama˜o. En ´ste
o
ıo
o
n
e
experimento el espacio muestral RX se origina inmediatamente como resultado de
determinar la longitud del cuerpo del pez, que es una caracter´
ıstica propia de cada
individuo. El rango espacial RX est´ formado por infinitos resultados dentro de un
a
determinado intervalo.
S = { tama˜o de las truchas } =⇒ RX = {xi = tama˜o / 10 cm ≤ xi ≤ 15 cm}
n
n

2.3.

Funci´n de Probabilidad
o

Recordemos que dijimos que para tener un buen conocimiento de una variable aleatoria
no basta con saber cu´les son los valores que puede asumir sino tambi´n es necesario
a
e
describir su comportamiento en t´rmino de probabilidades. Para ello se requiere una
e
nueva funci´n, conocida como funci´n de probabilidad con la cual es posible asignar un
o
o
valor de probabilidad a cada resultado de un rango espacial.

21
2 Variables Aleatorias
2.3.1.

Funci´n de probabilidad de una variable aleatoria discreta
o

En el caso de variables discretas, la funci´n de probabilidad se denota como p(x) y se
o
interpreta como la probabilidad de que la variable aleatoria tome el valor xi , es decir,
p(x) = P (X = xi ). Obviamente, como la funci´n de probabilidad genera un valor de
o
probabilidad, estos n´meros deben satisfacer las siguientes condiciones:
u
x2

0 ≤ p(x) ≤ 1

P (x1 ≤ X ≤ x2 ) =

p(x) = 1

p(x)
x1

Rx

Las dos primeras condiciones son equivalentes a los axiomas probabil´
ısticos de positividad y certidumbre. La tercera propiedad simplemente establece que si se conoce la
funci´n de probabilidad de una variable aleatoria discreta, entonces se puede calcular la
o
probabilidad correspondiente a cualquier intervalo abierto o cerrado entre dos puntos x1
y x2 .
Ejemplo: Aqu´ podemos ver
ı
el experimento de lanzar una
moneda hasta obtener cara
por primera vez. En la figura de la derecha pueden observarse los distintos espacios
generados por el experimento
aleatorio: el espacio muestral
S, el rango espacial Rx (generado por la variable aleatoria n´mero de sellos) y el
u
espacio de probabilidad P . El
conjunto de pares ordenados
[xi , p(xi) ] para una variable
discreta se denomina distribuci´n de probabilidad. En
o
la parte inferior de la figura tambi´n puede observare
se una representaci´n gr´fica
o
a
de dicha distribuci´n de proo
babilidad. En este momento
es f´cil responder a interroa
gantes relativas a la variable
aleatoria. Por ej., cu´l es la
a
probabilidad de obtener menos de 3 sellos?. La respuesta se tiene sumando las probabilidades que hay en el espacio de probabilidad:
P (X < 3) = P (X ≤ 2) = p(0) + p(1) + p(2) = 0,50 + 0,25 + 0,125 = 0,875

22
2 Variables Aleatorias
2.3.1.1. Par´metros de la distribuci´n de una variable aleatoria discreta .
a
o
La mayor´ de las veces resulta poco pr´ctico manejar toda la distribuci´n de probabiıa
a
o
lidades para determinar el comportamiento de una variable, por lo que es conveniente
conocer algunos par´metros que caracterizan a la variable aleatoria. Esta idea se aprecia
a
claramente cuando se tiene una funci´n determin´
o
ıstica como es la ecuaci´n de una recta,
o
f(x) = αx + β, caracterizada por la pendiente α y la ordenada al origen β, los cuales
definen completamente el comportamiento funcional. Dos de los par´metros m´s impora
a
tantes para caracterizar las variables aleatorias son el valor promedio y la varianza, los
que proporcionan una r´pida visi´n de la naturaleza de la variable.
a
o
Valor promedio: Veamos este concepto a trav´s de un ejemplo. En un estudio de campo
e
se determin´, para cierta regi´n, el n´mero de cr´ por madriguera para una determinada
o
o
u
ıas
especie
de
roedor
y
la
probabilidad
con
la
cual
esto
ocurre.
En la tabla de la derecha podemos
ver las probabilidades en funci´n del
o
n´mero de cr´ por madriguera. Si
u
ıas
N ◦ cr´
ıas Prob. Frec. f x f x/N
despu´s de un tiempo se revisan N
e
x
p(x)
p(x) N
madrigueras en la misma regi´n, es
o
1
0.25
75
75
0.25
posible estimar en forma aproxima2
0.40
120
240 0.80
da el n´mero de individuos por mau
3
0.20
60
180 0.60
driguera que se espera encontrar. Si
4
0.08
24
96
0.32
el n´mero de madrigueras revisado es
u
5
0.05
15
75
0.25
N = 300, el n´mero de madrigueras
u
6
0.02
6
36
0.12
con un cierto n´mero x de cr´ (freu
ıas
Total
1.00
300
702 2.34
cuencia esperada) puede observase en
la 3era columna de la tabla. Ahora, si
se quiere conocer el n´mero promedio de cr´ por madriguera se debe multiplicar la
u
ıas
frecuencia esperada por el n´mero de cr´ y su total se divide por el n´mero total de
u
ıas
u
madrigueras
n
fi xi
702
x = i=1
=
= 2,34
n
300
i=1 fi
Si en la f´rmula del c´lculo de x se sustituye n fi por N y se aplica el concepto de
o
a
i=1
frecuencia relativa a la probabilidad que establece que f r(x) = p(x) , se obtiene una nueva
f´rmula de c´lculo para la media a partir de los valores de probabilidad
o
a
x=

n
i=1 fi xi
n
i=1 fi

=

n
i=1 fi xi

N

n

=
i=1

fi xi
=
N

n

n

f r(xi ) xi =
i=1

p(xi )xi
i=1

La conclusi´n es que el valor promedio de la distribuci´n de una variable discreta es igual
o
o
a la suma del producto de cada valor de la variable por su probabilidad de ocurrencia.

23
2 Variables Aleatorias
Si a este concepto lo extrapolamos de la muestra a la poblaci´n, el valor promedio de la
o
distribuci´n de valores de una variable discreta es
o
n

µ=

p(xi )xi
i=1

A este valor promedio tambi´n se lo conoce como Esperanza matem´tica o Valor espee
a
rado y se suele denotar como E(x).
o
n
u
Varianza: Si de una poblaci´n se extrae un ni˜o y se le determina el n´mero de caries,
cabr´ las siguientes preguntas: El n´mero de caries ser´ igual al valor promedio de la
ıan
u
a
poblaci´n? El valor estar´ cercano o alejado al valor promedio?. Si s´lo conocemos el
o
a
o
valor promedio no podremos responder ninguna de estas preguntas. A lo sumo sabremos
que tendr´ un n´mero de caries mayor o menor al promedio y que sus probabilidades
a
u
de ocurrencia dependen de la forma de la distribuci´n de la variable. De modo que no
o
basta conocer el valor medio de una variable aleatoria para poder describir desde un
punto de vista pr´ctico alguna de sus caracter´
a
ısticas m´s interesantes. Las preguntas
a
hechas anteriormente hacen pensar que se requiere otro tipo de medida que cuantifique
la dispersi´n de valores alrededor del valor medio. Lo m´s simple ser´ determinar la
o
a
ıa
desviaci´n de cada valor respecto al valor medio, es decir ser´ necesario obtener para
o
ıa
cada xi la desviaci´n xi − µ. Como se quiere tener un valor de desviaci´n para toda la
o
o
distribuci´n, la suma de las mismas podr´ representar una medida general de desviaci´n.
o
ıa
o
Sin embargo, como el t´rmino (xi − µ) = 0 , la mejor manera de evadir este problema
e
es elevando al cuadrado cada desviaci´n: (xi − µ)2 , de modo que el valor promedio de
o
todas las diferencias cuadr´ticas se podr´ usar como esa medida unica de dispersi´n.
a
ıa
´
o
Puesto que (xi − µ)2 es tambi´n una variable aleatoria, su valor promedio ser´:
e
a
n

σ2 =

p(xi )(xi − µ)2
i=0

Esta medida de dispersi´n se denomina varianza. Una f´rmula m´s simple para el c´lculo
o
o
a
a
2 se obtiene desarrollando el binomio cuadrado presente en la f´rmula anterior,
de σ
o
obteni´ndose
e
n

σ2 =

x2 p(xi )
i

− µ2

i=1

Volviendo a nuestro ejemplo, si nos dijeran que la distribuci´n de probabilidades en
o
funci´n del n´mero de caries por ni˜o es
o
u
n
N ◦ caries
p(x)

0
0.19

1
0.29

2
0.21

3
0.15

4
0.09

5
0.04

6
0.02

7
0.01

Se quiere conocer la probabilidad de que un ni˜o tenga m´s de 2 y menos de 6 caries,
n
a
el n´mero promedio de caries por ni˜o y la varianza de la distribuci´n. Puede verse que
u
n
o
P (2 < X < 6) = P (3 ≤ X ≤ 5) = p(3) + p(4) + p(5) = 0,15 + 0,09 + 0,04 = 0,28. Hacer
el c´lculo y probar que µ = 1,91 y σ 2 = 2,48.
a

24
2 Variables Aleatorias
2.3.2.

Funci´n de probabilidad de una variable aleatoria continua
o

En el caso de variables aleatorias continuas, la funci´n de probabilidad se identifica
o
como f(x) . Para las variables continuas no tiene sentido encontrar la probabilidad exacta
de un valor puntual puesto que su rango espacial est´ formado por infinitos valores, de
a
modo que la expresi´n P (X = xi ) carece de sentido.
o
Por ejemplo, supongamos que queremos medir la temperatura en la superficie de un lago.
Un term´metro con una apreciaci´n en grados puede determinar que la temperatura del
o
o
◦ C. Sin embargo debido a la apreciaci´n tan gruesa, cualquier valor entre
agua es 28
o
27, 5◦ C y 28, 5◦ C el instrumento lo aprecia como 28◦ C. Si se cambia el term´metro por
o
◦ C, el valor de temperatura tendr´ una d´cima m´s
otro con una apreciaci´n de 0, 1
o
a
e
a
de apreciaci´n, digamos que fue de 28, 2◦ C. Pero la incertidumbre se mantiene porque
o
cualquier valor entre 28, 15 y 28, 25 es medido como 28, 2◦ C. Esta falta de seguridad
sobre cu´l es el verdadero valor de temperatura del agua siempre estar´ presente, en
a
a
primer lugar porque te´ricamente la apreciaci´n del term´metro puede incrementarse
o
o
o
indefinidamente y en segundo t´rmino porque el rango espacial de la temperatura, igual
e
que el de todas las variables continuas, esta formado por infinitos valores.
Al no poderse definir para una variable aleatoria continua una funci´n p(x) que asigne
o
una probabilidad a cada valor xi de su rango espacial, es necesario establecer una nueva
funci´n f(x) que fije la probabilidad de todos los valores xi . Esta funci´n debe satisfacer
o
o
las siguientes condiciones:
b

0 ≤ f(x) ≤ 1

f(x) dx = 1

P (a ≤ X ≤ b) =

f(x) dx
a

x≤xi

La funci´n f(x) representa la distribuci´n de probabilidad y el ´rea bajo dicha funci´n
o
o
a
o
equivale a su probablidad de ocurrencia.

En la figura superior el caso A ejemplifica la condici´n de que el ´rea sombreada bajo la
o
a
curva debe ser igual a la unidad; el caso B muestra que el ´rea sombreada representa la
a
probabilidad de que la variable se encuentre entre a y b; y el caso C indica que el ´rea
a
sombreada bajo la curva representa la probabilidad de que la variable sea igual o mayor
al valor a. Por ultimo, observar que una consecuencia de la naturaleza de las variables
´
continuas, es que las probabilidades P (a < X < b), P (a < X ≤ b), P (a ≤ X < b) y
P (a ≤ X ≤ b) son todas iguales.

25
2 Variables Aleatorias
Ejemplo:
Encuentre la probabilidad de que una variable aleatoria sea mayor a 2 y menor a 4
si se sabe que su funci´n de probabilidad
o
es
x e−x
x> 0
f (x) =
0
x≤ 0
Para encontrar la probabilidad solicitada
es necesario hallar el ´rea bajo la curva
a
localizada entre los valores 2 y 4 (ver figura). Para ello se procede a integrar por
partes la funci´n
o
4

P (2 ≤ X ≤ 4) =

xe−x dx = −xe−x − e−x

2

4
2

= −e−x (x + 1)

4
2

= −5e−4 +3e−2

0, 3144

2.3.2.1. Par´metros de la distribuci´n de una variable aleatoria continua .
a
o
Los significados de la media y la varianza de la distribuci´n de una variable aleatoria
o
continua siguen siendo los mismo que tienen para las variables aleatorias discretas, s´lo
o
que en lugar de sumar un n´mero definido de valores enteros, es necesario sumar infinitos
u
valores, de modo que sus f´rmulas de c´lculo son las siguientes:
o
a
∞

µ=

∞

∞

σ2 =

xf (x) dx
−∞

(x − µ)2 f (x) dx =
−∞

x2 f (x) dx − µ2
−∞

Ejemplo: Siguiendo con la funci´n del ejemplo anterior, su media y varianza son:
o
∞

µ=

∞

xf (x) dx =
0

x2 e−x dx = 2

0
∞

σ2 =

x3 e−x dx − µ2 = 6 − 4 = 2

0

2.4.

Funci´n de Distribuci´n Acumulada
o
o

Probablemente la funci´n de distribuci´n de probabilidades acumuladas sea una de las
o
o
funciones con m´s aplicaci´n en la pr´ctica estad´
a
o
a
ıstica porque la mayor´ de las tablas
ıa
usadas en esta disciplina se generan a partir de funciones acumuladas.
2.4.1.

Funci´n acumulada para variables discretas
o

Al rango espacial de cualquier experimento se le puede asociar otra funci´n que cuano
tifica la probabilidad de que la variable aleatoria X asuma un valor igual o menor a xi .

26
2 Variables Aleatorias
Esta funci´n se simboliza como F (x) y se denomina funci´n de distribuci´n acumulativa.
o
o
o
Para el caso de variables aleatorias discretas la funci´n acumulativa queda definida como
o
F (x) = P (X ≤ xi ) =

p(x)
x≤xi

Ejemplo: Sea la variable aleatoria X = la suma de la cara de 2 dados, determine la
distribuci´n de probabilidades acumuladas y calcule las probabilidades siguientes:
o
1)P (X ≤ 6)
2)P (3 ≤ X ≤ 8)
3)P (X > 3)
4)P (2 < X < 8)

5)P (2 ≤ X ≤ 8 y 5 ≤ X ≤ 10)
6)P (X > 8 o X < 4)
.
7)P (5 < X < 10 o X > 7)
8)P (4 ≤ X ≤ 7 / X ≤ 6)

a) El espacio muestral est´ formado por 36 posibles resultados equiprobables
a


 (1, 1)(1, 2)(1, 3)(1, 4)(1, 5)(1, 6) 

 (2, 1)(2, 2)(2, 3)(2, 4)(2, 5)(2, 6) 









(3, 1)(3, 2)(3, 3)(3, 4)(3, 5)(3, 6)
S=
 (4, 1)(4, 2)(4, 3)(4, 4)(4, 5)(4, 6) 



 (5, 1)(5, 2)(5, 3)(5, 4)(5, 5)(5, 6) 







(6, 1)(6, 2)(6, 3)(6, 4)(6, 5)(6, 6)
b) El rango espacial de la variable aleatoria es el siguente:
Rx = { 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 }
c) Las distribuciones de probabilidad y acumulativas son las
que figuran en la tabla de la derecha.
xi
p(xi )
Entonces, las probabilidades solicitadas son:
2 0.02778
[[1]] P (x ≤ 6) = F(6) = 0,41667
3 0.05556
[[2]] P (3 ≤ X ≤ 8) = P (X ≤ 8) − P (X ≤ 2) = F(8) − F(2) =
4 0.08333
0,72222 − 0,02778 = 0,69
5 0.11111
[[3]] P (X > 3) = 1 − P (X ≤ 3) = 1 − 0,08333 = 0,92
6 0.13889
[[4]] P (2 < X < 8) = P (3 ≤ X ≤ 7) = P (X ≤ 7) − P (X ≤
7 0.16667
2) = F(7) − F(2) = 0,58333 − 0,02778 = 0,56
8 0.13889
[[5]] P (2 ≤ X ≤ 8 y 5 ≤ X ≤ 10) = P (5 ≤ X ≤ 8) = P (X ≤
9 0.11111
8) − P (X ≤ 4) = F(8) − F(4) = 0,72222 − 0,16667 = 0,56
10 0.08333
[[6]] P (X > 8 o X < 4) = 1 − P (X ≤ 8) + P (X ≤ 3) = 11 0.05556
1 − F(8) + F(3) = 1 − 0,72222 + 0,08333 = 0,36
12 0.02778
[[7]] P (5 < X < 10 o X > 7) = P (6 ≤ X ≤ 9) + P (X ≥
8) − P (8 ≤ X ≤ 9) = P (X ≤ 9) − P (X ≤ 5) + 1 − P (X ≤
7) − P (X ≤ 9) + P (X ≤ 7) = 1 − P (X ≤ 5) = 1 − F(5) = 1 − 0,28 = 0,72
[[8]] P (4 ≤ X ≤ 7/X ≤ 6) =

P (4≤X≤6)
P (X≤6)

=

P (X≤6)−P (X≤3)
P (X≤6)

27

=

0,41667−0,08333
0,41667

F (xi )
0.02778
0.08333
0.16667
0.27778
0.41667
0.58333
0.72222
0.83333
0.91667
0.97222
1.00000

= 0,80
2 Variables Aleatorias
2.4.2.

Funci´n acumulada para variables continuas
o

Cuando se trata de variables continuas la funci´n acumulativa se define como:
o
Φ(xi ) = P (X ≤ xi ) =

f (x) dx
x≤xi

En el caso de variables discretas la P (X ≤ xi ) se
obtiene sumando los valores de probabilidad de todos los resultados iguales o
menores a xi . Para las variables continuas esta probabilidad se obtiene calculando el ´rea que se ena
cuentra por debajo de f(x)
y a la izquierda del valor xi (ver figura de la
derecha). Dado que estos
c´mputos pueden llegar a
o
ser bastante complejos dependiendo de la naturaleza de f(x) , se han desarrollado para las funciones
de probabilidad m´s usadas,
a
tablas con las probabilidades acumuladas. Estas facilitan el c´lculo de probabilidaa
des.
Ejemplo: Supongamos que la
variable X = contenido de
plomo en sangre de personas,
tiene la funci´n de probabilidades
o
1
√
σ 2π

f (x) =

e

0

(x−µ)2
2σ 2

x> 0
x≤ 0

Usando la tabla de probabilidades acumuladas, calcule la probabilidad de que un individuo seleccionado aleatoriamente a) tenga una concentraci´n superior a 0.40 ppm y
o
b) tenga una concentraci´n menor a 0.30 ppm si se sabe que forma parte de un grupo
o
de personas cuya concentraci´n de plomo en la sangre se encuentra entre 0.25 y 0.45 ppm.
o

28
2 Variables Aleatorias
a) La probabilidad P (X ≥ 0,40) se obtiene calculando el ´rea debajo de f(x) por encima
a
de 0.40. Es decir
P (X ≥ 0,40) = 1 − P (X ≤ 0,40) = 1 − Φ(0,40) = 1 − 0,913659 = 0,08634
En t´rminos pr´cticos se puede decir que aproximadamente el 8,6 % de los individuos de
e
a
esa poblaci´n tienen m´s de 0.40 ppm de plomo en la sangre.
o
a
b) La segunda probabilidad solicitada es condicionada. Interesa obtener dos ´reas, la
a
que se encuentra entre 0.25 y 0.30, que representa la intersecci´n de los dos eventos y el
o
a
´rea entre 0.25 y 0.45 que es el nuevo espacio muestral reducido. Es decir
P (X ≤ 0,30 / 0,25 ≤ X ≤ 0,45) =

=

P [(X ≤ 0,30) (0,25 ≤ X ≤ 0,45)]
P (0,25 ≤ X ≤ 0,30)
=
=
P (0,25 ≤ X ≤ 0,45)
P (0,25 ≤ X ≤ 0,45)

P (X ≤ 0,30) − P (X ≤ 0,25)
Φ(0,30) − Φ(0,25)
0,685272 − 0,500
=
=
= 0,3980
P (X ≤ 0,45) − P (X ≤ 0,25)
Φ(0,45) − Φ(0,25)
0,965482 − 0,500

29
3 Distribuciones de Probabilidad

Distribuciones de Probabilidad

3.

La estad´
ıstica inferencial tiene como problema general establecer las propiedades de
un fen´meno aleatorio estudiando una parte del mismo. Para esto es necesario conocer la
o
distribuci´n de probabilidad de la variable aleatoria que se est´ estudiando. Esto puede
o
a
ser complicado si no existe otra alternativa que deducir te´ricamente la funci´n de proo
o
babilidad. Afortunadamente, existen numerosos modelos de probabilidad, muchos de los
cuales, aunque hayan sido generados con otros fines, pueden ser usados para describir el
comportamiento de la mayor´ de las variables aleatorias que son estudiadas en las cienıa
cias naturales. Los modelos de distribuciones de probabilidad se clasifican de acuerdo con
la naturaleza de la variable aleatoria en modelos probabil´
ısticos discretos y continuos. En
este punto es necesario enfatizar que el esfuerzo que se haga en entender las propiedades
de estos modelos permitir´, por una parte, comprender mejor el funcionamiento de los
a
m´todos de inferencia estad´
e
ıstica y por otro lado, contar con m´s y mejores criterios
a
para elegir el modelo apropiado en la aplicaci´n de alg´n m´todo estad´
o
u
e
ıstico.

3.1.
3.1.1.

Modelos probabil´
ısticos discretos
Modelo de Bernoulli

Una gran cantidad de situaciones que se presentan en distintos campos de acci´n
o
tienen en com´n algunas cosas. Por ejemplo: lanzar una moneda y determinar si sale
u
cara en cada lanzamiento; lanzar un dado y verificar cada vez si sale un n´mero par;
u
elegir aleatoriamente un individuo y determinar su sexo; determinar si un elemento es
met´lico; etc. Todos estos experimentos y otros similares reciben el nombre gen´rico de
a
e
Ensayos de Bernoulli, y tienen las siguientes caracter´
ısticas:
1. Cada vez que se repite el experimento se producen 2 resultados mutuamente excluyentes. Estos resultados se identifican generalmente como ´xito y fracaso.
e
2. Cada vez que se repite el experimento la probabilidad de ocurrencia del ´xito p o
e
del fracaso q no cambian.
3. Los resultados son independientes. El hecho de que ocurra un fracaso o un ´xie
to, no afecta la probabilidad de ocurrencia de un nuevo resultado al repetir el
experimento.
En consecuencia, el espacio muestral para los distintos ensayos de Bernoulli esta formado
por dos resultados, ´xito (E) y fracaso (F ), es decir S = {E, F }. Si definimos la variable
e
aleatoria X = n´mero de ´xitos en un ensayo entonces tendremos el siguiente rango
u
e
espacial, RX = {0, 1}. Si p es la probabilidad de ´xito y 1 − p la de fracaso, entonces
e
sabemos que la funci´n probabilidad debe cumplir que P (X = 0) = p0 (1 − p)1 y P (X =
o
1) = p1 (1−p)0 . Por lo tanto, se deduce que la funci´n de probabilidad para la distribuci´n
o
o
de Bernoulli es
p(x) = px (1 − p)1−x
El valor esperado y la varianza de esta distribuci´n son: µ = p y σ 2 = pq respectivamente.
o

30
3 Distribuciones de Probabilidad
3.1.2.

Modelo Binomial

Un experimento binomial consta de ”varios.ensayos de Bernoulli, por ej, lanzar una
moneda n veces y determinar si sale cara en cada lanzamiento. En cada repetici´n del
o
experimento se mantienen las propiedades de los ensayos de Bernoulli y que la variable
aleatoria que los caracteriza es el n´mero de veces que ocurre el ´xito (o el fracaso) en
u
e
n repeticiones del experimento. La funci´n de probabilidad para este tipo de variable la
o
vamos a deducir a partir del siguiente ejemplo.
Ejemplo: En una investigaci´n de cierta parasitosis, peque˜as dosis de una vacuna experio
n
mental se inyectaron en ratones de laboratorio. Los resultados encontrados demostraron
que 4 de cada 20 ratones mueren a causa de la vacuna. Si la misma dosis de la vacuna
se aplica a 4 ratones, cu´l es la probabilidad de que mueran x ratones?.
a
1. En primer lugar, se verifica que se trata de un ensayo de Bernoulli.
Tiene 2 resultados posibles: rat´n muere (´xito); rat´n sobrevive (fracaso).
o
e
o
La probabilidad de ´xito es p = 1/5 y del fracaso es q = 4/5 (invariantes).
e
El experimento se repiti´ 5 veces (n = 4).
o
2. El espacio muestral consta de 16 resultados. Si se representa con m el evento morir
y con s el evento sobrevivir, entonces


 ssss





 sssm, ssms, smss, msss



ssmm; smsm, mssm, smms, msms, mmss
S=


 smmm, msmm, mmsm, mmms







mmmm
La variable aleatoria X = n´mero de ratones muertos genera el rango espacial
u
RX = {0, 1, 2, 3, 4}.
3. Si p = probabilidad de morir y q = probabilidad de sobrevivir; la probabilidad con
la cual ocurrir´n los resultados del espacio muestral S son:
a
P(X = 0) =p(ssss)
=1
P(X = 1) =p(sssm) + p(ssms) + p(smss) + p(msss)
=4
P(X = 2) =p(ssmm) + p(smsm) + p(mssm) + p(smms) + p(msms) + p(mmss)= 6
P(X = 3) =p(smmm) + p(msmm) + p(mmsm) + p(mmms)
=4
P(X = 4) =p(mmmm)
=1

qqqq = 1
pqqq = 4
ppqq = 6
pppq = 4
pppp= 1

4. Puede observarse que los valores de p est´n elevados a una potencia que coincide
a
con el valor de x de la variable aleatoria, mientras que los de q est´n elevados a una
a
potencia que es igual a 4 − x. Observar que 4 tambi´n es el n´mero de repeticiones
e
u
del experimento, por lo que una expresi´n general ser´
o
ıa
px q n−x

31

p0 q 4
p1 q 3
p2 q 2
p3 q 1
p4 q 0
3 Distribuciones de Probabilidad
5. Tambi´n puede verse que cada t´rmino est´ multiplicado por un coeficiente que
e
e
a
representa el n´mero de secuencias diferentes de c´mo pueden morir x ratones. Este
u
o
n´mero no es otra cosa que el n´mero de permutaciones de n elementos diferentes,
u
u
siendo x elementos de una clase (ratones que mueren) y n−x de otra clase (ratones
que sobreviven). Esto tambi´n se conoce como combinatoria n Cx y viene descripto
e
por la siguiente f´rmula
o
n Cx

=

n
x

=

n!
x!(n − x)!

Por lo tanto, la funci´n de probabilidad del modelo binomial puede ser expresada
o
de la siguiente manera
p(x) =

n Cx

px q n−x =

n
x

px q n−x

Su aplicaci´n permitir´ calcular la probabilidad de que un resultado ocurra x veo
a
ces en n repeticiones. Para finalizar con el ejemplo, podemos utilizar la f´rmula
o
encontrada para calcular las probabilidades:
P (X
P (X
P (X
P (X
P (X

= 0) = p(0)
= 1) = p(1)
= 2) = p(2)
= 3) = p(3)
= 4) = p(4)

=
=
=
=
=

4
0
4
1
4
2
4
3
4
4

(1/5)0 (4/5)4−0
(1/5)1 (4/5)4−1
(1/5)2 (4/5)4−2
(1/5)3 (4/5)4−3
(1/5)4 (4/5)4−4

= (1)(1)(0,4096) = 0,4096
= (4)(0,2)(0,5120) = 0,4096
= (6)(0,04)(0,64) = 0,1536
= (4)(0,008)(0,8) = 0,0256
= (1)(0,0016)(1) = 0,0016

Distribuci´n de probabilidades
o
El conjunto de pares ordenados
[xi ; p(xi ) ] genera una distribuci´n binomial, nombre que se le
o
da porque los sucesivos t´rminos
e
de la distribuci´n de probabilio
dad son semejantes a los obtenidos con la expansi´n del binoo
mio de Newton (p + q)n . Cuando una variable aleatoria se distribuye en forma binomial con
par´metros n y p se puede reprea
sentar mediante la siguiente expresi´n: X : b(n; p). La forma de
o
la distribuci´n binomial cambia
o
para cada combinaci´n de valoo
res diferentes de n y/o p. En la

32
3 Distribuciones de Probabilidad
figura puede verse un ejemplo de dicha variaci´n cuando se toma n = 10 y diferentes
o
valores de p.
Funci´n de probabilidad acumulada
o
La funci´n de probabilidad acumulada para el modelo binomial puede escribirse como
o
RX

F(x) = P (X ≤ x) =

n Cx

px q n−x

Para facilitar la aplicaci´n de la distribuci´n binomial, existen tablas con las probabio
o
lidades acumuladas. A continuaci´n damos un ejemplo de dichas tablas. La tabla tiene
o
tres entradas, el valor del par´metro p (probabilidad de ´xito), el valor de n (n´mero de
a
e
u
repeticiones) y el valor de x (n´mero de ´xitos).
u
e

La tabla mostrada tiene como par´metro n = 15 y su uso es relativamente sencillo.
a
Si tenemos un experimento con una variable aleatoria que se distribuye binomialmente
con n = 15 y p = 0,5, y quisi´ramos calcular la probabilidad, por ej., P (X > 5),
e
inspeccionando la tabla podr´
ıamos calcular que:
P (X > 5) = 1 − P (X ≤ 5) = 1 − 0,1509 = 0,8491
Valor esperado y Varianza
El valor esperado y la varianza de la distribuci´n binomial son los siguientes:
o
σ 2 = npq

µ = np

33
3 Distribuciones de Probabilidad
3.1.3.

Modelo de Poisson

Esta distribuci´n fue introducida por el matem´tico franc´s S.D. Poisson en 1837. El
o
a
e
modelo de Poisson, a semejanza del binomial, consta de varios ensayos de Bernoulli.
La diferencia estriba en que el modelo binomial sirve para calcular la probabilidad de
ocurrencia de un resultado particular en un n´mero finito de repeticiones, mientras que
u
con el modelo de Poisson se determina la probabilidad de ocurrencia de un determinado
evento en el tiempo o el espacio y no en un n´mero definido de repeticiones del expeu
rimento. En estos eventos que se producen aleatoriamente en el espacio o el tiempo, la
frecuencia de ocurrencia de un evento es tan baja con relaci´n a la frecuencia de no
o
ocurrencia que se consideran como sucesos raros. Tratar de describir la distribuci´n de
o
una variable aleatoria de este tipo mediante el modelo binomial ser´ impr´ctico puesto
ıa
a
que el n´mero de ensayos tendr´ que ser extraordinariamente grande para que ocurriera
u
ıa
el resultado esperado. Analicemos el siguiente caso.
Ejemplo: Un bi´logo est´ colectando individuos de una especie de planta cuyos indio
a
viduos est´n distribuidos aleatoriamente e independientemente en una sabana. Es de
a
suma importancia conocer la distribuci´n de probabilidades de la variable X = n´meo
u
ro de plantas. Para obtener esta distribuci´n se podr´ usar el modelo binomial. S´lo
o
ıa
o
se necesitar´ considerar cada punto muestreado como una repetici´n del proceso, sin
ıa
o
embargo, esto implicar´ trabajar con un n´mero de repeticiones extremadamente granıa
u
de, puesto que la presencia de una planta en un punto del ´rea de b´squeda es un
a
u
hecho muy poco frecuente con relaci´n al n´mero de puntos donde no se encuentra.
o
u
Bajo el supuesto de que se pudiera superar la dificultad del
elevado n´mero de repeticiones, se tendr´ otro problema, cou
ıa
mo el de que la funci´n binomial est´ caracterizada por un
o
a
valor de n muy grande y un valor de p muy peque˜o, lo que
n
hace sumamente tedioso el c´lculo de probabilidades por tener
a
que usar factoriales de n´meros muy grandes. Afortunadamenu
te, situaciones como la planteada donde n −→ ∞ y p −→ 0,
se pueden resolver usando el modelo probabil´
ıstico de Poisson. Para deducir la funci´n de probabilidad de Poisson se
o
har´ uso de dos supuestos: el primero es que en esta sabana
a
se delimit´ una parcela de terreno que tiene un n´mero proo
u
medio de plantas igual a λ; y el segundo es que el ´rea de la
a
parcela se corresponde con una unidad de superficie, de forma
que λ representa el n´mero promedio de plantas por unidad
u
de superficie. El mayor inter´s es el de conocer la probabilidad
e
con la cual la variable aleatoria asume los valores de su rango espacial, el cual es Rx = {0, 1, 2, 3, ........N } . Una manera
util de encontrar las probabilidades para cada resultado en Rx
´
ser´ dividir la parcela en n unidades del mismo tama˜o lo suıa
n
ficientemente peque˜as para que en cada uno de ellas se produzca uno de dos resultados:
n
presencia o ausencia de plantas (ver figura de la derecha). Bajo estas nuevas condiciones

34
3 Distribuciones de Probabilidad
el experimento presenta las caracter´
ısticas de un experimento binomial. Por lo tanto es
posible utilizar la funci´n de probabilidad del modelo binomial para el c´lculo de proo
a
´
babilidades. Pero para poder hacer esto, hace falta conocer el valor de p. Este se puede
deducir a partir de λ, que es le n´mero promedio de plantas por parcela o por unidad
u
de superficie. Puesto que la parcela se dividi´ en n subparcelas, la probabilidad de que
o
ocurra una planta en cada una de las n subparcelas de tama˜o 1/n ser´ p = λ/n y la
n
a
probabilidad de que no ocurra ser´ q = 1 − (λ/n), de modo que la funci´n distribuci´n
a
o
o
binomial queda:
p(x) = n Cx (λ/n)x (1 − λ/n)n−x
Sin embargo, esta funci´n s´lo es una aproximaci´n, pues toma en cuenta n subparcelas.
o o
o
Como la superficie es una variable continua, el ´rea de la parcela se puede dividir en
a
infinitas subparcelas, de modo que cuando n tiende a infinito, la funci´n de probabilidad
o
binomial se aproxima a
l´
ım

n→∞

n Cx (λ/n)

x

(1 − λ/n)n−x =

e−λ λx
x!

donde λ es el n´mero de ocurrencia del evento de inter´s en una unidad de espacio (o
u
e
tiempo). Para cualquier otro valor de espacio (o tiempo) la funci´n de probabilidad ser´:
o
a
p(x) =

e−λa (λa)x
x!

donde a es un factor de proporcionalidad que permite calcular el n´mero de ocurrencias
u
del ´xito en un tiempo o espacio dado diferente a la unidad. Si se hace λa = µ la funci´n
e
o
de probabildades para el modelo de Poisson queda
p(x) =

e−µ µx
x!

con µ el n´mero promedio de ocurrencias en un espacio o tiempo dado y x el n´mero de
u
u
veces que ocurre el ´xito en ese mismo espacio o tiempo.
e
Distribuci´n de probabilidades
o
La distribuci´n de probabilidades de Poisson
o
est´ formada por los pares ordenados de valoa
res [xi ; p(xi )] y la misma est´ caracterizada por
a
un s´lo par´metro: el promedio µ. En forma sio
a
milar a la distribuci´n binomial, la distribuci´n
o
o
Poisson es una familia de curvas, cuya forma
depende de µ (ver figura).
Su aplicaci´n puede verse a trav´s del siguiente
o
e
ejemplo. Sup´ngase que el n´mero de part´
o
u
ıculas
radiactivas emitidas por cierto material durante una hora tiene una distribuci´n Poisson cuyo promedio es de 0.8 part´
o
ıculas por hora.

35
3 Distribuciones de Probabilidad
Cu´l es la probabilidad de que en 5 horas se emitan m´s de 3 y menos de 7 part´
a
a
ıculas?
Para encontrar la probabilidad solicitada se deber´ calcular
a
P (3 < X < 7) = P (4 ≤ X ≤ 6) = p(4) + p(5) + p(6)
Ahora, si λ = emisiones/hora, el n´mero promedio esperado para 5 horas ser´ µ = λt =
u
a
0,8 × 5 = 4 emisiones. Entonces, las probabilidades requeridas son
p(4) = e−4 44 /4! = 0,1954
p(5) = e−4 45 /5! = 0,1562
p(6) = e−4 46 /6! = 0,1041
por lo que, la probabilidad total buscada es P (3 < X < 7) = 0,4557.
Funci´n de probabilidad acumulada
o
Las probabilidades acumuladas de la funci´n de probabilidad de Poisson tambi´n pueden
o
e
venir tabuladas, donde las entradas usuales son el par´metro µ y el n´mero de ´xitos x.
a
u
e

Su utilizaci´n es la misma que la realizada con las tablas binomiales, pero veamos un
o
ejemplo para clarificar. Sup´ngase que el n´mero de impulsos que recibe una central
o
u
telef´nica es una variable que se distribuye como Poisson. El promedio es de 120 impulsos
o
recibidos por hora. La central tiene una capacidad m´xima de 4 impulsos por minuto.
a
Cu´l es la probabilidad de que en un minuto determinado la central se congestione?. La
a
central comenzar´ a fallar cuando el n´mero de impulsos sea superior a 4 por minuto,
a
u
de modo que la probabilidad solicitada es P (X > 4). Si λ = 120 impulsos/hora =
120 impulsos/ 60 minutos = 2 impulsos/minuto, entonces se tiene que µ = λt =
(2 impulsos/minuto)(1 minuto) = 2 impulsos. Entonces entramos en la tabla con los
valores x = 4 y µ = 2 y tenemos que la probabilidad buscada es
P (X > 4) = 1 − P (X ≤ 4) = 1 − F (4) = 1 − 0,9473 = 0,0527

36
3 Distribuciones de Probabilidad
Valor esperado y Varianza
El valor esperado y la varianza de la distribuci´n Poisson son iguales: µ = σ 2 .
o
Apliquemos esto en el siguiente ejemplo. Sea X
una variable que se distribuye seg´n el modeu
lo de Poisson, sabiendo que µ = 9 calcule la
probabilidad que tiene la variable aleatoria de
ser mayor o menor a la media en m´s de una
a
desviaci´n estandar (σ, es decir, la ra´ de la
o
ız
varianza). La probabilidad solicitada es
P [X < (µ − σ) o X > (µ + σ)]
Como se sabe que en el modelo Poisson µ = σ 2 ,
se deduce que σ 2 = 9. Por lo tanto, la desvia√
ci´n est´ndar es σ = 9 = 3, de modo que la probabilidad que buscamos es:
o
a
P [X < (9 − 3) o X > (9 + 3)] = P [X < 6 o X > 12] = P (X < 6) + P (X > 12) =
= P (X ≤ 5) + 1 − P (X ≤ 12) = 0,1157 + 1 − 0,8758 = 0,2399
Relaci´n entre los modelos Binomial y Poisson
o
Observar que la deducci´n de la funci´n de probabilidad del modelo de Poisson se hizo
o
o
a partir de la funci´n de probabilidad del modelo binomial. Con este prop´sito, en
o
o
un experimento binomial se aument´ infinitamente el n´mero de repeticiones n, y la
o
u
probabilidad de ocurrencia del ´xito se disminuy´ proporcionalmente a este aumento,
e
o
p = λ/n. Si sigui´semos dentro del marco binomial, el c´lculo mediante la funci´n de
e
a
o
probabilidad se dificulta porque hay que trabajar con factoriales muy grandes. De modo
que en cualquier ensayo de Bernoulli donde n sea muy grande y p muy peque˜o, se puede
n
utilizar la funci´n de Poisson para calcular las probabilidades de ocurrencia del ´xito,
o
e
sabiendo que µ = np.
3.1.4.

Otros modelos discretos

A continuaci´n se mencionan las caracter´
o
ısticas principales de 3 modelos discretos
usados com´nmente.
u
Modelo geom´trico
e
Supongamos que ensayos independientes, cada uno teniendo probabilidades p, son realizados hasta que un evento dado ocurre por primera vez, sin l´
ımite en el n´mero de
u
ensayos realizados. Si un evento es observado por primera vez despu´s de x ensayos,
e
significa que fall´ x − 1 veces, es decir, esto pasa con probabilidad (1 − p)x−1 . Cuando
o
el evento finalmente ocurre, lo hace con probabilidad p. Entonces puede verse que la

37
3 Distribuciones de Probabilidad
funci´n probabilidad vendr´ dada por
o
a
P (x) = (1 − p)x−1 p

x = 1, 2, ...

Cualquier variable aleatoria cuya probabilidad venga dada por esta ecuaci´n se dice que
o
es una variable aleatoria geom´trica. El valor esperado para esta distribuci´n es µ = 1/p,
e
o
mientras que la varianza es σ 2 = (1 − p)/p2 .
Modelo binomial negativo
Supongamos que ensayos independientes, cada uno teniendo probabilidades p, son realizados hasta que un total de r eventos ´xitosos se han acumulado. Para que el r-´simo
e
e
evento ocurra en el ensayo x, debe haber habido r −1 ´xitos en los primeros x−1 ensayos
e
y el x-´simo ensayo debe ser un ´xito. Por lo que la funci´n de probabilidad es
e
e
o
P (x) =

x−1
r−1

pr (1 − p)x−r

x = r, r + 1, ...

Cualquier variable aleatoria cuya probabilidad venga dada por esta ecuaci´n se dice que
o
es una variable aleatoria binomial negativa con par´metro (r, p). Observar que una variaa
ble aleatoria geom´trica es una binomial negativa con par´metro (1, p). El valor esperado
e
a
para esta distribuci´n es µ = r/p, mientras que la varianza es σ 2 = r(1 − p)/p2 .
o
Modelo hipergeom´trico
e
Supongamos que una muestra de tama˜o n es elegida aleatoriamente (sin remplazar) de
n
una urna que contiene N pelotas, de las cuales m son blancas y N − m son negras. Si
llamamos X el n´mero de pelotas blancas seleccionadas, entonces
u
P (x) =

m
x

N −m
n−x
N
m

x = 0, 1, ..., n

Cualquier variable aleatoria cuya probabilidad venga dada por esta ecuaci´n se dice que
o
es una variable aleatoria hipergeom´trica. El valor esperado para esta distribuci´n es
e
o
2 = N −n np(1 − p) con p = m/N . Observar
µ = nm/N , mientras que la varianza es σ
N −1
que si el n´mero N de pelotas es considerablemente grande comparado con n, entonces el
u
n´mero de pelotas blancas elegidas tiene aproximadamente una funci´n de probabilidad
u
o
binomial (el cual es un experimento que se realiza con remplazos).

38
3 Distribuciones de Probabilidad

3.2.
3.2.1.

Modelos probabil´
ısticos continuos
Modelo Normal

La distribuci´n normal fu´ introducida pro el matem´tico franc´s Abraham De Moio
e
a
e
vre en 1733. De Moivre, quien us´ esta distribuci´n para aproximar las probabilidades
o
o
conectadas con lanzar una moneda, la llam´ curva exponencial con forma de campana.
o
Su utilidad, sin embargo, fu´ demostrada en 1809, cuando el famoso matem´tico alem´n
e
a
a
Karl Friedrich Gauss la us´ como una parte integral de su aproximaci´n para predecir
o
o
la ubicaci´n de objetos astron´micos. Como resultado, result´ com´n despu´s de esto
o
o
o
u
e
que la denominaran distribuci´n Gaussiana. Durante la segunda mitad del siglo XIX, la
o
mayor´ de los estadistas comenzaron a creer que la mayor´ de los conjuntos de datos
ıa
ıa
ten´ histogramas con la forma de campana de una distribuci´n gaussiana, por lo que
ıan
o
comenz´ a ser aceptado que es normal para cualquier conjunto de datos con forma de
o
campana estar descripto por esta curva. Como resultado de esto, y siguiendo el camino
del estadista brit´nico Karl Pearson, la gente comenz´ a referirse a la distribuci´n gausa
o
o
siana como la curva normal.
La funci´n de probabilidad de la distribuci´n normal sirve de modelo para una gran
o
o
cantidad de variables continuas naturales, tales como la temperatura, la humedad, la
precipitaci´n, la altura, el peso, la concentraci´n, el coeficiente de inteligencia, los erroo
o
res instrumentales, etc. Igualmente, la distribuci´n de muchos estad´
o
ısticos tiende hacia
la distribuci´n normal, por lo cual esta distribuci´n adquiere una gran importancia en
o
o
el an´lisis de datos mediante la inferencia estad´
a
ıstica.
Una variable aleatoria X se encuentra distribuida normalmente si su funci´n de probao
bilidad es la siguiente:
(x−µ)2
1
f(x) = √
e 2σ2
σ 2π
Esta funci´n esta caracterizada por 2 par´meo
a
tros: la media µ y la desviaci´n est´ndar σ. El
o
a
valor de µ define la posici´n de la distribuci´n
o
o
y el valor de σ define la forma de la distribuci´n. La distribuci´n normal es sim´trica, con
o
o
e
un valor m´ximo para x = µ y presenta dos
a
puntos de inflexi´n para x = ±σ. En la figura
o
de la derecha pueden verse dichos puntos, como
as´ tambi´n las ´reas contenidas por los intervaı
e
a
los definidos por 1, 2 y 3 desviaciones est´ndar
a
alrededor de µ. La funci´n de probabilidad f (x)
o
tiende a cero a medida que x tiende a ±∞, por
lo que las dos colas de la distribuci´n se aproo
ximan asint´ticamente a cero. Cuando una vao
riable aleatoria sigue la distribuci´n normal se indica X : N (µ; σ). Por tratarse de un
o
modelo para variables continuas, la probabilidad de que la variable se encuentre en un
intervalo se obtiene integrando la funci´n f (x) entre los l´
o
ımites del intervalo. Igualmente,

39
3 Distribuciones de Probabilidad
se pude calcular la probabilidad utilizando la funci´n acumulativa Φ(x) (ver Secci´n 2).
o
o
En el caso de distribuciones discretas, los valores de la funci´n acumulativa est´n tao
a
bulados para diferentes valores de los par´metros que caracterizan estas distribuciones.
a
Esto no es posible en el caso de la distribuci´n normal porque al ser aplicable a variables
o
continuas existen infinitos valores de µ y σ.
Afortunadamente, esta situaci´n se resolvi´ tao
o
bulando las probabilidades acumuladas para
una unica distribuci´n, con valores de µ y σ
´
o
espec´
ıficos, y mediante el procedimiento de tipificaci´n se puede transformar cualquier variao
ble normal en esta variable est´ndar o patr´n.
a
o
La variable que se seleccion´ como est´ndar
o
a
es aquella cuya funci´n tiene como par´metros
o
a
µ = 0 y σ = 1, por lo cual se le denomin´ variao
ble normal est´ndar, unitaria o tipificada, idena
tific´ndose con la letra Z para diferenciarla de
a
las otras variables cuyas distribuciones de probabilidad tienen µ = 0 y σ = 1 . La funci´n
o
de probabilidad de la variable Z es la siguiente:
z2
1
f(x) = √
e2
2π

La probabilidad de encontrar un valor de Z en un intervalo dado, se obtiene calculando
el ´rea que se encuentra entre la curva y el intervalo definido en el eje de coordenadas.
a
Pero en lugar de integrar f (z) entre los l´
ımites del intervalo, esta ´rea se puede calcular
a
utilizando la tabla de la funci´n acumulada Φ(z) , que proporciona los valores de inteo
graci´n entre −∞ y un dado valor de Z.
o
Transformaci´n de una variable X en la variable Z
o
Al tranformar la funci´n f (x) en la funci´n f (z), lo que realmente se hizo fue sustituir
o
o
el t´rmino x−µ por la variable z
e
σ
Z=
f (x) =

1
√
σ 2π

e

(x−µ)2
2σ 2

x−µ
σ

−−−−−−−−−→
−−−−−−−−−
σ=1

f (z) =

√1
2π

e

z2
2

Entonces, cualquier variable X que se distribuye normalmente con µ = 0 y σ = 1, se
puede convertir en la variable Z, restando a todo valor de X su media µ y dividiendo
esta diferencia con su desviaci´n est´ndar σ. Observar que los valores de Z expresan la
o
a
distancia de X respecto a su media µ en t´rminos de desviaci´n est´ndar. Por ejemplo
e
o
a
si un valor de una variable X al transformarse produce un valor de z = 1,5 , este ultimo
´
indica que el valor de X est´ a 1,5σ a la derecha de µ .
a

40
3 Distribuciones de Probabilidad
Ejemplo: Sea X : N (20; 4) y se quiere conocer la probabilidad de que la variable tenga un valor menor a
16. La probabilidad que nos interesa es P (X ≤ 16).
Para poder determinar el valor de esta ´rea mediante
a
la tabla de probabilidades acumuladas de la distribuci´n normal est´ndar, se debe convertir el valor de x
o
a
en su respectivo valor z, lo cual se hace mediante la
siguiente operaci´n:
o
z=

x−µ
16 − 20
=
= −1
σ
4

Ahora se busca el ´rea que se encuentra a la izquierda
a
de z = −1 en la tabla de probabilidades acumuladas
para la variable Z y se toma dicha ´rea como la proa
babilidad con que la variable aleatoria X asume un
valor igual o menor a 16. En consecuencia se tiene
P (X ≤ 16) = P
3.2.2.

Z≤

16 − 20
4

= P (Z ≤ −1) = Φ(−1) = 0,1587

Modelo Exponencial

Una distribuci´n exponencial aparece frecuentemeno
te, en la pr´ctica, cuando se mide la cantidad de tiempo
a
hasta que un evento espec´
ıfico ocurre. Por ejemplo, la
cantidad de tiempo (comenzando ... ahora!) hasta que
sucede un terremoto, o hasta que estalle una nueva guerra, o hasta que se reciba una llamada telef´nica que
o
resulte ser n´mero equivocado. Todos estos casos son
u
variables aleatorias que tienden, en la pr´ctica, a tener
a
distribuciones exponenciales.
Una variable aleatoria continua cuya funci´n de probao
bilidad viene dada, para alg´n λ > 0, por
u
f (x) =

λe−λx
0

x≥0
x<0

se dice que es una variable aleatoria exponencial con
par´metro λ. La funci´n distribuci´n acumulada expoa
o
o
nencial viene dada por
xi

F (xi ) = P (X ≤ xi ) =

λe−λx dx = −e−λx

0

xi
0

= 1 − e−λxi

En la figura de la derecha pueden verse ejemplos de las funciones de probabilidad exponencial (panel superior) y sus correpondientes funciones acumuladas (panel inferior).

41
3 Distribuciones de Probabilidad
El valor esperado para esta distribuci´n es µ = 1/λ, mientras que la varianza es σ 2 =
o
2 . Una caracter´
1/λ
ıstica importante que poseen las variables aleatorias continuas con
una distribuci´n exponecial es que no tienen memoria. Que significa esto? Se dice que
o
una variable aleatoria no-negativa X no tiene memoria si
P (X > s + t / X > t) = P (X > s)

∀ s, t ≥ 0

Si pensamos que X es el per´
ıodo de vida de alg´n instrumento, esta ecuaci´n establece
u
o
que la probabilidad de que el instrumento sobreviva por al menos s+t horas, dado que ya
sobrevivi´ t horas, es la misma que la probabilidad inicial de haber sobrevivido al menos
o
s horas. En otras palabras, si el instrumento sobrevivi´ hasta la edad t, la distribuci´n
o
o
del tiempo restante de sobrevida es la misma que la distribuci´n del per´
o
ıodo original de
vida, es decir, es como si el instrumento no recordara que ya ha sido utilizado por un
tiempo t. Observar que la ecuaci´n antes escrita, es equivalente a la siguiente
o
P (X > s + t) (X > t)
P (X > t)

= P (X > s) − − → P (X > s + t) = P (X > s)P (X > t)
−−

con esta ecuaci´n, es f´cil corroborar que una distribuci´n exponencial no tiene memoria,
o
a
o
ya que e−λ(s+t) = e−λs e−λt . Por ultimo, resulta que no s´lo la distribuci´n exponencial
´
o
o
no tiene memoria, sino que puede demostrarse que es la unica distribuci´n continua que
´
o
tiene esta caracter´
ıstica.
Ejemplo: Consideremos una oficina de correos que es atendida por 2 empleados. Supongamos que cuando el se˜or P´rez entra en el sistema, descubre que el se˜or Gonz´lez
n
e
n
a
est´ siendo atendido por un empleado y el se˜or D´ por otro. Supongamos tambi´n
a
n
ıaz
e
que el se˜or P´rez sabe que ser´ atendido cuando alguno de los otros clientes se vaya.
n
e
a
Si la cantidad de tiempo que un empleado emplea con un cliente est´ distribuido expoa
nencialmente con par´metro λ, cu´l es la probabilidad de que , de los 3 clientes, el se˜or
a
a
n
P´rez sea el ultimo en irse del correo?
e
´
La respuesta se obtiene haciendo el siguiente razonamiento: consideremos el tiempo en
el cual el se˜or P´rez encuentra un empleado libre. En este punto, alguno de los otros 2
n
e
clientes se habr´ ido y el otro todav´ estar´ siendo atendido. Sin embargo, debido a la
a
ıa
a
falta de memoria de la distribuci´n exponencial, se concluye que la cantidad de tiempo
o
adicional que esta otra persona (ya sea Gonz´lez o D´
a
ıaz) tendr´ que esperar todav´
a
ıa
en el correo tambi´n est´ regulada por una distribuci´n exponencial con par´metro λ.
e
a
o
a
Esto significa, que es la misma cantidad tiempo que faltar´ si es que el servicio de esta
ıa
persona reci´n estuviese empezando. Por lo tanto, por simetr´ la probabilidad de que
e
ıa,
la persona restante termine antes que el se˜or P´rez debe ser igual a 1/2.
n
e

42
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades
Clasesprobabilidades

Más contenido relacionado

La actualidad más candente

Estadística para ingeniería
Estadística para ingenieríaEstadística para ingeniería
Estadística para ingenieríalocke23
 
2011 minitab-15
2011 minitab-152011 minitab-15
2011 minitab-15JOREOS
 
Metodos
MetodosMetodos
Metodostototl
 
notas de análisis numerico
notas de análisis numericonotas de análisis numerico
notas de análisis numericoxino7
 
Psu Matematica
Psu MatematicaPsu Matematica
Psu MatematicaSegundoB
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementalesNoelia Larsen
 
Apuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferencialesApuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferencialesMay Contreritas
 
DOGMÁTICA DE LOS DELITOS DE OMISIÓN. AUTOR: Armin Kaufmann. ISBN: 9788497683104
DOGMÁTICA DE LOS DELITOS DE OMISIÓN. AUTOR: Armin Kaufmann. ISBN: 9788497683104DOGMÁTICA DE LOS DELITOS DE OMISIÓN. AUTOR: Armin Kaufmann. ISBN: 9788497683104
DOGMÁTICA DE LOS DELITOS DE OMISIÓN. AUTOR: Armin Kaufmann. ISBN: 9788497683104Marcial Pons Argentina
 
Intr a la matematica discreta
Intr a la matematica discretaIntr a la matematica discreta
Intr a la matematica discretaroyvelarde
 

La actualidad más candente (15)

Estadística para ingeniería
Estadística para ingenieríaEstadística para ingeniería
Estadística para ingeniería
 
2011 minitab-15
2011 minitab-152011 minitab-15
2011 minitab-15
 
Metodos
MetodosMetodos
Metodos
 
notas de análisis numerico
notas de análisis numericonotas de análisis numerico
notas de análisis numerico
 
Ud 08
Ud 08Ud 08
Ud 08
 
Psu Matematica
Psu MatematicaPsu Matematica
Psu Matematica
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementales
 
Materia investigación operativa 2
Materia investigación operativa 2Materia investigación operativa 2
Materia investigación operativa 2
 
Analisis
AnalisisAnalisis
Analisis
 
Apuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferencialesApuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferenciales
 
DOGMÁTICA DE LOS DELITOS DE OMISIÓN. AUTOR: Armin Kaufmann. ISBN: 9788497683104
DOGMÁTICA DE LOS DELITOS DE OMISIÓN. AUTOR: Armin Kaufmann. ISBN: 9788497683104DOGMÁTICA DE LOS DELITOS DE OMISIÓN. AUTOR: Armin Kaufmann. ISBN: 9788497683104
DOGMÁTICA DE LOS DELITOS DE OMISIÓN. AUTOR: Armin Kaufmann. ISBN: 9788497683104
 
Apuntes termo
Apuntes termoApuntes termo
Apuntes termo
 
Intr a la matematica discreta
Intr a la matematica discretaIntr a la matematica discreta
Intr a la matematica discreta
 
Metodosnumerics
MetodosnumericsMetodosnumerics
Metodosnumerics
 
Rarepaso
RarepasoRarepaso
Rarepaso
 

Similar a Clasesprobabilidades

Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementalesChristian Infante
 
Inferencia estadistica.para.economia.y.administracion.de.empresas
Inferencia estadistica.para.economia.y.administracion.de.empresasInferencia estadistica.para.economia.y.administracion.de.empresas
Inferencia estadistica.para.economia.y.administracion.de.empresasNirka Mora Mejia
 
Inferencia estadistica para economia y administracion de empresas
Inferencia estadistica para economia y administracion de empresasInferencia estadistica para economia y administracion de empresas
Inferencia estadistica para economia y administracion de empresasFreddy Rojas Rojas
 
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...MarioRivera243377
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementalesPaul Alexander
 
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...L Méndez
 
Fundamentos conceptuales de estadística - Oscar F soto B
Fundamentos conceptuales de estadística  - Oscar F soto BFundamentos conceptuales de estadística  - Oscar F soto B
Fundamentos conceptuales de estadística - Oscar F soto BCristian C
 
Muestreo tc3 2014 2015
Muestreo tc3 2014 2015Muestreo tc3 2014 2015
Muestreo tc3 2014 2015ABDALA LEON
 
Apuntes de estadistica basica
Apuntes de estadistica basicaApuntes de estadistica basica
Apuntes de estadistica basicaA Javier Santana
 
Sucesiones y series
Sucesiones y seriesSucesiones y series
Sucesiones y seriesulde quispe
 
Apuntes fisica cuantica-murcia
Apuntes fisica cuantica-murciaApuntes fisica cuantica-murcia
Apuntes fisica cuantica-murciajorgemata123
 
Apuntes de exámenes pasados para que túu
Apuntes de exámenes pasados para que túuApuntes de exámenes pasados para que túu
Apuntes de exámenes pasados para que túuquispecolqueflorenci
 
Estadística inferencial
Estadística inferencialEstadística inferencial
Estadística inferencialMagdalena B
 
Serie aprender a investigar 4
Serie aprender a investigar 4Serie aprender a investigar 4
Serie aprender a investigar 4JCASTINI
 

Similar a Clasesprobabilidades (20)

Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementales
 
6. bioestadistica
6. bioestadistica6. bioestadistica
6. bioestadistica
 
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datosInferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
 
Inferencia estadistica.para.economia.y.administracion.de.empresas
Inferencia estadistica.para.economia.y.administracion.de.empresasInferencia estadistica.para.economia.y.administracion.de.empresas
Inferencia estadistica.para.economia.y.administracion.de.empresas
 
Inferencia estadistica para economia y administracion de empresas
Inferencia estadistica para economia y administracion de empresasInferencia estadistica para economia y administracion de empresas
Inferencia estadistica para economia y administracion de empresas
 
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
 
EstadisticaIngenieros.pdf
EstadisticaIngenieros.pdfEstadisticaIngenieros.pdf
EstadisticaIngenieros.pdf
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementales
 
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
 
Fundamentos conceptuales de estadística - Oscar F soto B
Fundamentos conceptuales de estadística  - Oscar F soto BFundamentos conceptuales de estadística  - Oscar F soto B
Fundamentos conceptuales de estadística - Oscar F soto B
 
Muestreo tc3 2014 2015
Muestreo tc3 2014 2015Muestreo tc3 2014 2015
Muestreo tc3 2014 2015
 
Apuntes de estadistica basica
Apuntes de estadistica basicaApuntes de estadistica basica
Apuntes de estadistica basica
 
Sucesiones y series
Sucesiones y seriesSucesiones y series
Sucesiones y series
 
Manual r 2
Manual r 2Manual r 2
Manual r 2
 
Apuntes fisica cuantica-murcia
Apuntes fisica cuantica-murciaApuntes fisica cuantica-murcia
Apuntes fisica cuantica-murcia
 
Apuntes de estadistica basica.pdf
Apuntes de estadistica basica.pdfApuntes de estadistica basica.pdf
Apuntes de estadistica basica.pdf
 
2011 minitab-15
2011 minitab-152011 minitab-15
2011 minitab-15
 
Apuntes de exámenes pasados para que túu
Apuntes de exámenes pasados para que túuApuntes de exámenes pasados para que túu
Apuntes de exámenes pasados para que túu
 
Estadística inferencial
Estadística inferencialEstadística inferencial
Estadística inferencial
 
Serie aprender a investigar 4
Serie aprender a investigar 4Serie aprender a investigar 4
Serie aprender a investigar 4
 

Más de Christian Infante (20)

Regla mezcla-aleación
Regla mezcla-aleaciónRegla mezcla-aleación
Regla mezcla-aleación
 
Regla de mezcla ii
Regla de mezcla iiRegla de mezcla ii
Regla de mezcla ii
 
Regla de mezcla
Regla de mezclaRegla de mezcla
Regla de mezcla
 
Regla de interés seminario
Regla de interés seminarioRegla de interés seminario
Regla de interés seminario
 
Regla de interés guia anual uni
Regla de interés guia anual uniRegla de interés guia anual uni
Regla de interés guia anual uni
 
Regla de descuento
Regla de descuentoRegla de descuento
Regla de descuento
 
Regla interés
Regla interésRegla interés
Regla interés
 
Tema 2 colorprobabilidades
Tema 2 colorprobabilidadesTema 2 colorprobabilidades
Tema 2 colorprobabilidades
 
Tema 2 colorprobabilidades
Tema 2 colorprobabilidadesTema 2 colorprobabilidades
Tema 2 colorprobabilidades
 
T4 alumnosprobabilidades
T4 alumnosprobabilidadesT4 alumnosprobabilidades
T4 alumnosprobabilidades
 
T4 alumnosprobabilidades
T4 alumnosprobabilidadesT4 alumnosprobabilidades
T4 alumnosprobabilidades
 
Recuper probabilidadesyestad
Recuper probabilidadesyestadRecuper probabilidadesyestad
Recuper probabilidadesyestad
 
Cfgs probabilidad-problemas resueltos
Cfgs probabilidad-problemas resueltosCfgs probabilidad-problemas resueltos
Cfgs probabilidad-problemas resueltos
 
Problemas ccs ssolprobabilidades
Problemas ccs ssolprobabilidadesProblemas ccs ssolprobabilidades
Problemas ccs ssolprobabilidades
 
Probabilidades
ProbabilidadesProbabilidades
Probabilidades
 
Analisiscombinatorioprobabilidades 130603213333-phpapp01
Analisiscombinatorioprobabilidades 130603213333-phpapp01Analisiscombinatorioprobabilidades 130603213333-phpapp01
Analisiscombinatorioprobabilidades 130603213333-phpapp01
 
Teoria conjuntos-2
Teoria conjuntos-2Teoria conjuntos-2
Teoria conjuntos-2
 
Razones proporciones
Razones proporcionesRazones proporciones
Razones proporciones
 
Planteo ecuaciones-5
Planteo ecuaciones-5Planteo ecuaciones-5
Planteo ecuaciones-5
 
Moviles 7
Moviles 7Moviles 7
Moviles 7
 

Último

LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdfLA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdfJAVIER SOLIS NOYOLA
 
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docxPLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docxJUANSIMONPACHIN
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
PINTURA ITALIANA DEL CINQUECENTO (SIGLO XVI).ppt
PINTURA ITALIANA DEL CINQUECENTO (SIGLO XVI).pptPINTURA ITALIANA DEL CINQUECENTO (SIGLO XVI).ppt
PINTURA ITALIANA DEL CINQUECENTO (SIGLO XVI).pptAlberto Rubio
 
ÉTICA, NATURALEZA Y SOCIEDADES_3RO_3ER TRIMESTRE.pdf
ÉTICA, NATURALEZA Y SOCIEDADES_3RO_3ER TRIMESTRE.pdfÉTICA, NATURALEZA Y SOCIEDADES_3RO_3ER TRIMESTRE.pdf
ÉTICA, NATURALEZA Y SOCIEDADES_3RO_3ER TRIMESTRE.pdfluisantoniocruzcorte1
 
Fundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdfFundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdfsamyarrocha1
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfManuel Molina
 
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIATRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIAAbelardoVelaAlbrecht1
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialpatriciaines1993
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxdanalikcruz2000
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPELaura Chacón
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADOJosé Luis Palma
 
Los Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la SostenibilidadLos Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la SostenibilidadJonathanCovena1
 
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfFisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfcoloncopias5
 
Unidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteUnidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteJuan Hernandez
 
periodico mural y sus partes y caracteristicas
periodico mural y sus partes y caracteristicasperiodico mural y sus partes y caracteristicas
periodico mural y sus partes y caracteristicas123yudy
 
Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024IES Vicent Andres Estelles
 
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdfTema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdfDaniel Ángel Corral de la Mata, Ph.D.
 

Último (20)

LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdfLA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
 
TL/CNL – 2.ª FASE .
TL/CNL – 2.ª FASE                       .TL/CNL – 2.ª FASE                       .
TL/CNL – 2.ª FASE .
 
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docxPLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
PINTURA ITALIANA DEL CINQUECENTO (SIGLO XVI).ppt
PINTURA ITALIANA DEL CINQUECENTO (SIGLO XVI).pptPINTURA ITALIANA DEL CINQUECENTO (SIGLO XVI).ppt
PINTURA ITALIANA DEL CINQUECENTO (SIGLO XVI).ppt
 
ÉTICA, NATURALEZA Y SOCIEDADES_3RO_3ER TRIMESTRE.pdf
ÉTICA, NATURALEZA Y SOCIEDADES_3RO_3ER TRIMESTRE.pdfÉTICA, NATURALEZA Y SOCIEDADES_3RO_3ER TRIMESTRE.pdf
ÉTICA, NATURALEZA Y SOCIEDADES_3RO_3ER TRIMESTRE.pdf
 
Fundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdfFundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdf
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
 
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIATRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
TRIPTICO-SISTEMA-MUSCULAR. PARA NIÑOS DE PRIMARIA
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundial
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
 
Unidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDIUnidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDI
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPE
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
 
Los Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la SostenibilidadLos Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la Sostenibilidad
 
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfFisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
 
Unidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteUnidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parte
 
periodico mural y sus partes y caracteristicas
periodico mural y sus partes y caracteristicasperiodico mural y sus partes y caracteristicas
periodico mural y sus partes y caracteristicas
 
Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024
 
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdfTema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
 

Clasesprobabilidades

  • 1. Astrometr´ I: ıa Probabilidad y Estad´ ıstica Parte I 28 de abril de 2011 1
  • 2. ´ Indice ´ Indice 1. Probabilidad: Nociones B´sicas a 1.1. Fen´menos y modelos . . . . o 1.1.1. Modelos determin´ ısticos 1.1.2. Modelos aleatorios . . . 1.2. Conceptos utiles . . . . . . . . ´ 1.2.1. Experimento aleatorio . 1.2.2. Espacio muestral . . . . 1.2.3. Evento o Suceso . . . . 1.3. La Probabilidad . . . . . . . . 1.3.1. Axiomas . . . . . . . . . 1.3.2. Reglas para el c´lculo . a 1.3.3. C´lculo . . . . . . . . . a 1.4. Probabilidad Condicional . . 1.5. Eventos Independientes . . . 1.6. Teorema de Bayes . . . . . . . 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Variables Aleatorias 2.1. Definici´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 2.2. Discretas y Continuas . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Funci´n de Probabilidad . . . . . . . . . . . . . . . . . . . . . . . o 2.3.1. Funci´n de probabilidad de una variable aleatoria discreta . o 2.3.2. Funci´n de probabilidad de una variable aleatoria continua o 2.4. Funci´n de Distribuci´n Acumulada . . . . . . . . . . . . . . . . o o 2.4.1. Funci´n acumulada para variables discretas . . . . . . . . . o 2.4.2. Funci´n acumulada para variables continuas . . . . . . . . . o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Distribuciones de Probabilidad 3.1. Modelos probabil´ ısticos discretos . . . . . . . 3.1.1. Modelo de Bernoulli . . . . . . . . . . . 3.1.2. Modelo Binomial . . . . . . . . . . . . . 3.1.3. Modelo de Poisson . . . . . . . . . . . . 3.1.4. Otros modelos discretos . . . . . . . . . 3.2. Modelos probabil´ ısticos continuos . . . . . . 3.2.1. Modelo Normal . . . . . . . . . . . . . . 3.2.2. Modelo Exponencial . . . . . . . . . . . 3.2.3. Otros modelos continuos . . . . . . . . . 3.3. Generadores de n´meros (pseudo) aleatorios u 3.3.1. N´meros aleatorios uniformes . . . . . . u 3.3.2. Variables aleatorias discretas . . . . . . 3.3.3. M´todo de Inversi´n . . . . . . . . . . . e o 3.3.4. M´todo de Rechazo . . . . . . . . . . . e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 5 5 6 6 6 6 7 8 10 11 12 13 14 15 19 19 21 21 22 25 26 26 28 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 30 31 34 37 39 39 41 43 44 44 46 46 47
  • 3. ´ Indice 3.3.5. M´todo de Box-M¨ ller . . . . . . . . . . . . . . . . . . . . . . . e u 3.4. Caracterizaci´n completa de las distribuciones de probabilidades . o 3.4.1. Momentos de una distribuci´n . . . . . . . . . . . . . . . . . . o 3.4.2. Funci´n generatriz de momentos . . . . . . . . . . . . . . . . . o 3.4.3. Cumulantes de una distribuci´n . . . . . . . . . . . . . . . . . . o 4. Inferencia Estad´ ıstica 4.1. Conceptos importantes . . . . . . . . . . . . 4.1.1. Universos, poblaci´n y muestra . . . . o 4.1.2. Par´metros y estad´ a ısticos . . . . . . . 4.2. Muestra y Muestreo . . . . . . . . . . . . . 4.2.1. Muestra representativa . . . . . . . . . 4.2.2. Muestreo aleatorio . . . . . . . . . . . 4.3. Distribuciones Muestrales . . . . . . . . . . 4.3.1. Distribuci´n de la media muestral . . o 4.3.2. Distribuci´n de la diferencia de medias o 4.4. M´todos Inferenciales . . . . . . . . . . . . . e 5. Inf. Est.: Estimaci´n (I) o 5.1. Estimaci´n puntual . . . . . . . . . . . . o 5.1.1. Estimador insesgado . . . . . . . . 5.1.2. Estimador consistente . . . . . . . 5.1.3. Estimador eficiente . . . . . . . . . 5.2. Intervalos de confianza (IC) . . . . . . . 5.2.1. IC para una media poblacional . . 5.2.2. IC para la diferencia de dos medias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6. Inf. Est.: Estimaci´n (II) o 6.1. Histogramas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1. Definici´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 6.1.2. Intervalo de confianza . . . . . . . . . . . . . . . . . . . . . 6.1.3. Histogramas para variables continuas . . . . . . . . . . . . . 6.1.4. Funciones ”kernel”para histogramas de variables continuas 6.2. T´cnicas de Remuestreo . . . . . . . . . . . . . . . . . . . . . . . e 6.2.1. M´todo Bootstrap . . . . . . . . . . . . . . . . . . . . . . . e 6.2.2. M´todo Jackknife . . . . . . . . . . . . . . . . . . . . . . . . e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 51 51 53 54 54 54 55 56 59 61 62 . . . . . . . 7. Inf. Est.: Prueba de Hip´tesis (I) o 7.1. PH: un procedimiento de decisi´n o 7.2. Procedimiento general para la PH 7.2.1. Hip´tesis . . . . . . . . . . . o 7.2.2. Nivel de significaci´n . . . . . o 7.2.3. Estad´ ıstico de prueba . . . . 7.2.4. Zona de aceptaci´n . . . . . . o 47 48 48 49 50 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . poblacionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 62 63 64 64 64 70 75 75 75 75 77 77 79 79 87 88 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 90 90 92 94 95
  • 4. ´ Indice 7.2.5. C´mputos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 7.2.6. Decisi´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 7.2.7. Conclusi´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 7.3. PH para una media poblacional . . . . . . . . . . . . . . . . . . . . . 7.3.1. PH para una media pobl. cuando la muestra proviene de una poblaci´n distribuida normalmente y con varianza conocida . . . . o 7.3.2. PH para una media pobl. cuando la muestra proviene de una poblaci´n distribuida normalmente con varianza desconocida y tama˜o o n de muestra grande (n ≥ 30) . . . . . . . . . . . . . . . . . . . . . 7.3.3. PH para una media pobl. cuando la muestra proviene de una poblaci´n distribuida normalmente con varianza desconocida y tama˜o o n de muestra peque˜o (n < 30) . . . . . . . . . . . . . . . . . . . . n 7.3.4. PH para una media pobl. cuando la muestra proviene de una poblaci´n con distribuci´n no normal y tama˜o de muestra grande o o n (n ≥ 30) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4. PH para dos medias poblacionales . . . . . . . . . . . . . . . . . . . . 7.4.1. PH para dos medias pobl. cuando las muestras provienen de poblaciones distribuidas normalmente y con varianza conocidas . . 7.4.2. PH para dos medias pobl. cuando las muestras provienen de poblaciones distribuidas normalmente, con varianza desconocidas y tama˜o de muestras grandes (n1 , n2 ≥ 30) . . . . . . . . . . . . . n 7.4.3. PH para dos medias pobl. cuando las muestras provienen de poblaciones distribuidas normalmente, con varianza desconocidas y tama˜o de muestras peque˜as (n1 , n2 < 30) . . . . . . . . . . . . n n 7.4.4. PH para dos medias pobl. cuando las muestras provienen de poblaciones con distribuci´n no normal y tama˜o de muestras grandes o n (n1 , n2 ≥ 30) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5. PH para dos varianzas poblacionales . . . . . . . . . . . . . . . . . . . 8. Inf. 8.1. 8.2. 8.3. . . . . . 97 . 98 . 99 . 100 . 101 . 101 . 102 . 103 . 105 . 106 Est.: Prueba de Hip´tesis (II) o M´todo Chi-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . e M´todo de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . e Independencia estad´ ıstica . . . . . . . . . . . . . . . . . . . . . . . . . 109 . . . 2 ... el regreso . . . . . . . . . . . . . . . . . . . . . . . 8.3.1. El m´todo χ e 8.3.2. Coeficiente de correlaci´n lineal de Pearson . . . . . . . . . . . . . o 8.3.3. Funci´n de correlaci´n . . . . . . . . . . . . . . . . . . . . . . . . . o o 9. Estimadores Generales 9.1. M´xima Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . a 9.2. Ajuste de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.1. Cuadrados m´ ınimos como estimador de m´xima probabilidad a 9.2.2. Ajuste por chi-cuadrado . . . . . . . . . . . . . . . . . . . . . 9.2.3. Ajustando datos con una recta usando chi-cuadrado . . . . . 4 96 96 96 97 109 112 115 116 119 120 121 . . . . . . . . . . . . . . . 121 123 123 125 127
  • 5. 1 Probabilidad: Nociones B´sicas a 1. Probabilidad: Nociones B´sicas a Para emprender el estudio de la estad´ ıstica y su alcance a la hora de analizar un conjunto de datos es necesario tener a mano las nociones b´sicas de probabilidad. La a probabilidad y la estad´ ıstica son dos disciplinas ´ ıntimamente conectadas. Inicialmente el unico punto de uni´n que se puede establecer es que ambas disciplinas tienen en com´n ´ o u el estudio de los fen´menos aleatorios. La teor´ de probabilidades tiene como probleo ıa ma general describir mediante un modelo matem´tico cada tipo de fen´meno aleatorio, a o mientras que la inferencia estad´ ıstica tiene planteado el problema inverso, es decir, a partir del conocimiento de una parte del fen´meno pretende establecer sus propiedao des, para lo cual forzosamente debe utilizar alg´n modelo probabil´ u ıstico que describa el fen´meno. Es ´sta dependencia de la estad´ o e ıstica con la teor´ de probabilidad lo que ıa justifica profundizar el estudio de esta ultima. ´ 1.1. Fen´menos y modelos o Un fen´meno natural es toda manifestaci´n natural que puede ser percibida mediante o o los sentidos o instrumentos. Los fen´menos naturales se pueden clasificar en determin´ o ısticos y aleatorios. Los determin´ ısticos se pueden definir como toda manifestaci´n natual o que observada repetidamente bajo las mismas condiciones, produce siempre resultados id´nticos. Por ejemplo, el tiempo que tarda un objeto en llegar al suelo invariablemente e ser´ el mismo, si las condiciones son iguales en cada repetici´n de la experiencia. Los a o aleatorios, en cambio, son todo proceso que al observarlo repetidamente bajo el mismo conjunto de condiciones, producen resultados diferentes. Tirar un dado es un ejemplo de este fen´meno, ya que aunque se conozcan todos los resultados posibles, no se puede o predecir con completa certeza uno en particular. Una manera de estudiar estos fen´menos es mediante la construcci´n de modelos mao o tem´ticos, los cuales intentan (simplificando u omitiendo algunos detalles) representar, a mediante expresiones cuantitativas, las caracter´ ısticas, propiedades y/o funcionamiento de los procesos naturales. De acuerdo con los fen´menos ya mencionados los modelos o existentes pueden ser determin´ ısticos o aleatorios. 1.1.1. Modelos determin´ ısticos Estos modelos establecen que las condiciones en las cuales se realiza un experimento determinan la ocurrencia de un resultado particular. Por ej., si observamos el desplazamiento de un m´vil cierta distancia (d), podemos utilizar como modelo matem´tico para o a describir la velocidad media desarrollada (v) la ecuaci´n v = d/t (con t el tiempo transo ´ currido). Este es un modelo determin´ ıstico, porque cada vez que se repita la experiencia y se obtengan los mismos valores d y t, se producir´ el mismo valor de v. Obviamente, a este es un modelo simplificado en el que muchos factores no han sido tenidos en cuenta (temperatura del aire, presi´n atmosf´rica, etc.), sin embargo, las peque˜as desviaciones o e n que se podr´ llegar a obtener no invalidan el modelo. ıan 5
  • 6. 1 Probabilidad: Nociones B´sicas a 1.1.2. Modelos aleatorios En estos modelos las condiciones de un experimento no determinan un resultado particular, sino su probabilidad de ocurrencia dentro de un conjunto de resultados posibles. Es decir, que estos modelos son f´rmulas que permiten obtener la distribuci´n de proo o babilidad de los resultados posibles del experimento. Por ej., cu´ntas veces saldr´ el a a n´mero 6 al lanzar un dado 5 veces? En ´ste caso se debe utilizar un modelo prou e babil´ ıstico, que permite conocer cual es la probabilidad de obtener cualquiera de los n resultados posibles. El modelo que buscamos es el siguiente: p(x) = Cx px q n−x con x el num. de veces o ensayos donde ocurre el resultado esperado, n el num. total de ensayos, n p la probabilidad de ´xito, q = (1 − p) la probabilidad de fracaso y Cx = n!/x!(n − x)!. e Por ej., la probabilidad de obtener 3 veces el num. 6 en 5 lanzamientos de un dado es 5 p(3) = C3 (1/6)3 (5/6)2 = 0,0312. Conceptos utiles ´ 1.2. A continuaci´n detallaremos ciertos conceptos y nomenclaturas que nos ser´n utiles o a ´ cada vez que enfrentemos un problema probabil´ ıstico. 1.2.1. Experimento aleatorio Un experimento, desde el punto de vista estad´ ıstico, est´ constituido por uno o m´s a a ensayos, t´rmino que identifica cualquier acto repetible que produce un resultado unico e ´ cada vez que se ejecuta. Cualquier experimento que puede tener m´s de un resultado se a califica como aleatorio y es posible encontrar un modelo que permita determinar la probabilidad de ocurrencia de cada resultado. Las caracter´ ısticas comunes de experimento aleatorio son: Pueden repetirse indefinidamente manteniendo las condiciones en las que se realiza Previo a cualquier ensayo no es posible predecir un resultado particular Previo al experimento es posible predecir el conjunto de posibles resultados La frecuencia de aparici´n de los diferentes resultados tiende a regularizarse al o aumentar el n´mero de repeticiones. u Ejemplos de experimentos aleatorios: lanzar una o m´s monedas, tirar un dado, detera minar el n´mero de individuos en varias unidades de muestreo, etc. u 1.2.2. Espacio muestral Asociado a cualquier experimento aleatorio (E) existe un espacio muestral (S) que se define como el conjunto de todos los posibles resultados de E. Ejemplo: Si el experimento fuese determinar el n´mero de hijas mujeres en familias con 4 u hijos, se puede identificar el resultado de cada ensayo con las letras V=var´n y M=mujer. o El espacio muestral estar´ integrado por todas las posibles formas de ocurrencia del ıa 6
  • 7. 1 Probabilidad: Nociones B´sicas a experimento:       S=      VVVV V V V M, VVMV, V M V V, MVVV VVMM; V M V M, VMMV, M V M V, MMVV, M V V M V M M M, MVMM, M M V M, MMMV MMMM            Si las posibles ocurrencias son numerosas se pueden representar los resultados con un n´mero. En nuestro ejemplo, si cada resultado es el n´mero de mujeres entonces tenu u dremos que V V V V le corresponde el 0, a la segunda linea le corresponder´ el 1 y a as´ sucesivamente de modo que el espacio muestral se puede representar como ı S = {0, 1, 2, 3, 4} Cuando se describe el espacio muestral de esta manera se dice que se lo ha hecho por extensi´n o descripci´n. Otra manera de hacerlo es por comprensi´n como o o o S = {x N / 0 ≤ x ≤ 4} . De acuerdo a la naturaleza de la variable que se est´ utilizando los espacios muestrales e pueden ser discretos o continuos. Es discreto si est´ formado por elementos numerables, a es decir que son consecuencia de contar los resultados individuales de un experimento. A su vez el n´mero de elementos contables puede ser finito o infinito. Ejemplo de espacio u discreto y finito es el que usamos con anterioriodad, es decir, el n´mero de mujeres en u familias de 4 hijos, mientras que si el experimento es el n´mero de veces que hay que u lanzar una moneda hasta obtener cara por primera vez, entonces se genera un espacio discreto e infinito. Por otro lado, el espacio muestral es continuo si esta formado por elementos no numerables. Entonces, por naturaleza, todo espacio continuo es infinito. Ejemplos de este tipo de espacio resultan con las variables de un proceso de medici´n o (tiempo, altura, peso, densidad, temperatura, etc.) 1.2.3. Evento o Suceso Cualquier conjunto de resultados dentro de un espacio muestral se denomina evento o suceso. En la terminolog´ de conjuntos se puede decir que un evento (A) es un subıa conjunto del espacio muestral (S). El evento integrado por todos los resultados es igual al espacio muestral. A continuaci´n especificamos terminolog´ o ıa: Evento elemental: es cada resultado que conforma un espacio muestral Evento complemento: Dado un evento A en el espacio muestral S, el evento complemento de A (A), est´ constituido por todos los elementos que pertenecen a S y a que no est´n en A. a Evento vacio: es el evento que no tiene elementos y que por lo tanto no puede ocurrir (∅). 7
  • 8. 1 Probabilidad: Nociones B´sicas a Con los eventos de un mismo espacio muestral se pueden realizar operacines que resultan en la formaci´n de nuevos eventos, o los cuales siguen siendo subconjuntos del espacio muestral. Existen dos operaciones b´sicas: la uni´n y la intersecci´n de eventos, a o o que en cierto modo son paralelas a las operaciones de suma y multiplicaci´n respectivamente. La uni´n de dos eventos A y B, o o se representa A B, y da como resultado otro evento, el cual est´ formado por todos los elementos que pertenecen al evento a A, al evento B o a ambos a la vez (fig. (a)). Cuando la uni´n o de dos eventos equivale a todo el espacio muestral, se dice que los dos eventos son mutuamente exhaustivos. La intersecci´n de o dos eventos A y B se representa A B, y da como resultado otro evento, el cual est´ formado por los elementos que pertenecen a a ambos eventos a la vez (fig. (b)). Cuando la intersecci´n de o dos eventos es vac´ se dice que los dos eventos son mutuamente ıa, excluyentes. Por ultimo, los elementos de un evento A que no se ´ encuentran en el evento B, forman otro evento llamado diferencia de A y B, representado por A − B (fig. (c)). 1.3. (a) A S B (b) A T B (c) A − B La Probabilidad La teor´ del azar consiste en reducir todos los acontecimientos del mismo tipo a un cierto ıa n´mero de casos igualmente posibles, es decir, tales que estemos igual de indecisos respecto a su u existencia, y en determinar el n´mero de casos favorables al acontecimiento cuya probabilidad u se busca. La proporci´n entre este n´mero y el de todos los casos posibles es la medida de esta o u probabilidad, que no es, pues, m´s que una fracci´n cuyo numerador es el n´mero de casos a o u favorables y cuyo denominador el de todos los posibles. Pierr´ Simon Laplace (1749-1827) e Ha llegado el momento de establecer que entendemos como probabilidad. La noci´n de o probabilidad es algo con lo que convivimos diariamente haciendo conjeturas acerca de que esperamos que pase y consecuentemente, tomando decisiones. Por lo que nuestra primera definici´n de probabilidad ser´ ¸ualquier probabilidad establecida es una afirmaci´n que o ıa c o indica cu´n posible se cree que es que un evento ocurra”. Pero, m´s alla de establecer a a una definici´n intuitiva necesitamos convertir la intuici´n al lenguaje matem´tico. Por o o a lo tanto empezaremos reescribiendo la definici´n y diremos que ”la probabilidad es un o valor num´rico que cuantifica la posibilidad o factibilidad de ocurrencia de un resultado e determinado dentro de un conjunto de resultados posibles”. A un resultado imposible de ocurrir se le asigna una probabilidad de 0, si por el contrario es segura su ocurrencia, se le asigna una probabilidad de 1. A las probabilidades intermedias se les asocian valores entre 0 y 1. 8
  • 9. 1 Probabilidad: Nociones B´sicas a Hay dos enfoques diferentes sobre c´mo asignar la probabilidad a un evento: la asigo naci´n objetiva o frecuentista y la asignaci´n subjetiva o bayesiana. o o Asignaci´n Objetiva: Se basa en el conocimiento f´ctico del espacio muestral y de o a la frecuencia relativa de ocurrencia de sus eventos elementales. El conocimiento de estas dos caracter´ ısticas puede ser de dos maneras: • Probabilidad a priori: Este enfoque supone que la probabilidad de ocurrencia de un resultado particular se conoce antes de producirse el mismo. Para esto esto es necesario asumir que todos los resultados elementeales son igualmente probables y excluyentes. Si el espacio muestral S tiene n elementos ei equiprobables, es decir con probabilidad 1/n, y adem´s se define un suceso A formado por r eventos a elementos, la probabilidad de ocurrencia de A ser´ : a n n P (A) = P (ei ) = i=1 1/n = r/n i=1 es decir, en esta concepci´n (usualmente llamada cl´sica), la probabilidad de o a un evento es igual al n´mero de resultados en que el evento ocurre dividido u por el n´mero de resultados posibles. A modo de ayuda, tambien puede ser u util pensar la probabilidad de un conjunto como el tama˜o relativo del mismo ´ n con respecto al evento seguro. Ejemplo: Si de un mazo de cartas de poker se extrae aleatoriamente una carta, se quiere saber la probabilidad con la cual pueden ocurrir los siguientes eventos: a) sale un As, b) sale una espada negra o c) sale una J o una Q. El espacio muestral est´ formado por 52 eventos elementales equiprobables: a    1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, Q, K (♦ rojo)      1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, Q, K (♥ rojo) S=  1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, Q, K (♣ negro)      1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, Q, K (♠ negra) Entonces: a) A={ 1 ♦, 1 ♥, 1 ♣, 1 ♠ } −→ P(A)=4/52=0.077 b) B={1,2,3,4,5,6,7,8,9,10,J,Q,K (♠ negra) } −→ P(B)=13/52=0.25 c) C={ J ♦ , J ♥ , J ♣ , J ♠ , Q ♦ , Q ♥ , Q ♣ , Q ♠ } −→ P(C)=8/52=0.154 • Probabilidad a posteriori: Cuando no se tiene un experimento con un n´mero u finito de resultados equiprobables el concepto anterior no sirve, por lo que se requiere una definici´n m´s general de probabilidad. La concepci´n de probao a o bilidad a posteriori surgi´ de la comprobaci´n emp´ o o ırica. Es una observaci´n o com´n que en los experimentos aleatorios repetidos muchas veces la frecuenu cia relativa con la cual se produce un resultado se estabiliza alrededor de un cierto valor. Por lo tanto, si un experimento aleatorio se repite indefinidamente, la frecuencia relativa (f r) con las cuales aparecen los resultados se pueden 9
  • 10. 1 Probabilidad: Nociones B´sicas a hacer equivalentes a su probabilidad de ocurrencia, ya que l´ f r(A) = P (A) ım n→∞ Esta forma de proceder permite acercarnos al verdadero valor de la probabilidad de un evento, pero obviamente, en t´rminos pr´cticos, este valor es e a imposible de obtener. A´n as´ se puede asumir que es una buena aproximau ı, ci´n, que mejorar´ mientras m´s repeticiones del experimento existan. o a a Ejemplo: Se quiere conocer la probabilidad de obtener cara al lanzar una moneda cargada. El espacio muestral est´ dado por las dos posibilidades cara a o seca, S = {c, s}, pero no es equiprobable. Para poder conocer la probabilidad de ocurrencia de los eventos, es necesario lanzar la moneda una gran cantidad de veces, anotar el resultado y calcular la frecuencia relativa. Si se lanz´ 200 veces la moneda, de las cuales el evento cara ocurrio 75 veces, eno tonces f r(c) = 75/200 = 0,375 y f r(s) = 125/200 = 0,625. Por lo tanto, estas frecuencias se asignan como probabilidades de ocurrencia de los eventos considerados. Asignaci´n Subjetiva: Muchos fen´menos puede que nunca hayan ocurrido o que se o o hayan producido muy pocas veces. Por ejemplo, una carrera de caballos es un hecho unico, que nunca puede repetirse bajo las mismas condiciones o el descubrimiento ´ de una droga nueva para curar una enfermedad. En estos casos, la asignaci´n de o la probabilidad no puede estar basada ni en el conocimiento previo del espacio muestral, ni en la frecuencia de ocurrencia de los hechos, de modo que el enfoque objetivo es obsoleto. Por lo tanto, aqu´ es cuando entra en acci´n el m´todo de ı o e asignaci´n subjetiva. De acuerdo a esta visi´n, el valor de probabilidad es asignado o o por una persona de acuerdo al grado de confianza que ella tenga en la ocurrencia del hecho. Bajo este punto de vista, diferentes individuos disponiendo de la misma informaci´n pueden tener distintos grados de confianza acerca de la ocurrencia de o un evento (un ejemplo de esto son las apuestas deportivas). A´n cuando parezca u que este m´todo de asignaci´n esta fuera del ´mbito cient´ e o a ıfico, no hay otra cosa m´s alejada de la realidad, ya que actualmente el enfoque subjetivo tiene gran utilia dad en la Teor´ Bayesiana de la desici´n, ´rea de la estad´ ıa o a ıstica en pleno desarrollo. 1.3.1. Axiomas Los axiomas o postulados que debe cumplir la probabilidad son los siguientes: De positividad: la probabilidad de un evento nunca es un n´mero negativo, es cero u (evento imposible de ocurrir) o un real positivo. Este axioma puede denotarse como: P (A) ≥ 0. De certidumbre: la probabilidad de todo el espacio muestral es uno, P (S) = 1, es decir, la probabilidad de todo evento con un certidumbre total de ocurrencia es uno. Estos dos axiomas en conjunto establecen que 0 ≤ P (A) ≤ 1. 10
  • 11. 1 Probabilidad: Nociones B´sicas a De la adici´n: la probabilidad de un evento A es igual a la suma de las probabilio dades de los eventos elementales que lo conforman. Ejemplo: En familias de 4 hijos, cu´l es la probabilidad de encontrar una que tenga a menos de 3 hijos varones ? Del espacio muestral que ya hab´ ıamos especificado en la p´gina 7, sabemos que posee 16 elementos equiprobables y que el evento que buscamos a posee 11 elementos:    VVMM; V M V M, VMMV, M V M V, MMVV, M V V M  V M M M, MVMM, M M V M, MMMV A=   MMMM por lo que la probabilidad del evento A ser´ igual a la suma de las probabilidades de los a 11 elementos, P (A) = 11/16 = 0,6875 1.3.2. Reglas para el c´lculo a A partir de los axiomas anteriores se pueden deducir algunas reglas b´sicas para a calcular las probabilidades de diferentes tipos de eventos: Del conjunto vac´ Si ∅ es el conjunto vac´ entonces P (∅) = 0, es decir representa ıo: ıo, un evento que no puede ocurrir. De adici´n para eventos mutuamente excluyentes: Si A y B son dos eventos muo tuamente excluyentes, la probabilidad de ocurrencia de A o de B es la suma de sus probabilidades separadas, es decir, P (A B) = P (A) + P (B). De adici´n para eventos solapados: Si A y B son dos eventos cualesquiera que o pueden ocurrir juntos, significa que algunos de los eventos elementales que los conforman pertenecen tanto a A como a B, es decir forman parte de la intersecci´n o de los dos eventos. Por el 3er axioma sabemos que la probabildad de ocurrencia de la uni´n de dos eventos es la suma de las probabilidades de los eventos elementales o que los forman. Ahora, si solo se suman las probabilidades de los eventos A y B para el c´lculo de la probabilidad de la uni´n, estaremos contando dos veces las a o probabilidades de los eventos elementales que pertenecen a la intersecci´n, por lo o tanto es necesario sustraer sus probabilidades una vez, es decir, P (A B) = P (A) + P (B) − P (A B) De la complementaci´n: Sean A y A dos eventos complementarios en un espacio o muestral S. Ya que los eventos complementarios son mutuamente excluyentes, se deduce de los axiomas 2do y 3ro que la probabilidad de la union de A con A es P (A A) = P (A) + P (A) = P (S) = 1 por lo tanto, P (A) = 1 − P (A). 11
  • 12. 1 Probabilidad: Nociones B´sicas a 1.3.3. C´lculo a A continuaci´n se detalla un procedimiento general que puede facilitar el c´lculo de la o a probabilidad. Paso 1: En primer t´rmino se debe definir e correctamente el espacio muestral. En la figura de la derecha se muestra un esquema de los distintos tipos de espacios muestrales que puede generar un experimento aleatorio. Paso 2: Se asigna un valor de probabilidad a cada evento elemental de modo que cumpla que S p(ei ) = 1,0. Paso 3: Se define el o los eventos de inter´s e en funci´n de los eveno tos elementales que los componen. Paso 4: Se calcula la probabilidad del evento o los eventos de nuestro inter´s de acuerdo a las formulaciones e dadas en la figura. Ejemplo 1: Cu´l es la probabilidad de obtener dos n´meros pares cuando se lanzan dos a u dados? Paso 1: Se tiene un espacio muestral discreto, finito y con 36 resultados equiprobables:    (1, 1)(1, 2)(1, 3)(1, 4)(1, 5)(1, 6)      (2, 1)(2, 2)(2, 3)(2, 4)(2, 5)(2, 6)         (3, 1)(3, 2)(3, 3)(3, 4)(3, 5)(3, 6) S=  (4, 1)(4, 2)(4, 3)(4, 4)(4, 5)(4, 6)      (5, 1)(5, 2)(5, 3)(5, 4)(5, 5)(5, 6)         (6, 1)(6, 2)(6, 3)(6, 4)(6, 5)(6, 6) Paso 2: Cada evento elemental tiene la misma probabilidad de ocurrencia, P (ei ) = 1/36 de modo que se cumpla que S p(ei ) = 1,0. Paso 3: El evento definido es: A = {(2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)} Paso 4: La probabilidad de A es el n´mero de veces que ocurre A sobre el total de pou sibles resultados: P (A) = 9/36 = 1/4. 12
  • 13. 1 Probabilidad: Nociones B´sicas a Ejemplo 2: En el transcurso de una investigaci´n efectuada para evaluar el efecto de o una droga sobre cierta enfermedad parasitaria, se seleccionaron 200 grupos de cinco ratas, que despu´s de dos d´ de haber sido inoculadas con el par´sito se les aplic´ una e ıas a o dosis de la droga y al cabo de dos semanas se registr´ el n´mero de animales muertos. o u Se quiere conocer cu´l es la probabia lidad de que muera alguna rata si se repite la experiencia. Num. de ratas Frecuencia Probabilidad Paso 1: El espacio muestral es discremuertas x fr f r/200 to, finito y con 6 resultados no equi0 120 0.60 probables. 1 40 0.20 Paso 2: En ´ste caso es necesario recue 2 20 0.10 rrir al concepto de frecuencia relativa 3 10 0.05 (num. de grupos con x ratas muertas), 4 6 0.03 para asignar un valor de probabilidad 5 4 0.02 a cada evento elemental. En la 3era columna de la tabla pueden verse dichas probabilidades que cumplen que S p(ei ) = 1,0 Paso 3: El evento definido es A = {una o m´s ratas muertas} = {1, 2, 3, 4, 5} a Paso 4: Para calcular la probabilidad del evento A se puede recurrir a la regla de la complementaci´n, sabiendo que A = {ninguna rata muerta} = {0}. Entonces tendremos o que P (A) = 1 − P (A) = 1 − P (0) = 1 − 0,60 = 0,40. Observar que la regla de la adici´n o arroja el mismo resultado. 1.4. Probabilidad Condicional En muchas ocasiones la probabilidad de ocurrencia de un evento depende de la ocurrencia o no de otro suceso. Supongamos que de grupo de 100 ratones 80 hembras y 20 machos; se eligen aleatoriamente dos individuos y se verifica su sexo. Cu´l es la proa babilidad de que el segundo rat´n sea hembra? Definamos los eventos A = {1er rat´n o o hembra} y B = {2do rat´n hembra}. Si elegimos aleatoriamente un ejemplar y despu´s o e de verificar su sexo se regresa al lote, la probabilidad de obtener una hembra siempre ser´ P (A) = P (B) = 80/100 = 0,8. Pero supongamos que se decide que si en la primera a extracci´n el rat´n es macho debe regresar al lote, entonces la probabilidad del 2do reo o sultado depender´ del 1ero. As´ seguir´ siendo P (A) = 0,8 pero P (B) vendr´ dada por a ı, a a las siguientes opciones: a) P (B) = 80/100 si A no ocurri´, es decir si el 1er individuo o fue macho; b) P (B) = 79/99 si A ocurri´, es decir si el 1er individuo fue hembra. o En otras palabras, para poder calcular la P (B) debemos saber si A ocurri´ o o no. Este tipo de probabilidad se llama condicional, se indica P (B/A) y se lee la probabilidad de B dado que ocurri´ A. Lo m´s importante de notar es que o a se est´ calculando la probabilidad de B sobre un nuevo espacio muestral, el a cual es mas reducido. 13
  • 14. 1 Probabilidad: Nociones B´sicas a Veamos otro ejemplo: En familias de 4 hijos, cu´l es la probabilidad de que 2 y solo 2 a sean mujeres si se sabe que la familia tiene 2 o m´s mujeres? a Recordemos que el espacio muestral para este ejemplo ya fu´ detallado por extensi´n en e o la p´gina 7. El evento del cual se quiere conocer la probabilidad es: a A = {2 y solo 2 mujeres} = {VVMM; V M V M, VMMV, M V M V, MMVV, M V V M } La probabilidad de A sin ninguna condici´n es P (A) = 6/16 = 0,375. Sin embargo como o ya se conoce que la familia seleccionada tiene 2 o m´s hijas, la informaci´n es mayor. El a o evento que ya ocurri´ lo designamos como B y sus 11 resultados que lo integran son: o    VVMM; V M V M, VMMV, M V M V, MMVV, M V V M  V M M M, MVMM, M M V M, MMMV B=   MMMM De modo que la probabilidad de obtener 2 y s´lo 2 mujeres dado que se sabe que hay 2 o o m´s mujeres, se obtiene dividiendo el n´mero de elementos de A entre el nuevo n´mero a u u de resultados posibles, es decir, P (A/B) = 6/11 = 0,545. Si observamos detenidamente los dos eventos involucrados, nos podremos dar cuenta que los elementos de A est´n incluidos en B, y esto no es otra cosa a que el conjunto A B. De modo que la probabilidad condicionada se puede expresar en forma general como: P (A/B) = 1.5. P (A B) P (B) Eventos Independientes Se dice que una serie de eventos que ocurren unidos o en secuencia son independientes si el resultado de uno no afecta al otro. Hay casos en los cuales se puede precisar f´cilmente a que dos eventos son independientes. Por ejemplo, si le preguntamos a unas cuantas personas en la calle si sufren de miop´ y si comen ravioles a la bolognesa, podr´ ıa ıamos asegurar que los resultados a las preguntas son eventos independientes ya que dichas acciones no est´n relacionadas. Pero si les preguntamos a dichas personas si les gusta el a futbol y si han visto TyC Sports alguna vez, no es posible responder con certeza si los dos eventos son independientes, porque es muy posible que la frecuencia de personas que miran partidos de f´tbol por dicho canal sea alta. Una manera objetiva de decidir si dos u eventos son independientes es comparar las probabilidades de ocurrencia de uno de los eventos antes y despu´s que el otro evento ocurra. En t´rminos formales, dos eventos A e e y B, se dice que son independientes si se cumple: P (A/B) = P (A) es decir, la probabilidad del evento A no cambia cuando haya ocurrido el evento B. 14
  • 15. 1 Probabilidad: Nociones B´sicas a Observar que dicha relaci´n tambi´n puede expresarse como P (A B)/P (B) = P (A) o e por lo tanto se deduce que la ocurrencia conjunta de dos eventos independientes es igual a P (A B) = P (A)P (B), lo que constituye otra manera de definir la independencia de dos eventos (siempre que las probabilidades sean mayores que cero). Ejemplo: En un estudio sobre la calidad del agua de los r´ que conforman cierta cuenca ıos hidrogr´fica, se encontr´ que el 28 % de los r´ tienen una altitud superior a los 2500 a o ıos m; un 20 % tienen temperatura del agua menor a 12◦ C y un 10 % tienen ambas caracter´ ısticas. Son independientes los eventos altitud ≥ 2500 m (A) y temperatura ≤ 12◦ C (B)? Los valores de probabilidad se asignan a partir de las frecuencias relativas: P (A) = 0,28 P (B) = 0,20 P (A B) = 0,10 La comprobaci´n de la independencia o dependencia de los eventos A y B, se puede o hacer a partir de la igualdad que establece que la probabilidad de ocurrencia conjunta de dos eventos independientes es igual al producto de sus probabilidades individuales. Tenemos entonces que P (A B) = 0,10 P (A)P (B) = 0,20 × 0,28 = 0,06 Al ser P (A B) = P (A)P (B) se concluye que los eventos A y B no son independientes. Es decir, el hecho de que un r´ tenga una altitud superior a 2500 m aumenta la ıo probabilidad de que tenga una temperatura menor a 12◦ C. 1.6. Teorema de Bayes En el a˜o 1763, dos a˜os despu´s de la muerte de Thomas Bayes (1702-1761), se n n e public´ una memoria en la que aparece, por vez primera, la determinaci´n de la probao o bilidad de las causas a partir de los efectos que han podido ser observados. El c´lculo de a dichas probabilidades recibe el nombre de teorema de Bayes. Este teorema proporciona la probabilidad condicional de un evento A dado otro evento B (probabilidad posteriori), en funci´n de la probabilidad condicional del evento B dado A y de la probabilidad o marginal del evento A (probabilidad apriori). Recordemos que la probabilidad condicional de 2 eventos A y B est´ definida como a P (A/B) = P (A B)/P (B), por lo que P (A/B)P (B) = P (A B). An´logamente por a simetr´ tambi´n podemos escribir P (B/A)P (A) = P (A B). Combinando ambas ecuaıa e ciones obtenemos lo que se conoce como el teorema de Bayes: P (A/B) = P (B/A)P (A) P (B) Notar que el denominador P (B) puede ser reescrito de la siguiente manera: P (B) = P (B (A A)) = P ((B A) 15 (B A)) = P (B A) + P (B A)
  • 16. 1 Probabilidad: Nociones B´sicas a usando las formulas para la probabilidad condicional e introduciendo el resultado para P (B) en la ecuaci´n del teorema nos queda o P (A/B) = P (B/A)P (A) P (B/A)P (A) + P (B/A)P (A) Observar que el denominador es una sumatoria sobre los eventos A y A que conforman todo el espacio muestral. Una manera general de escribir el Teorema de Bayes es la siguiente: Sea A1 , A2 , ...,An un sistema completo de sucesos (es decir que abarca todo el espacio muestral S), tales que la probabilidad de cada uno de ellos es distinta de cero, y sea B un suceso cualquiera del que se conocen las probabilidades condicionales P (B/Ai ). entonces la probabilidad P (Ai /B) viene dada por la expresi´n: o P (Ai /B) = P (B/Ai )P (Ai ) n i=1 P (B/Ai )P (Ai ) En resumen, este teorema nos permite, si conocemos la probabilidad de que ocurra un suceso, modificar su valor cuando disponemos de nueva informaci´n. o Ejemplo: Un ejemplo cl´sico del uso del teorema de Bayes es el problema de oro y plata. a Hay tres bolsas que tienen, cada una 2 monedas. Las de la primera son de oro, las de la segunda son de plata y las de la tercera son una de plata y otra de oro. Se escoje una bolsa al azar y de ella una moneda tambi´n al azar. Si la moneda es de oro, cu´l es la e a probabilidad de que la otra moneda en la bolsa sea de oro tambi´n? e Primero, notemos que la segunda bolsa no pudo haber sido elegida (porque no tiene monedas de oro), s´lo pudo haber sido seleccionada la primera o la tercera. Si la bolsa o elegida hubiese sido la tercera, el evento cuya probabilidad nos interesa no se realiza. De modo que el evento que nos interesa es equivalente a que se haya elegido la primera bolsa. Una vez establecido lo anterior, apliquemos el teorema de Bayes para calcular: P (1◦ |Au) = P (1◦ )P (Au|1◦ ) P (1◦ )P (Au|1◦ ) + P (2◦ )P (Au|2◦ ) + P (3◦ )P (Au|3◦ ) Las probabilidades que entran al lado derecho de la igualdad las sacamos, inmediatamente, de las condiciones del problema y despu´s de hacer cuentas tenemos que e P (1◦ |Au) = 2/3 Este problema es cl´sico porque existe una soluci´n a la que muchas personas llegan y a o es falsa. El argumento es el siguiente. Como todas las bolsas son igualmente posibles, y el hecho de que la primer moneda extra´ sea de oro, nos indica que no se trata de la ıda segunda bolsa. Conclu´ ımos que las dos bolsas restantes tienen igual probabilidad y, por tanto, la probabilidad de que la otra moneda sea de oro es 1/2. Si Ud. piensa de acuerdo a este razonamiento (err´neo!), es muy dif´ que encuentre en qu´ se equivoca. Lo que o ıcil e est´ mal es que lo que averiguamos, al saber que la moneda extra´ es de oro, es algo a ıda m´s que el rechazo de la segunda bolsa. Si s´lo nos dijeran que la bolsa escogida al azar a o 16
  • 17. 1 Probabilidad: Nociones B´sicas a no fu´ la segunda, sin informarnos del metal de la moneda sacada, todav´ tendr´ e ıa ıamos incertidumbre respecto a la primera moneda; todav´ podr´ ıa ıamos apostar a si ´sta es de e oro o de plata. Al decirnos que la moneda fu´ de oro, estamos aprendiendo algo m´s, e a y eso echa por tierra el argumento de igual probabilidad para las dos bolsas restantes. La informaci´n con la que contamos nos indica que nos hallamos frente a un caso en o el que la bolsa era la primera y sacamos, la primera de las monedas que contenia, o la segunda, (ya llevamos 2 posibilidades), o bien la bolsa era la tercera y en ese caso tan solo podr´ ser que sac´ramos en primer lugar la moneda de oro, luego la que queda ıa a dentro es de plata (una unica posibilidad). Tenemos 3 posibles sucesos en los que en 2 ´ de ellos sacar´ ıamos a continuaci´n una moneda de oro (2/3 de probabilidad), y tan s´lo o o una de las veces la nueva moneda ser´ de plata (1/3 de probabilidad). Lo interesante del ıa problema es que, si nos hubieran dicho que la moneda sacada fu´ de plata, aplicando la e f´rmula de Bayes, llegamos a la conclusi´n de que la probabilidad de que la otra moneda o o sea tambi´n de plata es 2/3!. Es decir, si vamos a apostar al metal de la otra moneda, nos e conviene apostar por el metal de la primera. Este ejemplo nos lleva a reflexionar sobre el uso adecuado de la informaci´n contenida en ”lo dado.en el c´lculo de la probabilidad o a condicional. Otro ejemplo: En este ejemplo veremos una herramienta util a la hora de estimar las ´ probabilidades usando el Teorema de Bayes. Esta herramienta es la construcci´n del ´rbol de probabilidades. o a Veamos: En un aula el 70 % de los alumnos son mujeres. De ellas, el 10 % son fumadoras. De los varones, son fumadores el 20 %. En la figura de la derecha puede verse la construcci´n de o dicho ´rbol con la informaci´n brina o dada por el problema. Por lo tanto, formulemos el evento que nos interesa resolver: Si se elije a un individuo al azar y es fumador, que probabilidad hay de que sea un hombre? Seg´n el Teorema de Bayes la probau bilidad de que siendo fumador F sea hombre H es P (H/F ) = P (H)P (F/H) . P (F ) El numerador de esta fracci´n se pueo de calcular siguiendo la linea de flechas gruesas rojas y multiplicando sus probabilidades, ya que P (H) = 0,3 y P (F/H) = 0,2. Por ultimo, la probabilidad de ser fumador es P (F ) = P (M )P (F/M ) + P (H)P (F/H) = ´ 0,7 × 0,1 + 0,3 × 0,2 = 0,13, en consecuencia la respuesta a nuestro problema es P (H/F ) = (0,3 × 0,2)/0,13 = 0,46. 17
  • 18. 1 Probabilidad: Nociones B´sicas a Curiosidad Bayesiana Aunque probablemente todos razonamos de una forma m´s parecida a la metodolog´ a ıa bayesiana que a la frecuentista, resulta dif´ traducirlo en t´rminos matem´ticos y dif´ ıcil e a ıcil de evaluar y de transmitir, por lo que para finalizar voy a citar un art´ ıculo escrito por el matem´tico John Allen Paulos sobre la utilizaci´n de las estad´ a o ısticas que efectu´ el o abogado defensor en el famoso juicio del jugador y actor norteamericano O.J. Simpson, acusado del asesinato de su mujer, donde vemos que la comprensi´n del concepto de o probabilidad condicional, y al menos una idea intuitiva del teorema de Bayes, es de utilidad y aplicaci´n en la vida diaria: o El abogado defensor Alan Dershowitz afirmaba que, puesto que menos del uno por mil de las mujeres maltratadas por sus compa˜eros mueren a manos de ´stos (c´lculo n e a frecuentista), los malos tratos producidos en el matrimonio Simpson no ten´ que ver ıan con el caso. Aunque las cifras son correctas, las palabras del se˜or Dershowitz son de n una incongruencia apabullante; no tienen en cuenta un hecho ineludible: Nicole Simpson muri´ de muerte violenta. Dadas ciertas suposiciones f´cticas razonables de homicidio y o a malos tratos conyugales, se puede ver f´cilmente, empleando el teorema de Bayes, que si a un hombre maltrata a su mujer o novia, y ´sta muere asesinada despu´s, el vapuleador e e es el homicida m´s del 80 % de las veces. As´ pues estaba matem´ticamente justificado, a ı a a falta de otros indicios, que la polic´ sospechara inmediatamente del se˜or Simpson. ıa n No estoy defendiendo en modo alguno la derogaci´n de los derechos de nuestra cuarta o enmienda; me limito a puntualizar que se˜alar con el dedo al se˜or Simpson no era, tal n n como estaban las cosas, il´gico, ni fue como sosten´ el defensor una muestra de racismo. o ıa Me pregunto, ser´ frecuentistas o bayesianos los miembros del jurado? ıan 18
  • 19. 2 Variables Aleatorias 2. Variables Aleatorias La identificaci´n de cada resultado, en algunos experimentos aleatorios, obedece a o un reconocimiento de las propiedades que lo caracterizan. Por ejemplo, la condici´n o de ser hembra en un reci´n nacido es un resultado cuya calificaci´n depende de una e o serie de caracter´ ısticas cualitativas espec´ ıficas, al igual que con la raza o la salud. En otros tipos de experimentos aleatorios no basta con calificar los resultados, sino que es necesario caracterizarlos cuantitativamente. En algunos casos esta cuantificaci´n resulta o de un proceso de conteo, as´ se habla del n´mero de hijos, de dientes, de cromosomas, ı u de electrones, de emisiones radiactivas, etc. En otros casos, al determinar caracter´ ısticas como el peso, la talla, la temperatura o la concentraci´n de alguna sustancia en ciertos o objetos o elementos, se asigna a cada resultado un valor dentro de una escala de medici´n o espec´ ıfica. Cada una de esas caracter´ ısticas cuantificables por conteo o por medici´n o recibe el nombre gen´rico de variables aleatorias; son variables porque su valor cambia e de un elemento a otro; y son aleatorias porque su comportamiento es impredecible. Las variables aleatorias son importantes porque ellas caracterizan los fen´menos o procesos o naturales, por lo que resulta muy valioso comprender en la forma m´s completa posible a sus propiedades y comportamiento. Una primera aproximaci´n a este conocimiento se o logra estableciendo el conjunto de posibles valores que puede asumir la variable y su respectiva probabilidad de ocurrencia. 2.1. Definici´n o Hasta el momento a los resultados de un experimento aleatorio los hemos calificado como caras de una moneda, lados del dado, colores de ojos, etc. En matem´ticas, es a frecuentemente m´s f´cil manejar n´meros que objetos arbitrarios. Por eso, la idea es a a u representar los resultados de un experimento random por n´meros que pueden ser asigu nados mediante funciones especiales. Veamos como funciona. Supongamos el espacio muestral de lanzar 3 monedas. Los 8 resultados posibles son: S = {ccc, ccs, csc, scc, css, scs, ssc, sss} Este mismo espacio muestral se puede expresar en n´meros. Para esto, es necesario definir una u regla o norma que al aplicarla le adjudique a cada resultado un valor. Por ejemplo, se puede establecer la siguiente regla: contar el n´meu ro de secas que aparecen en cada resultado del espacio muestral. La asociaci´n de n´meros a o u cada resultado puede verse en el caso (a) de la siguiente tabla. Si seguimos viendo la tabla, cu´les ser´n las reglas definidas para los casos a a (b) y (c)? Los 3 espacios num´ricos mostrados e 19 (a) ccc −→ 0 ccs −→ 1 csc −→ 1 scc −→ 1 css −→ 2 scs −→ 2 ssc −→ 2 sss −→ 3 (b) ccc −→ 1 ccs −→ 2 csc −→ 2 scc −→ 2 css −→ 3 scs −→ 3 ssc −→ 3 sss −→ 4 (c) ccc −→ 0 ccs −→ 1 csc −→ 1 scc −→ 1 css −→ 4 scs −→ 4 ssc −→ 4 sss −→ 9
  • 20. 2 Variables Aleatorias en la tabla pueden ser expresados como S1 = {0, 1, 2, 3} S2 = {1, 2, 3, 4} S3 = {0, 1, 4, 9} Si adoptamos como x la letra que significa cantidad de n´mero de sellos entonces las u funciones matem´ticas que generan dichos espacios son: a f1 (x) = x f3 (x) = x2 f2 (x) = x + 1 Si cada una de estas reglas se define en forma gen´rica como una variable aleatoria, y e a su vez sabemos que cada regla es una funci´n matem´tica, la definici´n de variable o a o aleatoria se puede enunciar como: Sea E un experimento aleatorio y S su espacio muestral, toda funci´n que asigne a cada o uno de los elementos de S un n´mero real X(s), se llama variable aleatoria. u Las variables aleatorias se identifican con letras mayusculas, por lo que nuestros ejemplos podr´ ser identificados de la siguiente manera: ıan X = n◦ de sellos Y = n◦ de sellos + 1 Z = cuadrado del n◦ de sellos El resultado de definir una variable aleatoria es que genera un nuevo espacio muestral num´rico que se denomina recorrido o rango espacial y se identifica con la letra R. En e nuestro ejemplo tendr´ ıamos: Rx = {0, 1, 2, 3} Ry = {1, 2, 3, 4} Rz = {0, 1, 4, 9} Es importante puntualizar algunas cosas con relaci´n al concepto de variable aleatoria: o 1. Para un mismo experimento es posible definir diferentes variables aleatorias. En nuestro ejemplo se pudieron especificar otras variables aleatorias como el n´mero u de lanzamientos o la distancia entre las monedas. 2. En muchos casos el resultado de un experimento es directamente un n´mero. Por u ej., si se mide la altura de un individuo se obtiene directamente un valor. 3. En t´rminos pr´cticos, en el estudio de una variable aleatoria es m´s importante e a a conocer los valores que ella asume que saber cu´les son los elementos que conforman a su espacio muestral. 4. Los valores que asumen las variables aleatorias se identifican con letras min´sculas u por ej. x, y, z. Si se define como variable aleatoria X =tama˜o de una persona, n y se quiere indicar la probabilidad de que esa persona supere determinada altura, este evento se puede expresar como P (X > x), donde x asume el valor que se especifique. 20
  • 21. 2 Variables Aleatorias 2.2. Discretas y Continuas De acuerdo con las caracter´ ısticas del rango espacial, las variables aleatorias se clasifican en discretas y continuas. Discretas: Se denomina discreta si el rango espacial esta constituido por un n´mero u finito o infinito contable de valores: Rx = {x1 , x2 , x3 , ..., xr , ..., xn , ....} ´ Estas se generan a partir del recuento de elementos: n´mero de hijos, de part´ u ıculas, de ´tomos, etc. a Ejemplo: Se registra el n´mero de varones nacidos en los primeros 4 partos ocurriu dos el primer d´ del a˜o. El espacio muestral S estar´ formado por 16 resultados ıa n a equiprobables. La variable aleatoria n´mero de varones origina un espacio Rx foru mado por 5 resulados numerables.      MMMM   0           VMMM, MVMM, MMVM, MMMV   1      VVMM; VMVM, VMMV, MVMV, MMVV, MVVM 2 S= =⇒ RX =      VVVM, VVMV, VMVV, MVVV   3              VVVV 4 Continuas: Se denomina continua si el rango espacial est´ constituido por un n´mea u ro infinito de valores en un intervalo dado: Rx = {X(S) = x / x1 ≤ X ≤ x2 } Estas se generan por la medici´n de magnitudes como la longitud, el peso, el voo lumen, la densidad, la temperatura, etc. Ejemplo: Se atrap´ una trucha en un r´ y se le determin´ el tama˜o. En ´ste o ıo o n e experimento el espacio muestral RX se origina inmediatamente como resultado de determinar la longitud del cuerpo del pez, que es una caracter´ ıstica propia de cada individuo. El rango espacial RX est´ formado por infinitos resultados dentro de un a determinado intervalo. S = { tama˜o de las truchas } =⇒ RX = {xi = tama˜o / 10 cm ≤ xi ≤ 15 cm} n n 2.3. Funci´n de Probabilidad o Recordemos que dijimos que para tener un buen conocimiento de una variable aleatoria no basta con saber cu´les son los valores que puede asumir sino tambi´n es necesario a e describir su comportamiento en t´rmino de probabilidades. Para ello se requiere una e nueva funci´n, conocida como funci´n de probabilidad con la cual es posible asignar un o o valor de probabilidad a cada resultado de un rango espacial. 21
  • 22. 2 Variables Aleatorias 2.3.1. Funci´n de probabilidad de una variable aleatoria discreta o En el caso de variables discretas, la funci´n de probabilidad se denota como p(x) y se o interpreta como la probabilidad de que la variable aleatoria tome el valor xi , es decir, p(x) = P (X = xi ). Obviamente, como la funci´n de probabilidad genera un valor de o probabilidad, estos n´meros deben satisfacer las siguientes condiciones: u x2 0 ≤ p(x) ≤ 1 P (x1 ≤ X ≤ x2 ) = p(x) = 1 p(x) x1 Rx Las dos primeras condiciones son equivalentes a los axiomas probabil´ ısticos de positividad y certidumbre. La tercera propiedad simplemente establece que si se conoce la funci´n de probabilidad de una variable aleatoria discreta, entonces se puede calcular la o probabilidad correspondiente a cualquier intervalo abierto o cerrado entre dos puntos x1 y x2 . Ejemplo: Aqu´ podemos ver ı el experimento de lanzar una moneda hasta obtener cara por primera vez. En la figura de la derecha pueden observarse los distintos espacios generados por el experimento aleatorio: el espacio muestral S, el rango espacial Rx (generado por la variable aleatoria n´mero de sellos) y el u espacio de probabilidad P . El conjunto de pares ordenados [xi , p(xi) ] para una variable discreta se denomina distribuci´n de probabilidad. En o la parte inferior de la figura tambi´n puede observare se una representaci´n gr´fica o a de dicha distribuci´n de proo babilidad. En este momento es f´cil responder a interroa gantes relativas a la variable aleatoria. Por ej., cu´l es la a probabilidad de obtener menos de 3 sellos?. La respuesta se tiene sumando las probabilidades que hay en el espacio de probabilidad: P (X < 3) = P (X ≤ 2) = p(0) + p(1) + p(2) = 0,50 + 0,25 + 0,125 = 0,875 22
  • 23. 2 Variables Aleatorias 2.3.1.1. Par´metros de la distribuci´n de una variable aleatoria discreta . a o La mayor´ de las veces resulta poco pr´ctico manejar toda la distribuci´n de probabiıa a o lidades para determinar el comportamiento de una variable, por lo que es conveniente conocer algunos par´metros que caracterizan a la variable aleatoria. Esta idea se aprecia a claramente cuando se tiene una funci´n determin´ o ıstica como es la ecuaci´n de una recta, o f(x) = αx + β, caracterizada por la pendiente α y la ordenada al origen β, los cuales definen completamente el comportamiento funcional. Dos de los par´metros m´s impora a tantes para caracterizar las variables aleatorias son el valor promedio y la varianza, los que proporcionan una r´pida visi´n de la naturaleza de la variable. a o Valor promedio: Veamos este concepto a trav´s de un ejemplo. En un estudio de campo e se determin´, para cierta regi´n, el n´mero de cr´ por madriguera para una determinada o o u ıas especie de roedor y la probabilidad con la cual esto ocurre. En la tabla de la derecha podemos ver las probabilidades en funci´n del o n´mero de cr´ por madriguera. Si u ıas N ◦ cr´ ıas Prob. Frec. f x f x/N despu´s de un tiempo se revisan N e x p(x) p(x) N madrigueras en la misma regi´n, es o 1 0.25 75 75 0.25 posible estimar en forma aproxima2 0.40 120 240 0.80 da el n´mero de individuos por mau 3 0.20 60 180 0.60 driguera que se espera encontrar. Si 4 0.08 24 96 0.32 el n´mero de madrigueras revisado es u 5 0.05 15 75 0.25 N = 300, el n´mero de madrigueras u 6 0.02 6 36 0.12 con un cierto n´mero x de cr´ (freu ıas Total 1.00 300 702 2.34 cuencia esperada) puede observase en la 3era columna de la tabla. Ahora, si se quiere conocer el n´mero promedio de cr´ por madriguera se debe multiplicar la u ıas frecuencia esperada por el n´mero de cr´ y su total se divide por el n´mero total de u ıas u madrigueras n fi xi 702 x = i=1 = = 2,34 n 300 i=1 fi Si en la f´rmula del c´lculo de x se sustituye n fi por N y se aplica el concepto de o a i=1 frecuencia relativa a la probabilidad que establece que f r(x) = p(x) , se obtiene una nueva f´rmula de c´lculo para la media a partir de los valores de probabilidad o a x= n i=1 fi xi n i=1 fi = n i=1 fi xi N n = i=1 fi xi = N n n f r(xi ) xi = i=1 p(xi )xi i=1 La conclusi´n es que el valor promedio de la distribuci´n de una variable discreta es igual o o a la suma del producto de cada valor de la variable por su probabilidad de ocurrencia. 23
  • 24. 2 Variables Aleatorias Si a este concepto lo extrapolamos de la muestra a la poblaci´n, el valor promedio de la o distribuci´n de valores de una variable discreta es o n µ= p(xi )xi i=1 A este valor promedio tambi´n se lo conoce como Esperanza matem´tica o Valor espee a rado y se suele denotar como E(x). o n u Varianza: Si de una poblaci´n se extrae un ni˜o y se le determina el n´mero de caries, cabr´ las siguientes preguntas: El n´mero de caries ser´ igual al valor promedio de la ıan u a poblaci´n? El valor estar´ cercano o alejado al valor promedio?. Si s´lo conocemos el o a o valor promedio no podremos responder ninguna de estas preguntas. A lo sumo sabremos que tendr´ un n´mero de caries mayor o menor al promedio y que sus probabilidades a u de ocurrencia dependen de la forma de la distribuci´n de la variable. De modo que no o basta conocer el valor medio de una variable aleatoria para poder describir desde un punto de vista pr´ctico alguna de sus caracter´ a ısticas m´s interesantes. Las preguntas a hechas anteriormente hacen pensar que se requiere otro tipo de medida que cuantifique la dispersi´n de valores alrededor del valor medio. Lo m´s simple ser´ determinar la o a ıa desviaci´n de cada valor respecto al valor medio, es decir ser´ necesario obtener para o ıa cada xi la desviaci´n xi − µ. Como se quiere tener un valor de desviaci´n para toda la o o distribuci´n, la suma de las mismas podr´ representar una medida general de desviaci´n. o ıa o Sin embargo, como el t´rmino (xi − µ) = 0 , la mejor manera de evadir este problema e es elevando al cuadrado cada desviaci´n: (xi − µ)2 , de modo que el valor promedio de o todas las diferencias cuadr´ticas se podr´ usar como esa medida unica de dispersi´n. a ıa ´ o Puesto que (xi − µ)2 es tambi´n una variable aleatoria, su valor promedio ser´: e a n σ2 = p(xi )(xi − µ)2 i=0 Esta medida de dispersi´n se denomina varianza. Una f´rmula m´s simple para el c´lculo o o a a 2 se obtiene desarrollando el binomio cuadrado presente en la f´rmula anterior, de σ o obteni´ndose e n σ2 = x2 p(xi ) i − µ2 i=1 Volviendo a nuestro ejemplo, si nos dijeran que la distribuci´n de probabilidades en o funci´n del n´mero de caries por ni˜o es o u n N ◦ caries p(x) 0 0.19 1 0.29 2 0.21 3 0.15 4 0.09 5 0.04 6 0.02 7 0.01 Se quiere conocer la probabilidad de que un ni˜o tenga m´s de 2 y menos de 6 caries, n a el n´mero promedio de caries por ni˜o y la varianza de la distribuci´n. Puede verse que u n o P (2 < X < 6) = P (3 ≤ X ≤ 5) = p(3) + p(4) + p(5) = 0,15 + 0,09 + 0,04 = 0,28. Hacer el c´lculo y probar que µ = 1,91 y σ 2 = 2,48. a 24
  • 25. 2 Variables Aleatorias 2.3.2. Funci´n de probabilidad de una variable aleatoria continua o En el caso de variables aleatorias continuas, la funci´n de probabilidad se identifica o como f(x) . Para las variables continuas no tiene sentido encontrar la probabilidad exacta de un valor puntual puesto que su rango espacial est´ formado por infinitos valores, de a modo que la expresi´n P (X = xi ) carece de sentido. o Por ejemplo, supongamos que queremos medir la temperatura en la superficie de un lago. Un term´metro con una apreciaci´n en grados puede determinar que la temperatura del o o ◦ C. Sin embargo debido a la apreciaci´n tan gruesa, cualquier valor entre agua es 28 o 27, 5◦ C y 28, 5◦ C el instrumento lo aprecia como 28◦ C. Si se cambia el term´metro por o ◦ C, el valor de temperatura tendr´ una d´cima m´s otro con una apreciaci´n de 0, 1 o a e a de apreciaci´n, digamos que fue de 28, 2◦ C. Pero la incertidumbre se mantiene porque o cualquier valor entre 28, 15 y 28, 25 es medido como 28, 2◦ C. Esta falta de seguridad sobre cu´l es el verdadero valor de temperatura del agua siempre estar´ presente, en a a primer lugar porque te´ricamente la apreciaci´n del term´metro puede incrementarse o o o indefinidamente y en segundo t´rmino porque el rango espacial de la temperatura, igual e que el de todas las variables continuas, esta formado por infinitos valores. Al no poderse definir para una variable aleatoria continua una funci´n p(x) que asigne o una probabilidad a cada valor xi de su rango espacial, es necesario establecer una nueva funci´n f(x) que fije la probabilidad de todos los valores xi . Esta funci´n debe satisfacer o o las siguientes condiciones: b 0 ≤ f(x) ≤ 1 f(x) dx = 1 P (a ≤ X ≤ b) = f(x) dx a x≤xi La funci´n f(x) representa la distribuci´n de probabilidad y el ´rea bajo dicha funci´n o o a o equivale a su probablidad de ocurrencia. En la figura superior el caso A ejemplifica la condici´n de que el ´rea sombreada bajo la o a curva debe ser igual a la unidad; el caso B muestra que el ´rea sombreada representa la a probabilidad de que la variable se encuentre entre a y b; y el caso C indica que el ´rea a sombreada bajo la curva representa la probabilidad de que la variable sea igual o mayor al valor a. Por ultimo, observar que una consecuencia de la naturaleza de las variables ´ continuas, es que las probabilidades P (a < X < b), P (a < X ≤ b), P (a ≤ X < b) y P (a ≤ X ≤ b) son todas iguales. 25
  • 26. 2 Variables Aleatorias Ejemplo: Encuentre la probabilidad de que una variable aleatoria sea mayor a 2 y menor a 4 si se sabe que su funci´n de probabilidad o es x e−x x> 0 f (x) = 0 x≤ 0 Para encontrar la probabilidad solicitada es necesario hallar el ´rea bajo la curva a localizada entre los valores 2 y 4 (ver figura). Para ello se procede a integrar por partes la funci´n o 4 P (2 ≤ X ≤ 4) = xe−x dx = −xe−x − e−x 2 4 2 = −e−x (x + 1) 4 2 = −5e−4 +3e−2 0, 3144 2.3.2.1. Par´metros de la distribuci´n de una variable aleatoria continua . a o Los significados de la media y la varianza de la distribuci´n de una variable aleatoria o continua siguen siendo los mismo que tienen para las variables aleatorias discretas, s´lo o que en lugar de sumar un n´mero definido de valores enteros, es necesario sumar infinitos u valores, de modo que sus f´rmulas de c´lculo son las siguientes: o a ∞ µ= ∞ ∞ σ2 = xf (x) dx −∞ (x − µ)2 f (x) dx = −∞ x2 f (x) dx − µ2 −∞ Ejemplo: Siguiendo con la funci´n del ejemplo anterior, su media y varianza son: o ∞ µ= ∞ xf (x) dx = 0 x2 e−x dx = 2 0 ∞ σ2 = x3 e−x dx − µ2 = 6 − 4 = 2 0 2.4. Funci´n de Distribuci´n Acumulada o o Probablemente la funci´n de distribuci´n de probabilidades acumuladas sea una de las o o funciones con m´s aplicaci´n en la pr´ctica estad´ a o a ıstica porque la mayor´ de las tablas ıa usadas en esta disciplina se generan a partir de funciones acumuladas. 2.4.1. Funci´n acumulada para variables discretas o Al rango espacial de cualquier experimento se le puede asociar otra funci´n que cuano tifica la probabilidad de que la variable aleatoria X asuma un valor igual o menor a xi . 26
  • 27. 2 Variables Aleatorias Esta funci´n se simboliza como F (x) y se denomina funci´n de distribuci´n acumulativa. o o o Para el caso de variables aleatorias discretas la funci´n acumulativa queda definida como o F (x) = P (X ≤ xi ) = p(x) x≤xi Ejemplo: Sea la variable aleatoria X = la suma de la cara de 2 dados, determine la distribuci´n de probabilidades acumuladas y calcule las probabilidades siguientes: o 1)P (X ≤ 6) 2)P (3 ≤ X ≤ 8) 3)P (X > 3) 4)P (2 < X < 8) 5)P (2 ≤ X ≤ 8 y 5 ≤ X ≤ 10) 6)P (X > 8 o X < 4) . 7)P (5 < X < 10 o X > 7) 8)P (4 ≤ X ≤ 7 / X ≤ 6) a) El espacio muestral est´ formado por 36 posibles resultados equiprobables a    (1, 1)(1, 2)(1, 3)(1, 4)(1, 5)(1, 6)    (2, 1)(2, 2)(2, 3)(2, 4)(2, 5)(2, 6)           (3, 1)(3, 2)(3, 3)(3, 4)(3, 5)(3, 6) S=  (4, 1)(4, 2)(4, 3)(4, 4)(4, 5)(4, 6)      (5, 1)(5, 2)(5, 3)(5, 4)(5, 5)(5, 6)         (6, 1)(6, 2)(6, 3)(6, 4)(6, 5)(6, 6) b) El rango espacial de la variable aleatoria es el siguente: Rx = { 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 } c) Las distribuciones de probabilidad y acumulativas son las que figuran en la tabla de la derecha. xi p(xi ) Entonces, las probabilidades solicitadas son: 2 0.02778 [[1]] P (x ≤ 6) = F(6) = 0,41667 3 0.05556 [[2]] P (3 ≤ X ≤ 8) = P (X ≤ 8) − P (X ≤ 2) = F(8) − F(2) = 4 0.08333 0,72222 − 0,02778 = 0,69 5 0.11111 [[3]] P (X > 3) = 1 − P (X ≤ 3) = 1 − 0,08333 = 0,92 6 0.13889 [[4]] P (2 < X < 8) = P (3 ≤ X ≤ 7) = P (X ≤ 7) − P (X ≤ 7 0.16667 2) = F(7) − F(2) = 0,58333 − 0,02778 = 0,56 8 0.13889 [[5]] P (2 ≤ X ≤ 8 y 5 ≤ X ≤ 10) = P (5 ≤ X ≤ 8) = P (X ≤ 9 0.11111 8) − P (X ≤ 4) = F(8) − F(4) = 0,72222 − 0,16667 = 0,56 10 0.08333 [[6]] P (X > 8 o X < 4) = 1 − P (X ≤ 8) + P (X ≤ 3) = 11 0.05556 1 − F(8) + F(3) = 1 − 0,72222 + 0,08333 = 0,36 12 0.02778 [[7]] P (5 < X < 10 o X > 7) = P (6 ≤ X ≤ 9) + P (X ≥ 8) − P (8 ≤ X ≤ 9) = P (X ≤ 9) − P (X ≤ 5) + 1 − P (X ≤ 7) − P (X ≤ 9) + P (X ≤ 7) = 1 − P (X ≤ 5) = 1 − F(5) = 1 − 0,28 = 0,72 [[8]] P (4 ≤ X ≤ 7/X ≤ 6) = P (4≤X≤6) P (X≤6) = P (X≤6)−P (X≤3) P (X≤6) 27 = 0,41667−0,08333 0,41667 F (xi ) 0.02778 0.08333 0.16667 0.27778 0.41667 0.58333 0.72222 0.83333 0.91667 0.97222 1.00000 = 0,80
  • 28. 2 Variables Aleatorias 2.4.2. Funci´n acumulada para variables continuas o Cuando se trata de variables continuas la funci´n acumulativa se define como: o Φ(xi ) = P (X ≤ xi ) = f (x) dx x≤xi En el caso de variables discretas la P (X ≤ xi ) se obtiene sumando los valores de probabilidad de todos los resultados iguales o menores a xi . Para las variables continuas esta probabilidad se obtiene calculando el ´rea que se ena cuentra por debajo de f(x) y a la izquierda del valor xi (ver figura de la derecha). Dado que estos c´mputos pueden llegar a o ser bastante complejos dependiendo de la naturaleza de f(x) , se han desarrollado para las funciones de probabilidad m´s usadas, a tablas con las probabilidades acumuladas. Estas facilitan el c´lculo de probabilidaa des. Ejemplo: Supongamos que la variable X = contenido de plomo en sangre de personas, tiene la funci´n de probabilidades o 1 √ σ 2π f (x) = e 0 (x−µ)2 2σ 2 x> 0 x≤ 0 Usando la tabla de probabilidades acumuladas, calcule la probabilidad de que un individuo seleccionado aleatoriamente a) tenga una concentraci´n superior a 0.40 ppm y o b) tenga una concentraci´n menor a 0.30 ppm si se sabe que forma parte de un grupo o de personas cuya concentraci´n de plomo en la sangre se encuentra entre 0.25 y 0.45 ppm. o 28
  • 29. 2 Variables Aleatorias a) La probabilidad P (X ≥ 0,40) se obtiene calculando el ´rea debajo de f(x) por encima a de 0.40. Es decir P (X ≥ 0,40) = 1 − P (X ≤ 0,40) = 1 − Φ(0,40) = 1 − 0,913659 = 0,08634 En t´rminos pr´cticos se puede decir que aproximadamente el 8,6 % de los individuos de e a esa poblaci´n tienen m´s de 0.40 ppm de plomo en la sangre. o a b) La segunda probabilidad solicitada es condicionada. Interesa obtener dos ´reas, la a que se encuentra entre 0.25 y 0.30, que representa la intersecci´n de los dos eventos y el o a ´rea entre 0.25 y 0.45 que es el nuevo espacio muestral reducido. Es decir P (X ≤ 0,30 / 0,25 ≤ X ≤ 0,45) = = P [(X ≤ 0,30) (0,25 ≤ X ≤ 0,45)] P (0,25 ≤ X ≤ 0,30) = = P (0,25 ≤ X ≤ 0,45) P (0,25 ≤ X ≤ 0,45) P (X ≤ 0,30) − P (X ≤ 0,25) Φ(0,30) − Φ(0,25) 0,685272 − 0,500 = = = 0,3980 P (X ≤ 0,45) − P (X ≤ 0,25) Φ(0,45) − Φ(0,25) 0,965482 − 0,500 29
  • 30. 3 Distribuciones de Probabilidad Distribuciones de Probabilidad 3. La estad´ ıstica inferencial tiene como problema general establecer las propiedades de un fen´meno aleatorio estudiando una parte del mismo. Para esto es necesario conocer la o distribuci´n de probabilidad de la variable aleatoria que se est´ estudiando. Esto puede o a ser complicado si no existe otra alternativa que deducir te´ricamente la funci´n de proo o babilidad. Afortunadamente, existen numerosos modelos de probabilidad, muchos de los cuales, aunque hayan sido generados con otros fines, pueden ser usados para describir el comportamiento de la mayor´ de las variables aleatorias que son estudiadas en las cienıa cias naturales. Los modelos de distribuciones de probabilidad se clasifican de acuerdo con la naturaleza de la variable aleatoria en modelos probabil´ ısticos discretos y continuos. En este punto es necesario enfatizar que el esfuerzo que se haga en entender las propiedades de estos modelos permitir´, por una parte, comprender mejor el funcionamiento de los a m´todos de inferencia estad´ e ıstica y por otro lado, contar con m´s y mejores criterios a para elegir el modelo apropiado en la aplicaci´n de alg´n m´todo estad´ o u e ıstico. 3.1. 3.1.1. Modelos probabil´ ısticos discretos Modelo de Bernoulli Una gran cantidad de situaciones que se presentan en distintos campos de acci´n o tienen en com´n algunas cosas. Por ejemplo: lanzar una moneda y determinar si sale u cara en cada lanzamiento; lanzar un dado y verificar cada vez si sale un n´mero par; u elegir aleatoriamente un individuo y determinar su sexo; determinar si un elemento es met´lico; etc. Todos estos experimentos y otros similares reciben el nombre gen´rico de a e Ensayos de Bernoulli, y tienen las siguientes caracter´ ısticas: 1. Cada vez que se repite el experimento se producen 2 resultados mutuamente excluyentes. Estos resultados se identifican generalmente como ´xito y fracaso. e 2. Cada vez que se repite el experimento la probabilidad de ocurrencia del ´xito p o e del fracaso q no cambian. 3. Los resultados son independientes. El hecho de que ocurra un fracaso o un ´xie to, no afecta la probabilidad de ocurrencia de un nuevo resultado al repetir el experimento. En consecuencia, el espacio muestral para los distintos ensayos de Bernoulli esta formado por dos resultados, ´xito (E) y fracaso (F ), es decir S = {E, F }. Si definimos la variable e aleatoria X = n´mero de ´xitos en un ensayo entonces tendremos el siguiente rango u e espacial, RX = {0, 1}. Si p es la probabilidad de ´xito y 1 − p la de fracaso, entonces e sabemos que la funci´n probabilidad debe cumplir que P (X = 0) = p0 (1 − p)1 y P (X = o 1) = p1 (1−p)0 . Por lo tanto, se deduce que la funci´n de probabilidad para la distribuci´n o o de Bernoulli es p(x) = px (1 − p)1−x El valor esperado y la varianza de esta distribuci´n son: µ = p y σ 2 = pq respectivamente. o 30
  • 31. 3 Distribuciones de Probabilidad 3.1.2. Modelo Binomial Un experimento binomial consta de ”varios.ensayos de Bernoulli, por ej, lanzar una moneda n veces y determinar si sale cara en cada lanzamiento. En cada repetici´n del o experimento se mantienen las propiedades de los ensayos de Bernoulli y que la variable aleatoria que los caracteriza es el n´mero de veces que ocurre el ´xito (o el fracaso) en u e n repeticiones del experimento. La funci´n de probabilidad para este tipo de variable la o vamos a deducir a partir del siguiente ejemplo. Ejemplo: En una investigaci´n de cierta parasitosis, peque˜as dosis de una vacuna experio n mental se inyectaron en ratones de laboratorio. Los resultados encontrados demostraron que 4 de cada 20 ratones mueren a causa de la vacuna. Si la misma dosis de la vacuna se aplica a 4 ratones, cu´l es la probabilidad de que mueran x ratones?. a 1. En primer lugar, se verifica que se trata de un ensayo de Bernoulli. Tiene 2 resultados posibles: rat´n muere (´xito); rat´n sobrevive (fracaso). o e o La probabilidad de ´xito es p = 1/5 y del fracaso es q = 4/5 (invariantes). e El experimento se repiti´ 5 veces (n = 4). o 2. El espacio muestral consta de 16 resultados. Si se representa con m el evento morir y con s el evento sobrevivir, entonces    ssss       sssm, ssms, smss, msss    ssmm; smsm, mssm, smms, msms, mmss S=    smmm, msmm, mmsm, mmms        mmmm La variable aleatoria X = n´mero de ratones muertos genera el rango espacial u RX = {0, 1, 2, 3, 4}. 3. Si p = probabilidad de morir y q = probabilidad de sobrevivir; la probabilidad con la cual ocurrir´n los resultados del espacio muestral S son: a P(X = 0) =p(ssss) =1 P(X = 1) =p(sssm) + p(ssms) + p(smss) + p(msss) =4 P(X = 2) =p(ssmm) + p(smsm) + p(mssm) + p(smms) + p(msms) + p(mmss)= 6 P(X = 3) =p(smmm) + p(msmm) + p(mmsm) + p(mmms) =4 P(X = 4) =p(mmmm) =1 qqqq = 1 pqqq = 4 ppqq = 6 pppq = 4 pppp= 1 4. Puede observarse que los valores de p est´n elevados a una potencia que coincide a con el valor de x de la variable aleatoria, mientras que los de q est´n elevados a una a potencia que es igual a 4 − x. Observar que 4 tambi´n es el n´mero de repeticiones e u del experimento, por lo que una expresi´n general ser´ o ıa px q n−x 31 p0 q 4 p1 q 3 p2 q 2 p3 q 1 p4 q 0
  • 32. 3 Distribuciones de Probabilidad 5. Tambi´n puede verse que cada t´rmino est´ multiplicado por un coeficiente que e e a representa el n´mero de secuencias diferentes de c´mo pueden morir x ratones. Este u o n´mero no es otra cosa que el n´mero de permutaciones de n elementos diferentes, u u siendo x elementos de una clase (ratones que mueren) y n−x de otra clase (ratones que sobreviven). Esto tambi´n se conoce como combinatoria n Cx y viene descripto e por la siguiente f´rmula o n Cx = n x = n! x!(n − x)! Por lo tanto, la funci´n de probabilidad del modelo binomial puede ser expresada o de la siguiente manera p(x) = n Cx px q n−x = n x px q n−x Su aplicaci´n permitir´ calcular la probabilidad de que un resultado ocurra x veo a ces en n repeticiones. Para finalizar con el ejemplo, podemos utilizar la f´rmula o encontrada para calcular las probabilidades: P (X P (X P (X P (X P (X = 0) = p(0) = 1) = p(1) = 2) = p(2) = 3) = p(3) = 4) = p(4) = = = = = 4 0 4 1 4 2 4 3 4 4 (1/5)0 (4/5)4−0 (1/5)1 (4/5)4−1 (1/5)2 (4/5)4−2 (1/5)3 (4/5)4−3 (1/5)4 (4/5)4−4 = (1)(1)(0,4096) = 0,4096 = (4)(0,2)(0,5120) = 0,4096 = (6)(0,04)(0,64) = 0,1536 = (4)(0,008)(0,8) = 0,0256 = (1)(0,0016)(1) = 0,0016 Distribuci´n de probabilidades o El conjunto de pares ordenados [xi ; p(xi ) ] genera una distribuci´n binomial, nombre que se le o da porque los sucesivos t´rminos e de la distribuci´n de probabilio dad son semejantes a los obtenidos con la expansi´n del binoo mio de Newton (p + q)n . Cuando una variable aleatoria se distribuye en forma binomial con par´metros n y p se puede reprea sentar mediante la siguiente expresi´n: X : b(n; p). La forma de o la distribuci´n binomial cambia o para cada combinaci´n de valoo res diferentes de n y/o p. En la 32
  • 33. 3 Distribuciones de Probabilidad figura puede verse un ejemplo de dicha variaci´n cuando se toma n = 10 y diferentes o valores de p. Funci´n de probabilidad acumulada o La funci´n de probabilidad acumulada para el modelo binomial puede escribirse como o RX F(x) = P (X ≤ x) = n Cx px q n−x Para facilitar la aplicaci´n de la distribuci´n binomial, existen tablas con las probabio o lidades acumuladas. A continuaci´n damos un ejemplo de dichas tablas. La tabla tiene o tres entradas, el valor del par´metro p (probabilidad de ´xito), el valor de n (n´mero de a e u repeticiones) y el valor de x (n´mero de ´xitos). u e La tabla mostrada tiene como par´metro n = 15 y su uso es relativamente sencillo. a Si tenemos un experimento con una variable aleatoria que se distribuye binomialmente con n = 15 y p = 0,5, y quisi´ramos calcular la probabilidad, por ej., P (X > 5), e inspeccionando la tabla podr´ ıamos calcular que: P (X > 5) = 1 − P (X ≤ 5) = 1 − 0,1509 = 0,8491 Valor esperado y Varianza El valor esperado y la varianza de la distribuci´n binomial son los siguientes: o σ 2 = npq µ = np 33
  • 34. 3 Distribuciones de Probabilidad 3.1.3. Modelo de Poisson Esta distribuci´n fue introducida por el matem´tico franc´s S.D. Poisson en 1837. El o a e modelo de Poisson, a semejanza del binomial, consta de varios ensayos de Bernoulli. La diferencia estriba en que el modelo binomial sirve para calcular la probabilidad de ocurrencia de un resultado particular en un n´mero finito de repeticiones, mientras que u con el modelo de Poisson se determina la probabilidad de ocurrencia de un determinado evento en el tiempo o el espacio y no en un n´mero definido de repeticiones del expeu rimento. En estos eventos que se producen aleatoriamente en el espacio o el tiempo, la frecuencia de ocurrencia de un evento es tan baja con relaci´n a la frecuencia de no o ocurrencia que se consideran como sucesos raros. Tratar de describir la distribuci´n de o una variable aleatoria de este tipo mediante el modelo binomial ser´ impr´ctico puesto ıa a que el n´mero de ensayos tendr´ que ser extraordinariamente grande para que ocurriera u ıa el resultado esperado. Analicemos el siguiente caso. Ejemplo: Un bi´logo est´ colectando individuos de una especie de planta cuyos indio a viduos est´n distribuidos aleatoriamente e independientemente en una sabana. Es de a suma importancia conocer la distribuci´n de probabilidades de la variable X = n´meo u ro de plantas. Para obtener esta distribuci´n se podr´ usar el modelo binomial. S´lo o ıa o se necesitar´ considerar cada punto muestreado como una repetici´n del proceso, sin ıa o embargo, esto implicar´ trabajar con un n´mero de repeticiones extremadamente granıa u de, puesto que la presencia de una planta en un punto del ´rea de b´squeda es un a u hecho muy poco frecuente con relaci´n al n´mero de puntos donde no se encuentra. o u Bajo el supuesto de que se pudiera superar la dificultad del elevado n´mero de repeticiones, se tendr´ otro problema, cou ıa mo el de que la funci´n binomial est´ caracterizada por un o a valor de n muy grande y un valor de p muy peque˜o, lo que n hace sumamente tedioso el c´lculo de probabilidades por tener a que usar factoriales de n´meros muy grandes. Afortunadamenu te, situaciones como la planteada donde n −→ ∞ y p −→ 0, se pueden resolver usando el modelo probabil´ ıstico de Poisson. Para deducir la funci´n de probabilidad de Poisson se o har´ uso de dos supuestos: el primero es que en esta sabana a se delimit´ una parcela de terreno que tiene un n´mero proo u medio de plantas igual a λ; y el segundo es que el ´rea de la a parcela se corresponde con una unidad de superficie, de forma que λ representa el n´mero promedio de plantas por unidad u de superficie. El mayor inter´s es el de conocer la probabilidad e con la cual la variable aleatoria asume los valores de su rango espacial, el cual es Rx = {0, 1, 2, 3, ........N } . Una manera util de encontrar las probabilidades para cada resultado en Rx ´ ser´ dividir la parcela en n unidades del mismo tama˜o lo suıa n ficientemente peque˜as para que en cada uno de ellas se produzca uno de dos resultados: n presencia o ausencia de plantas (ver figura de la derecha). Bajo estas nuevas condiciones 34
  • 35. 3 Distribuciones de Probabilidad el experimento presenta las caracter´ ısticas de un experimento binomial. Por lo tanto es posible utilizar la funci´n de probabilidad del modelo binomial para el c´lculo de proo a ´ babilidades. Pero para poder hacer esto, hace falta conocer el valor de p. Este se puede deducir a partir de λ, que es le n´mero promedio de plantas por parcela o por unidad u de superficie. Puesto que la parcela se dividi´ en n subparcelas, la probabilidad de que o ocurra una planta en cada una de las n subparcelas de tama˜o 1/n ser´ p = λ/n y la n a probabilidad de que no ocurra ser´ q = 1 − (λ/n), de modo que la funci´n distribuci´n a o o binomial queda: p(x) = n Cx (λ/n)x (1 − λ/n)n−x Sin embargo, esta funci´n s´lo es una aproximaci´n, pues toma en cuenta n subparcelas. o o o Como la superficie es una variable continua, el ´rea de la parcela se puede dividir en a infinitas subparcelas, de modo que cuando n tiende a infinito, la funci´n de probabilidad o binomial se aproxima a l´ ım n→∞ n Cx (λ/n) x (1 − λ/n)n−x = e−λ λx x! donde λ es el n´mero de ocurrencia del evento de inter´s en una unidad de espacio (o u e tiempo). Para cualquier otro valor de espacio (o tiempo) la funci´n de probabilidad ser´: o a p(x) = e−λa (λa)x x! donde a es un factor de proporcionalidad que permite calcular el n´mero de ocurrencias u del ´xito en un tiempo o espacio dado diferente a la unidad. Si se hace λa = µ la funci´n e o de probabildades para el modelo de Poisson queda p(x) = e−µ µx x! con µ el n´mero promedio de ocurrencias en un espacio o tiempo dado y x el n´mero de u u veces que ocurre el ´xito en ese mismo espacio o tiempo. e Distribuci´n de probabilidades o La distribuci´n de probabilidades de Poisson o est´ formada por los pares ordenados de valoa res [xi ; p(xi )] y la misma est´ caracterizada por a un s´lo par´metro: el promedio µ. En forma sio a milar a la distribuci´n binomial, la distribuci´n o o Poisson es una familia de curvas, cuya forma depende de µ (ver figura). Su aplicaci´n puede verse a trav´s del siguiente o e ejemplo. Sup´ngase que el n´mero de part´ o u ıculas radiactivas emitidas por cierto material durante una hora tiene una distribuci´n Poisson cuyo promedio es de 0.8 part´ o ıculas por hora. 35
  • 36. 3 Distribuciones de Probabilidad Cu´l es la probabilidad de que en 5 horas se emitan m´s de 3 y menos de 7 part´ a a ıculas? Para encontrar la probabilidad solicitada se deber´ calcular a P (3 < X < 7) = P (4 ≤ X ≤ 6) = p(4) + p(5) + p(6) Ahora, si λ = emisiones/hora, el n´mero promedio esperado para 5 horas ser´ µ = λt = u a 0,8 × 5 = 4 emisiones. Entonces, las probabilidades requeridas son p(4) = e−4 44 /4! = 0,1954 p(5) = e−4 45 /5! = 0,1562 p(6) = e−4 46 /6! = 0,1041 por lo que, la probabilidad total buscada es P (3 < X < 7) = 0,4557. Funci´n de probabilidad acumulada o Las probabilidades acumuladas de la funci´n de probabilidad de Poisson tambi´n pueden o e venir tabuladas, donde las entradas usuales son el par´metro µ y el n´mero de ´xitos x. a u e Su utilizaci´n es la misma que la realizada con las tablas binomiales, pero veamos un o ejemplo para clarificar. Sup´ngase que el n´mero de impulsos que recibe una central o u telef´nica es una variable que se distribuye como Poisson. El promedio es de 120 impulsos o recibidos por hora. La central tiene una capacidad m´xima de 4 impulsos por minuto. a Cu´l es la probabilidad de que en un minuto determinado la central se congestione?. La a central comenzar´ a fallar cuando el n´mero de impulsos sea superior a 4 por minuto, a u de modo que la probabilidad solicitada es P (X > 4). Si λ = 120 impulsos/hora = 120 impulsos/ 60 minutos = 2 impulsos/minuto, entonces se tiene que µ = λt = (2 impulsos/minuto)(1 minuto) = 2 impulsos. Entonces entramos en la tabla con los valores x = 4 y µ = 2 y tenemos que la probabilidad buscada es P (X > 4) = 1 − P (X ≤ 4) = 1 − F (4) = 1 − 0,9473 = 0,0527 36
  • 37. 3 Distribuciones de Probabilidad Valor esperado y Varianza El valor esperado y la varianza de la distribuci´n Poisson son iguales: µ = σ 2 . o Apliquemos esto en el siguiente ejemplo. Sea X una variable que se distribuye seg´n el modeu lo de Poisson, sabiendo que µ = 9 calcule la probabilidad que tiene la variable aleatoria de ser mayor o menor a la media en m´s de una a desviaci´n estandar (σ, es decir, la ra´ de la o ız varianza). La probabilidad solicitada es P [X < (µ − σ) o X > (µ + σ)] Como se sabe que en el modelo Poisson µ = σ 2 , se deduce que σ 2 = 9. Por lo tanto, la desvia√ ci´n est´ndar es σ = 9 = 3, de modo que la probabilidad que buscamos es: o a P [X < (9 − 3) o X > (9 + 3)] = P [X < 6 o X > 12] = P (X < 6) + P (X > 12) = = P (X ≤ 5) + 1 − P (X ≤ 12) = 0,1157 + 1 − 0,8758 = 0,2399 Relaci´n entre los modelos Binomial y Poisson o Observar que la deducci´n de la funci´n de probabilidad del modelo de Poisson se hizo o o a partir de la funci´n de probabilidad del modelo binomial. Con este prop´sito, en o o un experimento binomial se aument´ infinitamente el n´mero de repeticiones n, y la o u probabilidad de ocurrencia del ´xito se disminuy´ proporcionalmente a este aumento, e o p = λ/n. Si sigui´semos dentro del marco binomial, el c´lculo mediante la funci´n de e a o probabilidad se dificulta porque hay que trabajar con factoriales muy grandes. De modo que en cualquier ensayo de Bernoulli donde n sea muy grande y p muy peque˜o, se puede n utilizar la funci´n de Poisson para calcular las probabilidades de ocurrencia del ´xito, o e sabiendo que µ = np. 3.1.4. Otros modelos discretos A continuaci´n se mencionan las caracter´ o ısticas principales de 3 modelos discretos usados com´nmente. u Modelo geom´trico e Supongamos que ensayos independientes, cada uno teniendo probabilidades p, son realizados hasta que un evento dado ocurre por primera vez, sin l´ ımite en el n´mero de u ensayos realizados. Si un evento es observado por primera vez despu´s de x ensayos, e significa que fall´ x − 1 veces, es decir, esto pasa con probabilidad (1 − p)x−1 . Cuando o el evento finalmente ocurre, lo hace con probabilidad p. Entonces puede verse que la 37
  • 38. 3 Distribuciones de Probabilidad funci´n probabilidad vendr´ dada por o a P (x) = (1 − p)x−1 p x = 1, 2, ... Cualquier variable aleatoria cuya probabilidad venga dada por esta ecuaci´n se dice que o es una variable aleatoria geom´trica. El valor esperado para esta distribuci´n es µ = 1/p, e o mientras que la varianza es σ 2 = (1 − p)/p2 . Modelo binomial negativo Supongamos que ensayos independientes, cada uno teniendo probabilidades p, son realizados hasta que un total de r eventos ´xitosos se han acumulado. Para que el r-´simo e e evento ocurra en el ensayo x, debe haber habido r −1 ´xitos en los primeros x−1 ensayos e y el x-´simo ensayo debe ser un ´xito. Por lo que la funci´n de probabilidad es e e o P (x) = x−1 r−1 pr (1 − p)x−r x = r, r + 1, ... Cualquier variable aleatoria cuya probabilidad venga dada por esta ecuaci´n se dice que o es una variable aleatoria binomial negativa con par´metro (r, p). Observar que una variaa ble aleatoria geom´trica es una binomial negativa con par´metro (1, p). El valor esperado e a para esta distribuci´n es µ = r/p, mientras que la varianza es σ 2 = r(1 − p)/p2 . o Modelo hipergeom´trico e Supongamos que una muestra de tama˜o n es elegida aleatoriamente (sin remplazar) de n una urna que contiene N pelotas, de las cuales m son blancas y N − m son negras. Si llamamos X el n´mero de pelotas blancas seleccionadas, entonces u P (x) = m x N −m n−x N m x = 0, 1, ..., n Cualquier variable aleatoria cuya probabilidad venga dada por esta ecuaci´n se dice que o es una variable aleatoria hipergeom´trica. El valor esperado para esta distribuci´n es e o 2 = N −n np(1 − p) con p = m/N . Observar µ = nm/N , mientras que la varianza es σ N −1 que si el n´mero N de pelotas es considerablemente grande comparado con n, entonces el u n´mero de pelotas blancas elegidas tiene aproximadamente una funci´n de probabilidad u o binomial (el cual es un experimento que se realiza con remplazos). 38
  • 39. 3 Distribuciones de Probabilidad 3.2. 3.2.1. Modelos probabil´ ısticos continuos Modelo Normal La distribuci´n normal fu´ introducida pro el matem´tico franc´s Abraham De Moio e a e vre en 1733. De Moivre, quien us´ esta distribuci´n para aproximar las probabilidades o o conectadas con lanzar una moneda, la llam´ curva exponencial con forma de campana. o Su utilidad, sin embargo, fu´ demostrada en 1809, cuando el famoso matem´tico alem´n e a a Karl Friedrich Gauss la us´ como una parte integral de su aproximaci´n para predecir o o la ubicaci´n de objetos astron´micos. Como resultado, result´ com´n despu´s de esto o o o u e que la denominaran distribuci´n Gaussiana. Durante la segunda mitad del siglo XIX, la o mayor´ de los estadistas comenzaron a creer que la mayor´ de los conjuntos de datos ıa ıa ten´ histogramas con la forma de campana de una distribuci´n gaussiana, por lo que ıan o comenz´ a ser aceptado que es normal para cualquier conjunto de datos con forma de o campana estar descripto por esta curva. Como resultado de esto, y siguiendo el camino del estadista brit´nico Karl Pearson, la gente comenz´ a referirse a la distribuci´n gausa o o siana como la curva normal. La funci´n de probabilidad de la distribuci´n normal sirve de modelo para una gran o o cantidad de variables continuas naturales, tales como la temperatura, la humedad, la precipitaci´n, la altura, el peso, la concentraci´n, el coeficiente de inteligencia, los erroo o res instrumentales, etc. Igualmente, la distribuci´n de muchos estad´ o ısticos tiende hacia la distribuci´n normal, por lo cual esta distribuci´n adquiere una gran importancia en o o el an´lisis de datos mediante la inferencia estad´ a ıstica. Una variable aleatoria X se encuentra distribuida normalmente si su funci´n de probao bilidad es la siguiente: (x−µ)2 1 f(x) = √ e 2σ2 σ 2π Esta funci´n esta caracterizada por 2 par´meo a tros: la media µ y la desviaci´n est´ndar σ. El o a valor de µ define la posici´n de la distribuci´n o o y el valor de σ define la forma de la distribuci´n. La distribuci´n normal es sim´trica, con o o e un valor m´ximo para x = µ y presenta dos a puntos de inflexi´n para x = ±σ. En la figura o de la derecha pueden verse dichos puntos, como as´ tambi´n las ´reas contenidas por los intervaı e a los definidos por 1, 2 y 3 desviaciones est´ndar a alrededor de µ. La funci´n de probabilidad f (x) o tiende a cero a medida que x tiende a ±∞, por lo que las dos colas de la distribuci´n se aproo ximan asint´ticamente a cero. Cuando una vao riable aleatoria sigue la distribuci´n normal se indica X : N (µ; σ). Por tratarse de un o modelo para variables continuas, la probabilidad de que la variable se encuentre en un intervalo se obtiene integrando la funci´n f (x) entre los l´ o ımites del intervalo. Igualmente, 39
  • 40. 3 Distribuciones de Probabilidad se pude calcular la probabilidad utilizando la funci´n acumulativa Φ(x) (ver Secci´n 2). o o En el caso de distribuciones discretas, los valores de la funci´n acumulativa est´n tao a bulados para diferentes valores de los par´metros que caracterizan estas distribuciones. a Esto no es posible en el caso de la distribuci´n normal porque al ser aplicable a variables o continuas existen infinitos valores de µ y σ. Afortunadamente, esta situaci´n se resolvi´ tao o bulando las probabilidades acumuladas para una unica distribuci´n, con valores de µ y σ ´ o espec´ ıficos, y mediante el procedimiento de tipificaci´n se puede transformar cualquier variao ble normal en esta variable est´ndar o patr´n. a o La variable que se seleccion´ como est´ndar o a es aquella cuya funci´n tiene como par´metros o a µ = 0 y σ = 1, por lo cual se le denomin´ variao ble normal est´ndar, unitaria o tipificada, idena tific´ndose con la letra Z para diferenciarla de a las otras variables cuyas distribuciones de probabilidad tienen µ = 0 y σ = 1 . La funci´n o de probabilidad de la variable Z es la siguiente: z2 1 f(x) = √ e2 2π La probabilidad de encontrar un valor de Z en un intervalo dado, se obtiene calculando el ´rea que se encuentra entre la curva y el intervalo definido en el eje de coordenadas. a Pero en lugar de integrar f (z) entre los l´ ımites del intervalo, esta ´rea se puede calcular a utilizando la tabla de la funci´n acumulada Φ(z) , que proporciona los valores de inteo graci´n entre −∞ y un dado valor de Z. o Transformaci´n de una variable X en la variable Z o Al tranformar la funci´n f (x) en la funci´n f (z), lo que realmente se hizo fue sustituir o o el t´rmino x−µ por la variable z e σ Z= f (x) = 1 √ σ 2π e (x−µ)2 2σ 2 x−µ σ −−−−−−−−−→ −−−−−−−−− σ=1 f (z) = √1 2π e z2 2 Entonces, cualquier variable X que se distribuye normalmente con µ = 0 y σ = 1, se puede convertir en la variable Z, restando a todo valor de X su media µ y dividiendo esta diferencia con su desviaci´n est´ndar σ. Observar que los valores de Z expresan la o a distancia de X respecto a su media µ en t´rminos de desviaci´n est´ndar. Por ejemplo e o a si un valor de una variable X al transformarse produce un valor de z = 1,5 , este ultimo ´ indica que el valor de X est´ a 1,5σ a la derecha de µ . a 40
  • 41. 3 Distribuciones de Probabilidad Ejemplo: Sea X : N (20; 4) y se quiere conocer la probabilidad de que la variable tenga un valor menor a 16. La probabilidad que nos interesa es P (X ≤ 16). Para poder determinar el valor de esta ´rea mediante a la tabla de probabilidades acumuladas de la distribuci´n normal est´ndar, se debe convertir el valor de x o a en su respectivo valor z, lo cual se hace mediante la siguiente operaci´n: o z= x−µ 16 − 20 = = −1 σ 4 Ahora se busca el ´rea que se encuentra a la izquierda a de z = −1 en la tabla de probabilidades acumuladas para la variable Z y se toma dicha ´rea como la proa babilidad con que la variable aleatoria X asume un valor igual o menor a 16. En consecuencia se tiene P (X ≤ 16) = P 3.2.2. Z≤ 16 − 20 4 = P (Z ≤ −1) = Φ(−1) = 0,1587 Modelo Exponencial Una distribuci´n exponencial aparece frecuentemeno te, en la pr´ctica, cuando se mide la cantidad de tiempo a hasta que un evento espec´ ıfico ocurre. Por ejemplo, la cantidad de tiempo (comenzando ... ahora!) hasta que sucede un terremoto, o hasta que estalle una nueva guerra, o hasta que se reciba una llamada telef´nica que o resulte ser n´mero equivocado. Todos estos casos son u variables aleatorias que tienden, en la pr´ctica, a tener a distribuciones exponenciales. Una variable aleatoria continua cuya funci´n de probao bilidad viene dada, para alg´n λ > 0, por u f (x) = λe−λx 0 x≥0 x<0 se dice que es una variable aleatoria exponencial con par´metro λ. La funci´n distribuci´n acumulada expoa o o nencial viene dada por xi F (xi ) = P (X ≤ xi ) = λe−λx dx = −e−λx 0 xi 0 = 1 − e−λxi En la figura de la derecha pueden verse ejemplos de las funciones de probabilidad exponencial (panel superior) y sus correpondientes funciones acumuladas (panel inferior). 41
  • 42. 3 Distribuciones de Probabilidad El valor esperado para esta distribuci´n es µ = 1/λ, mientras que la varianza es σ 2 = o 2 . Una caracter´ 1/λ ıstica importante que poseen las variables aleatorias continuas con una distribuci´n exponecial es que no tienen memoria. Que significa esto? Se dice que o una variable aleatoria no-negativa X no tiene memoria si P (X > s + t / X > t) = P (X > s) ∀ s, t ≥ 0 Si pensamos que X es el per´ ıodo de vida de alg´n instrumento, esta ecuaci´n establece u o que la probabilidad de que el instrumento sobreviva por al menos s+t horas, dado que ya sobrevivi´ t horas, es la misma que la probabilidad inicial de haber sobrevivido al menos o s horas. En otras palabras, si el instrumento sobrevivi´ hasta la edad t, la distribuci´n o o del tiempo restante de sobrevida es la misma que la distribuci´n del per´ o ıodo original de vida, es decir, es como si el instrumento no recordara que ya ha sido utilizado por un tiempo t. Observar que la ecuaci´n antes escrita, es equivalente a la siguiente o P (X > s + t) (X > t) P (X > t) = P (X > s) − − → P (X > s + t) = P (X > s)P (X > t) −− con esta ecuaci´n, es f´cil corroborar que una distribuci´n exponencial no tiene memoria, o a o ya que e−λ(s+t) = e−λs e−λt . Por ultimo, resulta que no s´lo la distribuci´n exponencial ´ o o no tiene memoria, sino que puede demostrarse que es la unica distribuci´n continua que ´ o tiene esta caracter´ ıstica. Ejemplo: Consideremos una oficina de correos que es atendida por 2 empleados. Supongamos que cuando el se˜or P´rez entra en el sistema, descubre que el se˜or Gonz´lez n e n a est´ siendo atendido por un empleado y el se˜or D´ por otro. Supongamos tambi´n a n ıaz e que el se˜or P´rez sabe que ser´ atendido cuando alguno de los otros clientes se vaya. n e a Si la cantidad de tiempo que un empleado emplea con un cliente est´ distribuido expoa nencialmente con par´metro λ, cu´l es la probabilidad de que , de los 3 clientes, el se˜or a a n P´rez sea el ultimo en irse del correo? e ´ La respuesta se obtiene haciendo el siguiente razonamiento: consideremos el tiempo en el cual el se˜or P´rez encuentra un empleado libre. En este punto, alguno de los otros 2 n e clientes se habr´ ido y el otro todav´ estar´ siendo atendido. Sin embargo, debido a la a ıa a falta de memoria de la distribuci´n exponencial, se concluye que la cantidad de tiempo o adicional que esta otra persona (ya sea Gonz´lez o D´ a ıaz) tendr´ que esperar todav´ a ıa en el correo tambi´n est´ regulada por una distribuci´n exponencial con par´metro λ. e a o a Esto significa, que es la misma cantidad tiempo que faltar´ si es que el servicio de esta ıa persona reci´n estuviese empezando. Por lo tanto, por simetr´ la probabilidad de que e ıa, la persona restante termine antes que el se˜or P´rez debe ser igual a 1/2. n e 42