1. Funciones de distribución
Cesar Andrés Morales
Notas de probabilidad
Matemáticas y Estadística
Universidad del Tolima
Ibagué, Tolima.
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
1 / 36
2. Contenido
1
Técnicas de Conteo
Principio multiplicativo
Permutaciones y Combinaciones
2
Distribuciones discretas
Variables aleatorias y sus propiedades
Distribución binomial
Distribución Poisson
Distribución binomial negativa
Distribución Hipergeométrica
3
Distribuciones Continuas
Distribución Normal
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
2 / 36
3. Técnicas de Conteo
Principio multiplicativo
Principio multiplicativo
Si una operación es descrita mediante una secuencia de k pasos, donde:
El número de caminos para realizar el primer paso es de n1
El número de caminos para el segundo paso es de n2
De manera sucesiva nr es el números de caminos para el k-ésimo paso
Entonces, el total de caminos que completan la operación es
n1 · n2 · · · nk
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
3 / 36
4. Técnicas de Conteo
Permutaciones y Combinaciones
Permutaciones y Combinaciones
1. El número de permutaciones de n elementos diferentes es n! donde
n! = 1 · 2 · · · (n − 1) · n
2. El número de permutaciones de un subconjunto de r elementos seleccionados de un conjunto
de n elementos diferentes es:
nP r = n · (n − 1) · (n − 2) · · · (n − r + 1) =
n!
(n − r)!
3. El número de permutaciones de n = n1 + n2 + · · · + nr objetos, donde n1 es el número de
objetos del primer tipo, n2 los del segundo tipo,..., y nr los del r-ésimo tipo, es:
nP n1 n2 · · · nr =
n!
n1 ! n2 ! n3 ! · · · nr !
4. El número de subconjuntos de r elementos que pueden ser seleccionados de un conjunto de
n elementos es
nCr =
n!
r!(n − r)!
Nota: El orden de los elementos escogidos en una combinación no importa, mientras que en una
permutación si.
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
4 / 36
5. Técnicas de Conteo
Permutaciones y Combinaciones
Propiedades importantes
1. Comparando el coeficiente xr del binomio (x + 1)n con el producto de los coeficientes de xi
y xj de los binomios (x + 1)k y (x + 1)n−k respectivamente de tal forma que:
0≤i≤k
i + j = r,
n
xr =
r
r≤k
0
k
xi
i
i=0 j=r−i
r
0
k
i
=
i=0 j=r−i
r
=
i=0
k
i
0≤j ≤n−k
y
n−k
xj
j
n−k
xr
r−i
n−k
xr
r−i
Por tanto
n
r
Cesar Andrés Morales (camor79@gmail.com)
r
=
i=0
k
i
Probabilidad
n−k
r−i
Enero 2012
5 / 36
6. Técnicas de Conteo
Permutaciones y Combinaciones
Propiedades importantes
2.
n
i=0
n
i
= 2n
3.
n
(−1)i
i=0
n
i
=0
4.
2n
n
Cesar Andrés Morales (camor79@gmail.com)
n
=
i=0
Probabilidad
n
i
2
Enero 2012
6 / 36
7. Distribuciones discretas
Variables aleatorias y sus propiedades
Variables aleatorias
Para definir una variable aleatoria (v.a) es preciso señalar los valores que puede tomar y las
probabilidades de estos valores.
Caso discreto:
X=
x1
p1
x2
p2
···
···
xn
pn
Donde xi son los valores posibles de la variable X y pueden ser cualquier cosa, mientras que
los pi son sus respectivas probabilidades y deben cumplir lo siguiente.
∀i
pi > 0
pi = 1 .
i
Caso continuo:
Intervalo I ⊆ R de posibilidades para la v.a X
X=
Función de densidad de probabilidad p(x)
De manera análoga al caso discreto, p(x) cumple con:
∀x ∈ I
p(x) > 0
p(x) dx = 1
I
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
7 / 36
8. Distribuciones discretas
Variables aleatorias y sus propiedades
Propiedades de las variables aleatorias
Definición 1
El momento n−enésimo de una variable aleatoria se define como
xn p i
caso discreto
i
n
n
E(X ) = x |p =
n
x p(x)dx caso continuo
Propiedades del valor esperado
(1)
E(X + Y ) = E(X) + E(Y )
E(c X) = c E(X)
(2)
E(X + c) = E(X) + c
(3)
Definición 2
La varianza D(X) se define como el valor esperado del cuadrado de la desviación de X respecto
a su esperanza.
D(X) =
Cesar Andrés Morales (camor79@gmail.com)
(x − E(x))2 p
Probabilidad
Enero 2012
8 / 36
9. Distribuciones discretas
Variables aleatorias y sus propiedades
Propiedades de la varianza
D(X) = x2 − x
2
(4)
(5)
D(X + c) = D(X)
D(c X) = c2 D(X)
(6)
Definición 3
Supongamos que además de la variable X estamos observando otra variable aleatoria Y . Si la
distribución de la variable X no se altera al conocerse el valor que ha tomado la variable Y , se
dice que X no depende de Y .
Propiedades de las v.a independientes
E(XY ) = E(X)E(Y )
(7)
D(X + Y ) = D(X) + D(Y )
(8)
Los ensayos tipo Bernoulli de un experimento aleatorio, son aquellos que satisfacen lo siguiente:
1
Son independientes entre si.
2
El resultado de un ensayo, solo debe tener dos posibilidades, o se acierta o se fracasa.
3
La probabilidad de éxito por cada ensayo, se denota como p y debe permanecer constante.
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
9 / 36
10. Distribuciones discretas
Variables aleatorias y sus propiedades
Definición 4
La función generatriz de momentos y la función característica, se definen respectivamente como:
MX (t) = E etX
φX (ω) = E eiωX
= etx p
= eiωx p
La propiedad mas importante de la función generatriz de momentos es:
E(X n ) =
dn
MX (t)
dtn
(9)
t=0
Para su demostración solo hay que expresar la función etX en series de Taylor y aplicar las
propiedades del valor esperado (1-3). En efecto;
MX (t) = E etX
=E
1 + tX +
= 1 + tE (X) +
1 2
t E X2
2!
1 2 2
1
t X + t3 X 3 + · · ·
2!
3!
1
+ t3 E X 3 + · · ·
3!
Con lo cual es evidente el resultado.
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
10 / 36
11. Distribuciones discretas
Variables aleatorias y sus propiedades
Una propiedad similar de la función característica, es la siguiente:
E(X n ) = (−1)n in
Cesar Andrés Morales (camor79@gmail.com)
dn
φ (ω)
dω n X
Probabilidad
(10)
ω=0
Enero 2012
11 / 36
12. Distribuciones discretas
Distribución binomial
Distribución binomial
Mide la probabilidad de obtener un número determinado de éxitos en una secuencia de n
ensayos tipo Bernoulli.
Para obtener la función de probabilidad de la distribución binomial, primero se determina la
probabilidad de obtener, en n ensayos, x éxitos consecutivos de n − x fracasos consecutivos.
Ahora, puesto que los ensayos son independientes entre si, esto es:
px (1 − p)n−x
Por tanto, la probabilidad de obtener exactamente x éxitos y n − x fracasos en cualquier otro
orden, es el producto de px (1 − p)n−x por el número de combinaciones posibles en los que se
pueden obtener, es decir:
B(n, x, p) =
n x n−x
p q
x
donde
x = 0, 1, 2, . . . , n y 0 < p < 1.
La función generatriz de momentos de la distribución binomial es
MX (t) = q + pet
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
n
Enero 2012
12 / 36
13. Distribuciones discretas
Distribución binomial
Valor esperado de la distribución binomial
Calculando el primer momento mediante la definición 1, se tiene:
n
n
E(X) =
xP (x) =
x=0
n
=p
x=1
n−1
= np
x=0
x
x=0
n x n−x
p q
=
x
n!
(x − 1)!(n − x)!
n
x
x=1
n!
x!(n − x)!
n−1
px−1 q n−x = np
x=0
px q n−x
(n − 1)!
x!(n − (x + 1))!
px q n−(x+1)
n − 1 x (n−1)−x
p q
= np(p + q)n−1
x
Ahora, teniendo en cuenta que p + q = 1
µ = np
Nota: Es mucho mas fácil calcular los momentos utilizando la función generatriz.
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
13 / 36
14. Distribuciones discretas
Distribución binomial
Varianza de la distribución binomial
Nuevamente haciendo uso de la definición 1 para el calculo del segundo momento
n
E(X 2 ) =
x2
x=0
n x n−x
p q
=p
x
n−1
= np
(x + 1)
x=0
n−1
= np
x=0
n
x
x=1
(n − 1)!
x!(n − (x + 1))!
x(n − 1)!
x!(n − (x + 1))!
n−2
= n(n − 1)p2
x=0
n!
(x − 1)!(n − x)!
px−1 q n−x
px q n−(x+1)
n−1
px q n−(x+1) + np
x=0
(n − 2)!
x!(n − (x + 2))!
n − 1 x (n−1)−x
p q
x
px q n−(x+2) + np(p + q)n−1
= n(n − 1)p2 (p + q)n−2 + np(p + q)n−1 = n(n − 1)p2 + np
Y aplicando la propiedad (4) para la varianza
σ 2 = npq
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
14 / 36
15. Distribuciones discretas
Distribución binomial
Como generar una distribución B(n, p) en Matlab
A partir de
n
x
=
n−x+1
x
n
x−1
la función de distribución B(n, p) se obtiene
iterando lo siguiente:
valor inicial
f (0)
f (i) = αf (i − 1) para i ≥ 1
donde
f (0) = q n
y α=
n−i+1
i
p
q
En R-commander existe la siguiente orden
hist(rbinom(x, n, p))
La cual genera un histograma ∼ B(n, p).
Nota: x representa el número de datos con el que se
realiza el histograma.
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
15 / 36
16. Distribuciones discretas
Distribución Poisson
Distribución Poisson
Cuando en una distribución binomial se realiza el experimento un número muy elevado de veces y
la probabilidad de éxito por cada ensayo es reducida, entonces se aplica el modelo de distribución
de Poisson con parámetro λ = np. En efecto:
n x
p (1 − p)n−x
x
B(n, p) =
n
x
=
λ
n
x
1−
λ
n
n−x
=
n!
λx
x x!
(n − x)! n
=
nn−1
n − x + 1 λx
···
n n
n
x!
1−
λ
n
n
1−
1−
haciendo n → ∞ y teniendo en cuenta que l´ n→∞ 1 −
ım
λ
n
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
−x
n
λ
n
l´ B(n, p) = P(λ) = e−λ
ım
n→∞
λ
n
1−
n
λ
n
−x
= e−λ
λx
x!
Enero 2012
16 / 36
17. Distribuciones discretas
Distribución Poisson
Distribución Poisson(10) Vs Distribución Binomial(100,0.1)
Empíricamente se ha establecido, que el límite anterior se puede aplicar con seguridad si:
n ≥ 100
Cesar Andrés Morales (camor79@gmail.com)
p≤
1
10
Probabilidad
y
np ≤ 10
Enero 2012
17 / 36
18. Distribuciones discretas
Distribución Poisson
Función generatriz de la distribución Poisson
Aplicando la definición 4 para calcular la función generatriz, se obtiene:
∞
∞
etx P (x) =
MX (t) =
x=0
etx
x=0
∞
= e−λ
x=0
e−λ λx
x!
t
(λet )x
= eλ(e −1)
x!
Modelo estadístico de la distribución Poisson
Esta distribución ha sido utilizada para describir los siguientes experimentos:
El número de partículas α que llegan a un determinado punto del espacio, durante un
periodo de tiempo t, y que son emitidas por una sustancia radioactiva.
El número de personas que llegan a una línea de espera, en un periodo de tiempo.
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
18 / 36
19. Distribuciones discretas
Distribución Poisson
Modelo estadístico de la distribución Poisson
Para modelar este tipo de experimentos se inicia el conteo en el tiempo t = 0 y se hacen los
siguientes supuestos en relación con la llegada de las partículas.
1
Existe un parámetro λ > 0 tal que, para cualquier intervalo de longitud pequeña ∆t, se
tiene que la probabilidad de que llegue exactamente una partícula es igual a λ∆t + ◦(∆t)
donde ◦(∆t) es una cantidad tal que
◦(∆t)
→0
∆t
cuando
∆t → 0
2
La probabilidad de que no lleguen partículas en un intervalo de longitud pequeña ∆t es
igual a 1 − λ∆t + ◦(∆t).
3
La probabilidad de que llegue más de una partícula en un intervalo de longitud pequeña ∆t
es del orden ◦(∆t).
4
El número de partículas que llegan durante un intervalo de tiempo es independiente del
número de partículas que llegan antes de este.
Si Xt es la variable aleatoria que denota el número de partículas incidentes en el intervalo de
tiempo (0, t], entonces
Xt ∼ P(λt)
.
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
19 / 36
20. Distribuciones discretas
Distribución Poisson
Valor esperado y varianza de la distribución Poisson
Aplicando la propiedad (9) a primer y segundo orden respectivamente:
E (X) =
d
MX (t)
dt
E X2 =
t=0
d2
MX (t)
dt2
t=0
Se puede calcular el valor esperado y el segundo momento de la distribución Poisson. En efecto:
E (X) =
E X2 =
d λ(et −1)
e
dt
d2 λ(et −1)
e
dt2
= · · · = λet+λ(e
t
−1)
t=0
= · · · = λ 1 + λet et+λ(e
t=0
=λ
t=0
t
−1)
= λ(1 + λ)
t=0
Finalmente, haciendo uso de la propiedad (4) para la varianza
σ2 = λ
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
20 / 36
21. Distribuciones discretas
Distribución Poisson
Como generar una distribución P(λ) en Matlab
A partir de
λ
e−λ λx
=
x!
x
e−λ λx−1
(x − 1)!
la función de distribución P(λ) se puede iterar
de la siguiente forma:
f (0)
valor inicial
f (i) = αf (i − 1) para i ≥ 1
donde
f (0) = e−λ
y α=
λ
i
En R-commander existe la siguiente orden
hist(rpois(x, λ))
La cual genera un histograma ∼ P(λ).
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
21 / 36
22. Distribuciones discretas
Distribución binomial negativa
Distribución binomial negativa
Mide la probabilidad de obtener el número de ensayos necesarios tipo Bernoulli hasta lograr el
k-ésimo éxito.
Para obtener la función de probabilidad de esta distribución, primero pensemos en el último
ensayo en el cual se ha obtenido el k-ésimo éxito, es decir: Sea X = x tal que el x-ésimo ensayo
sea necesariamente el k-ésimo éxito. Por lo tanto; los restantes (k − 1) éxitos se obtienen en las
restantes (x − 1) repeticiones del experimento. Esto es;
B ∗ (x, k, p) =
x − 1 k x−k
p q
k−1
donde
x = k, k + 1, . . .
y
0<p<1
Análogo a la distribución binomial, pk q x−k representa la probabilidad de que en x repeticiones
se obtengan k éxitos consecutivos y el factor x−1 Ck−1 el número de combinaciones posibles en
los que se pueden obtener.
Tabla comparativa
Representación
ensayos
éxitos
Cesar Andrés Morales (camor79@gmail.com)
Binomial
X ∼ B(n, p)
Constante
Variable
Binomial negativa
X ∼ B ∗ (k, p)
Variable
Constante
Probabilidad
Enero 2012
22 / 36
23. Distribuciones discretas
Distribución binomial negativa
Límite de la distribución Binomial negativa
La distribución Poisson P(λ) como un caso limite de la distribución Binomial negativa B ∗ (k, p)
haciendo el cambio de variable x = n + k de modo que x = k ⇔ n = 0 y k → ∞. En efecto:
Sea X ∼ B ∗ (k, p) y λ = kq entonces
P (X = n + k) =
n+k−1 k n
p q
k−1
n = 0, 1, . . .
(n + k − 1)! k n
p q
n! (k − 1)!
1 (n + k − 1)(n + k − 2) · · · k
=
(1 − q)k (kq)n
n!
kn
λn
n−1
n−2
λ
=
1+
1+
···
1−
n!
k
k
k
=
haciendo k → ∞ y teniendo en cuenta que l´ k→∞ 1 −
ım
λ
k
k
k
= e−λ
l´ P (X = n + k) = P(λ)
ım
k→∞
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
23 / 36
24. Distribuciones discretas
Distribución binomial negativa
Función generatriz de la distribución binomial negativa
Aplicando la definición 4 para calcular la función generatriz, se obtiene:
∞
∞
etx P (x) =
MX (t) =
x=k
etx
x=k
x − 1 k x−k
p q
k−1
Ahora, realizando el cambio de variable x = l + k y teniendo en cuenta que x = k ⇔ l = 0
∞
MX (t) = etk
etl
l=0
∞
= (pet )k
l=0
l+k−1 k l
p q
k−1
−k
(−qet )l
l
Por otro lado, se sabe que la serie de Taylor de la función g(x) = (1 − x)−k alrededor de 0, es:
∞
(1 − x)−k =
l=0
−k
(−x)l
l
Con lo cual
MX (t) =
Cesar Andrés Morales (camor79@gmail.com)
pet
1 − qet
Probabilidad
k
Enero 2012
24 / 36
25. Distribuciones discretas
Distribución binomial negativa
Valor esperado de la distribución binomial negativa
Aplicando la propiedad (9) a primer orden
E(X) =
d
MX (t)
dt
t=0
se puede calcular el valor esperado o primer momento
d
d
MX (t) =
dt
dt
pet
1 − qet
k
= ··· =
k
et p
et p
1 − et q
k+1
Ahora, haciendo t = 0 y teniendo en cuenta que p + q = 1
µ=
Cesar Andrés Morales (camor79@gmail.com)
k
p
Probabilidad
Enero 2012
25 / 36
26. Distribuciones discretas
Distribución binomial negativa
Varianza de la distribución binomial negativa
Nuevamente, aplicando la propiedad (9) a segundo orden
E X2 =
d2
MX (t)
dt2
t=0
se puede calcular el segundo momento, en efecto
d2
d2
MX (t) = 2
dt2
dt
p
1 − qet
k
= ··· =
k k + et q
e2t p2
et p
1 − et q
k+2
Ahora, haciendo t = 0 y teniendo en cuenta que p + q = 1
E X2 =
k(k + q)
p2
Finalmente, aplicando la propiedad (4) para la varianza
σ2 =
Cesar Andrés Morales (camor79@gmail.com)
kq
p2
Probabilidad
Enero 2012
26 / 36
27. Distribuciones discretas
Como generar una distribución
Distribución binomial negativa
B ∗ (k, p)
en Matlab
A partir de
x
k−1
=
x
x−k+1
x−1
k−1
la función de distribución B ∗ (k, p) se obtiene
iterando lo siguiente:
f (k)
valor inicial
f (i + 1) = αf (i) para i ≥ k
donde
f (k) = pk
y α=
iq
i−k+1
En R-commander existe la siguiente orden
hist(rnbinom(x, k, p))
La cual genera un histograma ∼ B ∗ (k, p).
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
27 / 36
28. Distribuciones discretas
Distribución Hipergeométrica
Distribución Hipergeométrica
Mide la probabilidad de que en una muestra sin reemplazamiento de tamaño n, extraída de una
población de N partículas, hayan x con cierta característica A, de un total de R partículas de
este tipo distribuidas uniformemente en la población.
Para obtener la función de probabilidad de esta distribución, pensemos en lo siguiente:
Número de formas posibles
Número de formas posibles de
de extraer x muestras del tipo A, de un extraer las restantes n − x muestras
total de R de este mismo tipo
que no sean del tipo A
Total de formas posibles
de extraer n muestras de una
población de tamaño N
Por tanto
H(R, N, n) =
R
x
N −R
n−x
donde
N
n
x = 0, 1, . . . n
con las siguientes restricciones
x≤R
Cesar Andrés Morales (camor79@gmail.com)
n−x≤N −R
Probabilidad
y
n≤N
Enero 2012
28 / 36
29. Distribuciones discretas
Distribución Hipergeométrica
Límite de la distribución Hipergeométrica
La distribución binomial B(n, p) como un caso limite de la distribución Hipergeométrica
R
H(N, R, n) con p = N y N, T suficientemente grandes.
H(N, R, n) =
R
x
N −R
n−x
N
n
=
n
x
=
=
n
x
(N − n)! R! (N − R)!
N ! (R − x)! (N − R − (n − x))!
R(R − 1) · · · (R − x + 1)(N − R) · · · (N − R − (n − x) + 1)
N (N − 1) · · · (N − n + 1)
n
k
R x N − R n−x R(R − 1) . . . (R − x + 1)
N
N
Rx
(N − R) · · · (N − R − (n − x) + 1)
Nn
(N − R)n−x
N (N − 1) · · · (N − n + 1)
Por tanto
l´
ım
l´ H(N, R, n) = B(n, p)
ım
N →∞ R→∞
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
29 / 36
30. Distribuciones discretas
Distribución Hipergeométrica
Distribución H(100, 70, 30) Vs Distribución B(30, 0,7)
Empíricamente se ha establecido, que el límite anterior se puede aplicar con seguridad si:
N ≥ 100
Cesar Andrés Morales (camor79@gmail.com)
R→N
Probabilidad
y
p→1
Enero 2012
30 / 36
31. Distribuciones discretas
Distribución Hipergeométrica
Valor esperado de la distribución Hipergeométrica
Haciendo uso de la definición 1, se tiene que:
R
x
n
E(X) =
x
N
n
x=0
nR
=
N
=
nR
N
N −R
n−x
n
x=1
n−1
k=0
R−1
x−1
N −R
n−x
N −1
n−1
R−1
k
N −R
n−1−k
N −1
n−1
=
nR
N
El último paso es justificado debido a que
n−1
k=0
Cesar Andrés Morales (camor79@gmail.com)
R−1
k
N −R
n−1−k
Probabilidad
=
N −1
n−1
Enero 2012
31 / 36
32. Distribuciones discretas
Distribución Hipergeométrica
Varianza de la distribución Hipergeométrica
n
E(X(X − 1)) =
x(x − 1)
R
x
x=0
n(n − 1)R(R − 1)
=
N (N − 1)
n(n − 1)R(R − 1)
=
N (N − 1)
N −R
n−x
N
n
R−2
x−2
n
N −R
n−x
N −2
n−2
x=2
n−2
R−2
k
k=0
N −R
n−2−k
N −2
n−2
=
n(n − 1)R(R − 1)
N (N − 1)
Ahora, para calcular la varianza se debe tener en cuenta lo siguiente:
σ 2 = E(X(X − 1)) + E(X) − (E(X))2
n(n − 1)R(R − 1)
nR
n2 R2
+
−
N (N − 1)
N
N2
nR(N − R)(N − n)
=
N 2 (N − 1)
=
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
32 / 36
33. Distribuciones discretas
Distribución Hipergeométrica
Como generar una distribución H(N, R, n) en Matlab
La función de distribución H(N, R, n) se puede
iterar de la siguiente forma:
f (0)
valor inicial
f (i + 1) = αf (i) para i ≥ 0
donde el valor inicial es dado por:
f (0) =
=
(N − R)! (N − n)!
N ! (N − R − n)!
(N − R) · · · (N − R − n + 1)
N · · · (N − n + 1)
y la constante α
α=
(R − i)(n − i)
(i + 1)(N − R − n + i + 1)
En R-commander existe la siguiente orden
hist(rhyper(x, R, N − R, n))
La cual genera un histograma ∼ H(N, R, n).
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
33 / 36
34. Distribuciones Continuas
Distribución Normal
Distribución Normal
Se da el nombre de (v.a) Normal (o Gaussiana) a toda variable X que esté definida en todo el
eje x y que tenga densidad
(x−µ)2
1
−
2σ 2
pN (x) = √
e
2πσ
donde µ y σ 2 > 0 son sus parámetros numéricos. El parámetro µ no influye en la forma de la
curva pN (x): su variación solo conduce a un desplazamiento de la curva a lo largo del eje x. En
cambio, al variar σ si se altera la forma de la curva. En efecto, es fácil ver que
m´x pN (x) = pN (a) =
a
1
√
σ 2π
Si σ
1 el valor de pN (a) aumenta, por el contrarió, si σ
1 el valor de pN (a) disminuye.
Estas variaciones en los parámetros numéricos no alteran el área de la curva pN (x).
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
34 / 36
36. Distribuciones Continuas
Distribución Normal
Teorema central del límite
Consideremos N variables aleatorias X1 , X2 , . . . , Xn independientes e idénticas de modo que
las distribuciones de probabilidad de estas variables coinciden. Por consiguiente
E(X1 ) = E(X2 ) = · · · = E(Xn ) = m
D(X1 ) = D(X2 ) = · · · = E(Dn ) = b2
Al construir una nueva (v.a)
ρn = X1 + X2 · · · + Xn
de las propiedades (1) y (8) se concluye
E(ρn ) = E(X1 + X2 + · · · + Xn ) = N m
D(ρn ) = D(X1 + X2 + · · · + Xn ) = N b2
Ahora, sea una (v.a) normal N (µ, σ) con parámetros µ = N m y σ 2 = N b2 . El teorema central
del limite afirma que para cualquier intervalo (a, b) y un N suficientemente grande
b
P (a ≤ ρn ≤ b) ≈
a
ρN (x) dx
La suma de una gran cantidad de variables aleatorias idénticas es aproximadamente una normal.
Cesar Andrés Morales (camor79@gmail.com)
Probabilidad
Enero 2012
36 / 36