Movimientos Precursores de La Independencia en Venezuela
Modelos de probabilidad
1. Estad´ıstica 52
Tema 5: Modelos de probabilidad.
5.1 Modelos discretos.
(a) Distribuci´on uniforme discreta:
La variable aleatoria X tiene una distribuci´on uniforme discreta de par´ametro n,que denoteramos
por U(n), si su ley de probabilidad viene dada por:
SX = {x1, x2, . . . , xn}
p(X = xi) =
1
n
, para cada i = 1, 2, . . . , n.
(b) Distribuciones definidas sobre un experimento de Bernouilli
Un experimento aleatorio se denomina de Bernouilli si verifica las tres condiciones siguientes:
1 El experimento consiste en observar elementos de una poblaci´on y clasificarlos en dos categor´ıas:
´exito y fracaso (que denominaremos E y F).
2 Llamaremos p a la probabilidad de que un elemento est´e en E y q = 1 − p a la probabilidad
de que est´e en F.
3 Las observaciones son independientes.
Sobre los experimentos de Bernouilli se pueden definir varios modelos de variables aleatorias:
• Distribuci´on de Bernouilli.
La variable aleatoria X que modeliza la clasificaci´on de un elemento observado en un experimento
de Bernouilli como E ´o F, tiene una distribuci´on que llamaremos Bernouilli de par´ametro p.
Lo denotaremos por X ; B(p). Su ley de probabilidad viene dada por:
SX = {0, 1}
p(X = 1) = p, p(X = 0) = 1 − p
Sus medidas principales son:
E(X) = p V ar(X) = pq.
• Distribuci´on binomial.
La variable aleatoria X que modeliza el n´umero de elementos, entre n observados que tienen
la caracter´ıstica E, tiene una distribuci´on que llamaremos binomial de par´ametros n y p. Lo
denotaremos por X ; B(n, p); su ley de probabilidad viene dada por:
SX = {0, 1, . . . , n}
2. Estad´ıstica 53
p(X = k) =
n
k
pk
(1 − p)n−k
Sus medidas principales son:
E(X) = np V ar(X) = npq.
Propiedades 1 i. Si X ; B(n, p), entonces X es la suma de n variables de Bernouilli
independientes y de par´ametro p.
ii. Si X1, X2, . . . , Xk son variables binomiales independientes de par´ametros ni y p, i =
1, 2, . . . , k, entonces X1 + . . . + Xk tiene distribuci´on B(n1 + . . . + nk, p).
iii. Si X ; B(n, p) entonces Y = n − X ; B(n, 1 − p).
iv. La distribuci´on es sim´etrica si y s´olo si p = 1
2 . Si p < 1
2 , entonces existe asimetr´ıa a la
derecha y en caso contrario hay asimetr´ıa a la izquierda.
Observaci´on 1 – Los valores de la media y de la varianza de X se deducen f´acilmente a
partir de la propiedad (i).
– La propiedad (ii) se denomina propiedad de aditividad y no es cierta en general para
cualquier modelo de distribuci´on: por ejemplo, si X e Y son las variables que modelizan
el resultado de dos dados normales, ambas son uniformes discretas, pero su suma, que
modelizar´ıa la suma de resultados, no lo es.
• Distribuci´on geom´etrica:
La variable aleatoria X que modeliza el n´umero de observaciones (o ensayos) necesarias
para obtener el primer ´exito en un experimento de Bernouilli, tiene una distribuci´on que
llamaremos geom´etrica de par´ametro p. Lo denotaremos por X ; G(p); su ley de probabilidad
viene dada por:
SX = {1, 2, . . .}
p(X = k) = p(1 − p)k−1
∀k = 1, 2, . . .
Sus medidas principales son:
E(X) = 1
p V ar(X) = 1−p
p2
Observaci´on 2 En ocasiones conviene utilizar la variable Y que modeliza el n´umero de
fracasos necesarios hasta obtener el primer ´exito en un experimento de Bernouilli; esta
variable est´a relacionada con la anterior por la igualdad Y = X −1; a partir de esta relaci´on
se deduce la ley de probabilidades, media y varianza de la variable Y (calc´ulalas).
• Distribuci´on binomial negativa.
La variable aleatoria X que modeliza el n´umero de ensayos necesarios para obtener el r-
´esimo ´exito, tiene una distribuci´on que llamamos binomial negativa de par´ametros r y p. Lo
denotaremos por X; BN(r, p). Su ley de probabilidad viene dada por:
SX = {r, r + 1, . . .}
3. Estad´ıstica 54
p(X = k) =
k − 1
r − 1
pr
(1 − p)k−r
Sus medidas principales son:
E(X) = r
p V ar(X) = r(1−p)
p2
Observaci´on 3 EL siguiente cuadro se˜ala las diferencias entre las variables binomial y binnomial
negativa, indicando qu´e es lo que permanece fijo y cu´ales son los valores (aleatorios) de la variable:
No de ensayos No de ´exitos
Binomial fijo aleatorio
Binomial negativa aleatorio fijo
(c) Distribuci´on hipergeom´etrica.
La variable aleatoria X cuya distribuci´on se denomina hipergeom´etrica de par´ametros N, n y Q,
se define sobre experimentos que consisten en observar elementos de una poblaci´on y clasificarlos
en dos categor´ıas, ´exito y fracaso, (es decir, que cumplen la condici´on 1) de los experimentos de
Bernouilli), pero en los que las observaciones no son independientes. Corresponde a modelizar el
n´umero de individuos que tienen la caracter´ıstica de inter´es, de n (diferentes) observados de una
poblaci´on finita, de tama˜no N, cu´ando en la poblaci´on hay Q individuos con esa caracter´ıstica.
La denotaremos por X; H(N, n, Q); su ley de probabilidad viene dada por:
SX = [m´ax{0, n − (N − Q)}, . . . , m´ın{Q, n}]
p(X = i) =
Q
i
N − Q
n − i
N
n
Sus medidas principales son:
E(X) = nQ
N V ar(X) = nQ
N 1 − Q
N
N−n
N−1
Aproximaci´on de la distribuci´on hipergeom´etrica por la binomial.
Si X es una variable aleatoria con distribuci´on hipergeom´etrica H(N, n, Q), se puede demostrar
que cuando N → ∞, Q → ∞ y Q
N → p, la distribuci´on hipergeom´etrica tiende a una distribuci´on
binomial B(n, p). Esto permite aproximar la hipergeom´etrica H(N, n, Q) por una binomial de
par´ametros n y Q
N cuando N es suficientemente grande. En general, la aproximaci´on se considera
satisfactoria si N > 50 y n
N ≤ 0.1.
(d) Distribuciones discretas definidas sobre un proceso de Poisson.
Un proceso de Poisson es un experimento en el que se observa la aparici´on de sucesos puntuales
sobre un soporte continuo (intervalo de tiempo, de longitud, superficie, etc) y que cumple las
siguientes condiciones:
4. Estad´ıstica 55
1 El n´umero de resultados que ocurren en un intervalo de tiempo o regi´on espec´ıfica es indepen-
diente del n´umero que ocurre en cualquier otro intervalo disjunto, es decir, no depende del
n´umero de resultados que ocurren fuera de ´el.
2 La probabilidad de que un suceso ocurra en un intervalo o regi´on muy peque˜na es proporcional
a la longitud del intervalo o ´area de la regi´on.
3 La probabilidad de que ocurra m´as de un resultado en un intervalo corto es despreciable.
Como consecuencia de las propiedades anteriores el promedio de sucesos por unidad de soporte
se mantiene constante y lo denotaremos por λ.
• Distribuci´on de Poisson.
La variable aleatoria X que modeliza el n´umero de sucesos en una unidad de soporte, en un
proceso de Poisson, tiene una distribuci´on que llamaremos de Poisson de par´ametro λ. La
denotaremos por X; P(λ). Su ley de probabilidad viene dada por:
SX = {0, 1 . . .}
p(X = k) =
(λ)ke−λ
k!
Sus medidas principales son:
E(X) = λ V ar(X) = λ.
Observaci´on 4 Si Y es la variable que modeliza el n´umero de sucesos en t unidades de
soporte (t > 0), la variable Y es tambi´en de Poisson y su par´ametro es λt, pues por las
propiedades de los procesos de Poisson se deduce que el n´umero medio de sucesos en t unidades
de soporte es λt.
Proposici´on 1 Si X1, . . . , Xk son variables aleatorias independientes, con distribuci´on de
Poisson, con par´ametros λi, i = 1, 2, . . . , k entonces la variable aleatoria X =
k
i=1
Xi tiene
distribuci´on de Poisson de par´ametro λ =
k
i=1
λi.
Teorema 1 Teorema de Poisson
Sea {Xn}∞
n=1 una sucesi´on de v. a., tales que Xn ; B(n, pn). Si lim
n→∞
npn = λ y X es una
v.a. con distribuci´on P(λ), se tiene que:
lim
n→∞
p(Xn ≤ x) = p(X ≤ x), para cada x ∈ IR.
Observaci´on 5 Este ´ultimo resultado se utiliza en la pr´actica para aproximar las probabilidades
relativas a una variable B(n, p) con n grande y p peque o por probabilidades relativas a una
variable de Poisson de par´ametro λ = np. Utilizaremos esta aproximaci´on cuando n ≥ 25 y
p < 0.01.
5. Estad´ıstica 56
5.2 Modelos continuos.
(a) Distribuci´on exponencial
La variable aleatoria T que en los procesos de Poisson modeliza el tiempo entre la ocurrencia de
dos sucesos consecutivos, tiene una distribuci´on que llamaremos exponencial de par´ametro λ > 0;
la denotaremos por T; Exp(λ). Su ley de probabilidades es:
SX = (0, ∞)
f(t) =
0 si t < 0
λe−λt si t ≥ 0
Su funci´on de distribuci´on viene dada por:
F(t) = 1 − e−λt
Sus medidas principales son:
E(X) = 1
λ V ar(X) = 1
λ2 .
Es el ejemplo m´as simple de las distribuciones utilizadas en fiabilidad.
Proposici´on 2 Propiedad de p´erdida de memoria de la distribuci´on exponencial.
Si X es una v.a. con distribuci´on Exp(λ), entonces
p(X ≥ x + h/(X > x)) = p(X ≥ h)para cada x, h ≥ 0.
Demostraci´on
Para cada x > 0 y cada h ≥ 0,
p(X ≥ x + h/(X > x)) =
p(X ≥ x + h)
p(X > x)
=
=
e−λ(t+h)
e−λt
= e−λh
= p(X ≥ h)
(b) Distribuci´on uniforme continua
La variable aleatoria X tiene una distribuci´on uniforme continua de par´ametros a y b, que
denotaremos por U(a, b), si su ley de probabilidades es:
SX = [a, b] (´o (a, b], [a, b), (a, b); denotaremos al intervalo por I)
f(x) =
1
b−a si x ∈ I
0 en otro caso
Sus medidas principales son:
E(X) =
a + b
2
V ar(X) =
(b − a)2
12
.
6. Estad´ıstica 57
(c) Distribuci´on normal
La variable aleatoria X tiene una distribuci´on normal de par´ametros µ y σ, X ; N(µ, σ) si su
ley de probabilidades es:
SX = IR
f(x) =
1
σ
√
2π
exp −
1
2
x − µ
σ
2
, para cada x ∈ IR.
Propiedades 2 i. E(X) = µ
ii. V ar(X) = σ2
iii. Es sim´etrica respecto de media, mediana y moda, que coinciden con µ.
iv. La funci´on de densidad tiene puntos de inflexi´on en µ ± σ.
v. La funci´on de densidad tiende asint´oticamente a 0 en ±∞.
vi. Q1 = µ − 0.675σ, Q3 = µ + 0.675σ y por tanto, el IRQ es 1.35σ.
vii. En µ ± 2σ se encuentra el 95.5% de la distribuci´on y en µ ± 3σ se encuentra el 99.7% de la
misma.
viii. Si X ; N(µ, σ), entonces la variable estandarizada, Z = X−µ
σ tiene distribuci´on N(0, 1).
ix. Dos distribuciones normales cualesquiera est´an relacionadas mediante una transformaci´on
lineal.
x. Si X1, X2, . . . , Xn son variables aleatorias independientes, tales que Xi ; N(µi, σi), i =
1, . . . , n, entonces la v.a. X =
n
i=1
Xi tiene distribuci´on N(
n
i=1
µi,
n
i=1
σ2
i ).
5.3 Teorema Central del L´ımite.
El modelo normal es uno de los utilizados m´as frecuentemente, debido a que en muchas situaciones, los
resultados de un experimento son consecuencia de ”m´ultiples causas de peque˜a incidencia individual,
pero cuyos efectos se suman, dando lugar a los resultados del experimento” (por ejemplo, los errores
de medida, en muchas situaciones); en estas situaciones, el modelo normal suele aproximar bien el
comportamiento de los resultados del experimento. El siguiente teorema explica el buen funcionamiento
del modelo normal:
Teorema 2 Sea {Xn}∞
n=1 una sucesi´on de variables aleatorias independientes con E(Xi) = µi y
V ar(Xi) = σ2
i . Entonces la sucesi´on de variables aleatorias definida por:
Zn =
n
i=1
Xi −
n
i=1
µi
n
i=1
σ2
i
1/2
converge asint´oticamente a una variable aleatoria con distribuci´on N(0, 1), es decir, si Fn es la funci´on
de distribuci´on de la variable Zn, n = 1, 2, . . ., y φ es la funci´on de distribuci´on de una variable N(0, 1),
entonces para cada x ∈ IR,
lim
n→∞
Fn(x) = φ(x).
7. Estad´ıstica 58
Tambi´en se dice que
n
i=1
Xi es asint´oticamente una variable N(
n
i=1
µi,
n
i=1
σ2
i )
Observaci´on 6 • Si {Xn}∞
n=1 es una sucesi´on de variables aleatorias independientes e id´enticamente
distribuidas, todas ellas tendr´an la misma media (µ) y la misma desviaci´on t´ıpioca (σ), y en ese
caso, la variable
n
i=1
Xi es asint´oticamente una variable N(nµ,σ
√
n)
• El teorema anterior nos dice que si X1, X2, . . . Xn son variables aleatorias independientes, las
probabilidades p(X ≤ x) de la variable X =
n
i=1
Xi se pueden aproximar por valores de la funci´on
de distribuci´on de la variable Y ; N(
n
i=1
E(Xi),
n
i=1
σ2(Xi)), si n es suficientemente grande.
En general, la aproximaci´on es v´alida para valores n ≥ 30.
• Correcci´on de continuidad: Si la variable X =
n
i=1
Xi es discreta, para que la aproximaci´on de
la variable X por la variable Y ; N(
n
i=1
E(Xi),
n
i=1
σ2(Xi)) resulte m´as precisa se utiliza la
llamada correcci´on de medio punto o de continuidad, que asigna a FX(b) el valor FY (b + 0.5) si
b ∈ SX.
Si aplicamos el teorema anterior a una sucesi´on de variables con distribuci´on B(p) (Bernouilli de
par´ametro p), se obtiene el siguiente resultado:
Teorema 3 Teorema de De Moivre
Sea {Xn}∞
n=1 una sucesi´on de variables aleatorias independientes con distribuci´on B(n, p). Entonces
Xn es asint´oticamente normal, con par´ametros µ = np y σ =
√
npq.
Observaci´on 7 • Como la distribuci´on binomial es discreta y la normal es continua, hay que
aplicar la correcci´on de medio punto o de continuidad, para aproximar p(X ≤ b).
• La aproximaci´on de la probabilidad p(X ≤ b) de una binomial X ; B(n, p) por la probabilidad
p(Y ≤ b+0.5) de una normal Y ; N(np,
√
npq) no es adecuada para valores b ∈ SX en las colas
de la distribuci´on binomial. En concreto, para valores fuera de un intervalo np ± 3
√
npq.
• Tampoco es, en general, adecuada la aproximaci´on para valores p < 1
n+1 ´o p > n
n+1 .
• Si p es pr´oximo a 0.5, con n > 10 la aproximaci´on es satisfactoria.
• Si 0.1 ≤ p ≤ 0.9 y n ≥ 25 la aproximaci´on es satisfactoria.
• Como consecuencia del teorema de Poisson y del teorema de De Moivre, se puede demostrar
que una distribuci´on de Poisson de par´ametro λ se puede aproximar por medio de una variable
aleatoria N(λ,
√
λ). Generalmente, esta aproximaci´on es satisfactoria si λ > 5.
8. Estad´ıstica 59
5.4 Otras distribuciones continuas.
(a) Distribuci´on gamma:
La variable aleatoria X tiene una distribuci´on gamma de par´ametros α y β(ambos positivos) si
su ley de probabilidades es:
SX = (0, ∞)
f(x) =
0 si x ≤ 0
β
Γ(α) (βx)α−1e−βx si x > 0
Su funci´on de distribuci´on viene dada por:
F(t) = 1 −
r−1
i=0
e−βx (βx)i
i!
Sus medidas principales son:
E(X) = α
β V ar(X) = α
β2 .
En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes.
En el caso particular de que α = 1, entonces la distribuci´on gamma es una exponencial de
par´ametro β.
En el caso particular de que α sea un n´umero natural, la variable X es suma de α v. a.
independientes con distribuci´on exponencial, de par´ametro β
(b) Distribuci´on de Weibull.
La variable aleatoria X tiene una distribuci´on de Weibull de par´ametros α y β (ambos positivos)
si su ley de probabilidad es:
SX = (0, ∞)
f(x) =
0 si x ≤ 0
α
βα exp − x
β
α
si x > 0
Su funci´on de distribuci´on viene dada por:
F(t) = 1 − exp −
x
β
α
Sus medidas principales son:
E(X) = βΓ 1 + 1
α V ar(X) = β2 Γ 1 + 2
α − Γ 1 + 1
α
2
En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes.