2. Tema 4
Modelos de distribuciones
4.1 Introducci´n
o
En este tema estudiaremos algunas distribuciones asociadas a variables aleatorias discretas y con-
tinuas, que puedan ajustarse a una gran diversidad de problemas y campos cient´ ıficos en los que se
pueden aplicar. Podemos establecer la siguiente clasificaci´n:
o
• Modelos de distribuciones discretas
• Modelos de distribuciones continuas
4.2 Modelos de distribuciones discretas
Para describir las variables aleatorias discretas asociadas a determinados experimentos basta con
proporcionar la distribuci´n de probabilidad; por ello vamos a estudiar las distribuciones de probabili-
o
dad m´s importantes que describan el comportamiento de muchas de las variables aleatorias discretas
a
que se encuentran en la pr´ctica y otras caracter´
a ısticas asociadas.
4.2.1 Distribuci´n Uniforme Discreta
o
Se considera la m´s simple de todas las distribuciones de probabilidad discretas, en la que la
a
variable aleatoria asociada toma cada uno de los valores con una probabilidad id´ntica.
e
Definici´n 4.1 Diremos que una variable aleatoria discreta X tiene una distribuci´n Uniforme de
o o
par´metro N, N ≥ 1, si
a
rg(X) = {1, 2, ..., N }
y la funci´n de probabilidad puede escribirse
o
1
P [X = x] = x = 1, 2, ..., N
N
4.1
3. Tema 4. Modelos de distribuciones
En tal caso se denotar´ como X ∼ U D(N )
a
Proposici´n 4.1 Sea X ∼ U D(N ) entonces
o
N +1
E [X] = ,
2
N2 − 1
V ar [X] = .
12
Ejemplo 4.1 Sea el experimento aleatorio de lanzar un dado. Definimos la variable X como la pun-
tuaci´n obtenida en dicho lanzamiento. Se tiene que
o
rg(X) = {1, 2, 3, 4, 5, 6} ,
1
P [X = x] = x ∈ rg(X).
6
Entonces X ∼ U D(6)
Esta distribuci´n tambi´n se puede definir para cualesquiera valores x1 , x2 , ..., xN . Lo que la caracte-
o e
riza es que todos los posibles valores que puede tomar la variable aleatoria tienen la misma probabilidad
de ocurrir.
Ejemplo 4.2 Se selecciona una bombilla al azar de una caja que contiene una bombilla de 40 vatios,
una de 60, una de 75 y una de 100. Cada elemento del espacio muestral tiene una probabilidad de
1/4. Por tanto tenemos una distribuci´n uniforme discreta donde:
o
rg(X) = {x1 , x2 , x3 , x4 }
x1 = “bombilla de 40 vatios”; x2 = “bombilla de 60 vatios”; x3 = “bombilla de 70 vatios”;
x4 = “bombilla de 100 vatios”
1
P [X = xi ] = , xi ∈ rg(X).
4
Entonces, X ∼ U D(x1 , x2 , x3 , x4 ).
4.2.2 Distribuci´n de Bernoulli
o
Sea un experimento con dos posibles resultados, generalmente llamados ´xito y fracaso para los
e
que P [´xito] = p y P [fracaso] = 1 − p = q. A este tipo de experimento se le denomina experimento o
e
prueba de Bernoulli. Se le puede asociar una variable aleatoria de la siguiente forma:
X : Ω → {0, 1} Fracaso → 0 ´
Exito → 1.
Por tanto, tenemos:
P [X = 1] = P [´xito] = p,
e
P [X = 0] = P [fracaso] = q.
4.2 2o Ing. Inform´tica
a
4. 4.2. Modelos de distribuciones discretas
Definici´n 4.2 Una variable aleatoria discreta X se dice que sigue una distribuci´n de Bernoulli de
o o
par´metro p, X ∼ Be(p), con p ∈ [0, 1]; si se verifica:
a
rg(X) = {0, 1}
y la funci´n de probabilidad puede escribirse como:
o
P [X = x] = px (1 − p)1−x x ∈ {0, 1} .
Proposici´n 4.2 Si X ∼ Be(p) entonces
o
E[X] = p,
V ar[X] = pq.
Como ejemplos de distribuci´n de Bernoulli podemos citar un sistema el´ctrico que funcione o no,
o e
consideramos ´xito que el sistema funcione y fracaso que no funcione. De la misma forma podemos
e
tener un conmutador en ON/OFF, un servidor con conexi´n o sin ella, un fusible defectuoso o no
o
defectuoso, etc.
´
Ejemplo 4.3 Consideramos el lanzamiento de una moneda. Definimos Exito=“Obtener cara al lanzar
la moneda” y Fracaso=“Obtener cruz al lanzar la moneda”. En tal caso la variable X tiene una
probabilidad de ´xito 1 y por tanto X ∼ Be(1/2) Calculamos la media y varianza
e 2
1
E[X] = ,
2
1
V ar[X] = .
4
4.2.3 Distribuci´n Binomial
o
Consideramos n experimentos de Bernoulli independientes e id´nticamente distribuidos y sea la
e
variable aleatoria X definida como el n´mero de ´xitos en n pruebas de Bernoulli. Diremos que X
u e
sigue una distribuci´n binomial de par´metros n y p,
o a
X ∼ B(n, p) ,
donde n es el n´mero de pruebas, p probabilidad de ´xito en una prueba.
u e
Definici´n 4.3 Se dice que una variable aleatoria discreta X sigue una distribuci´n binomial de
o o
par´metros n ∈ N y p ∈ [0, 1] si se verifica:
a
rg(X) = {0, 1, ..., n}
y la funci´n de probabilidad puede escribirse como:
o
n k (n−k)
P [X = k] = p q , k = 0, 1, . . . , n.
k
Estad´
ıstica 4.3
5. Tema 4. Modelos de distribuciones
n
Proposici´n 4.3 Si X ∼ B(n, p) podemos expresar X =
o Ii con
i=1
1 si se tiene ´xito en la prueba i
e
Ii =
0 si se tiene fracaso en la prueba i ,
es decir, como una suma de n variables aleatorias independientes e id´nticamente distribuidas (i.i.d)
e
seg´n Ii ∼ Be(p).
u
De la Proposici´n 4.3 se deducen las siguientes propiedades.
o
Proposici´n 4.4 Si X ∼ B(n, p) entonces
o
E[X] = np,
V ar[X] = npq.
Proposici´n 4.5 Dadas X ∼ B(n, p), Y ∼ B(m, p) independientes entonces X + Y ∼ B(n + m, p).
o
Como ejemplos de variables que siguen una distribuci´n binomial podemos citar: n´mero de veces
o u
que aparece el resultado “cara” al lanzar una moneda diez veces; n´mero de ´xitos en la recepci´n de
u e o
un mensaje enviado a 100 destinatarios; n´mero de ordenadores en una subred que han sido infectados
u
por un determinado virus, etc.
Ejemplo 4.4 La probabilidad de que cierta clase de componente sobreviva a una prueba de choque
dada es 3/4. Calcular la probabilidad de que sobrevivan exactamente dos de los cuatro componentes
que se prueban.
Supongamos que las pruebas realizadas son independientes y con probabilidad de ´xito p=3/4 para
e
cada una de las 4 pruebas, por tanto la variable X ∼ B(4, 3/4); tenemos que calcular
2 2
4 3 1 4! 32 27
P [X = 2] = = × 4 = = 0.2109,
2 4 4 2!2! 4 128
Podemos calcular tambi´n la media y la varianza
e
E[X] = 3,
3
V ar[X] = .
4
Nota 4.1 La distribuci´n binomial encuentra aplicaciones en muchos campos cient´
o ıficos. Dentro de la
ingenier´ es normal estudiar la proporci´n de elementos defectuosos dentro de un proceso industrial;
ıa o
las mediciones de control de calidad y los esquemas de muestreo se basan en la distribuci´n binomial.
o
´
Esta se aplica en cualquier situaci´n industrial donde el resultado es un proceso dicot´mico y los
o o
resultados del proceso son independientes y la probabilidad de ´xito es constante de una prueba a otra.
e
4.4 2o Ing. Inform´tica
a
6. 4.2. Modelos de distribuciones discretas
4.2.4 Distribuci´n Multinomial
o
En muchas aplicaciones hay m´s de dos resultados posibles. A menudo la dicotom´ “defectuoso” o
a ıa
“no defectuoso” en situaciones de ingenier´ es una simplificaci´n de la realidad, donde suele haber m´s
ıa o a
de dos categor´ que caracterizan art´
ıas ıculos o partes de una l´ ınea de producci´n. Para estas situaciones
o
el experimento binomial se convierte en experimento multinomial cuando cada prueba tiene m´s de a
dos resultados posibles. Si un experimento puede tener como consecuencia k posibles resultados
E1, E2,..., Ek con probabilidades p1, p2,..., pk , entonces la distribuci´n multinomial dar´ la probabilidad
o a
de que E1 ocurra x1 veces, E2 ocurra x2 veces,. . . , Ek ocurra xk veces en n pruebas independientes,
donde
x1 + x2 + ... + xk = n.
La funci´n de probabilidad de las variables aleatorias X1, X2,..., Xk , que representan el n´mero de
o u
ocurrencias para E1, E2,..., Ek en n pruebas independientes es
n!
P [X1 = x1 , X2 = x2 , . . . , Xk = xk ] = px1 px2 . . . pxk
x1 !x2 ! . . . xk ! 1 2 k
con
k
xi = n
i=1
y
k
pi = 1
i=1
A la variable (X1 , . . . , Xn ) se le dice que sigue una distribuci´n multinomial y se denota por
o
M(p1 , p2 , . . . , pk ; n)
Ejemplo 4.5 Los fallos de impresi´n de un libro se pueden clasificar en erratas tipogr´ficas (E), mala
o a
impresi´n (M) y hojas en blanco (H). Un editor presenta en los fallos de sus publicaciones un 80% de
o
erratas, un 15% de hojas mal impresas y s´lo un 5% de hojas en blanco. Calcular la probabilidad de
o
que de 10 fallos encontrados en un libro, 6 sean erratas y 3 carencias de impresi´n.
o
Al considerar 10 fallos, 6 corresponden a erratas, 3 a carencias de impresi´n, el fallo restante
o
corresponde a una hoja en blanco. Por lo tanto
10!
P [X1 = 6; X2 = 3; X3 = 1] = × 0.806 × 0.153 × 0.05 = 0.03716.
6!3!1!
4.2.5 Distribuci´n Hipergeom´trica
o e
La diferencia entre la distribuci´n binomial y la distribuci´n hipergeom´trica est´ en la forma en
o o e a
que se realiza el muestreo. En el caso de la binomial se requiere independencia entre las pruebas, es
decir, el muestreo se realiza con reemplazamiento. Por otro lado, la distribuci´n hipergeom´trica no
o e
requiere independencia y el muestreo se realiza sin reemplazamiento. Las aplicaciones de la distribuci´n
o
hipergeom´trica se encuentran en muchas ´reas, con gran uso en control de calidad.
e a
Consideramos un conjunto de N elementos en el que tenemos N1 elementos del tipo 1 y N − N1
elementos de tipo 2. Extraemos n sin reemplazamiento y definimos la variable aleatoria:
Estad´
ıstica 4.5
7. Tema 4. Modelos de distribuciones
X = “n´mero de elementos del tipo 1 en los n extra´
u ıdos”. El modelo de distribuci´n que sigue
o
esta variable aleatoria es una hipergeom´trica.
e
Definici´n 4.4 Se dice que una variable aleatoria discreta X sigue una distribuci´n hipergeom´trica
o o e
de par´metros N, N1 y n con n ≤ N , si se verifica:
a
rg(X) = {m´x (0, n − (N − N1 )) , ..., m´n(n, N1 )}
a ı
y la funci´n de probabilidad de X es
o
N1 N −N1
k n−k
P [X = k] = N
, k ∈ rg(X)
n
con 0 ≤ k ≤ N1 , 0 ≤ n − k ≤ N − N1 . Se denota X ∼ H(N, N1 , n).
Proposici´n 4.6 Si X ∼ H(N, N1 , n) entonces
o
N1
E[X] = n ,
N
N1 N1 N −n
V ar[X] = n 1− .
N N N −1
Ejemplo 4.6 Un fabricante de chips de silicio los empaqueta en lotes de 25. El comprador los ins-
pecciona tomando 3 chips y acepta un lote si encuentra menos de 2 chips defectuosos.
(a) Calcular la probabilidad de que el comprador acepte un lote con 6 chips defectuosos.
(b) ¿Cu´l es el n´mero esperado y la varianza de chips defectuosos en los 3 inspeccionados?
a u
(a) Se tiene un conjunto de N = 25 chips, en los que hay N1 = 6 defectuosos, y N − N1 = 19 no
defectuosos. Extraemos n = 3 sin reemplazamiento. Consideramos la variable aleatoria X = “n´mero
u
de chips defectuosos en los 3 seleccionados”,
X ∼ H(N = 25, N1 = 6, n = 3) .
La probabilidad de que el comprador acepte el lote es:
6 19 6 19
0 3 1 2
P [X < 2] = P [X = 0] + P [X = 1] = 25 + 25 = 0.8674,
3 3
6
E[X] = 3 × = 0.72 ,
25
6 19 22
V ar[X] = 3 × × × = 0.5016 .
25 25 24
Ejemplo 4.7 Se dispone de una urna con 3 bolas blancas y 7 negras. Extraemos 4 bolas al azar
y queremos contar el n´mero de bolas blancas en las 4 extracciones. Enunciar los modelos que se
u
obtendr´ al realizar el experimento con y sin reemplazamiento.
ıan
Si existe reemplazamiento, la probabilidad de extraer una bola blanca no varia en el tiempo, y por
tanto
3
X ∼ B 4, .
10
4.6 2o Ing. Inform´tica
a
8. 4.2. Modelos de distribuciones discretas
Si no se realiza reemplazamiento, las probabilidades variar´n en el tiempo ya que cambia la com-
a
posici´n de la urna y, por lo tanto,
o
X ∼ H(10, 3, 4) .
4.2.6 Distribuci´n Geom´trica
o e
Realizamos una serie de pruebas de Bernoulli independientes e id´nticamente distribuidas con la
e
misma probabilidad de ´xito, p, en cada prueba. Definimos:
e
X = “n´mero de fracasos antes de obtener el primer ´xito”. Entonces se tiene un tipo de distri-
u e
buci´n denominada geom´trica.
o e
Definici´n 4.5 Se dice que una variable aleatoria discreta X sigue una distribuci´n geom´trica de
o o e
par´metro p ∈ (0, 1] si se verifica:
a
rg(X) = {0, 1, 2, . . .}
y la funci´n de probabilidad es:
o
P [X = k] = q k p , k = 0, 1, ...., k ∈ rg(X).
Se denotar´ como X ∼ Ge(p), con 0 < p ≤ 1.
a
Comprobamos que es funci´n de probabilidad:
o
∞ ∞ ∞
k 1 1
P [X = k] = q p=p qk = p =p =1,
1−q p
k=0 k=0 k=0
pues 0 ≤ q < 1 .
Proposici´n 4.7 Si X ∼ Ge(p), entonces
o
q
E[X] = ,
p
q
V ar[X] = .
p2
Proposici´n 4.8 Si X ∼ Ge(p), entonces
o
P [X ≥ k + j|X ≥ k] = P [X ≥ j] = q j , k, j = 0, 1, 2, ... .
Se dice que la distribuci´n geom´trica carece de memoria.
o e
Ejemplo 4.8 En un proceso de fabricaci´n se puede suponer por estudios previos que la probabilidad
o
ıculo sea defectuoso es p = 0.01. Inspeccionamos art´
de que un art´ ıculos secuencialmente hasta en-
contrar uno defectuoso. Calcular la probabilidad de que el quinto art´
ıculo seleccionado sea el primero
defectuoso.
Definimos X = “n´mero de art´
u ıculos seleccionados antes de encontrar el primero defectuoso”,
X ∼ Ge(0.01).
Estad´
ıstica 4.7
9. Tema 4. Modelos de distribuciones
P [el quinto art´
ıculo seleccionado sea el primero defectuoso] = P [X = 4]
= 0.994 × 0.01 = 0.0096 .
Calculamos tambi´n la media y la varianza
e
q 0.99
E[X] = = = 99 ,
p 0.01
q 0.99
V ar[X] = = = 9900 .
p 2 (0.01)2
Nota 4.2 Algunos autores definen la distribuci´n geom´trica como Y = “n´mero de la prueba en que
o e u
obtengo el primer ´xito”. N´tese que Y = X + 1, siendo X la variable con la que hemos trabajado
e o
antes, por lo que la funci´n de probabilidad y caracter´
o ısticas se deducen de forma inmediata.
P [Y = k] = P [X = k − 1] ,
E[Y ] = E[X] + 1 ,
V ar[Y ] = V ar[X + 1] = V ar[X] .
Nota 4.3 C´mo ´rea de aplicaci´n de la distribuci´n geom´trica, podemos citar situaciones donde los
o a o o e
ingenieros intentan determinar la “eficacia” de un sistema de conmutaci´n telef´nica durante periodos
o o
ocupados. En este caso, el ´xito representa la conexi´n al sistema de conmutaci´n. La variable ser´
e o o ıa
el n´mero de intentos fracasados antes de una conexi´n al sistema (´xito).
u o e
4.2.7 Distribuci´n de Poisson
o
La distribuci´n de Poisson es una distribuci´n discreta de gran utilidad donde la variable aleatoria
o o
suele estudiar el n´mero de eventos independientes que ocurren a velocidad constante en un intervalo
u
de tiempo o espacio. El intervalo puede ser de cualquier longitud, como un minuto, un d´ una ıa,
semana. Por ejemplo, el n´mero de llamada telef´nicas por hora que llegan a una oficina, el n´mero
u o u
de mensajes que llegan a un servidor de correos durante una hora, etc.
Definici´n 4.6 Una variable aleatoria X discreta, sigue una distribuci´n de Poisson de par´metro
o o a
λ > 0, X ∼ P(λ), si:
rg(X) = {0, 1, 2, . . .}
y la funci´n de probabilidad viene dada por:
o
λk
P [X = k] = e−λ , k = 0, 1, 2, ... ,
k!
Comprobamos que es funci´n de probabilidad:
o
∞ ∞ k ∞
−λ λ λk
P [X = k] = e =e −λ
= e−λ eλ = 1 .
k! k!
k=0 k=0 k=0
4.8 2o Ing. Inform´tica
a
10. 4.2. Modelos de distribuciones discretas
Proposici´n 4.9 Si X ∼ P(λ) entonces
o
E[X] = λ,
V ar[X] = λ.
Proposici´n 4.10 Dadas X ∼ P(λ1 ) e Y ∼ P(λ2 ) independientes entonces X + Y ∼ P(λ1 + λ2 ) .
o
Corolario 4.1 Dadas X1 ∼ P(λ),..., Xn ∼ P(λ) independientes e id´nticamente distribuidas enton-
e
ces S = X1 + .. + Xn ∼ P(nλ) .
Ejemplo 4.9 El n´mero medio de camiones que llega cada d´ a la d´rsena de descarga de un puerto
u ıa a
es 10, (λ = 10). Con las instalaciones de que dispone el puerto no se pueden descargar m´s de 15
a
camiones en un d´ Calcular la probabilidad de que en un d´ determinado haya camiones que no
ıa. ıa
puedan ser descargados.
Sea X = “n´mero de camiones que llegan en un d´
u ıa”. La variable aleatoria X ∼ P(λ = 10).
P [en un d´ determinado haya camiones que no puedan ser descargados] =
ıa
P [X > 15] = 1 − P [X ≤ 15] = 1 − 0.9513 = 0.0487 .
Nota 4.4 La distribuci´n de Poisson se utiliza a menudo para aproximar las probabilidades de una
o
B(n, p), cuando n es grande y p peque˜o, aproxim´ndose por una P(λ = np). En la pr´ctica, la
n a a
aproximaci´n es buena cuando p < 0.1 y np ≤ 5
o
En la siguiente tabla representamos en la segunda columna la P [X = x] para una distribuci´no
Binomial con par´metros n = 40 y p = 0.05, la tercera columna corresponde a la probabilidad para la
a
distribuci´n de Poisson con par´metro λ = 40 × 0.05 = 2.
o a
x B(n = 40, p = 0.05) P (λ = 2)
0 0.1285 0.1353
1 0.2706 0.2707
2 0.2777 0.2707
3 0.1851 0.1804
4 0.0901 0.0902
5 0.0342 0.0361
6 0.0105 0.0120
Tabla 4.1: Aproximaci´n de la binomial por la Poisson
o
Ejemplo 4.10 En un proceso de fabricaci´n de productos de vidrio se producen rara vez burbujas que
o
dejan al producto defectuoso para su venta. Se ha observado que uno de cada 1000 art´ ıculos que se
producen tienen burbujas, es decir, la probabilidad de que un producto sea defectuoso podemos suponer
que es p = 0.001 ). ¿Cu´l es la probabilidad de que en un lote de 8000 art´
a ıculos haya menos de 4
defectuosos?
Sea X =“ n´mero de art´
u ıculos defectuosos en 8000”.
Estad´
ıstica 4.9
11. Tema 4. Modelos de distribuciones
Podemos suponer
X ∼ B(n = 8000, p = 0.001) .
Puesto que n es muy grande y p est´ muy pr´ximo a cero podemos aproximar B(n, p) ≈ P (λ = np),
a o
es decir,
X ∼ P (λ = n × p = 8)
3
P [haya menos de 4 defectuosos] = P [X < 4] = k=0 P [X = k] = 0.0424.
4.3 Modelos de distribuciones continuas
En esta parte del tema se estudiar´n algunas de las distribuciones m´s comunes, que se pueden
a a
aplicar a una gran diversidad de situaciones en los que se estudian problemas de naturaleza continua.
Para describir este tipo de variables aleatorias basta proporcionar la funci´n de densidad.
o
4.3.1 Distribuci´n Uniforme
o
Definici´n 4.7 Se dice que una variable aleatoria continua X sigue una distribuci´n uniforme en el
o o
intervalo (a,b), si su funci´n de densidad est´ definida como
o a
1
b−a si a < x < b
f (x) =
0 c.c.
Se denota por X ∼ U (a, b)
Proposici´n 4.11 Si X ∼ U (a, b) entonces
o
a+b
E [X] = ,
2
(b − a)2
V ar[X] = .
12
.
Ejemplo 4.11 El volumen de ventas de un almac´n se distribuye uniformemente entre 38 y 120 miles
e
de euros. Calcular
(a) La probabilidad de que las ventas sean superiores a 100000 euros.
(b) La esperanza matem´tica y varianza de las ventas
a
Sea X= “Volumen de ventas del almac´n en miles de euros” ∼ U (38, 120).
e
(a) La funci´n de densidad de esta variable
o
1 1
f (x) = = si 38 < x < 120
120 − 38 82
Por tanto, como la variable est´ definida en miles de euros
a
4.10 2o Ing. Inform´tica
a
12. 4.3. Modelos de distribuciones continuas
+∞ 120
1 1 20
P [X > 100] = f (x)dx = dx = [x]120 =
100 = 0.2439
100 100 82 82 82
(b)
a+b 38 + 120
E[X] = = = 79
2 2
.
(b − a)2 (120 − 38)2
V ar[X] = = = 560.333
12 12
4.3.2 Distribuci´n Exponencial
o
Definici´n 4.8 Se dice que la variable aleatoria continua X sigue una distribuci´n exponencial de
o o
par´metro λ, con λ > 0 si su funci´n de densidad es
a o
λe−λx si x > 0
f (x) =
0 c.c.
Se denota por X ∼ Exp(λ)
Proposici´n 4.12 Si X ∼ Exp(λ) entonces
o
1
E[X] = ,
λ
1
V ar[X] = .
λ2
Como ejemplos de una distribuci´n exponencial podemos citar el tiempo que tarda en fallar un
o
sistema electr´nico, tiempo transcurrido entre la llegada de dos mensajes de correos consecutivos, etc.
o
Proposici´n 4.13 Si X ∼ Exp(λ) entonces
o
1 − e−λx , si x > 0
F (x) =
0 c.c.
P [X > x] = e−λx , x > 0.
Proposici´n 4.14 Si X ∼ Exp(λ) entonces
o
P [X ≥ x + t|X ≥ t] = P [X ≥ x] = e−λx , x, t > 0.
Se dice que la distribuci´n exponencial no tiene memoria. Por ello, esta distribuci´n se suele
o o
utilizar cuando medimos el tiempo de vida restante de poblaciones que no envejecen con el tiempo.
Estad´
ıstica 4.11
13. Tema 4. Modelos de distribuciones
Ejemplo 4.12 Se ha comprobado que la duraci´n de vida de cierto tipo de circuitos sigue una distri-
o
buci´n exponencial con media 8 a˜os. Calcular:
o n
(a) La probabilidad de que un circuito tenga una vida entre 3 y 12 a˜os.
n
(b) La probabilidad de que un circuito que ha vivido m´s de 10 a˜os, viva 15 a˜os m´s.
a n n a
(a) Sea X=“Tiempo de vida de los circuitos”, como la media de la variable aleatoria es 8,
X ∼ Exp(λ = 1 ), por tanto la funci´n de densidad
8 o
1 t
f (t) = e− 8 , t>0
8
donde t va medido en a˜os. Entonces:
n
12
1 −t t 12
P [3 < X < 12] = e 8 dt = −e− 8 = 0.69 − 0.22 = 0.46
3 8 3
(b) Utilizando la Proposici´n 1.14:
o
P [X > 25]
P [X > 25|X > 10] = = e−λ15
P [X > 10]
Por tanto
P [X > 25|X > 10] = P [X > 15]
Luego podemos afirmar que la variable aleatoria X no tiene memoria.
4.3.3 Distribuci´n Normal
o
Es la m´s importante de las distribuciones continuas ya que permite describir un n´mero muy
a u
grande de fen´menos aleatorios, como por ejemplo aquellos en los que intervienen un n´mero elevado
o u
de factores no controlables, que act´an de manera independiente y con efectos peque˜os.
u n
Definici´n 4.9 Se dice que una variable aleatoria X sigue una distribuci´n normal de par´metros
o o a
µ ∈ R y σ 2 > 0, si su funci´n de densidad es
o
1 (x − µ)2
f (x) = √ exp − , x ∈ R,
2πσ 2σ 2
se denota por X ∼ N (µ, σ 2 )
Proposici´n 4.15 Si X ∼ N (µ, σ 2 ) entonces
o
E[X] = µ,
V ar[X] = σ 2 .
La gr´fica de la funci´n de densidad, se denomina curva normal (o campana de Gauss), es una
a o
curva con forma de campana, la cual describe aproximadamente muchos fen´menos que se utilizan en
o
4.12 2o Ing. Inform´tica
a
14. 4.3. Modelos de distribuciones continuas
la vida cotidiana. Por ejemplo, las mediciones f´ısicas en ´reas como los experimentos metereol´gicos,
a o
estudios de lluvia, errores en las mediciones cient´
ıficas, etc.
A continuaci´n se muestra la gr´fica de la funci´n de densidad para una distribuci´n normal con
o a o o
media 0 y desviaci´n t´
o ıpica igual a 1.
Gr´ficamente se observa que presenta un m´ximo en µ, tiene puntos de inflexi´n en µ − σ y µ + σ
a a o
y es sim´trica respecto a µ. Se aproxima al eje horizontal de manera asint´tica conforme nos alejamos
e o
de la media en cualquier direcci´n. El ´rea total entre la curva y el eje horizontal es igual a 1.
o a
Proposici´n 4.16
o
(a)Si X ∼ N (µ, σ 2 ) entonces aX + b ∼ N (aµ + b, a2 σ 2 ) con a, b ∈ R, a = 0.
X−µ
(b) En particular, si X ∼ N (µ, σ 2 ) entonces Z = σ ∼ N (0, 1)
Por tanto, la funci´n de distribuci´n de cualquier N (µ, σ 2 ) se puede calcular utilizando la distri-
o o
buci´n N (0, 1) de la siguiente forma
o
X −µ x−µ x−µ
P [X ≤ x] = P ≤ =P Z≤
σ σ σ
X−µ
donde Z = σ es la normal tipificada. Generalmente, se denota Φ(z) = P [Z ≤ z].
Esta propiedad permite emplear las tablas de la N (0, 1) para obtener la funci´n de distribuci´n de
o o
cualquier distribuci´n normal.
o
Proposici´n 4.17 Sea Z ∼ N (0, 1) con funci´n de distribuci´n Φ. Si X ∼ N (µ, σ 2 ) entonces
o o o
(a)
x−µ
P [X ≤ x] = Φ
σ
(b)
b−µ a−µ
P [a < X < b] = Φ −Φ
σ σ
Estad´
ıstica 4.13
15. Tema 4. Modelos de distribuciones
Teorema 4.1 Sea Z ∼ N (0, 1) con funci´n de distribuci´n Φ. Entonces Φ(−z) = 1−Φ(z),
o o z∈R
2 2
Teorema 4.2 Sean X ∼ N (µ1 , σ1 ) e Y ∼ N (µ2 , σ2 ) independientes. Entonces
(a)
2 2
X + Y ∼ N (µ1 + µ2 , σ1 + σ2 )
(b)
2 2
X − Y ∼ N (µ1 − µ2 , σ1 + σ2 )
Corolario 4.2 Dadas X1,..., Xn variables aleatorias independientes e id´nticamente distribuidas seg´n
e u
N (µ, σ 2 ) entonces
n
i=1 Xi ∼ N (nµ, nσ 2 ).
Ejemplo 4.13 Dada una distribuci´n normal con µ = 50 y σ = 10, calcular la probabilidad de que X
o
tome una valor entre 45 y 62.
45 − 50 62 − 50
P [45 < X < 62] = P <Z< = P [−0.5 < Z < 1.2]
10 10
= Φ(1.2) − Φ(−0.5)
= 0.8849 − 0.3085 = 0.5764
Ejemplo 4.14 Sea una distribuci´n normal con µ = 300 y σ = 50, obtener la probabilidad de que X
o
tome un valor mayor que 362.
362 − 300
P [X > 362] = P Z > = P [Z > 1.24] = 1 − Φ(1.24) = 1 − 0.8925 = 0.1075
50
La distribuci´n normal encuentra una gran aplicaci´n como distribuci´n l´
o o o ımite, es decir, bajo cier-
tas condiciones la distribuci´n normal proporciona una buena aproximaci´n continua a otras distribu-
o o
ciones. Puede utilizarse para aproximar probabilidades de variables binomiales cuando n es grande,
y p no est´ muy cercano a cero o uno, en general esta aproximaci´n se utiliza para np > 5. Entonces
e o
aproximamos por una N (µ = np, σ 2 = npq). La distribuci´n normal tambi´n puede aproximar a la
o e
distribuci´n de Poisson, P(λ), cuando λ es elevado, considerando N (µ = λ, σ 2 = λ).
o
4.14 2o Ing. Inform´tica
a
16. 4.4. Ap´ndice: Correcci´n de continuidad
e o
4.3.4 Otras Distribuciones
Existen otras distribuciones que aunque no vamos a desarrollar en el tema pueden tener cierto
inter´s por su utilidad dentro de algunas ´reas de la ingenier´ como el control de calidad y fiabilidad
e a ıa
de procesos. La distribuci´n gamma es una generalizaci´n de la distribuci´n exponencial y representa
o o o
el tiempo transcurrido hasta que cierto suceso aparece k veces. Por tanto la distribuci´n gammao
se puede expresar como suma de exponenciales. La distribuci´n gamma no tiene en cuenta que el
o
envejecimiento de un sistema, incrementa su probabilidad de “fallo”. Para incluir esta condici´n eno
el modelo probabil´ ıstico resulta util emplear la distribuci´n de Weibull. Esta distribuci´n se emplea a
´ o o
menudo en ingenier´ ya que, seleccionado los valores adecuados para los par´metros asociados a esta
ıa a
distribuci´n, se puede caracterizar la fiabilidad de un gran n´mero de sistemas.
o u
4.4 Ap´ndice: Correcci´n de continuidad
e o
Cuando aproximamos una distribuci´n discreta (binomial o Poisson) por una distribuci´n normal
o o
es aconsejable realizar una correcci´n por continuidad. Sabemos que en una variable aleatoria discreta
o
la P [X = x] > 0, x ∈ rg(X), en cambio, cuando la variable es continua la P [X = x] = 0. Por ello
al aproximar una variable aleatoria discreta por una continua debemos evitar los problemas en los
puntos, considerando intervalos de la siguiente forma:
P [X = a] ≈ P [a − 1/2 < X ≤ a + 1/2]
A continuaci´n se detalla un ejemplo donde incluimos la correcci´n de continuidad:
o o
Ejemplo 4.15 Unos grandes almacenes estiman que el 60% de sus clientes paga con dinero en efec-
tivo, y el resto recurre a otros medios. Calcular la probabilidad de que de 30 clientes exactamente 20
paguen en efectivo.
Sea X=“N´mero de clientes que pagan en efectivo entre 30 clientes”, por tanto la variable aleatoria
u
X sigue una distribuci´n binomial que la vamos a aproximar a una distribuci´n normal, es decir,
o o
X ∼ B(30, 0.6) ≃ N (18, 7.2).
Tenemos que calcular la P [X = 20], como hemos pasado de una distribuci´n discreta a una
o
continua aplicamos la correcci´n de continuidad, luego
o
P [X = 20] = P [19.5 < X ≤ 20.5] = P [X ≤ 20.5] − P [X ≤ 19.5] =
20.5 − 18 19.5 − 18
=Φ −Φ = 0.115.
2.68 2.68
Estad´
ıstica 4.15