SlideShare una empresa de Scribd logo
1 de 70
Descargar para leer sin conexión
143
3
3 Tercera
Unidad Didáctica
"DISTRIBUCIONES DE PROBABILIDAD
DISCRETAS"
3.1 Parte básica
144
3.1.1 Variables aleatorias
En cualquier experimento aleatorio tenemos resultados cualitativos o
cuantitativos. Con el objeto de facilitar el estudio matemático, a cada uno de estos
resultados le hacemos corresponder un número real.
Por ejemplo, el resultado de tomar un español al azar y medir su estatura es un
número; el resultado de tomar una familia al azar y anotar el número de hijos es un
número; el resultado de aplicar un tratamiento a un enfermo y observar si se cura o no,
es un dato cualitativo, que puede convertirse en cuantitativo asignando un "1" al
enfermo que se cura y un "0" al enfermo que no se cura.
En realidad lo que estamos haciendo es asignar a cada suceso del espacio muestral
un número, pero esta asignación no tiene por qué ser única.
Pongamos un ejemplo: lanzamos dos dados al aire y a cada suceso elemental le
podemos asignar la suma, el producto, etc., de los números que aparecen en las caras
superiores.
Al igual que los resultados de un fenómeno aleatorio no son predecibles, los
resultados de una variable aleatoria tampoco lo son, pero podemos calcular la
probabilidad de que ocurra un determinado suceso.
A veces puede ocurrir que los valores que toma la variable aleatoria son los
mismos, pero no ocurre lo mismo con las probabilidades. Pongamos un ejemplo.
Se dispone de dos fármacos A y B distintos para curar una misma enfermedad; los
resultados de la variable aleatoria solamente pueden ser 1 ó 0 y uno de ellos puede
curar el 20% de los casos y el otro el 70%.
Para tener identificada una variable aleatoria no basta con indicar los valores que
pueda tomar, hay que indicar también sus probabilidades.
Una variable aleatoria X es toda función que toma diversos valores
numéricos (dependientes del resultado de un fenómeno aleatorio) con
distintas probabilidades.
145
Cuando la variable aleatoria toma un número finito o infinito numerable* de
valores, diremos que es una "variable aleatoria discreta".
Veamos ejemplos:
En el caso del lanzamiento de un dado perfecto, la variable aleatoria X= "número
que sale en la cara superior" puede tomar los valores X={1, 2, 3, 4, 5, 6} con
probabilidades P(X)={1/6, 1/6, 1/6, 1/6, 1/6, 1/6}.
Si consideramos la variable aleatoria X= "número de varones en una familia de
dos hijos", X={0, 1, 2} y P(X)={1/4, 1/2, 1/4}.
(Observar el espacio muestral del experimento aleatorio).
En general diremos, que una variable aleatoria discreta estará identificada si
conocemos sus posibles valores X = {x1,x2 ,...,xn} y sus respectivas
probabilidades P(X = xi ) = Pi
Observemos que la suma de las probabilidades es 1: Pi
i
! = 1
A toda regla que permita asociar a cada valor xi de la variable aleatoria su
probabilidad Pi, la llamaremos "función de probabilidad".
Tal función de probabilidad puede venir dada por una tabla:
X 0 1 2
P(X) 1/4 1/2 1/4
o bien por una fórmula matemática.
También podemos definir la variable aleatoria a través de la "función de
distribución".
F(X) = P(X ! x)
* Un conjunto infinito A se dice que es numerable si se puede establecer una aplicación
biyectiva f entre el conjunto de los naturales y A.
146
F(X) no es más que la probabilidad de que la variable X tome valores menores o
iguales que x.
En el ejemplo anterior:
F(0) = P(X ! 0) = P(X = 0)
F(1) = P(X !1) = P(X = 0) + P(X = 1)
F(2) = P(X ! 2) = P(X = 0) + P(X = 1) + P(X = 2)
De un modo general, a toda tabla, gráfica o expresión matemática que
indique los valores que puede tomar una variable aleatoria y las
probabilidades con que los toma, se llamará "distribución de probabilidad
de dicha variable aleatoria".
El concepto de variable aleatoria proporciona un medio para relacionar cualquier
resultado con una medida cuantitativa.
3.1.2 Esperanza, varianza y desviación
típica de una variable aleatoria
Se llama esperanza de la variable aleatoria discreta X, al número:
E X
[ ] = x1p1 + x2p2 +...+xnpn
x1, x2 ,. .., xn son los valores de la variable aleatoria y p1, p2, ..., pn las
probabilidades respectivas.
La esperanza de una variable aleatoria X también se representa por µ, y se llama
media de la distribución. Por tanto, "esperanza de la variable aleatoria" y "media de la
distribución" son expresiones equivalentes.
µ = pixi
i=1
n
! = E X
[ ]
El conocimiento de la media de la distribución no es suficiente para caracterizar la
distribución, ya que hay distribuciones con la misma media y distintas unas de otras.
147
Para medir la dispersión de los valores de una variable aleatoria X respecto de su
media µ, se define el siguiente estadístico llamado varianza:
V X
[ ] = E x ! µ
( )2
[ ]
Es decir:
V X
[ ] = x1 ! µ
( )2
p1 + x2 ! µ
( )2
p2 +...+ xn ! µ
( )2
pn
Puesto que la varianza no podría medirse en las mismas unidades que la variable,
utilizamos la raíz cuadrada de la varianza y a este número la llamamos desviación
típica.
Desv X
[ ]= V X
[ ]
Desv X
[ ]= x1 ! µ
( )2
p1 + x2 ! µ
( )2
p2 +...+ xn ! µ
( )2
pn
EJEMPLO 3.1:
Calcular la media y la varianza del número de hijos varones de una familia con dos
hijos.
Solución:
E={VV, VH, HV, HH}
X={0, 1, 2}= "número de hijos varones de una familia con dos hijos"
P1 = P(X = 0) = 1/ 4
P2 = P(X =1) = 2 / 4 =1 / 2
P3 = P(X = 2) = 1/ 4
!
"
#
$
#
1 / 4 +1 / 2 + 1/ 4 =1
En promedio, una familia con dos hijos tiene un hijo varón con una varianza de
1/2.
148
EJEMPLO 3.2:
Tras una intervención quirúrgica de un tipo determinado, el equipo médico
mantuvo en el hospital a unos pacientes cinco días y a otros ocho. De éstos últimos no
regresó ninguno al hospital y el coste de cada uno ascendió a 90.000 pts., mientras que
de los dados de alta a los cinco días, las dos terceras partes no regresaron al hospital y el
coste por cada individuo fue de 50.000 pts. El otro tercio restante tuvo que regresar al
hospital ocasionando unos gastos totales por individuo de 150.000 pts.
En términos puramente económicos, ¿es preferible dar de alta a los enfermos a los
cinco o a los ocho días?.
Solución:
Se trata de calcular el coste promedio en ambos casos. En el supuesto de que los
pacientes estén ingresados 8 días, el coste promedio es de 90.000 pts., y en el supuesto
de que los pacientes estén 5 días, la variable aleatoria se distribuye de la siguiente
forma:
X 50.000 150.000
P(X) 2/3 1/3
El coste promedio en este caso será:
E[X] = 50.000
2
3
+150.000
1
3
= 83.330pts.
Puesto que 83.333 < 90.000, esto indica que es preferible, desde el punto de vista
económico, tener ingresados a los pacientes cinco días.
La varianza la calculamos de la siguiente forma:
V[X] = (50.000 ! 83.000)
2 2
3
+ (150.000 ! 83.330)
2 1
3
= 2, 2 10
9
149
3.1.3 Distribución Binomial
Hay muchas situaciones en las que sólo interesa conocer si un determinado suceso
se produce o no se produce.
Si el suceso ocurre, diremos que hemos obtenido un éxito y lo simbolizamos por E
y si no ocurre diremos que hemos obtenido un fracaso y lo simbolizamos por F.
La probabilidad de éxito la llamamos p
La probabilidad de fracaso la llamamos q
Lógicamente p+q=1
Se trata de un experimento aleatorio que no tiene más que dos resultados posibles
E y F tales que P(E)=p y P(F)=q
Es interesante el caso en el que se repitan pruebas independientes del mismo
experimento y la probabilidad de éxito se mantenga constante en todas ellas.
Supongamos que el número de pruebas es cinco (n=5). Un posible resultado sería:
EFFEE
Si queremos calcular la probabilidad, teniendo en cuenta que las pruebas son
independientes:
P(EFFEE) = P(E) P(F) P(F) P(E) P(E) = p q q p p = p3 q2
Responden a este modelo experimentos como los siguientes:
- Lanzar una moneda varias veces considerando éxito la obtención de cara.
Entonces p=q=1/2
- Lanzar un dado varias veces, considerando éxito que salga el 6 y fracaso que no
salga el 6. En este caso p=1/6 y q=5/6.
150
- La clasificación de las piezas fabricadas por una máquina, considerando éxito las
piezas aceptables y fracaso las piezas defectuosas. En este caso p y q se asignan
haciendo un estudio de gran número de piezas.
Diremos que un experimento sigue un modelo binomial si, en cada
ejecución, sólo hay dos posibles resultados (E y F), las pruebas son
independientes y la probabilidad de éxito es constante.
La idea es la de construir un modelo de asignación de probabilidades de estas
características.
Llamaremos variable aleatoria binomial a:
X = "número de éxitos en n pruebas"
Se pueden asignar probabilidades mediante un diagrama en árbol:
F
E
F
E
E
E
E
E
F
F
F
F
E
F
p
q
p
q
p
q
p
q
p
q
p
q
p
q
EEE
F
E E
EEF
F
E F
EE
F
E
F F
E
F F
F F F
p3
p2q
p2q
pq2
p2q
pq2
pq2
q3
COMIENZO 1ª PRUEBA 2ª PRUEBA 3ª PRUEBA RESUL. PROB.
151
Construir el árbol puede ser una tarea larga y conviene buscar una fórmula general
para un experimento binomial.
Convengamos en identificar todos aquellos resultados que tienen el mismo
número de éxitos. Tras n pruebas nos encontraríamos con:
EE...E! "
! pn
EE...EF ! "
! npn#1q
EE...EFF! "
! n n #1
( )pn#2
q2
.............................................
EF...F ! "
! npqn#1
FF... F! "
! qn
Las distintas probabilidades son los sumandos del desarrollo del binomio (p+q)n,
por lo que:
P X = r
( ) =
n
r
!
"
# $
%
pr
qn& r
Convenimos en designar al experimento binomial con n pruebas, siendo p la
probabilidad de éxito, como B(n,p).
EJEMPLO 3.3:
Se lanza un dado 7 veces. Calcular la probabilidad de obtener 3 seises.
p = P(E) = 1/6 n=7
q = P(F) =5/6 K=3
Solución:
X = "número de seises que aparecen al lanzar un dado 7 veces".
P(X = 3) =
7
3
!
"
# $
%
1
6
!
"
$
%
3 5
6
!
"
$
%
4
= 0' 08
152
EJEMPLO 3.4:
Calcular la probabilidad de obtener al menos una cara, al lanzar una moneda
cinco veces.
Solución:
X = "número de caras que se obtienen al lanzar una moneda cinco veces"
P(x>1) = P(x=2)+P(x=3)+P(x=4)+P(x=5)
Utilizando el suceso contrario:
P(x>1) = 1-P(x≤1) = 1-(P(x=0)+P(x=1)) =
= 1 - 1/2 1/2 1/2 1/2 1/2 - 1/2 1/2 1/2 1/2 1/2
EJEMPLO 3.5:
Supongamos que en un departamento de control de calidad se examinan lotes de
cuatro artículos y se sabe que la probabilidad de que un artículo sea defectuoso es
P(D)=1/10 (por lo que la probabilidad de que sea aceptable es P(A)=1-P(D)=9/10).
Definimos la variable aleatoria de manera que a cada elemento del espacio
muestral, le asociamos el número de piezas defectuosas. x={0,1,2,3,4}. Calcular la
probabilidad asociada a cada valor de la variable.
Solución:
Calculamos sus probabilidades:
P(x = 0) =
9
4
!
"
#
$
4
= 0, 6561
P(x =1) =
1
10
9
10
!
"
#
$
3 4
1
!
"
% #
$
= 0, 2961
Incluimos el número combinatorio
4
1
!
"
# $
%
porque se pueden dar cuatro
posibilidades.
DAAA, ADAA, AADA, AAAD
153
P(x = 2) =
1
10
!
"
#
$
2
9
10
!
"
#
$
2 4
2
!
"
% #
$
= 0, 0486
P(x = 3) =
1
10
!
"
#
$
3 9
10
4
3
!
"
% #
$
= 0, 0036
P(x = 4) =
1
10
!
"
#
$
4
= 0, 0001
EJEMPLO 3.6:
Hallar las probabilidades del experimento binomial B(4,1/3).
Solución:
P(x = 0) =
4
0
!
"
# $
%
1
3
!
"
$
%
0
2
3
!
"
$
%
4
= 0,1975
P(x =1) =
4
1
!
"
# $
%
1
3
!
"
$
%
1
2
3
!
"
$
%
3
= 0, 3951
P(x = 2) =
4
2
!
"
# $
%
1
3
!
"
$
%
2
2
3
!
"
$
%
2
= 0, 2963
P(x = 3) =
4
3
!
"
# $
%
1
3
!
"
$
%
3
2
3
= 0, 0988
P(x = 4) =
4
4
!
"
# $
%
1
3
!
"
$
%
4
= 0, 0123
EJEMPLO 3.7:
En una empresa de fabricación de automóviles se ha observado que el 2%
presenta algún defecto. Calcular la probabilidad de que en una muestra aleatoria de 5
automóviles se encuentren a lo sumo dos defectuosos.
Solución:
La variable X = "número de automóviles defectuosos", sigue una B(50,0'02).
P X ! 2
( ) = P X = 0
( )+ P X =1
( )+ P X = 2
( ) =
50
0
"
#
$ %
&
0, 02
( )0
0, 98
( )50
+
50
1
"
#
$ %
&
0, 02
( ) 0, 98
( )49
+
50
2
"
#
$ %
&
0, 02
( )2
0, 98
( )48
154
P(X ! 2) = 0' 9216
A medida que aumenta el valor de n se complican los cálculos y es conveniente
utilizar tablas.
3.1.3.1 Manejo de tablas
Las tablas están elaboradas con la siguiente estructura (figura 3.1):
n r p 0.01 0.05 ... 0.50
2 0
1
2
3 0
1
2
3
... ... ... ... ... ...
10 0
1
...
10
Figura 3.1: Estructura de la tabla de la Distribución Binomial
Si estamos en una B(5,0'45), buscaremos el 5 en la columna de n y si nos piden
P(X=4), dentro del grupo n=5, buscamos r=4. En la fila de p buscamos 0'45 y en la
confluencia de la horizontal y la vertical, tendremos el valor de la probabilidad.
Podemos encontrarnos con un problema en el caso de ser p>0'5, pues no puede
emplearse la tabla directamente, sino que tendremos que tener en cuenta la siguiente
propiedad:
P X = r
( ) =
n
r
!
"
# $
%
pr
qn& r
=
n
n & r
!
"
# $
%
pn& r
qr
Función de densidad de una variable aleatoria que siga una B(n,p) con n-r
éxitos.
P(X=r) en una B(n,p) = P(X=n-r) en una B(n,q)
155
3.1.3.2 Media y desviación típica de una variable
Binomial
MEDIA:
µ = E x
[ ]= x0p0 + x1p1+...+xnpn =
= 0
n
0
!
"
# $
%
qn
+ 1
n
1
!
"
# $
%
pqn&1
+...+n
n
n
!
"
# $
%
pn
= np
VARIANZA:
!2
= V x
[ ]= x " µ
( )2
i=1
n
# pi = npq
DESVIACIÓN TÍPICA:
! = npq
EJEMPLO 3.8:
Supongamos que tenemos cinco instrumentos y que sabemos que en promedio un
determinado instrumento está averiado uno de cada diez días. ¿Cuál es la probabilidad
de que en un día más de tres instrumentos estén averiados?. ¿Cuál es el número
esperado de instrumentos averiados al día?.
Solución:
Nuestra variable será:
X = "número de instrumento averiados en un día"
Sólo hay dos posibles sucesos:
E: Estar averiado
F: No estar averiado.
X ~ B(n=5, p=0'1)
La función de densidad será:
156
P x = r
( ) =
5
r
!
"
# $
%
pr
q5&r
=
5
r
!
"
# $
%
0,1r
0, 95& r
P x > 3
( )= P x = 4
( )+ P x = 5
( ) = 4
=
5
4
!
"
# $
%
p4
q +
5
5
!
"
# $
%
0,15
0, 90
= 4, 6 10&4
E x
[ ] = np = 5 0,1 = 0, 5
Se avería un instrumento cada dos días.
EJEMPLO 3.9:
La probabilidad de que un estudiante obtenga el título de Licenciado en Biología
es 0'3. Hallar la probabilidad de que de un grupo de 7 estudiantes matriculados en
primer curso:
a) Ninguno de los siete finalice la carrera.
b) La finalicen todos.
c) Al menos dos acaben la carrera.
Asimismo, hallar la media y la desviación típica del número de alumnos que
acaban la carrera.
Solución:
Los sucesos son:
E(éxito): acabar la carrera P(E) = p = 0'3
F(fracaso): no acabar la carrera P(F) = q = 0'7
El número de pruebas es siete n = 7
Las pruebas son independientes, porque lo que ocurra con un alumno no tiene
nada que ver con lo que le ocurra a otro.
a)
P X = r
( ) =
n
r
!
"
# $
%
pr
qn& r
157
P(x = 0) =
n
0
!
"
# $
%
p0
qn
=
7
0
!
"
# $
%
q7
= 0, 77
= 0, 0824
b)
P(x = 7) =
7
7
!
"
# $
%
0, 3
7
q
0
= 0, 0002 Imposible
c)
P X ! 2
( ) = P X = 2
( )+ P X = 3
( )+...+P X = 7
( )=
1 " P(X # 1) =1 " P(r = 0) + P(r =1)
( )=
= 1 " 0, 0824 " 0, 2471 = 0, 6705
Parámetros:
E x
[ ] = np = 7 0, 3 = 2,1
V x
[ ] = npq = 2, 1 0, 7 =1, 47
! = 1, 47
EJEMPLO 3.10:
En recientes estudios realizados sobre pacientes portadores de SIDA, se ha
podido determinar que el 70% consume algún tipo de droga. En la sala de espera de
una consulta especializada en esta enfermedad se encuentran en un determinado
momento seis personas. ¿Cuál es la probabilidad de que ninguno haya consumido
droga?.
Solución:
E: "No consumir droga" P(E) = 0'3 = p
F: "Consumir droga" P(F) = 0'7 = q
Cada paciente es un caso distinto n=6
P x = 0
( )=
6
0
!
"
# $
%
p0
q6
= 0, 1176
EJEMPLO 3.11:
Una población de 20 animales insectívoros se introduce en una zona donde el
14% de los insectos que le sirven de alimento son venenosos. Cada animal devora al
día 5 insectos.
Calcular la probabilidad de que al cabo de una semana queden, como mínimo, la
mitad.
158
Solución:
Suponiendo independencia se tiene:
P(no comer insecto venenoso) = 1-0'14 = 0'86
P(un animal no se envenene en un día) = P(comer 5 insectos no venenosos) =
= (0'86)5 = 0'47042
P(un animal no se envenene en 7 días) = (0,47042)7=0,005
P(un animal se envenene en 7 días) = 1-0'005 = 0'995
Sea X: "número de animales envenenados en una semana.
X ~ B(20,0'995)
P x !10
( ) =
20
k
"
#
$ %
&
k=0
10
' 0, 995
k
0, 005
10( k
= 2, 08975 10
(18
3.1.4 Distribución de Poisson
En este caso la variable aleatoria representa el número de sucesos independientes
que ocurren, a una velocidad constante, en el tiempo o en el espacio.
Su nombre lo debe al francés Simeón Denis Poisson, que fue el primero en
describirla en el Siglo XIX.
Veamos algunos ejemplos típicos de esta distribución:
• El número de personas que llega a una tienda de autoservicio en un
tiempo determinado.
• El número de solicitudes de seguro procesadas por una compañía en
un período específico.
• El número de bacterias en un cultivo.
La distribución de Poisson es el modelo de probabilidad que más se utiliza para
analizar problemas de listas de espera.
Podemos hablar de las siguientes características de una distribución de Poisson:
159
1- Debemos tener un fenómeno dicotómico (ocurrencia o no de un
determinado suceso).
2- Las pruebas que se realicen han de ser independientes y la
probabilidad de éxito se ha de mantener constante en todas ellas.
3- Los sucesos han de ser poco comunes, por eso se le conoce como
"Ley de los sucesos raros".
4- Puesto que la probabilidad de éxito ha de ser pequeña, entendemos
que p<0.05 y puesto que n ha de ser grande, entendemos n>100.
5- Los sucesos ocurren en un intervalo de tiempo.
6- Se caracteriza por un parámetro ! , que es el número medio de
ocurrencia del suceso aleatorio por unidad de tiempo.
7- Siempre que la media y la varianza sean similares, podemos pensar
en un modelo de Poisson.
Media: E x
[ ] = np = !
Varianza: V x
[ ] = ! = E x
[ ]
Es importante el hecho de que una distribución binomial en la que n es grande y
p pequeño tiene una aproximación excelente con la distribución de Poisson. La función
de probabilidad será el límite de la función de densidad de la binomial cuando
n ! ", p ! 0 y np ! "
lim
n!"
p!0
np!#
n
r
$
%
& '
(
p
r
q
n)r
= lim
n!"
p!0
n
r
$
%
& '
(
lim
p!0
p
r
lim
n!"
q
n)r
Teniendo en cuenta que p =
!
n
160
lim
n!"
n!
r!(n # r)!
$
n
%
&
'
(
r
lim
n!"
1 #
$
n
%
&
'
(
n#r
=
= lim
n!"
n(n #1)...(n # r +1)
r!
$r
n
r lim
n!"
1 #
$
n
%
&
'
(
n
1 #
$
n
%
&
'
(
r
=
$
r
r!
lim
n!"
n(n # 1)...(n # r + 1)
nr
lim
n!"
1 #
$
n
%
&
'
(
n
lim
n!"
1 #
$
n
%
&
'
(
r
[1]
Calculamos cada uno de estos límites:
lim
n!"
n
n
n # 1
n
...
n # r +1
n
! 1
lim
n!"
1 #
$
n
%
&
'
(
n
! lim
n!"
1 +
1
n
#$
%
&
)
)
'
(
*
*
#
n
$
+
,
-
-
-
.
/
0
0
0
#$
! e#$
lim
n!"
1 #
$
n
%
&
'
(
r
!1
Sustituyendo en [1] tenemos:
P(!) =
!r
r!
e
" !
Es la función de densidad de la distribución de Poisson.
EJEMPLO 3.12:
Un comprador de grandes cantidades de circuitos integrados ha adoptado un
plan para aceptar un envío de éstos, que consiste en inspeccionar una muestra de 100
circuitos provenientes del lote. Si el comprador encuentra no más de dos circuitos
defectuosos en la muestra, acepta el lote; de otra forma, lo rechaza. Si se envía al
comprador un lote que contiene el 1% de circuitos defectuosos, ¿cuál es la
probabilidad de que sea aceptado el lote?.
Solución:
161
Nuestra variable es:
X: "número de circuitos defectuosos en la muestra".
X~B(n=100, p=0'01) np=1
Si n≥50 y p≤0,1 se comporta aproximadamente como una Poisson.
P(aceptar el lote) = P x ! 2
( ) = P x = 0
( )+ P x =1
( )+ P x = 2
( ) =
= e"1 10
0!
+ e"111
1!
+ e"112
2!
= 0, 9197
P(aceptar el lote) = 90%
EJEMPLO 3.13:
Es conocido el hecho de que cierto tipo de bacterias poseen, además de sus
cromosomas, otras estructuras de ADN llamadas factores de resistencia. Estos factores
confieren a la bacteria resistencia a uno o varios antibióticos. En un determinado
medio el 0,06% de las bacterias no poseen dicha propiedad. Sobre una población de
10.000 se desea saber:
a) La probabilidad de que el número de bacterias no poseyendo dicha resistencia
sea superior a 6, pero inferior a 15.
b) La probabilidad de que haya exactamente 5 sin resistencia antibiótica.
Solución:
Sea X el "número de bacterias que no poseen resistencia a los antibióticos".
X~B(n=10.000, p=0'0006)~P(! =np=6)
a)P(6 < x <15) = P x !14
( )" P x ! 6
( ) = 0, 9986 " 0, 6063 = 0, 3923
b)P x = 5
( ) = e
!6 65
5!
= 0,1606
EJEMPLO 3.14:
La probabilidad de que dos aminoácidos determinados se combinen para formar
un dipéptido es muy pequeña y, en consecuencia, el número de dipéptidos de una
162
determinada composición que puedan observarse al analizar un conjunto de proteínas
sigue una distribución de Poisson, que por otras investigaciones sabemos que tiene
parámetro ! =0,4.
Si denominamos como X el número de dipéptidos observados en una composición
determinada:
a) Calcular la probabilidad de no encontrar ninguno de tales dipéptidos en dicha
composición.
b) Probabilidad de encontrar dos o más.
Solución:
a)
P x = 0
( )= e
!" "0
0!
= e
!0,4
b)
P(x ! 2) = 1" P x <1
( )= 1 " P x = 0
( )" P x = 1
( ) =
= 1 " e"0,4 #0
0!
" e"0,4 0, 41
1!
= 1"
1
e0,4 "
0, 4
e0,4
EJEMPLO 3.15:
El número medio de automóviles que llega a una estación de suministro de
gasolina es de 210 por hora. Si dicha estación puede atender a un máximo de diez
automóviles por minuto, determinar la probabilidad de que en un minuto dado, lleguen
a la estación de suministro más automóviles de los que puedan atender.
Solución:
La variable aleatoria X es el "número de automóviles que llegan a la estación de
servicio en un minuto ".
El suceso éxito (1) consiste en que en un instante cualquiera llegue un automóvil a
la estación de suministro .
p es la probabilidad de éxito y es suficientemente pequeña, sin embargo , la
prueba puede repetirse un número suficientemente grande de veces.
163
Ocurre un determinado suceso en un intervalo de tiempo .
Cumple las condiciones de Poisson.
P x = r
( ) =
!r
r!
e"!
! es el número medio de veces que se da el suceso de probabilidad p.
! =
210
60
= 3, 5
La estación no podrá atender si llegan más de 10 automóviles por minuto.
P X >10
( ) = P x = r
( )
r=11
!
" = 1 # P x = r
( )
r=0
10
" =
= 1 #
3,50
0!
e#3,5
+...+
3,510
10!
e#3,5
$
%
&
'
(
)
=1 # 0, 9991 = 0, 0009
EJEMPLO 3.16:
El número de clientes que llega a un banco es una variable de Poisson. Si el
número promedio es de 120 por hora, ¿cuál es la probabilidad de que en un minuto
lleguen por lo menos tres clientes?.
Solución:
X: "número de clientes que llega a un banco en un minuto".
E[x]=120 clientes por hora.
E[X] =
120
60
= 2 = !
P X ! 3
( ) = 1" P X < 3
( )= 1 " P x = 0
( )+ P x =1
( )+ P x = 2
( )
[ ]=
= 1 " 0,1353 " 0, 2707 " 0, 2707 = 0, 3233
La probabilidad es de un 33% aproximadamente.
164
EJEMPLO 3.17:
Del volumen de producción diario en dos plantas diferentes de una fábrica, se
sabe que la probabilidad de que resulten r unidades defectuosa es:
- en la 1a planta:
4r
r!
e!4
para r = 0, 1, 2, ...
- en la 2a planta:
6r
r!
e!6
para r = 0, 1, 2, ...
Determinar la probabilidad de que, en un día determinado:
a) resulten cinco o más unidades defectuosas en la 1a planta.
b) resulten cuatro o menos unidades defectuosas en la 2a planta.
c) resulten ocho o más unidades defectuosas del total de la producción de la
fábrica.
Solución:
a) X1: "número de unidades defectuosas en la 1a planta". ! P(4)
P X1 ! 5
( )= 1" P X1 < 5
( ) =1 " P x1 = 0
( )+...+P x1 = 4
( )
[ ]
P X1 ! 5
( )= 0, 3711
b) X2: "número de unidades defectuosas en la 2a planta". ! P(6)
P X2 ! 4
( )= P x2 = 0
( )+...+P x2 = 4
( ) = 0, 2851
c) X3: "número de unidades defectuosas del total de la producción."
P X3 ! 8
( ) = 1" P x3 < 8
( )= 0, 7797
Da la impresión de que la empresa debería revisar su producción.
3.1.5 Distribución Hipergeométrica
En la distribución binomial siempre aseguramos la independencia, es decir, el
muestreo se realiza con reemplazamiento y la probabilidad de éxito es constante en cada
165
una de las pruebas. Supongamos que esto no ocurre, no hay reemplazamiento y la
variable aleatoria sigue otro tipo de distribución. Veamos un ejemplo:
Sea N el número de profesores de un Centro de Enseñanza Secundaria que deben
elegir Director entre dos candidatos A y B. Sea n el número de profesores que apoyan al
candidato A y N-n el número de profesores que apoyan al candidato B. Supongamos
que queremos hacer un sondeo antes de la votación final, tomamos una muestra con K
profesores y le preguntamos el candidato al que piensan votar. Supongamos que X es la
variable aleatoria que nos mide el número de profesores de la muestra que piensan votar
al candidato A. El interés está en calcular la probabilidad de que X=r, es decir, que en la
muestra haya r personas que piensan votar al candidato A.
Deduciremos la fórmula utilizando la Ley de Laplace.
¿De cuántas maneras puedo elegir muestras de tamaño n entre N elementos que
tiene la población?.
N
n
!
"
# $
%
casos posibles
De éstos, ¿cuáles serán favorables a nuestro suceso?. Aquellas que tengan r éxitos
y N-r fracasos.
EE ... E
Np
! "
# $
#
(r veces)
FF ... F
Nq
! "
# $
#
(n! r veces )
Es preciso conocer la probabilidad de éxito y la probabilidad de fracaso en la
población. El número de casos favorables será:
Np
r
!
"
# $
%
Nq
n & r
!
"
# $
%
Por consiguiente:
P X = r
( ) =
Np
r
!
"
# $
%
Nq
n & r
!
"
# $
%
N
n
!
"
# $
%
; r = 0,1,2,..., n
Media: E x
[ ] = np
166
Varianza: V x
[ ] = npq
N ! n
N !1
Cuando
n
N
! 0, 05, la distribución hipergeométrica se aproxima a la binomial.
EJEMPLO 3.18:
Un fabricante asegura que sólo el 1% de su producción total se encuentra
defectuosa. Supóngase que se ordenan 1000 artículos y se seleccionan 25 al azar para
inspeccionarlos. Si el fabricante se encuentra en lo correcto, ¿cuál es la probabilidad
de observar dos o más artículos defectuosos en la muestra?.
Solución:
Tenemos una población de tamaño N=1000
X: "número de artículos defectuosos en la muestra".
P(éxito)=0,0 l
Tamaño de la muestra n=25
Si inspeccionamos uno de los 25, ese no lo volvemos a inspeccionar, luego no hay
reemplazamiento, la p de las distintas pruebas no se mantiene constante. Se trata de una
distribución hipergeométrica.
P x ! 2
( ) = l " P x < 2
( ) = l " P x = 0
( )+ P x = 1
( )
[ ]
P X = 0
( )=
1000 0, 01
0
!
"
# $
%
1000 0, 99
25
!
"
# $
%
1000
25
!
"
# $
%
= 0, 7754
P X =1
( )=
10
1
!
"
# $
%
990
24
!
"
# $
%
1000
25
!
"
# $
%
= 0, 2007
&
'
(
(
(
)
(
(
(
P X * 2
( ) = 0, 0239
167
Puesto que
n
N
=
25
1000
= 0, 025 < 0, 05
Podemos aproximar por una binomial:
P x ! 2
( ) = l " P x = 0
( )+ P x =1
( )
[ ]=
= 1 "
25
0
#
$
% &
'
0, 01
0
0, 99
25
"
25
1
#
$
% &
'
0, 01
1
0, 99
24
=
1 " 0, 7778 " 0,1964 = 0, 0258
EJEMPLO 3.19:
Supóngase que se tienen 50 representantes de cierto estado, en una convención
política nacional, de los cuales 30 apoyan al candidato A y 20 al candidato B.
Si se seleccionan aleatoriamente 5 representantes, ¿cuál es la probabilidad de
que, entre estos cinco, por lo menos dos apoyen al candidato A?.
Solución:
X: "número de personas de la muestra que apoyan al candidato A.
N = 50
n = 5
p =
3
5
!
"
#
$
#
X % H 50, 5,
3
5
&
'
(
)
P x ! 2
( ) = l " P x < 2
( ) =1 " P x = 0
( )+ P x = 1
( )
[ ]
P X = 0
( ) =
50
3
5
0
#
$
%
&
'
(
50
2
5
5
#
$
%
&
'
(
50
5
#
$
% &
'
P X = 1
( ) =
50
3
5
1
#
$
%
&
'
(
50
2
5
4
#
$
%
&
'
(
50
5
#
$
% &
'
)
*
+
+
+
+
,
+
+
+
+
P X ! 2
( ) = 0, 9241
No hay duda de que al menos dos apoyarán al candidato A. con una probabilidad
del 92%.
168
EJEMPLO 3.20:
En una clase en la que hay 20 estudiantes, 15 están insatisfechos con el texto que
se utiliza. Si se le pregunta acerca del texto a cuatro estudiantes tomados al azar,
determine la probabilidad de que:
a) exactamente tres estén insatisfechos con el texto.
b) cuando menos tres estén insatisfechos.
Solución:
Hay dos sucesos mutuamente excluyentes:
P(estar satisfechos) = 5/20 = 1/4
P(no estar satisfecho) = 15/20 = 3/4
Las pruebas son sin reemplazamiento, no tiene sentido volver a preguntar al
mismo estudiante que se le preguntó antes.
X: "número de alumnos que están insatisfechos con el texto".
Es una H 20;4,
3
4
!
"
#
$
a)
P X = 3
( ) =
Np
r
!
"
# $
%
Nq
n & r
!
"
# $
%
N
n
!
"
# $
%
=
15
3
!
"
# $
%
5
1
!
"
# $
%
20
4
!
"
# $
%
= 0, 469
b)
P X ! 3
( ) = P x = 3
( )+ P x = 4
( )= 0, 75
EJEMPLO 3.21:
Un equipo departamental incluye cinco biólogos especialistas en microbiología y
nueve médicos. Si se eligen al azar cinco personas y se les asigna un proyecto, ¿cuál es
la probabilidad de que el equipo del proyecto incluya exactamente a dos biólogos?.
169
Solución:
X: "número de biólogos incluidos en el proyecto".
P(biólogo) = 5/14
P(médico) = 9/14
X ! H 14;5,
5
14
"
#
$
%
P X = 2
( )=
5
2
!
"
# $
%
9
3
!
"
# $
%
14
5
!
"
# $
%
= 0, 42
EJEMPLO 3.22:
Considérese un fabricante de ordenadores que compra los microprocesadores a
una compañía donde se fabrican bajo estrictas especificaciones. El fabricante recibe un
lote de 40 microprocesadores. Su plan para aceptar el lote consiste en seleccionar 8, de
manera aleatoria y someterlos a prueba. Si encuentra que ninguno de los
microprocesadores presenta serios defectos, el fabricante acepta el lote; de otra forma
lo rechaza. Suponiendo que el lote contenga dos microprocesadores con serios
defectos, ¿cuál es la probabilidad de que sea aceptado?
Solución:
X: "número de microprocesadores defectuosos en la muestra".
X ! H 40;8,
20
40
"
#
$
%
p =
1
20
q =
19
20
P X = 0
( ) =
2
0
"
#
& $
%
38
8
"
#
& $
%
40
8
"
#
& $
%
= 0, 6359
Si la persona que vende sabe que le controlarán el producto, procurará que la
empresa efectúe un control de calidad antes de iniciar las ventas. Aumentará la calidad
del producto.
170
EJEMPLO 3.23:
Una compañía dedicada a la producción de artículos electrónicos, utiliza un esquema
para la aceptación de artículos, para su ensamblaje, antes de ser embarcados, que
consiste en lo siguiente:
Los artículos están embalados en cajas de 25 unidades y un técnico de la compañía
selecciona aleatoriamente tres artículos, de tal manera que si no encuentra ningún
artículo defectuoso, la caja se embarca.
a) ¿Cuál es la probabilidad de que se embarque una caja que contiene tres artículos
defectuosos'?.
b) ¿Cuál es la probabilidad de que una caja que contiene sólo un artículo defectuoso
regrese para su verificación?.
Solución:
X: "número de artículos defectuosos en la muestra".
a) Si la caja contiene tres artículos defectuosos, la distribución es:
N = 25 N1 = 3 N2 = 22 p =
3
25
q =
22
25
P X = 0
( )=
Np
xi
!
"
# $
%
Nq
n & xi
!
"
# $
%
N
n
!
"
# $
%
=
3
0
!
"
# $
%
22
3 & 0
!
"
# $
%
25
3
!
"
# $
%
= 0, 6696
Hay una probabilidad del 67% de que se embarque la caja.
b) La caja sólo contiene un articulo defectuoso.
N = 25 p =
1
25
q =
24
25
P X = 0
( )=
25
1
25
0
!
"
#
$
%
&
25
24
25
3
!
"
#
$
%
&
25
3
!
"
# $
%
= 0, 88
Lógicamente la probabilidad de que no embarque es: 1-0,88 = 0,12
Lo más probable es que las cajas que tengan un artículo defectuoso sean
embarcadas.
171
EJEMPLO 3.24:
Supongamos que una compañía hace el estudio de la calidad conforme a otro
esquema.
Se toma un artículo, se inspecciona y se devuelve a la caja; lo mismo ocurre con
un 2º y un 3er artículo.
La caja no se embarca si cualquiera de los tres artículos es defectuoso.
Solución:
a) B 3,
3
25
!
"
#
$
P x = 0
( )=
3
0
!
"
# $
%
3
25
!
"
$
%
0
22
25
!
"
$
%
3
= 0, 6815
b) B 3,
1
25
!
"
#
$
P x = 0
( )=
3
0
!
"
# $
%
1
25
!
"
$
%
0
24
25
!
"
$
%
3
= 0, 8847
La probabilidad de no embarcar sería: 1 - 0,8847 = 0,1153
EJEMPLO 3.25:
Considérese un fabricante de automóviles que compra los motores a una
compañía donde se fabrican bajo estrictas especificaciones. El fabricante recibe un
lote de 40 motores. Su plan para aceptar el lote consiste en seleccionar 8, de manera
aleatoria, y someterlos a prueba. Si encuentra que ninguno de los motores presenta
serios defectos, el fabricante acepta el lote; contiene dos motores con serios defectos,
¿cuál es la probabilidad de que sea aceptado?.
Solución:
X: "número de motores defectuosos en la muestra".
172
N = 40 n = 8 p =
2
40
H 40;8,
1
20
!
"
#
$
P X = 0
( ) =
2
0
!
"
% #
$
38
8
!
"
% #
$
40
8
!
"
% #
$
= 0, 6359
173
"DISTRIBUCIONES DE PROBABILIDAD
CONTINUAS"
3.2 Parte básica
174
3.2.1 Distribución normal.
3.2.1.1 Introducción
La distribución Normal es la distribución continua más importante del Cálculo de
Probabilidades y de la Estadística. Aparece por primera vez en 1733 en los trabajos de
DE MOIVRE relativos al cálculo de la distribución límite de una variable binomial.
Posteriormente, en 1809, GAUSS y más tarde, en 1812, LAPLACE la estudiaron en
relación con la teoría de errores de datos experimentales, al tratar de hallar el valor
correcto más probable entre una serie de medidas. Primero, GAUSS, pensó que la
media aritmética de los valores sería el valor correcto. Más tarde, al dibujar la
distribución de frecuencias, observaron cómo los valores extremos eran incorrectos y
cada vez las medidas se hacen más iguales y más numerosas, hasta concentrarse en un
valor medio que es el valor más frecuente. Por esto, la distribución normal se conoce
también con el nombre de distribución de GAUSS-LAPLACE.
Una primera aproximación de la distribución normal puede observarse con el
experimento que realizó SIR FRANCIS GALTON, que construyó un ingenioso aparato,
formado por un tablero inclinado, en el que se distribuyen regularmente un sistema de
clavos, para acabar finalmente en compartimentos estrechos. Al deslizar muchas bolas
desde un depósito superior, estas chocan con los clavos, y se alejan más o menos de la
línea central de caída. Las alturas alcanzadas por las bolas en los compartimentos
estrechos da una idea de la curva de la distribución normal (ver figura 3.2).
Figura 3.2: Dispositivo de Galton
175
El nombre de distribución normal se debe al hecho de que una mayoría de las
variables aleatorias de la Naturaleza siguen esta distribución, lo que hizo pensar que
todas las variables continuas de la Naturaleza eran normales, llamando a las demás
distribuciones "anormales". No obstante, hoy en día, ya no se piensa de la misma
manera, ya que ningún estadístico dice que una distribución que no sea normal, es
anormal. No obstante, la distribución normal es la más importante por sus propiedades
sencillas, porque aparece frecuentemente en la Naturaleza, (fenómenos relacionados con
psicología, biología, etc. ), y por una propiedad de algunos fenómenos que se aproximan
asintóticamente a la distribución normal (Teorema Central del Límite).
3.2.1.2 Definición
De modo riguroso, se dice que una variable aleatoria sigue una distribución
normal de media µ, y desviación típica σ, y se designará por N(µ, σ), si se cumplen las
siguientes condiciones:
La variable recorre toda la recta real, y la función de densidad es de la forma:
f(x) =
1
! 2"
e
# 1
2 ( x# µ
! )2
donde e = 2.71828; π= 3.14159; µ es la media de la distribución y σ es la desviación
típica.
Esta función de densidad que parece en principio con una expresión matemática
aparentemente complicada, tiene la siguiente representación (figura 3.3):
µ0
Figura 3.3: Representación gráfica da la campana de Gauss
conocida como campana de Gauss, y con las siguientes propiedades:
176
1.- La curva tiene forma campaniforme y es simétrica respecto a la recta vertical x = µ.
ya que el valor de la densidad es idéntico en µ + c y en µ - c, para todo valor de c, pues:
f(µ + c) =
1
! 2"
e
#
(µ+c # µ)2
2!
2
=
1
! 2"
e
# c2
2!
2
f(µ # c) =
1
! 2"
e
# (µ#c # µ)2
2!2
=
1
! 2"
e
# c2
2! 2
2.- La ordenada es máxima en x = µ.
La derivada de la función de densidad es:
f' (x) =
1
! 2"
e
#
(x# µ)2
2! 2
#
1
2!
2 (x # µ)
$
%
&
'
(
) = #
1
!
3
2"
e
#
(x# µ)2
2! 2
(x # µ)
como la exponencial es siempre distinta de cero, se verifica que:
f' (x) = 0 ! (x " µ) = 0 ! x = µ
como la derivada segunda es:
f'' (x) = !
1
"3
2#
e
! (x!µ)2
2"2
+ !
1
"3
2#
(x ! µ)
$
%
&
'
(
)
!
2(x ! µ)
2"2
e
! (x! µ)2
2" 2
$
%
&
'
(
) =
= !
1
"3
2#
e
!
(x !µ)2
2"
2
1 !
(x ! µ)2
"2
$
%
&
'
(
)
como se verifica que :
f'' (µ) = !
1
"
3
2#
e
0
(1 ! 0) = !
1
"
3
2#
< 0
luego en x = µ la función de densidad presenta un máximo de valor
f(µ) =
1
! 2"
177
3.- El área del recinto encerrado bajo la campana y el eje x es igual a la unidad.
Por tratarse de una función de densidad. Y al ser simétrica, deja igual área, 0,5, a
la izquierda y a la derecha de la recta x = µ. Esto se verifica porque:
f(x)
!"
+"
# =
1
$ 2%
e
!(x !µ)2
2$2
dx =
!"
+"
#
haciendo el cambio de variable
x ! µ
"
= y , entonces dx = σ dy, y por lo tanto
=
1
! 2"
e
# y2
2
!dy =
#$
+$
%
1
2"
e
# y2
2
dy =
#$
+$
%
1
2"
2" =1
ya que la última integral, conocida como la integral de Gauss vale 2! , ya que:
I = e
! y2
2
dy =
!"
+"
# 2 e
! y2
2
dy =
0
+"
# 2I1
y al multiplicar I1 por sí misma, y mediante métodos de integración doble, resulta su
cuadrado igual a π/2.
4.- Presenta puntos de inflexión en los puntos de abscisas µ + σ y µ - σ, donde cambia
de concavidad (lo que determina que cuánto mayor sea σ , más achatada sea la curva).
El punto de inflexión se obtiene al igualar a cero la derivada segunda, por lo tanto:
f'' (x) = 0 ! 1 "
(x " µ)2
#2 = 0 !
x " µ
#
= ±1! x = µ ± #
Así, pues, presenta puntos de inflexión en los puntos x = µ + σ y en x = µ - σ,
donde las coordenadas de los puntos son: en x = µ + σ
f(µ + !) =
1
! 2"
e
# (µ+! #µ )2
2!2
=
1
! 2"
e
# !2
2!2
=
1
! 2"
e
# 1
2
=
1
! 2"e
y en el punto x = µ - σ
178
f(µ ! ") =
1
" 2#
e
!
(µ!"! µ)2
2"2
=
1
" 2#
e
! "2
2"2
=
1
" 2#
e
! 1
2
=
1
" 2#e
5.- Es asintótica al eje de abscisas.
Pues como ex tiende a 0 cuando x tiende a infinito, entonces:
lim
x!+"
f(x) = lim
x!+"
1
# 2$
e
% (x% µ)2
2# 2
= 0
es decir, el eje OX es una asíntota horizontal, e igual para x tendiendo a -∞.
En la figura 3.4 puede observarse que para σ fijo, el variar µ tiene el efecto de
desplazar la curva hacia la derecha o la izquierda; manteniendo µ constante, el cambio
de σ tiene por efecto acercar o alargar del valor medio µ los puntos de inflexión, es
decir, un apuntamiento o aplastamiento de la curva (ver figura 3.5).
µ µ+a
µ-a
Figura 3.4: Efecto de la variación de µ en la distribución normal
179
Figura 3.5: Efecto de la variación de σ manteniendo µ constante
3.2.1.3 La distribución normal estándar N(0,1)
En las familias representadas por las distribuciones normales ocupa un lugar
especial la distribución que tiene de media cero (µ = 0) y por desviación típica la unidad
(σ = 1). Esta distribución se llama la distribución normal estándar, o reducida.
Su función de densidad es:
f(x) =
1
2!
e
" x2
2
x #("$,+$)
y su función de distribución es la siguiente:
F(x) = P(! " x) = 1
2#
e$ x2
2
dx
$%
x
&
y cuyas representaciones aparecen en las figura 3.6:
180
-,2
0
,2
,4
,6
,8
1
1,2
-4 -3 -2 -1 0 1 2 3 4
1
2!
Figura 3.6: Representación de las funciones de densidad y distribución de la N(0,1).
La función de distribución de la ley normal estándar proporciona el área del
recinto que encierra la función de densidad, hasta el punto x, y con el fin de facilitar el
cálculo de ésta superficie, y no tener que utilizar en todo momento el cálculo integral, se
han elaborado unas tablas de fácil uso, entre las que se encuentran las que aparecen a
continuación:
x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8655 0.8686 0.8708 0.8729 0.8749 0.8870 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
Tablas de la distribución normal estándar
181
3.2.1.4 Manejo de las tablas de la normal estándar
Las tablas anteriores nos proporcionan directamente la función de distribución de
la variable normal estándar, por lo que ellas nos darán directamente la probabilidad de
que la variable tome valores menores o iguales que un determinado valor (P(ξ ≤ x)).
Veamos su utilización con un ejemplo sencillo. Si Z es una variable que sigue una
distribución N(0,1), calcularemos la probabilidad de que la variable Z tome valores
menores o iguales a 1.37.
La probabilidad pedida es el área sombreada de la figura 3.7.
Figura 3.7: Área hasta el valor 1.37
y se encuentra directamente en la tabla sin más que buscar 1.3 en la primera columna, y
0.07 en la primera fila; su intersección nos da la probabilidad:
Es decir:
P(Z ≤ 1.37) = 0.9147
que quiere decir que el 91.47% de las observaciones se encuentran distribuidas entre -∞
y 1.37.
182
Existen además de las tablas anteriores otros tipos de tablas publicadas de la
distribución normal estándar. Quizá las más importantes sean las siguientes:
1.- Tabla de dos colas :
Esta tabla da las áreas de las dos colas de la distribución, es decir, da la siguiente
probabilidad
P( |Z| ≥ a ) = P( -∞ < Z ≤ -a ) + P( a ≤ Z < +∞ )
0 a
-a
Figura 3.8: Área de la tabla de dos colas
2.- Tabla de una cola :
Nos da el área de la cola derecha de la distribución, es decir, la siguiente
probabilidad
P( Z ≥ a )
3.- Tabla de valores :
Que contiene todos los valores entre 0 e infinito.
183
4.- Tabla de áreas acumuladas :
Nos da la probabilidad de que un valor esté comprendido entre -∞ y a, es decir, la
siguiente probabilidad
P( -∞ < Z ≤ -a )
Este último tipo de tablas es el que hemos utilizado anteriormente, pues nos
proporciona la función de distribución de la variable.
3.2.1.5 Tipificación de la variable
Hemos indicado anteriormente que la distribución normal estándar N(0,1) se
encuentra tabulada, lo que nos permite un cálculo rápido de las probabilidades asociadas
a ésta distribución. Pero no existen tablas para el cálculo de las probabilidades de otras
distribuciones normales, además de que tendrían que existir infinitas tablas (una para
cada posible par de combinaciones de media y desviación típica). Aprovechando que el
comportamiento de las curva de las distribuciones normales es siempre el mismo, nos
hace pensar que podría existir una distribución normal que permanezca invariable, sea
cuál sea la variable. Esta es la distribución normal estándar, y el proceso de pasar de una
distribución normal cualquiera a una distribución normal estándar se denomina
tipificación de la variable, que equivale a cambiar la escala de partida de los valores de
X en una nueva escala patrón. Esto se lleva a cabo en dos pasos:
1º Centrar, es decir, trasladar la media de la distribución al origen de
coordenadas, lo que equivale a hacer µ = 0.
2º Reducir la desviación típica a 1, que equivale a dilatar o contraer la gráfica
de la distribución hasta que coincida con la gráfica de la función normal
estándar.
Esto se consigue mediante el cambio de variable siguiente:
Z =
X ! µ
"
que produce la siguiente transformación de escala de medidas:
184
Valores de X
Valores de Z
0 1 2
-1
-2
µ µ +!
µ -2! µ +2!
µ -!
3.2.1.6 Propiedades de la distribución normal
SUMA O RESTA DE VARIABLES NORMALES
Si X1 es una variable que se distribuye normalmente N(µ1, σ1), y X2 es otra
variable que se distribuye normalmente N(µ2, σ2). Entonces la variable X = X1 ± X2
sigue también una distribución normal con media µ = µ1 ± µ2, y cuya varianza es σ2 =
σ1
2+ σ2
2. Es decir, la variable X sigue una distribución
N(µ1 ± µ2 , !1
2
+ !2
2
)
TEOREMA DE DE MOIVRE
Si X es una variable binomial de parámetros n y p; entonces si n es grande y p, ni
pequeño ni grande, (o sea, ni p ni q próximos a cero) podemos considerar que esa
variable X sigue una ley normal de media np y varianza npq, y por lo tanto, la variable
Z =
X ! np
npq
sigue una distribución normal N(0,1).
En este caso hemos de tener en cuenta que X era una variable aleatoria discreta y
queremos tratarle cómo continua, por lo que es preciso hacer una corrección para
continuidad. Así se verifica que:
P(X = 3) = P(2.5 < X ≤ 3.5)
P(X ≤ 3) = P(X ≤ 3.5)
P(X < 3) = P(X ≤ 2.5)
185
Obviamente éstas no son igualdades ciertas, pero permiten tratar la variable
discreta como continua.
Si en lugar de trabajar con una variable aleatoria binomial partiésemos de una
variable de Poisson o una Hipergeométrica, la aproximación sería absolutamente
similar.
TEOREMA CENTRAL DEL LÍMITE
Si X es una variable aleatoria (no importa como se distribuya) con media µ y
varianza σ2, y tomamos una muestra de n elementos, entonces la distribución muestral
de la media aritmética de la muestra es aproximadamente normal con media µ y
varianza σ2/n, siendo mejor la aproximación a medida que aumenta el tamaño de la
muestra.
Lógicamente, si X es una variable que se distribuye normalmente, la media
muestral se distribuye exactamente como una distribución normal.
Este teorema es importante en posteriores unidades, ya que nos dará pie a
resultados fundamentales de la Inferencia Estadística.
186
3.2.2 Modelo Chi-cuadrado (de Pearson)
3.2.2.1 Definición
Es otra distribución de gran importancia en Estadística, que fue descubierta por
HELMET (1876), pero cayó en el olvido hasta que en 1900 fue descubierta de nuevo
por PEARSON.
Es una variable obtenida al sumar los cuadrados de n variables aleatorias normales
estándar, independientes entre sí. Recibe el nombre de χ2
n de PEARSON, con n grados
de libertad, o sea,
χ2
n = Z1
2 + Z2
2 + ..... + Zn
2
siendo cada Zi una variable normal N(0,1), e independientes.
Esta variable depende, pues, del número de sumandos que la forman, llamado
"grados de libertad", y el rango es el semieje real positivo (ya que es una suma de
cuadrados).
La función de densidad de una variable χ2
n es la siguiente:
f(x) =
1
2
n
2 !(n
2)
e
"x
2x
n
2"1
si x # 0
0 si x < 0
$
%
&
*
Para cada valor de n se tiene una curva distinta, como representación de su
función de densidad. La figura 3.9 representa las funciones de densidad de variables
Chi-cuadrado para diferentes valores de n.
* Γ(n) es la función gamma, que denota la siguiente integral: !( n) = x
n"1
e
"x
dx
0
#
$ que verifica, que
si n en entero Γ(n) = (n-1)! ; además Γ(n/2) = √π.
187
Figura 3.9: Comparación entre las funciones de densidad de la variable
chi-cuadrado para distintos valores de n.
3.2.2.2 Propiedades de la distribución chi-cuadrado
1.- La variable solo puede tomar valores positivos.
2.- Es asimétrica.
3.- Depende del parámetro n (grados de libertad).
4.- Su esperanza matemática es n, y su varianza, 2n.
5.- Propiedad aditiva o reproductiva :Si χ2
n y χ2
m son dos variables Chi-
cuadrado con n y m grados de libertad respectivamente, independientes
entre sí, entonces la suma de las dos variables es una variable Chi-cuadrado
con n+m grados de libertad. Esto se puede generalizar a la suma de
cualquier número de variables Chi-cuadrado, independientes.
6.- Al aumentar el número de grados de libertad, la distribución Chi-
cuadrado se aproxima asintóticamente a una distribución normal.
Esta aproximación es de la siguiente forma:
para n > 30, la variable 2!n
2
se aproxima asintóticamente a una variable
N 2n !1,1
( ).
7.- En una variable aleatoria normal N(µ, σ), si tomamos una muestra de
tamaño n se verifica que
188
n !1
( )ˆ
s2
"
2 es aproximadamente χ2
n-1
siendo ˆ
s
2
la cuasivarianza muestral.
3.2.2.3 Manejo de las tablas de la chi-cuadrado
A continuación aparecen las tablas en las que figuran tabuladas las distribuciones
Chi-cuadrado.
Dentro de la tabla figura el valor de la variable que en una distribución Chi-
cuadrado con los grados de libertad que vienen indicados en la primera columna, deja
un área α, indicado en la primera fila, a su derecha.
189
g.l α 0.9950 0.9750 0.950 0.900 0.200 0.10 0.050 0.025 0.010 0.001
1 0.0000393 0.000982 0.00393 0.0158 1.642 2.706 3.841 5.024 6.631 10.828
2 0.0100 0.0506 0.103 0.211 3.219 4.605 5.g91 2.378 9.210 13.816
3 0.0717 0.216 0.352 0.584 4.642 6.251 7.851 9.348 11.345 16.266
4 0.207 0.484 0.711 1.064 5.989 7.779 9.488 11.143 13.277 18.467
5 0.412 0.831 1.]45 1.610 7.289 9.236 11.070 12.833 15.086 20.515
6 0.676 1.237 1.635 2.204 8.558 10.645 17.592 14.449 16.812 22.458
7 0.989 1.690 2.167 2.833 9.803 17.017 14.067 16.013 18.475 74.327
8 1.344 2.180 2.733 3.490 11.030 13.362 15.507 17.535 20.090 26.124
9 1.735 2.700 3.325 4.168 17.242 14.684 16.919 19.023 21.666 77.877
10 2.156 3.247 3.940 4.865 13.442 15.987 18.307 20.483 23.209 29.588
11 2.603 3.816 4.575 5.578 14.631 17.275 19.675 21.920 24.725 31.264
12 3.074 4.404 5.226 6.304 15.812 18.549 21.026 23.337 26.217 32.909
13 3.565 5.009 5.897 7.047 16.985 19.812 22.362 24.736 27.588 34.528
14 4.075 5.629 6.571 7.790 18.151 21.064 23.685 26.119 29.141 36.173
15 4.601 6.262 7.261 8.547 19.311 22.307 24.996 27.488 30.578 37.697
16 5.142 6.908 7.962 9.312 20.465 23.452 26.296 28.845 32.000 39.752
17 5.697 7.564 8.672 10.085 21.615 24.769 27.587 30.191 33.409 40.790
18 6.265 8.231 9.390 10.865 22.760 25.989 28.869 31.526 34.805 42.312
19 6.844 8.907 10.117 11.651 23.900 27.204 30.144 32.857 36.191 43.820
20 7.434 9.591 10.851 12.443 25.038 28.412 31.410 34.170 37.566 45.315
21 8.034 10.283 11.591 13.240 26.171 29.615 32.671 35.479 38.932 46.797
22 8.643 10.982 12.338 14.041 27.301 30.813 33.924 36.781 40.289 48.268
23 9.260 11.689 13.091 14.848 28.429 32.007 35.172 38.076 41.638 49.728
24 9.886 12.401 13.848 15.659 29.553 33.196 36.415 39.364 42.980 51.179
25 10.520 13.120 14.611 16.473 30.675 34.382 37.652 40.646 44.314 57.620
26 11.160 13.844 15.379 17.292 31.795 35.563 38.885 41.923 45.642 54.052
27 11.808 14.573 16.151 18.114 32.912 36.741 40.113 43.195 46.963 55.476
28 12.461 15.308 16.928 18.939 34.027 37.916 41.337 44.461 48.278 56.892
29 13.121 16.047 17.708 19.769 35.139 39.087 42.557 45.722 49.588 58.301
30 13.787 16.791 18.493 20.599 36.250 40.256 43.773 46.979 50.892 59.703
Tabla de la distribución Chi-cuadrado
EJEMPLO 3.26:
Si X sigue una distribución Chi-cuadrado con 12 grados de libertad.
¿Cuál es el valor de la variable que deja a su derecha un área de 0.05?
Solución:
Buscando en la tabla: 21.026
190
3.2.3 Distribución t de Student
3.2.3.1 Definición
La distribución "t" es sumamente importante en Inferencia Estadística; fue
descubierta por GOSSET (1908). El nombre de STUDENT es el seudónimo con el que
firmó sus publicaciones estadísticas, y puede pensarse de él que es el fundador de la
inferencia estadística exacta, pues hasta 1908 era corriente tratar a la variable
(x ! µ)
s n
como una variable normal.
En su definición matemática, sean (η, η1, η2, ....., ηn) n+1 variables aleatorias
normales N(0,1) e independientes
Se define la variable "t" de STUDENT con n grados de libertad como
tn =
!
!1
2
+ !2
2
+!+!n
2
n
También puede definirse a través de una variable Z normal estándar N(0,1), y una
variable χ2 que siga una distribución Chi-cuadrado con n grados de libertad; se define
entonces la variable "t" de STUDENT con n grados de libertad como
tn =
Z
!n
2
n
La función de densidad de esta variable es:
f(x) =
!(n+1
2
)
n"!(n
2
)
1 +
x2
n
#
$
%
&
'
(
) n+1
2
191
3.2.3.2 Propiedades de la distribución "t"
1.- Depende de un único parámetro, el número de grados de libertad.
2.- El rango de la variable es todo el eje real (-∞, +∞).
3.- Su gráfica es simétrica respecto al eje de ordenadas OY.
4.- El valor x = 0 es la media, mediana y moda de la distribución.
5.- Al aumentar n, se va haciendo cada vez más apuntada la gráfica de su
función de densidad, siendo el límite para n !∞ la curva normal tipificada.
0
Distr. Normal
Distr. t de Student
Figura 3.10: Función de densidad de la distribución normal y de la "t".
6.- En el muestreo de una población normal N(µ, σ), si tomamos una
muestra de tamaño n de media x y varianza S2, la variable
tn!1 =
(x ! µ)
s
n !1
sigue una distribución "t" de STUDENT con n-1 grados de libertad.
Esta propiedad es muy utilizada en la estimación y el contraste de hipótesis sobre
la media de la población.
192
3.2.3.3 Manejo de las tablas de la distribución "t"
Existen diferentes tipos de tablas de la distribución "t", siendo las más utilizadas
las de una cola, y las de dos colas.
Nosotros expondremos la utilización de las tablas de dos colas que aparecen a
continuación:
gl 0.50 0.40 0.30 0.20 0.10 0.05 0.02 0.01 0.001
1 1.000 1.376 1.963 3.078 6.314 12.706 31.821 63.657 636.619
2 0.816 1.061 1.386 1.886 2.920 4.303 6.965 9.925 31.598
3 0.765 0.978 1.250 1.638 2.353 3.182 4.541 5.841 12.929
4 0.741 0.941 1.190 1.533 2.132 2.776 3.747 4.604 8.610
5 1.727 0.920 1.156 1.476 2.015 2.571 3.365 4.032 6.869
6 0.718 0.906 1.134 1.440 1.943 2.447 3.143 3.707 5.959
7 0.711 0.896 1.119 1.415 1.895 2.365 2.998 3.499 5.408
8 0.706 0.889 1.108 1.397 1.860 2.306 2.896 3.355 5.041
9 0.703 0.883 1.100 1.383 1.833 2.262 2.821 3.250 4.781
10 0.700 0.879 1.093 1.372 1.812 2.228 2.764 3.169 4.587
11 0.697 0.876 1.088 1.363 1.796 2.201 2.718 3.106 4.437
12 0.695 0.873 1.083 1.356 1.782 2.179 2.681 3.055 4.318
13 0.694 0.870 1.07~ 1.350 1.771 2.160 2.650 3.012 4.221
14 0.692 0.868 1.076 1.345 1.761 2.145 2.624 2.977 4.140
15 0.691 0.866 1.074 1.341 1.753 2.131 2.602 2.947 4.073
16 0.690 0.865 1.071 1.337 1.746 2.120 2.583 2.921 4.015
17 0.689 0.863 1.069 1.333 1.740 2.110 2.567 2.898 3.965
18 0.688 0.862 1.067 1.330 1.734 2.101 2.552 2.878 3.922
19 0.688 0.861 1.066 1.328 1.729 2.093 2.539 2.861 3.883
20 0.687 0.860 1.064 1.325 1.725 2.086 2.528 2.845 3.850
21 0.686 0.859 1.063 1.323 1.721 2.080 2.518 2.831 3.819
22 0.686 0.858 1.061 1.321 1.717 2.074 2.508 2.819 3.792
23 0.685 0.858 1.060 1.319 1.714 2.069 2.500 2.807 3.767
24 0.685 0.857 1.059 1.318 1.711 2.064 2.492 2.797 3.745
25 0.684 0.856 1.058 1.316 1.708 2.060 2.485 2.787 3.725
26 0.684 0.856 1.058 1.315 1.706 2.056 2.479 2.779 3.707
27 0.684 0.855 1.057 1.314 1.703 2.052 2.473 2.771 3.690
28 0.683 0.855 1.056 1.313 1.701 2.048 2.467 2.763 3.674
29 0.683 0.854 1.055 1.311 1.699 2.045 2.462 2.756 3.659
30 0.683 0.854 1.055 1.310 1.697 2.042 2.457 2.750 3.646
35 0.682 0.852 1.052 1.306 1.690 2.030 2.438 2.724 3.592
40 0.681 0.851 1.050 1.303 1.684 2.021 2.423 2.705 3.551
45 0.680 0.850 1.049 1.301 1.679 2.014 2.412 2.690 3.521
50 0.679 0.849 1.047 1.299 1.676 2.009 2.403 2.678 3.497
60 0.679 0.848 1.046 1.296 1.671 2.000 2.390 2.660 3.461
80 0.678 0.846 1.043 1.292 1.664 1.990 2.374 2.639 3.417
100 0.677 0.845 1.042 1.290 1.660 1.984 2.364 2.626 3.391
∞ 0.674 0.842 1.036 1.282 1.645 1.960 2.326 2.576 3.291
Tabla de la distribución t de Student
en ellas aparece el valor de la variable que para los grados de libertad indicados en la
primera columna, deja un área en las dos colas de valor α indicado en la primera fila.
EJEMPLO 3.27:
Si X es una distribución que sigue una distribución "t" con 10 grados de
libertad, calcular el valor de la variable, tal que a la izquierda de -2.228 y a la
derecha de 2.228 deja un área total de 0.05.
193
Solución:
194
3.2.4 Distribución "F" de Fisher-
Snedecor
3.2.4.1 Definición
Supongamos que X e Y sean dos variables aleatorias independientes, que siguen
distribuciones Chi-cuadrado con n y m grados de libertad respectivamente, y tales que
X = Xi
2
i=1
n
! e Y = Yj
2
j=1
m
!
siendo las variables Xi e Yj que siguen distribuciones normal estándar.
Se define la variable F de Snedecor (o de Fisher-Snedecor), la definida por
F =
X
n
Y
m
denominada distribución F de Fisher-Snedecor con n y m grados de libertad.
Su función de densidad está definida por la función:
fn,m(x) =
!(n+ m
2
)( n
m
)
n
2
!(n
2)!(m
2 )
"
x
n
2#1
(1 + n
m x)
(n+ m)
2
si x > 0
0 si x $ 0
%
&
'
(
'
Su representación gráfica es de la siguiente forma:
Figura 3.11: Representación de la función de densidad de la distribución F de Snedecor
195
3.2.4.2 Propiedades de la distribución F de Snedecor
1.- El recorrido de la variable F es el intervalo (0,∞).
2.- Depende de dos parámetros, los grados de libertad n y m.
3.- Presenta asimetría positiva, con un grado que depende conjuntamente de
los grados de libertad del numerador y del denominador.
4.- El cociente
ˆ
s1
2
ˆ
s2
2 sigue una distribución con n1-1 y n2-1 grados de
libertad, siendo ˆ
s1
2
y ˆ
s2
2
las cuasivarianza muestrales de dos muestras de
tamaños n1 y n2 respectivamente, provenientes de dos poblaciones normales
N(µ1, σ1) y N(µ2, σ2) respectivamente.
Esto es consecuencia de que el teorema de Fisher indica que la variable
n1 !1
( )ˆ
s1
2
"2
sigue una distribución Chi-cuadrado con n1-1 grados de libertad, y
análogamente, la variable
n2 !1
( )ˆ
s2
2
"
2
sigue una distribución Chi-cuadrado con n2-1 grados de libertad. Entonces,
el cociente
n1 !1
( )ˆ
s1
2
n1 !1
( )"2
n2 !1
( )ˆ
s2
2
n2 !1
( )"2
sigue una distribución F de Snedecor con n1-1 y n2-1 grados de libertad, y si
las varianzas poblacionales son iguales, se verifica entonces el resultado
indicado.
196
5.- La distribución F juega un papel importante en el análisis de la varianza
(ANOVA) y en el análisis de la regresión.
3.2.4.3 Utilización de las tablas de la distribución F
de Snedecor
Las tablas de la distribución F de Snedecor contienen los valores Fα tales que
P(F>Fα ) = α, para n y m grados de libertad, y para cada nivel de significación en cada
una de las tablas.
n2n1
1 2 3 4 5 6 7 8 9 10 20 30 40 60 120 ∞
1 161.4 199.5 215.7 224.6 230.2 234.0 236.8 238.9 240.5 241.9 248.0 250.1 251.1 252.2 253.3 254.3
2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38 19.40 19.45 19.46 19.47 19.48 19.49 19.50
3 10.13 9.55 9.28 9.12 9.01 8.94 6.89 8.85 8.81 8.79 8.66 8.62 8.59 8.57 8.55 8.53
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.97 5.80 5.74 5.72 5.69 5.66 5.63
5 6.61 5~79 5.41 5.19 5.05 4.95 4.88 4.82. 4.77 4.73 4.56 4.50 4.46 4.43 4.40 4.36
6 S~99 5.14 4.76 4~53 4.39 4.28 4.21 4.15 4.10 4.06 3.87 3.81 3.77 3.74 3.70 3.67
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 3.44 3.38 3.34 3.31 3.27 3.23
8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35 3.15 3.08 3.04 3.00 2.97 2.93
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 2.94 2.86 2.83 2.79 2.75 2.71
10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98 2.77 2.70 2.66 2.62 2.58 2.54
11 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90 2.85 2.65 2.57 2.53 2.49 2.45 2.40
12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75 2.54 2.47 2.43 2.38 2.34 2.30
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67 2.46 2.38 2.34 2.30 2.25 2.21
14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60 2.39 2.31 2.27 2.22 2.18 2.13
15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54 2.33 2.25 2.20 2.16 2.11 2.07
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49 2.28 2.19 2.15 2.11 2.06 2.01
17 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49 2.45 2.23 2.15 2.10 2.06 2.01 1.96
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41 2.19 2.11 2.06 2.02 1.97 1.92
19 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38 2.16 2.07 2.03 1.98 1.93 1.88
20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35 2.12 2.04 1.99 1.95 1.90 1.84
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32 2.10 2.01 1.96 1.92 1.87 1.81
22 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.34 2.30 2.07 1.98 1.94 1.89 1.84 1.78
23 4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.32 2.27 2.05 1.96 1.91 1.86 1.81 1.76
24 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30 2.25 2.03 1.94 1.89 1.84 1.79 1.73
25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 2.24 2.01 1.92 1.87 1.82 1.77 1.71
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22 1.99 1.90 1.85 1.80 1.75 1.69
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.20 1.97 1.88 1.84 1.79 1.73 1.67
28 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19 1.96 1.87 1.82 1.77 1.71 1.65
29 4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.22 2.18 1.94 1.85 1.81 1.75 1.70 1.64
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16 1.93 1.84 1.79 1.74 1.68 1.62
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08 1.84 1.74 1.69 1.64 1.58 1.51
60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99 1.75 1.65 1.59 1.53 1.47 1.39
120 3.92 3.07 2.68 2.45 2.29 2.18 2.09 2.02 1.96 1.91 1.66 1.55 1.50 1.43 1.35 1.25
∞ 3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.88 1.83 1.57 1.46 1.39 1.32 1.22 1.00
Tabla de la distribución F de Fisher-Snedecor al nivel del 5%
EJEMPLO 3.28:
Calcular Fα para α=0.05, y n=5; m=15 grados de libertad.
Solución:
Se busca en la tabla correspondiente al nivel del 5%, en la primera fila, los
grados de libertad del numerador (5), y en la primera columna los grados de libertad
del denominador (15), apareciendo el valor de Fα en la confluencia de dicha fila y
columna:
197
Así, se verifica que:
F0.05; 5, 15 = 2.90
EJEMPLO 3.29:
Calcular Fα para α=0.95, y n=15; m=5 grados de libertad.
Solución:
Teniendo en cuenta la siguiente propiedad
F!;n,m =
1
F1"!;m,n
se verifica que
F0.95;15,5 =
1
F1!0.95;5,15
=
1
F0.05;5,15
=
1
2.90
= 0.345
198
"DISTRIBUCIÓN NORMAL"
3.3 Ampliación
199
Obviamente al profesor le bastaría con tener en cuenta que la representación
gráfica de la función de densidad es una curva simétrica y que el área bajo la curva es
la unidad, pero entendemos que puede resultarle cómodo disponer de un juego de
ejercicios que contemplen distintos casos de uso frecuente.
El siguiente apartado está redactado de acuerdo a esta idea.
3.3.1 Algunos casos de interés en el
manejo de tablas de la normal
Dada la importancia y el gran uso de la distribución normal, vamos a analizar en
detalle distintos casos que se suelen presentar a la hora de trabajar con esta distribución.
PRIMER CASO
Supondremos como primer caso, el más trivial: calcular la probabilidad de que la
variable aleatoria Z, que sigue una distribución normal estándar, sea menor o igual que
un valor positivo a.
Basta con buscar en la tabla directamente el valor de a, teniendo en cuenta que en
la primera columna de la tabla aparecen las unidades y las décimas del valor a y en la
primera fila el valor de las centésimas.
Como intersección de la fila y la columna correspondiente aparece el valor
P Z ! a
( )
200
0 a
Figura 3.12: Representación gráfica de la información que nos suministra de manera directa
la tabla de la normal con la que vamos a trabajar: P Z ! a
( )
SEGUNDO CASO: En una distribución N(0,1) calcular P Z ! "a
( ) .
Como segundo caso consideraremos, por ejemplo, calcular la probabilidad de que
la variable aleatoria Z tome valores menores o iguales que una cierta cantidad a
negativa, o sea P Z ! "a
( )
La tabla no distingue entre desviaciones positivas y negativas; es decir, en la tabla
sólo aparecen valores positivos. Analicemos, pues, geométricamente la situación.
Figura 3.13.a: El área rayada de la curva representa Figura 3.13.b: El área rayada de la curva
representa P Z ! " a
( ) P Z ! a
( )
La probabilidad pedida se corresponde con el área rayada en la figura 3.13a. El área
rayada en la figura de la izquierda (figura 3.13a) es igual al área rayada en la figura de
la derecha (figura 3.13b). A su vez, ese área es igual al área total, que vale 1, menos el
área no rayada. El área de la superficie no rayada en la gráfica de la derecha es la que
viene en la tabla.
Por tanto:
201
P Z ! "a
( )=1 "P Z ! a
( )
EJEMPLO 3.30:
Calcular P(Z≤-2)
Solución:
P Z ! "2
( )= P Z # 2
( )= 1 "P Z < 2
( ) = 0.9772
TERCER CASO: En una distribución N µ,!
( ) , calcular P Z ! a
( )
Como tercer caso consideraremos la misma situación que en el caso primero pero
suponiendo ahora, que la variable aleatoria sigue una distribución normal no estándar,
de parámetros µ,σ.
En este caso, hemos de cambiar previamente de escala de medida; es decir, es
preciso tipificar primero la variable. El cambio adecuado es z =
x ! µ
"
y por tanto:
P X ! a
( )=P
x " µ
#
!
a " µ
#
$
%
&
'
=P z !
a " µ
#
$
%
&
'
encontrándonos, una vez efectuado el cambio, en la misma situación del primer caso.
EJEMPLO 3.31:
Calcular en una N(2,3) la P(X ≤ 2.14):
Solución:
P X ! 2.14
( )=P
x " 2
3
!
2.14 " 2
3
#
$
%
&
=P z ! 0.05
( )= 0.519
Valor que se obtiene directamente de las tablas, como en el caso anterior.
202
CUARTO CASO: En una distribución N µ,!
( ) , obtener P Z ! "a
( ) .
Se trata, lo mismo que en el caso anterior de dar solución a uno de los supuestos
ya vistos, en concreto al supuesto segundo, pero considerando ahora que trabajamos con
una normal no estándar.
Lo primero que tenemos que hacer es tipificar ya que si no, la igualdad anterior no
se verifica, por tanto:
P X ! "a
( )=P
x " µ
#
!
"a " µ
#
$
%
&
'
=P z ! "
a " µ
#
$
%
&
'
= 1" P z <
a " µ
#
$
%
&
'
EJEMPLO 3.32:
En una N(5,3) calcular P X ! "8
( )
Solución:
P X ! "8
( )=P
x " 5
3
!
"8 " 5
3
#
$
%
&
=P z ! "
13
3
#
$
%
&
= 1 " P z <
13
3
#
$
%
&
=
= 1 ! P z " 4.33
( )= 1 ! 0.9999 = 0.0001
QUINTO CASO: En una distribución N (0,1) calcular P Z ! a
( )
Figura 3.14: El área rayada de la curva representa P Z ! a
( )
Obviamente P Z ! a
( )=1 " P Z < a
( ).
203
SEXTO CASO: En una distribución N µ,!
( ) Obtener P X ! a
( ) :
P X ! a
( )=P
x " µ
#
!
a " µ
#
$
%
&
'
= 1" P z <
a " µ
#
$
%
&
'
SÉPTIMO CASO: En una distribución N(0,1) calcular P a ! Z ! b
( )
Figura 3.15. El área rayada de la curva representa P a ! Z ! b
( )
Observando el gráfico de la figura 3.15 y teniendo en cuenta las propiedades de la
Normal, tenemos:
P a ! Z ! b
( )=P Z ! b
( )" P Z < a
( )
OCTAVO CASO: En una N µ,!
( ) obtener P a ! X ! b
( )
Si en lugar de trabajar con una N(0,1) trabajásemos con una N µ,!
( ) sería preciso,
como en casos anteriores, tipificar. Es decir:
P a ! X ! b
( )= P
a " µ
#
!
x " µ
#
!
b " µ
#
$
%
&
'
= P z !
b " µ
#
$
%
&
'
" P z <
a " µ
#
$
%
&
'
204
EJEMPLO 3.33:
En una N(0,1) calcular P 1! X !1.85
( )
Solución:
P 1! X !1.85
( )=P X !1.85
( )" P X < 1
( ) = 0.9678 " 0.8413 = 0.1265
NOVENO CASO: En una N(0,1) calcular P !a " Z " !b
( )
Figura 3.16. El área rayada de la curva representa P ! a " Z " ! b
( )
P !a " Z " !b
( )=P Z " !b
( )! P Z < !a
( )
Tal como ya sabemos esto se puede escribir:
P Z ! "b
( ) " P Z < "a
( ) = 1" P Z < b
( )" 1 " P Z ! a
( )
[ ]=
= 1 " P Z < b
( )"1 + P Z ! a
( ) = P Z ! a
( ) " P Z < b
( )
EJEMPLO 3.34:
En una N(0,1) calcular P !2.3 " Z " !1.8
( )
Solución:
P !2.3 " Z " !1.8
( ) =P Z " !1.8
( )! P Z < !2.3
( ) =
=1! P Z < 1.8
( )!1 + P Z " 2.3
( )= P Z " 2.3
( )! P Z <1.8
( ) =
= 0.9893 ! 0.9641 = 0.0252
205
Si en lugar de estar en una N(0,1) estuviésemos en una N µ,!
( ), hubiésemos
seguido el mismo razonamiento pero después de tipificar.
DÉCIMO CASO: Cálculo del percentil correspondiente a una probabilidad dada.
Puede ocurrir que conocida la probabilidad p, se nos pregunte qué valor de a
verifica que P X ! a
( )= p
Podemos distinguir dos casos:
a) La variable aleatoria sigue una N(0,1):
En este caso, basta buscar en el interior de la tabla el valor más aproximado a p y
anotar cual es el correspondiente valor de a (en las filas y columnas exteriores de la
tabla)
EJEMPLO 3.35:
¿Cuál es el valor de a para el que P Z ! a
( ) = 0.9251 ?
Solución:
Buscamos dentro de la tabla el valor 0.9251 y vemos que el correspondiente valor
de a es 1.44.
b) La variable aleatoria sigue una normal de parámetros N µ,!
( )
En este caso, hemos de tipificar previamente; es decir, expresar a en la escala
correspondiente a una N(0,1)
EJEMPLO 3.36:
Obtener el valor de a que verifica que P X ! a
( )= 0.8413 en una distribución
N(5,3)
206
Solución:
P X ! a
( )= P Z !
a " 5
3
#
$
%
&
= 0.8413
Buscando esa probabilidad en las tablas obtenemos el valor 1.0; es decir:
a ! 5
3
= 1" a = 3 + 5 = 8
207
"DISTRIBUCIÓN NORMAL"
3.4 Trabajo de investigación
208
3.4.1 Aplicación del manejo de tablas
de la normal a un ejemplo de
investigación
Se sabe que el diámetro de los hematíes de individuos
normales sigue un modelo N(7.5, 0.2) y que el diámetro de los
hematíes de individuos cirróticos sigue un modelo N(8.5 , 0.6).
Supongamos que estamos interesados en clasificar a un
individuo en uno de dos grupos: normal ó cirrótico en base a una
cierta variable: diámetro de los hematíes.
En trabajos reales el estudio se lleva a cabo no sólo considerando la información
de una variable sino de varias, y la solución se obtiene a través de un análisis
multivariante, pero esto excede el nivel de este trabajo.
Para clasificar correctamente a los individuos necesitaríamos conocer cuál es el
máximo valor del diámetro de los hematíes en individuos normales.
Obviamente ese valor no es conocido ya que sólo disponemos de la información
de que el valor del diámetro es una cantidad aleatoria que se ajusta a una normal de
parámetros determinados.
Debemos fijar, pues, el valor M para el diámetro como valor máximo de
forma que los individuos con diámetro menor serán clasificados como normales y
aquéllos que tengan diámetro mayor serán clasificados como patológicos
Fijaremos esta cantidad de forma que el 95%, por ejemplo, de los individuos
sanos quede correctamente clasificado, es decir, de forma que sólo un 5% de los
individuos sanos tenga un diámetro mayor de esa cantidad M.
209
La situación podría representarse gráficamente de la siguiente manera (figura
3.17):
0
6.5 7 7.5 8 8.5 9 9.5 10
M = ?
NORMALES N(7.5; 0.2)
CIRROTICOS N(8.5; 0.6)
Figura 3.17. Representación gráfica de la distribución del diámetro de los hematíes
en individuos sanos y en individuos cirróticos. M será el punto de corte a partir del cual
el individuo será clasificado en una o en otra categoría.
La cantidad M se calcula de forma que se verifique que P X ! M
( ) = 0. 95
teniendo en cuenta que la variable X sigue una ley Normal de media 7.5 y desviación
típica 0.2.
El cálculo es inmediato:
M / P(X<M) = 0.95 en una N(7.5 , 0.2)
P(X<M) = P(Z < (M-7.5)/0.2) = 0.95
(M-7.5)/0.2= 1.645
M = 7.5 + 1.645 . 0.2 = 7.829
Por tanto: Declararemos enfermo (cirrótico) a todo individuo con diámetro de
los hematíes superior a 7.829
210
Debemos tener en cuenta que, según este convenio de clasificación, el 5% de los
individuos sanos serán declarados patológicos erróneamente, es decir, el
procedimiento propuesto proporciona un 5% de "falsos positivos". Llamaremos a este
error, por ejemplo error ! .
Teniendo en cuenta que el diámetro de los hematíes en individuos cirróticos se
ajusta a una ley Normal de media 8.5 y desviación 0.6 es evidente que, con este criterio,
algún individuo enfermo puede ser declarado erróneamente normal. Llamaremos
a este error β, que nos indica el porcentaje de "falsos negativos." Hemos de determinar
qué error β cometemos cuando fijamos un riesgo ! del 5%, es decir, cuando
consideramos que el punto de corte para decidirnos en declarar a los individuos en
sanos o en patológicos es de 7.829.
Para obtener el porcentaje de personas que declararemos como sanas cuando en
realidad son cirróticas basta con determinar en una N (8.5, 0.6) (la de los individuos
cirróticos) la probabilidad de que la variable aleatoria tome valores menores al valor
prefijado como cota.
Es decir:
P(X < 7.829) en una normal N(8.5, 0.6)
P(X < 7.829) = P(Z < (7.829 - 8.5)/0.6) =
P(Z < -1.12) = P(Z> 1.12) = 1 - P(Z<1.12) = 1 - 0.8686
= 0.1314
Observamos como siguiendo el criterio de partida, de prefijar el porcentaje de
falsos positivos en un 5%, obtenemos un 13.14% de malas clasificaciones en individuos
enfermos: El 13.14% de los cirróticos serán declarados normales.
La regla: DECLARAR CIRRÓTICO a un individuo con diámetro de
hematíes superior a 7.829 y NORMAL en caso contrario, da lugar a que:
Un 5% de los normales serán declarados cirróticos (falsos positivos) y
un 13.14% de los cirróticos serán declarados sanos (falsos negativos)
Gráficamente la situación sería (figura 3.18):
211
7 7.5 8 8.5 9 9.5 10
M = 7.8 29
! = 0.05(fijado)
" = 0.1314
6.5
NORMALES N(7.5; 0.2)
CIRROTICOS N(8.5; 0.6)
0
Figura 3.18: Representación gráfica de la distribución del diámetro de hematíes en las dos poblaciones.
Prefijado α queda delimitado el valor de M y el valor de β
Al observar esta situación podríamos pensar en ser más restrictivos y prefijar un
error α más pequeño, por qué no un 1% por ejemplo.
¿Por qué habríamos de arriesgarnos en declarar enfermos a un 5% de los sanos, lo
que socialmente podría tener connotaciones negativas (declaramos cirróticos a
individuos que no lo son), si podemos prefijar este error tan pequeño como queramos.?
Desafortunadamente disminuir el α trae consigo aumentar el β.
Observemos qué ocurriría si quisiéramos disminuir cualquiera de los errores, por
ejemplo ¿qué ocurriría si disminuyésemos α?:
Si α disminuye, β aumenta
En efecto:
Si ! disminuye, por ejemplo ! = 1% , M aumenta.
Veamos como esta afirmación es cierta. Realizar este cálculo es idéntico al caso
anterior sólo que ahora la regla de decisión es distinta:
212
Buscamos un M' (diámetro de las hematíes) que sólo lo superan un 1% de
individuos normales. Se trata de localizar en una N(7.5, 0.2) un valor de la variable que
verifique que el 1% es mayor que él, o lo que es lo mismo un 99% de los individuos
tenga el diámetro de los hematíes menor que dicho valor.
Sea M’ / P(X<M’)=0.99 en una N(7.5 , 0.2)
P(X<M’) = P(Z < (M’-7.5)/0.2) = 0.99
(M’-7.5)/0.2 = 2.33
M’ = 7.5 + 2.33 x 0.2 = 7.966
Observamos que según este criterio el valor de corte es ahora mayor M’> M
Hemos conseguido disminuir el porcentaje de falsos positivos pero cómo saber
cómo se ha modificado el ! .
Se trata de buscar en la normal de los cirróticos la probabilidad de encontrarnos
valores menores que 7.966
P(X < 7.966) = P(Z < (7.966-8.5)/0.6) = 0.1867
El 18.67% de los cirróticos serán declarados normales.
Luego:
Si el porcentaje de falsos positivos disminuye hasta el 1%, el porcentaje de falsos
negativos sobrepasa el 18%.
Nos interesa prefijar los errores pequeños, obviamente a nadie le gusta
asumir riesgos grandes, pero hay que tener cuidado al prefijar los riesgos ya
que ambos tipos de errores están claramente relacionados y disminuir uno de
ellos trae consigo aumentar el otro considerablemente.

Más contenido relacionado

La actualidad más candente

Ejercicios resueltos de la Estadística de Edwin Galindo y de la Politécnica d...
Ejercicios resueltos de la Estadística de Edwin Galindo y de la Politécnica d...Ejercicios resueltos de la Estadística de Edwin Galindo y de la Politécnica d...
Ejercicios resueltos de la Estadística de Edwin Galindo y de la Politécnica d...Mario Suárez
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidadErikadame
 
Practica de muestreo estratificado
Practica de muestreo estratificadoPractica de muestreo estratificado
Practica de muestreo estratificadoAdan Graus Rios
 
Semana 1 sesión 2 aplicaciones de ecuaciones lineales ppt
Semana 1 sesión 2   aplicaciones de ecuaciones lineales pptSemana 1 sesión 2   aplicaciones de ecuaciones lineales ppt
Semana 1 sesión 2 aplicaciones de ecuaciones lineales pptHebet Cueva
 
Ejercicios de derivadas usando las técnicas de derivacion
Ejercicios de derivadas usando las técnicas de derivacionEjercicios de derivadas usando las técnicas de derivacion
Ejercicios de derivadas usando las técnicas de derivacionManuel Marval
 
Ejercicios deber estadistica
Ejercicios deber estadisticaEjercicios deber estadistica
Ejercicios deber estadisticaAlexandra Calero
 
La inflacion
La inflacionLa inflacion
La inflacionluchi1609
 
Monografia demanda y oferta agregada
Monografia demanda y oferta agregadaMonografia demanda y oferta agregada
Monografia demanda y oferta agregadaMike Zárate Quiroga
 
Ejercicio resuelto de microeconomía: función de producción
Ejercicio resuelto de microeconomía: función de producciónEjercicio resuelto de microeconomía: función de producción
Ejercicio resuelto de microeconomía: función de producciónJuan Carlos Aguado Franco
 
Tarea7 intervalosdeconfianza-10
Tarea7 intervalosdeconfianza-10Tarea7 intervalosdeconfianza-10
Tarea7 intervalosdeconfianza-10CUR
 
Optimización de funciones de varias variables sin restricciones
Optimización de funciones de varias variables sin restriccionesOptimización de funciones de varias variables sin restricciones
Optimización de funciones de varias variables sin restriccionesAstocóndor Fuertes Eva Inés
 
Cálculo Integral para Empresariales
Cálculo Integral para EmpresarialesCálculo Integral para Empresariales
Cálculo Integral para EmpresarialesJuliho Castillo
 

La actualidad más candente (17)

Ejercicios resueltos de la Estadística de Edwin Galindo y de la Politécnica d...
Ejercicios resueltos de la Estadística de Edwin Galindo y de la Politécnica d...Ejercicios resueltos de la Estadística de Edwin Galindo y de la Politécnica d...
Ejercicios resueltos de la Estadística de Edwin Galindo y de la Politécnica d...
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 
Practica de muestreo estratificado
Practica de muestreo estratificadoPractica de muestreo estratificado
Practica de muestreo estratificado
 
Dual y primal
Dual y primalDual y primal
Dual y primal
 
Semana 1 sesión 2 aplicaciones de ecuaciones lineales ppt
Semana 1 sesión 2   aplicaciones de ecuaciones lineales pptSemana 1 sesión 2   aplicaciones de ecuaciones lineales ppt
Semana 1 sesión 2 aplicaciones de ecuaciones lineales ppt
 
Ejercicios de derivadas usando las técnicas de derivacion
Ejercicios de derivadas usando las técnicas de derivacionEjercicios de derivadas usando las técnicas de derivacion
Ejercicios de derivadas usando las técnicas de derivacion
 
MICROECONOMIA I-EJERCICIOS RESUELTOS
MICROECONOMIA I-EJERCICIOS RESUELTOSMICROECONOMIA I-EJERCICIOS RESUELTOS
MICROECONOMIA I-EJERCICIOS RESUELTOS
 
ANALISIS FINANCIERO EXPOSICION.pptx
ANALISIS FINANCIERO EXPOSICION.pptxANALISIS FINANCIERO EXPOSICION.pptx
ANALISIS FINANCIERO EXPOSICION.pptx
 
Ejercicios deber estadistica
Ejercicios deber estadisticaEjercicios deber estadistica
Ejercicios deber estadistica
 
Estimadores
EstimadoresEstimadores
Estimadores
 
Estadistica 2
Estadistica 2Estadistica 2
Estadistica 2
 
La inflacion
La inflacionLa inflacion
La inflacion
 
Monografia demanda y oferta agregada
Monografia demanda y oferta agregadaMonografia demanda y oferta agregada
Monografia demanda y oferta agregada
 
Ejercicio resuelto de microeconomía: función de producción
Ejercicio resuelto de microeconomía: función de producciónEjercicio resuelto de microeconomía: función de producción
Ejercicio resuelto de microeconomía: función de producción
 
Tarea7 intervalosdeconfianza-10
Tarea7 intervalosdeconfianza-10Tarea7 intervalosdeconfianza-10
Tarea7 intervalosdeconfianza-10
 
Optimización de funciones de varias variables sin restricciones
Optimización de funciones de varias variables sin restriccionesOptimización de funciones de varias variables sin restricciones
Optimización de funciones de varias variables sin restricciones
 
Cálculo Integral para Empresariales
Cálculo Integral para EmpresarialesCálculo Integral para Empresariales
Cálculo Integral para Empresariales
 

Similar a Distribuciones

Similar a Distribuciones (20)

Conceptos básicos
Conceptos básicosConceptos básicos
Conceptos básicos
 
Probabilidad 2
Probabilidad 2 Probabilidad 2
Probabilidad 2
 
Distribucioones discretas
Distribucioones discretasDistribucioones discretas
Distribucioones discretas
 
Estadisticadocx
EstadisticadocxEstadisticadocx
Estadisticadocx
 
2 distribución de probabilidad discreta
2 distribución de probabilidad discreta2 distribución de probabilidad discreta
2 distribución de probabilidad discreta
 
Variables aleatorias. estadistica 1
Variables aleatorias. estadistica 1Variables aleatorias. estadistica 1
Variables aleatorias. estadistica 1
 
DefinicióN Variable Aleatoria Discreta
DefinicióN Variable Aleatoria DiscretaDefinicióN Variable Aleatoria Discreta
DefinicióN Variable Aleatoria Discreta
 
DISTRIBUCIÓN DISCRETA.pptx
DISTRIBUCIÓN DISCRETA.pptxDISTRIBUCIÓN DISCRETA.pptx
DISTRIBUCIÓN DISCRETA.pptx
 
Unidad 4b
Unidad 4bUnidad 4b
Unidad 4b
 
Distribución Binomial o Bernoulli.ppt
Distribución Binomial o Bernoulli.pptDistribución Binomial o Bernoulli.ppt
Distribución Binomial o Bernoulli.ppt
 
Variable aleatoria
Variable aleatoriaVariable aleatoria
Variable aleatoria
 
Estadistica Aplicada
Estadistica AplicadaEstadistica Aplicada
Estadistica Aplicada
 
Fase2 100402 grupo_292
Fase2 100402 grupo_292Fase2 100402 grupo_292
Fase2 100402 grupo_292
 
Fase2 100402 grupo_292
Fase2 100402 grupo_292Fase2 100402 grupo_292
Fase2 100402 grupo_292
 
Distribuciones2 de probabilidad.lm
Distribuciones2 de probabilidad.lmDistribuciones2 de probabilidad.lm
Distribuciones2 de probabilidad.lm
 
probabilidad discreta
probabilidad discretaprobabilidad discreta
probabilidad discreta
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 
estadistica-discretas PROBABILIDAD Y ESTADISTICA
estadistica-discretas PROBABILIDAD Y ESTADISTICAestadistica-discretas PROBABILIDAD Y ESTADISTICA
estadistica-discretas PROBABILIDAD Y ESTADISTICA
 
Probabilidad Variables Aleatorias
Probabilidad Variables AleatoriasProbabilidad Variables Aleatorias
Probabilidad Variables Aleatorias
 
Distribución de Probabilidad
Distribución de ProbabilidadDistribución de Probabilidad
Distribución de Probabilidad
 

Último

PRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.docPRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.docmilumenko
 
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdfmercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdfGegdielJose1
 
abrogar, clases de abrogacion,importancia y consecuencias
abrogar, clases de abrogacion,importancia y consecuenciasabrogar, clases de abrogacion,importancia y consecuencias
abrogar, clases de abrogacion,importancia y consecuenciasDeniseGonzales11
 
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdfQUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdflupismdo
 
Sistema_de_Abastecimiento en el peru.pptx
Sistema_de_Abastecimiento en el  peru.pptxSistema_de_Abastecimiento en el  peru.pptx
Sistema_de_Abastecimiento en el peru.pptxJUANJOSE145760
 
Estructura y elaboración de un presupuesto financiero
Estructura y elaboración de un presupuesto financieroEstructura y elaboración de un presupuesto financiero
Estructura y elaboración de un presupuesto financieroMARTINMARTINEZ30236
 
Principios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdfPrincipios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdfauxcompras5
 
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.ManfredNolte
 
PRESUPUESTOS COMO HERRAMIENTA DE GESTION - UNIAGUSTINIANA.pptx
PRESUPUESTOS COMO HERRAMIENTA DE GESTION - UNIAGUSTINIANA.pptxPRESUPUESTOS COMO HERRAMIENTA DE GESTION - UNIAGUSTINIANA.pptx
PRESUPUESTOS COMO HERRAMIENTA DE GESTION - UNIAGUSTINIANA.pptxmanuelrojash
 
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICOlupismdo
 
puntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdfpuntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdfosoriojuanpablo114
 
Análisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en UruguayAnálisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en UruguayEXANTE
 
El cheque 1 y sus tipos de cheque.pptx
El cheque  1 y sus tipos de  cheque.pptxEl cheque  1 y sus tipos de  cheque.pptx
El cheque 1 y sus tipos de cheque.pptxNathaliTAndradeS
 
Politicas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptxPoliticas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptxvladisse
 
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdfMANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdflupismdo
 
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPTMETODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPTrodrigolozanoortiz
 
Sistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacionSistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacionPedroSalasSantiago
 
Dino Jarach - El Hecho Imponible2024.pdf
Dino Jarach - El Hecho Imponible2024.pdfDino Jarach - El Hecho Imponible2024.pdf
Dino Jarach - El Hecho Imponible2024.pdfAdrianKreitzer
 
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOSTEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOSreyjuancarlosjose
 

Último (20)

PRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.docPRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
 
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdfmercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
 
abrogar, clases de abrogacion,importancia y consecuencias
abrogar, clases de abrogacion,importancia y consecuenciasabrogar, clases de abrogacion,importancia y consecuencias
abrogar, clases de abrogacion,importancia y consecuencias
 
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdfQUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
 
Sistema_de_Abastecimiento en el peru.pptx
Sistema_de_Abastecimiento en el  peru.pptxSistema_de_Abastecimiento en el  peru.pptx
Sistema_de_Abastecimiento en el peru.pptx
 
Estructura y elaboración de un presupuesto financiero
Estructura y elaboración de un presupuesto financieroEstructura y elaboración de un presupuesto financiero
Estructura y elaboración de un presupuesto financiero
 
Principios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdfPrincipios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdf
 
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.
 
PRESUPUESTOS COMO HERRAMIENTA DE GESTION - UNIAGUSTINIANA.pptx
PRESUPUESTOS COMO HERRAMIENTA DE GESTION - UNIAGUSTINIANA.pptxPRESUPUESTOS COMO HERRAMIENTA DE GESTION - UNIAGUSTINIANA.pptx
PRESUPUESTOS COMO HERRAMIENTA DE GESTION - UNIAGUSTINIANA.pptx
 
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
 
puntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdfpuntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdf
 
Análisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en UruguayAnálisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en Uruguay
 
El cheque 1 y sus tipos de cheque.pptx
El cheque  1 y sus tipos de  cheque.pptxEl cheque  1 y sus tipos de  cheque.pptx
El cheque 1 y sus tipos de cheque.pptx
 
Politicas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptxPoliticas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptx
 
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdfMANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
 
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPTMETODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
 
Sistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacionSistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacion
 
Dino Jarach - El Hecho Imponible2024.pdf
Dino Jarach - El Hecho Imponible2024.pdfDino Jarach - El Hecho Imponible2024.pdf
Dino Jarach - El Hecho Imponible2024.pdf
 
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOSTEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
 
Mercado Eléctrico de Ecuador y España.pdf
Mercado Eléctrico de Ecuador y España.pdfMercado Eléctrico de Ecuador y España.pdf
Mercado Eléctrico de Ecuador y España.pdf
 

Distribuciones

  • 1. 143 3 3 Tercera Unidad Didáctica "DISTRIBUCIONES DE PROBABILIDAD DISCRETAS" 3.1 Parte básica
  • 2. 144 3.1.1 Variables aleatorias En cualquier experimento aleatorio tenemos resultados cualitativos o cuantitativos. Con el objeto de facilitar el estudio matemático, a cada uno de estos resultados le hacemos corresponder un número real. Por ejemplo, el resultado de tomar un español al azar y medir su estatura es un número; el resultado de tomar una familia al azar y anotar el número de hijos es un número; el resultado de aplicar un tratamiento a un enfermo y observar si se cura o no, es un dato cualitativo, que puede convertirse en cuantitativo asignando un "1" al enfermo que se cura y un "0" al enfermo que no se cura. En realidad lo que estamos haciendo es asignar a cada suceso del espacio muestral un número, pero esta asignación no tiene por qué ser única. Pongamos un ejemplo: lanzamos dos dados al aire y a cada suceso elemental le podemos asignar la suma, el producto, etc., de los números que aparecen en las caras superiores. Al igual que los resultados de un fenómeno aleatorio no son predecibles, los resultados de una variable aleatoria tampoco lo son, pero podemos calcular la probabilidad de que ocurra un determinado suceso. A veces puede ocurrir que los valores que toma la variable aleatoria son los mismos, pero no ocurre lo mismo con las probabilidades. Pongamos un ejemplo. Se dispone de dos fármacos A y B distintos para curar una misma enfermedad; los resultados de la variable aleatoria solamente pueden ser 1 ó 0 y uno de ellos puede curar el 20% de los casos y el otro el 70%. Para tener identificada una variable aleatoria no basta con indicar los valores que pueda tomar, hay que indicar también sus probabilidades. Una variable aleatoria X es toda función que toma diversos valores numéricos (dependientes del resultado de un fenómeno aleatorio) con distintas probabilidades.
  • 3. 145 Cuando la variable aleatoria toma un número finito o infinito numerable* de valores, diremos que es una "variable aleatoria discreta". Veamos ejemplos: En el caso del lanzamiento de un dado perfecto, la variable aleatoria X= "número que sale en la cara superior" puede tomar los valores X={1, 2, 3, 4, 5, 6} con probabilidades P(X)={1/6, 1/6, 1/6, 1/6, 1/6, 1/6}. Si consideramos la variable aleatoria X= "número de varones en una familia de dos hijos", X={0, 1, 2} y P(X)={1/4, 1/2, 1/4}. (Observar el espacio muestral del experimento aleatorio). En general diremos, que una variable aleatoria discreta estará identificada si conocemos sus posibles valores X = {x1,x2 ,...,xn} y sus respectivas probabilidades P(X = xi ) = Pi Observemos que la suma de las probabilidades es 1: Pi i ! = 1 A toda regla que permita asociar a cada valor xi de la variable aleatoria su probabilidad Pi, la llamaremos "función de probabilidad". Tal función de probabilidad puede venir dada por una tabla: X 0 1 2 P(X) 1/4 1/2 1/4 o bien por una fórmula matemática. También podemos definir la variable aleatoria a través de la "función de distribución". F(X) = P(X ! x) * Un conjunto infinito A se dice que es numerable si se puede establecer una aplicación biyectiva f entre el conjunto de los naturales y A.
  • 4. 146 F(X) no es más que la probabilidad de que la variable X tome valores menores o iguales que x. En el ejemplo anterior: F(0) = P(X ! 0) = P(X = 0) F(1) = P(X !1) = P(X = 0) + P(X = 1) F(2) = P(X ! 2) = P(X = 0) + P(X = 1) + P(X = 2) De un modo general, a toda tabla, gráfica o expresión matemática que indique los valores que puede tomar una variable aleatoria y las probabilidades con que los toma, se llamará "distribución de probabilidad de dicha variable aleatoria". El concepto de variable aleatoria proporciona un medio para relacionar cualquier resultado con una medida cuantitativa. 3.1.2 Esperanza, varianza y desviación típica de una variable aleatoria Se llama esperanza de la variable aleatoria discreta X, al número: E X [ ] = x1p1 + x2p2 +...+xnpn x1, x2 ,. .., xn son los valores de la variable aleatoria y p1, p2, ..., pn las probabilidades respectivas. La esperanza de una variable aleatoria X también se representa por µ, y se llama media de la distribución. Por tanto, "esperanza de la variable aleatoria" y "media de la distribución" son expresiones equivalentes. µ = pixi i=1 n ! = E X [ ] El conocimiento de la media de la distribución no es suficiente para caracterizar la distribución, ya que hay distribuciones con la misma media y distintas unas de otras.
  • 5. 147 Para medir la dispersión de los valores de una variable aleatoria X respecto de su media µ, se define el siguiente estadístico llamado varianza: V X [ ] = E x ! µ ( )2 [ ] Es decir: V X [ ] = x1 ! µ ( )2 p1 + x2 ! µ ( )2 p2 +...+ xn ! µ ( )2 pn Puesto que la varianza no podría medirse en las mismas unidades que la variable, utilizamos la raíz cuadrada de la varianza y a este número la llamamos desviación típica. Desv X [ ]= V X [ ] Desv X [ ]= x1 ! µ ( )2 p1 + x2 ! µ ( )2 p2 +...+ xn ! µ ( )2 pn EJEMPLO 3.1: Calcular la media y la varianza del número de hijos varones de una familia con dos hijos. Solución: E={VV, VH, HV, HH} X={0, 1, 2}= "número de hijos varones de una familia con dos hijos" P1 = P(X = 0) = 1/ 4 P2 = P(X =1) = 2 / 4 =1 / 2 P3 = P(X = 2) = 1/ 4 ! " # $ # 1 / 4 +1 / 2 + 1/ 4 =1 En promedio, una familia con dos hijos tiene un hijo varón con una varianza de 1/2.
  • 6. 148 EJEMPLO 3.2: Tras una intervención quirúrgica de un tipo determinado, el equipo médico mantuvo en el hospital a unos pacientes cinco días y a otros ocho. De éstos últimos no regresó ninguno al hospital y el coste de cada uno ascendió a 90.000 pts., mientras que de los dados de alta a los cinco días, las dos terceras partes no regresaron al hospital y el coste por cada individuo fue de 50.000 pts. El otro tercio restante tuvo que regresar al hospital ocasionando unos gastos totales por individuo de 150.000 pts. En términos puramente económicos, ¿es preferible dar de alta a los enfermos a los cinco o a los ocho días?. Solución: Se trata de calcular el coste promedio en ambos casos. En el supuesto de que los pacientes estén ingresados 8 días, el coste promedio es de 90.000 pts., y en el supuesto de que los pacientes estén 5 días, la variable aleatoria se distribuye de la siguiente forma: X 50.000 150.000 P(X) 2/3 1/3 El coste promedio en este caso será: E[X] = 50.000 2 3 +150.000 1 3 = 83.330pts. Puesto que 83.333 < 90.000, esto indica que es preferible, desde el punto de vista económico, tener ingresados a los pacientes cinco días. La varianza la calculamos de la siguiente forma: V[X] = (50.000 ! 83.000) 2 2 3 + (150.000 ! 83.330) 2 1 3 = 2, 2 10 9
  • 7. 149 3.1.3 Distribución Binomial Hay muchas situaciones en las que sólo interesa conocer si un determinado suceso se produce o no se produce. Si el suceso ocurre, diremos que hemos obtenido un éxito y lo simbolizamos por E y si no ocurre diremos que hemos obtenido un fracaso y lo simbolizamos por F. La probabilidad de éxito la llamamos p La probabilidad de fracaso la llamamos q Lógicamente p+q=1 Se trata de un experimento aleatorio que no tiene más que dos resultados posibles E y F tales que P(E)=p y P(F)=q Es interesante el caso en el que se repitan pruebas independientes del mismo experimento y la probabilidad de éxito se mantenga constante en todas ellas. Supongamos que el número de pruebas es cinco (n=5). Un posible resultado sería: EFFEE Si queremos calcular la probabilidad, teniendo en cuenta que las pruebas son independientes: P(EFFEE) = P(E) P(F) P(F) P(E) P(E) = p q q p p = p3 q2 Responden a este modelo experimentos como los siguientes: - Lanzar una moneda varias veces considerando éxito la obtención de cara. Entonces p=q=1/2 - Lanzar un dado varias veces, considerando éxito que salga el 6 y fracaso que no salga el 6. En este caso p=1/6 y q=5/6.
  • 8. 150 - La clasificación de las piezas fabricadas por una máquina, considerando éxito las piezas aceptables y fracaso las piezas defectuosas. En este caso p y q se asignan haciendo un estudio de gran número de piezas. Diremos que un experimento sigue un modelo binomial si, en cada ejecución, sólo hay dos posibles resultados (E y F), las pruebas son independientes y la probabilidad de éxito es constante. La idea es la de construir un modelo de asignación de probabilidades de estas características. Llamaremos variable aleatoria binomial a: X = "número de éxitos en n pruebas" Se pueden asignar probabilidades mediante un diagrama en árbol: F E F E E E E E F F F F E F p q p q p q p q p q p q p q EEE F E E EEF F E F EE F E F F E F F F F F p3 p2q p2q pq2 p2q pq2 pq2 q3 COMIENZO 1ª PRUEBA 2ª PRUEBA 3ª PRUEBA RESUL. PROB.
  • 9. 151 Construir el árbol puede ser una tarea larga y conviene buscar una fórmula general para un experimento binomial. Convengamos en identificar todos aquellos resultados que tienen el mismo número de éxitos. Tras n pruebas nos encontraríamos con: EE...E! " ! pn EE...EF ! " ! npn#1q EE...EFF! " ! n n #1 ( )pn#2 q2 ............................................. EF...F ! " ! npqn#1 FF... F! " ! qn Las distintas probabilidades son los sumandos del desarrollo del binomio (p+q)n, por lo que: P X = r ( ) = n r ! " # $ % pr qn& r Convenimos en designar al experimento binomial con n pruebas, siendo p la probabilidad de éxito, como B(n,p). EJEMPLO 3.3: Se lanza un dado 7 veces. Calcular la probabilidad de obtener 3 seises. p = P(E) = 1/6 n=7 q = P(F) =5/6 K=3 Solución: X = "número de seises que aparecen al lanzar un dado 7 veces". P(X = 3) = 7 3 ! " # $ % 1 6 ! " $ % 3 5 6 ! " $ % 4 = 0' 08
  • 10. 152 EJEMPLO 3.4: Calcular la probabilidad de obtener al menos una cara, al lanzar una moneda cinco veces. Solución: X = "número de caras que se obtienen al lanzar una moneda cinco veces" P(x>1) = P(x=2)+P(x=3)+P(x=4)+P(x=5) Utilizando el suceso contrario: P(x>1) = 1-P(x≤1) = 1-(P(x=0)+P(x=1)) = = 1 - 1/2 1/2 1/2 1/2 1/2 - 1/2 1/2 1/2 1/2 1/2 EJEMPLO 3.5: Supongamos que en un departamento de control de calidad se examinan lotes de cuatro artículos y se sabe que la probabilidad de que un artículo sea defectuoso es P(D)=1/10 (por lo que la probabilidad de que sea aceptable es P(A)=1-P(D)=9/10). Definimos la variable aleatoria de manera que a cada elemento del espacio muestral, le asociamos el número de piezas defectuosas. x={0,1,2,3,4}. Calcular la probabilidad asociada a cada valor de la variable. Solución: Calculamos sus probabilidades: P(x = 0) = 9 4 ! " # $ 4 = 0, 6561 P(x =1) = 1 10 9 10 ! " # $ 3 4 1 ! " % # $ = 0, 2961 Incluimos el número combinatorio 4 1 ! " # $ % porque se pueden dar cuatro posibilidades. DAAA, ADAA, AADA, AAAD
  • 11. 153 P(x = 2) = 1 10 ! " # $ 2 9 10 ! " # $ 2 4 2 ! " % # $ = 0, 0486 P(x = 3) = 1 10 ! " # $ 3 9 10 4 3 ! " % # $ = 0, 0036 P(x = 4) = 1 10 ! " # $ 4 = 0, 0001 EJEMPLO 3.6: Hallar las probabilidades del experimento binomial B(4,1/3). Solución: P(x = 0) = 4 0 ! " # $ % 1 3 ! " $ % 0 2 3 ! " $ % 4 = 0,1975 P(x =1) = 4 1 ! " # $ % 1 3 ! " $ % 1 2 3 ! " $ % 3 = 0, 3951 P(x = 2) = 4 2 ! " # $ % 1 3 ! " $ % 2 2 3 ! " $ % 2 = 0, 2963 P(x = 3) = 4 3 ! " # $ % 1 3 ! " $ % 3 2 3 = 0, 0988 P(x = 4) = 4 4 ! " # $ % 1 3 ! " $ % 4 = 0, 0123 EJEMPLO 3.7: En una empresa de fabricación de automóviles se ha observado que el 2% presenta algún defecto. Calcular la probabilidad de que en una muestra aleatoria de 5 automóviles se encuentren a lo sumo dos defectuosos. Solución: La variable X = "número de automóviles defectuosos", sigue una B(50,0'02). P X ! 2 ( ) = P X = 0 ( )+ P X =1 ( )+ P X = 2 ( ) = 50 0 " # $ % & 0, 02 ( )0 0, 98 ( )50 + 50 1 " # $ % & 0, 02 ( ) 0, 98 ( )49 + 50 2 " # $ % & 0, 02 ( )2 0, 98 ( )48
  • 12. 154 P(X ! 2) = 0' 9216 A medida que aumenta el valor de n se complican los cálculos y es conveniente utilizar tablas. 3.1.3.1 Manejo de tablas Las tablas están elaboradas con la siguiente estructura (figura 3.1): n r p 0.01 0.05 ... 0.50 2 0 1 2 3 0 1 2 3 ... ... ... ... ... ... 10 0 1 ... 10 Figura 3.1: Estructura de la tabla de la Distribución Binomial Si estamos en una B(5,0'45), buscaremos el 5 en la columna de n y si nos piden P(X=4), dentro del grupo n=5, buscamos r=4. En la fila de p buscamos 0'45 y en la confluencia de la horizontal y la vertical, tendremos el valor de la probabilidad. Podemos encontrarnos con un problema en el caso de ser p>0'5, pues no puede emplearse la tabla directamente, sino que tendremos que tener en cuenta la siguiente propiedad: P X = r ( ) = n r ! " # $ % pr qn& r = n n & r ! " # $ % pn& r qr Función de densidad de una variable aleatoria que siga una B(n,p) con n-r éxitos. P(X=r) en una B(n,p) = P(X=n-r) en una B(n,q)
  • 13. 155 3.1.3.2 Media y desviación típica de una variable Binomial MEDIA: µ = E x [ ]= x0p0 + x1p1+...+xnpn = = 0 n 0 ! " # $ % qn + 1 n 1 ! " # $ % pqn&1 +...+n n n ! " # $ % pn = np VARIANZA: !2 = V x [ ]= x " µ ( )2 i=1 n # pi = npq DESVIACIÓN TÍPICA: ! = npq EJEMPLO 3.8: Supongamos que tenemos cinco instrumentos y que sabemos que en promedio un determinado instrumento está averiado uno de cada diez días. ¿Cuál es la probabilidad de que en un día más de tres instrumentos estén averiados?. ¿Cuál es el número esperado de instrumentos averiados al día?. Solución: Nuestra variable será: X = "número de instrumento averiados en un día" Sólo hay dos posibles sucesos: E: Estar averiado F: No estar averiado. X ~ B(n=5, p=0'1) La función de densidad será:
  • 14. 156 P x = r ( ) = 5 r ! " # $ % pr q5&r = 5 r ! " # $ % 0,1r 0, 95& r P x > 3 ( )= P x = 4 ( )+ P x = 5 ( ) = 4 = 5 4 ! " # $ % p4 q + 5 5 ! " # $ % 0,15 0, 90 = 4, 6 10&4 E x [ ] = np = 5 0,1 = 0, 5 Se avería un instrumento cada dos días. EJEMPLO 3.9: La probabilidad de que un estudiante obtenga el título de Licenciado en Biología es 0'3. Hallar la probabilidad de que de un grupo de 7 estudiantes matriculados en primer curso: a) Ninguno de los siete finalice la carrera. b) La finalicen todos. c) Al menos dos acaben la carrera. Asimismo, hallar la media y la desviación típica del número de alumnos que acaban la carrera. Solución: Los sucesos son: E(éxito): acabar la carrera P(E) = p = 0'3 F(fracaso): no acabar la carrera P(F) = q = 0'7 El número de pruebas es siete n = 7 Las pruebas son independientes, porque lo que ocurra con un alumno no tiene nada que ver con lo que le ocurra a otro. a) P X = r ( ) = n r ! " # $ % pr qn& r
  • 15. 157 P(x = 0) = n 0 ! " # $ % p0 qn = 7 0 ! " # $ % q7 = 0, 77 = 0, 0824 b) P(x = 7) = 7 7 ! " # $ % 0, 3 7 q 0 = 0, 0002 Imposible c) P X ! 2 ( ) = P X = 2 ( )+ P X = 3 ( )+...+P X = 7 ( )= 1 " P(X # 1) =1 " P(r = 0) + P(r =1) ( )= = 1 " 0, 0824 " 0, 2471 = 0, 6705 Parámetros: E x [ ] = np = 7 0, 3 = 2,1 V x [ ] = npq = 2, 1 0, 7 =1, 47 ! = 1, 47 EJEMPLO 3.10: En recientes estudios realizados sobre pacientes portadores de SIDA, se ha podido determinar que el 70% consume algún tipo de droga. En la sala de espera de una consulta especializada en esta enfermedad se encuentran en un determinado momento seis personas. ¿Cuál es la probabilidad de que ninguno haya consumido droga?. Solución: E: "No consumir droga" P(E) = 0'3 = p F: "Consumir droga" P(F) = 0'7 = q Cada paciente es un caso distinto n=6 P x = 0 ( )= 6 0 ! " # $ % p0 q6 = 0, 1176 EJEMPLO 3.11: Una población de 20 animales insectívoros se introduce en una zona donde el 14% de los insectos que le sirven de alimento son venenosos. Cada animal devora al día 5 insectos. Calcular la probabilidad de que al cabo de una semana queden, como mínimo, la mitad.
  • 16. 158 Solución: Suponiendo independencia se tiene: P(no comer insecto venenoso) = 1-0'14 = 0'86 P(un animal no se envenene en un día) = P(comer 5 insectos no venenosos) = = (0'86)5 = 0'47042 P(un animal no se envenene en 7 días) = (0,47042)7=0,005 P(un animal se envenene en 7 días) = 1-0'005 = 0'995 Sea X: "número de animales envenenados en una semana. X ~ B(20,0'995) P x !10 ( ) = 20 k " # $ % & k=0 10 ' 0, 995 k 0, 005 10( k = 2, 08975 10 (18 3.1.4 Distribución de Poisson En este caso la variable aleatoria representa el número de sucesos independientes que ocurren, a una velocidad constante, en el tiempo o en el espacio. Su nombre lo debe al francés Simeón Denis Poisson, que fue el primero en describirla en el Siglo XIX. Veamos algunos ejemplos típicos de esta distribución: • El número de personas que llega a una tienda de autoservicio en un tiempo determinado. • El número de solicitudes de seguro procesadas por una compañía en un período específico. • El número de bacterias en un cultivo. La distribución de Poisson es el modelo de probabilidad que más se utiliza para analizar problemas de listas de espera. Podemos hablar de las siguientes características de una distribución de Poisson:
  • 17. 159 1- Debemos tener un fenómeno dicotómico (ocurrencia o no de un determinado suceso). 2- Las pruebas que se realicen han de ser independientes y la probabilidad de éxito se ha de mantener constante en todas ellas. 3- Los sucesos han de ser poco comunes, por eso se le conoce como "Ley de los sucesos raros". 4- Puesto que la probabilidad de éxito ha de ser pequeña, entendemos que p<0.05 y puesto que n ha de ser grande, entendemos n>100. 5- Los sucesos ocurren en un intervalo de tiempo. 6- Se caracteriza por un parámetro ! , que es el número medio de ocurrencia del suceso aleatorio por unidad de tiempo. 7- Siempre que la media y la varianza sean similares, podemos pensar en un modelo de Poisson. Media: E x [ ] = np = ! Varianza: V x [ ] = ! = E x [ ] Es importante el hecho de que una distribución binomial en la que n es grande y p pequeño tiene una aproximación excelente con la distribución de Poisson. La función de probabilidad será el límite de la función de densidad de la binomial cuando n ! ", p ! 0 y np ! " lim n!" p!0 np!# n r $ % & ' ( p r q n)r = lim n!" p!0 n r $ % & ' ( lim p!0 p r lim n!" q n)r Teniendo en cuenta que p = ! n
  • 18. 160 lim n!" n! r!(n # r)! $ n % & ' ( r lim n!" 1 # $ n % & ' ( n#r = = lim n!" n(n #1)...(n # r +1) r! $r n r lim n!" 1 # $ n % & ' ( n 1 # $ n % & ' ( r = $ r r! lim n!" n(n # 1)...(n # r + 1) nr lim n!" 1 # $ n % & ' ( n lim n!" 1 # $ n % & ' ( r [1] Calculamos cada uno de estos límites: lim n!" n n n # 1 n ... n # r +1 n ! 1 lim n!" 1 # $ n % & ' ( n ! lim n!" 1 + 1 n #$ % & ) ) ' ( * * # n $ + , - - - . / 0 0 0 #$ ! e#$ lim n!" 1 # $ n % & ' ( r !1 Sustituyendo en [1] tenemos: P(!) = !r r! e " ! Es la función de densidad de la distribución de Poisson. EJEMPLO 3.12: Un comprador de grandes cantidades de circuitos integrados ha adoptado un plan para aceptar un envío de éstos, que consiste en inspeccionar una muestra de 100 circuitos provenientes del lote. Si el comprador encuentra no más de dos circuitos defectuosos en la muestra, acepta el lote; de otra forma, lo rechaza. Si se envía al comprador un lote que contiene el 1% de circuitos defectuosos, ¿cuál es la probabilidad de que sea aceptado el lote?. Solución:
  • 19. 161 Nuestra variable es: X: "número de circuitos defectuosos en la muestra". X~B(n=100, p=0'01) np=1 Si n≥50 y p≤0,1 se comporta aproximadamente como una Poisson. P(aceptar el lote) = P x ! 2 ( ) = P x = 0 ( )+ P x =1 ( )+ P x = 2 ( ) = = e"1 10 0! + e"111 1! + e"112 2! = 0, 9197 P(aceptar el lote) = 90% EJEMPLO 3.13: Es conocido el hecho de que cierto tipo de bacterias poseen, además de sus cromosomas, otras estructuras de ADN llamadas factores de resistencia. Estos factores confieren a la bacteria resistencia a uno o varios antibióticos. En un determinado medio el 0,06% de las bacterias no poseen dicha propiedad. Sobre una población de 10.000 se desea saber: a) La probabilidad de que el número de bacterias no poseyendo dicha resistencia sea superior a 6, pero inferior a 15. b) La probabilidad de que haya exactamente 5 sin resistencia antibiótica. Solución: Sea X el "número de bacterias que no poseen resistencia a los antibióticos". X~B(n=10.000, p=0'0006)~P(! =np=6) a)P(6 < x <15) = P x !14 ( )" P x ! 6 ( ) = 0, 9986 " 0, 6063 = 0, 3923 b)P x = 5 ( ) = e !6 65 5! = 0,1606 EJEMPLO 3.14: La probabilidad de que dos aminoácidos determinados se combinen para formar un dipéptido es muy pequeña y, en consecuencia, el número de dipéptidos de una
  • 20. 162 determinada composición que puedan observarse al analizar un conjunto de proteínas sigue una distribución de Poisson, que por otras investigaciones sabemos que tiene parámetro ! =0,4. Si denominamos como X el número de dipéptidos observados en una composición determinada: a) Calcular la probabilidad de no encontrar ninguno de tales dipéptidos en dicha composición. b) Probabilidad de encontrar dos o más. Solución: a) P x = 0 ( )= e !" "0 0! = e !0,4 b) P(x ! 2) = 1" P x <1 ( )= 1 " P x = 0 ( )" P x = 1 ( ) = = 1 " e"0,4 #0 0! " e"0,4 0, 41 1! = 1" 1 e0,4 " 0, 4 e0,4 EJEMPLO 3.15: El número medio de automóviles que llega a una estación de suministro de gasolina es de 210 por hora. Si dicha estación puede atender a un máximo de diez automóviles por minuto, determinar la probabilidad de que en un minuto dado, lleguen a la estación de suministro más automóviles de los que puedan atender. Solución: La variable aleatoria X es el "número de automóviles que llegan a la estación de servicio en un minuto ". El suceso éxito (1) consiste en que en un instante cualquiera llegue un automóvil a la estación de suministro . p es la probabilidad de éxito y es suficientemente pequeña, sin embargo , la prueba puede repetirse un número suficientemente grande de veces.
  • 21. 163 Ocurre un determinado suceso en un intervalo de tiempo . Cumple las condiciones de Poisson. P x = r ( ) = !r r! e"! ! es el número medio de veces que se da el suceso de probabilidad p. ! = 210 60 = 3, 5 La estación no podrá atender si llegan más de 10 automóviles por minuto. P X >10 ( ) = P x = r ( ) r=11 ! " = 1 # P x = r ( ) r=0 10 " = = 1 # 3,50 0! e#3,5 +...+ 3,510 10! e#3,5 $ % & ' ( ) =1 # 0, 9991 = 0, 0009 EJEMPLO 3.16: El número de clientes que llega a un banco es una variable de Poisson. Si el número promedio es de 120 por hora, ¿cuál es la probabilidad de que en un minuto lleguen por lo menos tres clientes?. Solución: X: "número de clientes que llega a un banco en un minuto". E[x]=120 clientes por hora. E[X] = 120 60 = 2 = ! P X ! 3 ( ) = 1" P X < 3 ( )= 1 " P x = 0 ( )+ P x =1 ( )+ P x = 2 ( ) [ ]= = 1 " 0,1353 " 0, 2707 " 0, 2707 = 0, 3233 La probabilidad es de un 33% aproximadamente.
  • 22. 164 EJEMPLO 3.17: Del volumen de producción diario en dos plantas diferentes de una fábrica, se sabe que la probabilidad de que resulten r unidades defectuosa es: - en la 1a planta: 4r r! e!4 para r = 0, 1, 2, ... - en la 2a planta: 6r r! e!6 para r = 0, 1, 2, ... Determinar la probabilidad de que, en un día determinado: a) resulten cinco o más unidades defectuosas en la 1a planta. b) resulten cuatro o menos unidades defectuosas en la 2a planta. c) resulten ocho o más unidades defectuosas del total de la producción de la fábrica. Solución: a) X1: "número de unidades defectuosas en la 1a planta". ! P(4) P X1 ! 5 ( )= 1" P X1 < 5 ( ) =1 " P x1 = 0 ( )+...+P x1 = 4 ( ) [ ] P X1 ! 5 ( )= 0, 3711 b) X2: "número de unidades defectuosas en la 2a planta". ! P(6) P X2 ! 4 ( )= P x2 = 0 ( )+...+P x2 = 4 ( ) = 0, 2851 c) X3: "número de unidades defectuosas del total de la producción." P X3 ! 8 ( ) = 1" P x3 < 8 ( )= 0, 7797 Da la impresión de que la empresa debería revisar su producción. 3.1.5 Distribución Hipergeométrica En la distribución binomial siempre aseguramos la independencia, es decir, el muestreo se realiza con reemplazamiento y la probabilidad de éxito es constante en cada
  • 23. 165 una de las pruebas. Supongamos que esto no ocurre, no hay reemplazamiento y la variable aleatoria sigue otro tipo de distribución. Veamos un ejemplo: Sea N el número de profesores de un Centro de Enseñanza Secundaria que deben elegir Director entre dos candidatos A y B. Sea n el número de profesores que apoyan al candidato A y N-n el número de profesores que apoyan al candidato B. Supongamos que queremos hacer un sondeo antes de la votación final, tomamos una muestra con K profesores y le preguntamos el candidato al que piensan votar. Supongamos que X es la variable aleatoria que nos mide el número de profesores de la muestra que piensan votar al candidato A. El interés está en calcular la probabilidad de que X=r, es decir, que en la muestra haya r personas que piensan votar al candidato A. Deduciremos la fórmula utilizando la Ley de Laplace. ¿De cuántas maneras puedo elegir muestras de tamaño n entre N elementos que tiene la población?. N n ! " # $ % casos posibles De éstos, ¿cuáles serán favorables a nuestro suceso?. Aquellas que tengan r éxitos y N-r fracasos. EE ... E Np ! " # $ # (r veces) FF ... F Nq ! " # $ # (n! r veces ) Es preciso conocer la probabilidad de éxito y la probabilidad de fracaso en la población. El número de casos favorables será: Np r ! " # $ % Nq n & r ! " # $ % Por consiguiente: P X = r ( ) = Np r ! " # $ % Nq n & r ! " # $ % N n ! " # $ % ; r = 0,1,2,..., n Media: E x [ ] = np
  • 24. 166 Varianza: V x [ ] = npq N ! n N !1 Cuando n N ! 0, 05, la distribución hipergeométrica se aproxima a la binomial. EJEMPLO 3.18: Un fabricante asegura que sólo el 1% de su producción total se encuentra defectuosa. Supóngase que se ordenan 1000 artículos y se seleccionan 25 al azar para inspeccionarlos. Si el fabricante se encuentra en lo correcto, ¿cuál es la probabilidad de observar dos o más artículos defectuosos en la muestra?. Solución: Tenemos una población de tamaño N=1000 X: "número de artículos defectuosos en la muestra". P(éxito)=0,0 l Tamaño de la muestra n=25 Si inspeccionamos uno de los 25, ese no lo volvemos a inspeccionar, luego no hay reemplazamiento, la p de las distintas pruebas no se mantiene constante. Se trata de una distribución hipergeométrica. P x ! 2 ( ) = l " P x < 2 ( ) = l " P x = 0 ( )+ P x = 1 ( ) [ ] P X = 0 ( )= 1000 0, 01 0 ! " # $ % 1000 0, 99 25 ! " # $ % 1000 25 ! " # $ % = 0, 7754 P X =1 ( )= 10 1 ! " # $ % 990 24 ! " # $ % 1000 25 ! " # $ % = 0, 2007 & ' ( ( ( ) ( ( ( P X * 2 ( ) = 0, 0239
  • 25. 167 Puesto que n N = 25 1000 = 0, 025 < 0, 05 Podemos aproximar por una binomial: P x ! 2 ( ) = l " P x = 0 ( )+ P x =1 ( ) [ ]= = 1 " 25 0 # $ % & ' 0, 01 0 0, 99 25 " 25 1 # $ % & ' 0, 01 1 0, 99 24 = 1 " 0, 7778 " 0,1964 = 0, 0258 EJEMPLO 3.19: Supóngase que se tienen 50 representantes de cierto estado, en una convención política nacional, de los cuales 30 apoyan al candidato A y 20 al candidato B. Si se seleccionan aleatoriamente 5 representantes, ¿cuál es la probabilidad de que, entre estos cinco, por lo menos dos apoyen al candidato A?. Solución: X: "número de personas de la muestra que apoyan al candidato A. N = 50 n = 5 p = 3 5 ! " # $ # X % H 50, 5, 3 5 & ' ( ) P x ! 2 ( ) = l " P x < 2 ( ) =1 " P x = 0 ( )+ P x = 1 ( ) [ ] P X = 0 ( ) = 50 3 5 0 # $ % & ' ( 50 2 5 5 # $ % & ' ( 50 5 # $ % & ' P X = 1 ( ) = 50 3 5 1 # $ % & ' ( 50 2 5 4 # $ % & ' ( 50 5 # $ % & ' ) * + + + + , + + + + P X ! 2 ( ) = 0, 9241 No hay duda de que al menos dos apoyarán al candidato A. con una probabilidad del 92%.
  • 26. 168 EJEMPLO 3.20: En una clase en la que hay 20 estudiantes, 15 están insatisfechos con el texto que se utiliza. Si se le pregunta acerca del texto a cuatro estudiantes tomados al azar, determine la probabilidad de que: a) exactamente tres estén insatisfechos con el texto. b) cuando menos tres estén insatisfechos. Solución: Hay dos sucesos mutuamente excluyentes: P(estar satisfechos) = 5/20 = 1/4 P(no estar satisfecho) = 15/20 = 3/4 Las pruebas son sin reemplazamiento, no tiene sentido volver a preguntar al mismo estudiante que se le preguntó antes. X: "número de alumnos que están insatisfechos con el texto". Es una H 20;4, 3 4 ! " # $ a) P X = 3 ( ) = Np r ! " # $ % Nq n & r ! " # $ % N n ! " # $ % = 15 3 ! " # $ % 5 1 ! " # $ % 20 4 ! " # $ % = 0, 469 b) P X ! 3 ( ) = P x = 3 ( )+ P x = 4 ( )= 0, 75 EJEMPLO 3.21: Un equipo departamental incluye cinco biólogos especialistas en microbiología y nueve médicos. Si se eligen al azar cinco personas y se les asigna un proyecto, ¿cuál es la probabilidad de que el equipo del proyecto incluya exactamente a dos biólogos?.
  • 27. 169 Solución: X: "número de biólogos incluidos en el proyecto". P(biólogo) = 5/14 P(médico) = 9/14 X ! H 14;5, 5 14 " # $ % P X = 2 ( )= 5 2 ! " # $ % 9 3 ! " # $ % 14 5 ! " # $ % = 0, 42 EJEMPLO 3.22: Considérese un fabricante de ordenadores que compra los microprocesadores a una compañía donde se fabrican bajo estrictas especificaciones. El fabricante recibe un lote de 40 microprocesadores. Su plan para aceptar el lote consiste en seleccionar 8, de manera aleatoria y someterlos a prueba. Si encuentra que ninguno de los microprocesadores presenta serios defectos, el fabricante acepta el lote; de otra forma lo rechaza. Suponiendo que el lote contenga dos microprocesadores con serios defectos, ¿cuál es la probabilidad de que sea aceptado? Solución: X: "número de microprocesadores defectuosos en la muestra". X ! H 40;8, 20 40 " # $ % p = 1 20 q = 19 20 P X = 0 ( ) = 2 0 " # & $ % 38 8 " # & $ % 40 8 " # & $ % = 0, 6359 Si la persona que vende sabe que le controlarán el producto, procurará que la empresa efectúe un control de calidad antes de iniciar las ventas. Aumentará la calidad del producto.
  • 28. 170 EJEMPLO 3.23: Una compañía dedicada a la producción de artículos electrónicos, utiliza un esquema para la aceptación de artículos, para su ensamblaje, antes de ser embarcados, que consiste en lo siguiente: Los artículos están embalados en cajas de 25 unidades y un técnico de la compañía selecciona aleatoriamente tres artículos, de tal manera que si no encuentra ningún artículo defectuoso, la caja se embarca. a) ¿Cuál es la probabilidad de que se embarque una caja que contiene tres artículos defectuosos'?. b) ¿Cuál es la probabilidad de que una caja que contiene sólo un artículo defectuoso regrese para su verificación?. Solución: X: "número de artículos defectuosos en la muestra". a) Si la caja contiene tres artículos defectuosos, la distribución es: N = 25 N1 = 3 N2 = 22 p = 3 25 q = 22 25 P X = 0 ( )= Np xi ! " # $ % Nq n & xi ! " # $ % N n ! " # $ % = 3 0 ! " # $ % 22 3 & 0 ! " # $ % 25 3 ! " # $ % = 0, 6696 Hay una probabilidad del 67% de que se embarque la caja. b) La caja sólo contiene un articulo defectuoso. N = 25 p = 1 25 q = 24 25 P X = 0 ( )= 25 1 25 0 ! " # $ % & 25 24 25 3 ! " # $ % & 25 3 ! " # $ % = 0, 88 Lógicamente la probabilidad de que no embarque es: 1-0,88 = 0,12 Lo más probable es que las cajas que tengan un artículo defectuoso sean embarcadas.
  • 29. 171 EJEMPLO 3.24: Supongamos que una compañía hace el estudio de la calidad conforme a otro esquema. Se toma un artículo, se inspecciona y se devuelve a la caja; lo mismo ocurre con un 2º y un 3er artículo. La caja no se embarca si cualquiera de los tres artículos es defectuoso. Solución: a) B 3, 3 25 ! " # $ P x = 0 ( )= 3 0 ! " # $ % 3 25 ! " $ % 0 22 25 ! " $ % 3 = 0, 6815 b) B 3, 1 25 ! " # $ P x = 0 ( )= 3 0 ! " # $ % 1 25 ! " $ % 0 24 25 ! " $ % 3 = 0, 8847 La probabilidad de no embarcar sería: 1 - 0,8847 = 0,1153 EJEMPLO 3.25: Considérese un fabricante de automóviles que compra los motores a una compañía donde se fabrican bajo estrictas especificaciones. El fabricante recibe un lote de 40 motores. Su plan para aceptar el lote consiste en seleccionar 8, de manera aleatoria, y someterlos a prueba. Si encuentra que ninguno de los motores presenta serios defectos, el fabricante acepta el lote; contiene dos motores con serios defectos, ¿cuál es la probabilidad de que sea aceptado?. Solución: X: "número de motores defectuosos en la muestra".
  • 30. 172 N = 40 n = 8 p = 2 40 H 40;8, 1 20 ! " # $ P X = 0 ( ) = 2 0 ! " % # $ 38 8 ! " % # $ 40 8 ! " % # $ = 0, 6359
  • 32. 174 3.2.1 Distribución normal. 3.2.1.1 Introducción La distribución Normal es la distribución continua más importante del Cálculo de Probabilidades y de la Estadística. Aparece por primera vez en 1733 en los trabajos de DE MOIVRE relativos al cálculo de la distribución límite de una variable binomial. Posteriormente, en 1809, GAUSS y más tarde, en 1812, LAPLACE la estudiaron en relación con la teoría de errores de datos experimentales, al tratar de hallar el valor correcto más probable entre una serie de medidas. Primero, GAUSS, pensó que la media aritmética de los valores sería el valor correcto. Más tarde, al dibujar la distribución de frecuencias, observaron cómo los valores extremos eran incorrectos y cada vez las medidas se hacen más iguales y más numerosas, hasta concentrarse en un valor medio que es el valor más frecuente. Por esto, la distribución normal se conoce también con el nombre de distribución de GAUSS-LAPLACE. Una primera aproximación de la distribución normal puede observarse con el experimento que realizó SIR FRANCIS GALTON, que construyó un ingenioso aparato, formado por un tablero inclinado, en el que se distribuyen regularmente un sistema de clavos, para acabar finalmente en compartimentos estrechos. Al deslizar muchas bolas desde un depósito superior, estas chocan con los clavos, y se alejan más o menos de la línea central de caída. Las alturas alcanzadas por las bolas en los compartimentos estrechos da una idea de la curva de la distribución normal (ver figura 3.2). Figura 3.2: Dispositivo de Galton
  • 33. 175 El nombre de distribución normal se debe al hecho de que una mayoría de las variables aleatorias de la Naturaleza siguen esta distribución, lo que hizo pensar que todas las variables continuas de la Naturaleza eran normales, llamando a las demás distribuciones "anormales". No obstante, hoy en día, ya no se piensa de la misma manera, ya que ningún estadístico dice que una distribución que no sea normal, es anormal. No obstante, la distribución normal es la más importante por sus propiedades sencillas, porque aparece frecuentemente en la Naturaleza, (fenómenos relacionados con psicología, biología, etc. ), y por una propiedad de algunos fenómenos que se aproximan asintóticamente a la distribución normal (Teorema Central del Límite). 3.2.1.2 Definición De modo riguroso, se dice que una variable aleatoria sigue una distribución normal de media µ, y desviación típica σ, y se designará por N(µ, σ), si se cumplen las siguientes condiciones: La variable recorre toda la recta real, y la función de densidad es de la forma: f(x) = 1 ! 2" e # 1 2 ( x# µ ! )2 donde e = 2.71828; π= 3.14159; µ es la media de la distribución y σ es la desviación típica. Esta función de densidad que parece en principio con una expresión matemática aparentemente complicada, tiene la siguiente representación (figura 3.3): µ0 Figura 3.3: Representación gráfica da la campana de Gauss conocida como campana de Gauss, y con las siguientes propiedades:
  • 34. 176 1.- La curva tiene forma campaniforme y es simétrica respecto a la recta vertical x = µ. ya que el valor de la densidad es idéntico en µ + c y en µ - c, para todo valor de c, pues: f(µ + c) = 1 ! 2" e # (µ+c # µ)2 2! 2 = 1 ! 2" e # c2 2! 2 f(µ # c) = 1 ! 2" e # (µ#c # µ)2 2!2 = 1 ! 2" e # c2 2! 2 2.- La ordenada es máxima en x = µ. La derivada de la función de densidad es: f' (x) = 1 ! 2" e # (x# µ)2 2! 2 # 1 2! 2 (x # µ) $ % & ' ( ) = # 1 ! 3 2" e # (x# µ)2 2! 2 (x # µ) como la exponencial es siempre distinta de cero, se verifica que: f' (x) = 0 ! (x " µ) = 0 ! x = µ como la derivada segunda es: f'' (x) = ! 1 "3 2# e ! (x!µ)2 2"2 + ! 1 "3 2# (x ! µ) $ % & ' ( ) ! 2(x ! µ) 2"2 e ! (x! µ)2 2" 2 $ % & ' ( ) = = ! 1 "3 2# e ! (x !µ)2 2" 2 1 ! (x ! µ)2 "2 $ % & ' ( ) como se verifica que : f'' (µ) = ! 1 " 3 2# e 0 (1 ! 0) = ! 1 " 3 2# < 0 luego en x = µ la función de densidad presenta un máximo de valor f(µ) = 1 ! 2"
  • 35. 177 3.- El área del recinto encerrado bajo la campana y el eje x es igual a la unidad. Por tratarse de una función de densidad. Y al ser simétrica, deja igual área, 0,5, a la izquierda y a la derecha de la recta x = µ. Esto se verifica porque: f(x) !" +" # = 1 $ 2% e !(x !µ)2 2$2 dx = !" +" # haciendo el cambio de variable x ! µ " = y , entonces dx = σ dy, y por lo tanto = 1 ! 2" e # y2 2 !dy = #$ +$ % 1 2" e # y2 2 dy = #$ +$ % 1 2" 2" =1 ya que la última integral, conocida como la integral de Gauss vale 2! , ya que: I = e ! y2 2 dy = !" +" # 2 e ! y2 2 dy = 0 +" # 2I1 y al multiplicar I1 por sí misma, y mediante métodos de integración doble, resulta su cuadrado igual a π/2. 4.- Presenta puntos de inflexión en los puntos de abscisas µ + σ y µ - σ, donde cambia de concavidad (lo que determina que cuánto mayor sea σ , más achatada sea la curva). El punto de inflexión se obtiene al igualar a cero la derivada segunda, por lo tanto: f'' (x) = 0 ! 1 " (x " µ)2 #2 = 0 ! x " µ # = ±1! x = µ ± # Así, pues, presenta puntos de inflexión en los puntos x = µ + σ y en x = µ - σ, donde las coordenadas de los puntos son: en x = µ + σ f(µ + !) = 1 ! 2" e # (µ+! #µ )2 2!2 = 1 ! 2" e # !2 2!2 = 1 ! 2" e # 1 2 = 1 ! 2"e y en el punto x = µ - σ
  • 36. 178 f(µ ! ") = 1 " 2# e ! (µ!"! µ)2 2"2 = 1 " 2# e ! "2 2"2 = 1 " 2# e ! 1 2 = 1 " 2#e 5.- Es asintótica al eje de abscisas. Pues como ex tiende a 0 cuando x tiende a infinito, entonces: lim x!+" f(x) = lim x!+" 1 # 2$ e % (x% µ)2 2# 2 = 0 es decir, el eje OX es una asíntota horizontal, e igual para x tendiendo a -∞. En la figura 3.4 puede observarse que para σ fijo, el variar µ tiene el efecto de desplazar la curva hacia la derecha o la izquierda; manteniendo µ constante, el cambio de σ tiene por efecto acercar o alargar del valor medio µ los puntos de inflexión, es decir, un apuntamiento o aplastamiento de la curva (ver figura 3.5). µ µ+a µ-a Figura 3.4: Efecto de la variación de µ en la distribución normal
  • 37. 179 Figura 3.5: Efecto de la variación de σ manteniendo µ constante 3.2.1.3 La distribución normal estándar N(0,1) En las familias representadas por las distribuciones normales ocupa un lugar especial la distribución que tiene de media cero (µ = 0) y por desviación típica la unidad (σ = 1). Esta distribución se llama la distribución normal estándar, o reducida. Su función de densidad es: f(x) = 1 2! e " x2 2 x #("$,+$) y su función de distribución es la siguiente: F(x) = P(! " x) = 1 2# e$ x2 2 dx $% x & y cuyas representaciones aparecen en las figura 3.6:
  • 38. 180 -,2 0 ,2 ,4 ,6 ,8 1 1,2 -4 -3 -2 -1 0 1 2 3 4 1 2! Figura 3.6: Representación de las funciones de densidad y distribución de la N(0,1). La función de distribución de la ley normal estándar proporciona el área del recinto que encierra la función de densidad, hasta el punto x, y con el fin de facilitar el cálculo de ésta superficie, y no tener que utilizar en todo momento el cálculo integral, se han elaborado unas tablas de fácil uso, entre las que se encuentran las que aparecen a continuación: x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.1 0.8643 0.8655 0.8686 0.8708 0.8729 0.8749 0.8870 0.8790 0.8810 0.8830 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890 2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964 2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974 2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981 2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 Tablas de la distribución normal estándar
  • 39. 181 3.2.1.4 Manejo de las tablas de la normal estándar Las tablas anteriores nos proporcionan directamente la función de distribución de la variable normal estándar, por lo que ellas nos darán directamente la probabilidad de que la variable tome valores menores o iguales que un determinado valor (P(ξ ≤ x)). Veamos su utilización con un ejemplo sencillo. Si Z es una variable que sigue una distribución N(0,1), calcularemos la probabilidad de que la variable Z tome valores menores o iguales a 1.37. La probabilidad pedida es el área sombreada de la figura 3.7. Figura 3.7: Área hasta el valor 1.37 y se encuentra directamente en la tabla sin más que buscar 1.3 en la primera columna, y 0.07 en la primera fila; su intersección nos da la probabilidad: Es decir: P(Z ≤ 1.37) = 0.9147 que quiere decir que el 91.47% de las observaciones se encuentran distribuidas entre -∞ y 1.37.
  • 40. 182 Existen además de las tablas anteriores otros tipos de tablas publicadas de la distribución normal estándar. Quizá las más importantes sean las siguientes: 1.- Tabla de dos colas : Esta tabla da las áreas de las dos colas de la distribución, es decir, da la siguiente probabilidad P( |Z| ≥ a ) = P( -∞ < Z ≤ -a ) + P( a ≤ Z < +∞ ) 0 a -a Figura 3.8: Área de la tabla de dos colas 2.- Tabla de una cola : Nos da el área de la cola derecha de la distribución, es decir, la siguiente probabilidad P( Z ≥ a ) 3.- Tabla de valores : Que contiene todos los valores entre 0 e infinito.
  • 41. 183 4.- Tabla de áreas acumuladas : Nos da la probabilidad de que un valor esté comprendido entre -∞ y a, es decir, la siguiente probabilidad P( -∞ < Z ≤ -a ) Este último tipo de tablas es el que hemos utilizado anteriormente, pues nos proporciona la función de distribución de la variable. 3.2.1.5 Tipificación de la variable Hemos indicado anteriormente que la distribución normal estándar N(0,1) se encuentra tabulada, lo que nos permite un cálculo rápido de las probabilidades asociadas a ésta distribución. Pero no existen tablas para el cálculo de las probabilidades de otras distribuciones normales, además de que tendrían que existir infinitas tablas (una para cada posible par de combinaciones de media y desviación típica). Aprovechando que el comportamiento de las curva de las distribuciones normales es siempre el mismo, nos hace pensar que podría existir una distribución normal que permanezca invariable, sea cuál sea la variable. Esta es la distribución normal estándar, y el proceso de pasar de una distribución normal cualquiera a una distribución normal estándar se denomina tipificación de la variable, que equivale a cambiar la escala de partida de los valores de X en una nueva escala patrón. Esto se lleva a cabo en dos pasos: 1º Centrar, es decir, trasladar la media de la distribución al origen de coordenadas, lo que equivale a hacer µ = 0. 2º Reducir la desviación típica a 1, que equivale a dilatar o contraer la gráfica de la distribución hasta que coincida con la gráfica de la función normal estándar. Esto se consigue mediante el cambio de variable siguiente: Z = X ! µ " que produce la siguiente transformación de escala de medidas:
  • 42. 184 Valores de X Valores de Z 0 1 2 -1 -2 µ µ +! µ -2! µ +2! µ -! 3.2.1.6 Propiedades de la distribución normal SUMA O RESTA DE VARIABLES NORMALES Si X1 es una variable que se distribuye normalmente N(µ1, σ1), y X2 es otra variable que se distribuye normalmente N(µ2, σ2). Entonces la variable X = X1 ± X2 sigue también una distribución normal con media µ = µ1 ± µ2, y cuya varianza es σ2 = σ1 2+ σ2 2. Es decir, la variable X sigue una distribución N(µ1 ± µ2 , !1 2 + !2 2 ) TEOREMA DE DE MOIVRE Si X es una variable binomial de parámetros n y p; entonces si n es grande y p, ni pequeño ni grande, (o sea, ni p ni q próximos a cero) podemos considerar que esa variable X sigue una ley normal de media np y varianza npq, y por lo tanto, la variable Z = X ! np npq sigue una distribución normal N(0,1). En este caso hemos de tener en cuenta que X era una variable aleatoria discreta y queremos tratarle cómo continua, por lo que es preciso hacer una corrección para continuidad. Así se verifica que: P(X = 3) = P(2.5 < X ≤ 3.5) P(X ≤ 3) = P(X ≤ 3.5) P(X < 3) = P(X ≤ 2.5)
  • 43. 185 Obviamente éstas no son igualdades ciertas, pero permiten tratar la variable discreta como continua. Si en lugar de trabajar con una variable aleatoria binomial partiésemos de una variable de Poisson o una Hipergeométrica, la aproximación sería absolutamente similar. TEOREMA CENTRAL DEL LÍMITE Si X es una variable aleatoria (no importa como se distribuya) con media µ y varianza σ2, y tomamos una muestra de n elementos, entonces la distribución muestral de la media aritmética de la muestra es aproximadamente normal con media µ y varianza σ2/n, siendo mejor la aproximación a medida que aumenta el tamaño de la muestra. Lógicamente, si X es una variable que se distribuye normalmente, la media muestral se distribuye exactamente como una distribución normal. Este teorema es importante en posteriores unidades, ya que nos dará pie a resultados fundamentales de la Inferencia Estadística.
  • 44. 186 3.2.2 Modelo Chi-cuadrado (de Pearson) 3.2.2.1 Definición Es otra distribución de gran importancia en Estadística, que fue descubierta por HELMET (1876), pero cayó en el olvido hasta que en 1900 fue descubierta de nuevo por PEARSON. Es una variable obtenida al sumar los cuadrados de n variables aleatorias normales estándar, independientes entre sí. Recibe el nombre de χ2 n de PEARSON, con n grados de libertad, o sea, χ2 n = Z1 2 + Z2 2 + ..... + Zn 2 siendo cada Zi una variable normal N(0,1), e independientes. Esta variable depende, pues, del número de sumandos que la forman, llamado "grados de libertad", y el rango es el semieje real positivo (ya que es una suma de cuadrados). La función de densidad de una variable χ2 n es la siguiente: f(x) = 1 2 n 2 !(n 2) e "x 2x n 2"1 si x # 0 0 si x < 0 $ % & * Para cada valor de n se tiene una curva distinta, como representación de su función de densidad. La figura 3.9 representa las funciones de densidad de variables Chi-cuadrado para diferentes valores de n. * Γ(n) es la función gamma, que denota la siguiente integral: !( n) = x n"1 e "x dx 0 # $ que verifica, que si n en entero Γ(n) = (n-1)! ; además Γ(n/2) = √π.
  • 45. 187 Figura 3.9: Comparación entre las funciones de densidad de la variable chi-cuadrado para distintos valores de n. 3.2.2.2 Propiedades de la distribución chi-cuadrado 1.- La variable solo puede tomar valores positivos. 2.- Es asimétrica. 3.- Depende del parámetro n (grados de libertad). 4.- Su esperanza matemática es n, y su varianza, 2n. 5.- Propiedad aditiva o reproductiva :Si χ2 n y χ2 m son dos variables Chi- cuadrado con n y m grados de libertad respectivamente, independientes entre sí, entonces la suma de las dos variables es una variable Chi-cuadrado con n+m grados de libertad. Esto se puede generalizar a la suma de cualquier número de variables Chi-cuadrado, independientes. 6.- Al aumentar el número de grados de libertad, la distribución Chi- cuadrado se aproxima asintóticamente a una distribución normal. Esta aproximación es de la siguiente forma: para n > 30, la variable 2!n 2 se aproxima asintóticamente a una variable N 2n !1,1 ( ). 7.- En una variable aleatoria normal N(µ, σ), si tomamos una muestra de tamaño n se verifica que
  • 46. 188 n !1 ( )ˆ s2 " 2 es aproximadamente χ2 n-1 siendo ˆ s 2 la cuasivarianza muestral. 3.2.2.3 Manejo de las tablas de la chi-cuadrado A continuación aparecen las tablas en las que figuran tabuladas las distribuciones Chi-cuadrado. Dentro de la tabla figura el valor de la variable que en una distribución Chi- cuadrado con los grados de libertad que vienen indicados en la primera columna, deja un área α, indicado en la primera fila, a su derecha.
  • 47. 189 g.l α 0.9950 0.9750 0.950 0.900 0.200 0.10 0.050 0.025 0.010 0.001 1 0.0000393 0.000982 0.00393 0.0158 1.642 2.706 3.841 5.024 6.631 10.828 2 0.0100 0.0506 0.103 0.211 3.219 4.605 5.g91 2.378 9.210 13.816 3 0.0717 0.216 0.352 0.584 4.642 6.251 7.851 9.348 11.345 16.266 4 0.207 0.484 0.711 1.064 5.989 7.779 9.488 11.143 13.277 18.467 5 0.412 0.831 1.]45 1.610 7.289 9.236 11.070 12.833 15.086 20.515 6 0.676 1.237 1.635 2.204 8.558 10.645 17.592 14.449 16.812 22.458 7 0.989 1.690 2.167 2.833 9.803 17.017 14.067 16.013 18.475 74.327 8 1.344 2.180 2.733 3.490 11.030 13.362 15.507 17.535 20.090 26.124 9 1.735 2.700 3.325 4.168 17.242 14.684 16.919 19.023 21.666 77.877 10 2.156 3.247 3.940 4.865 13.442 15.987 18.307 20.483 23.209 29.588 11 2.603 3.816 4.575 5.578 14.631 17.275 19.675 21.920 24.725 31.264 12 3.074 4.404 5.226 6.304 15.812 18.549 21.026 23.337 26.217 32.909 13 3.565 5.009 5.897 7.047 16.985 19.812 22.362 24.736 27.588 34.528 14 4.075 5.629 6.571 7.790 18.151 21.064 23.685 26.119 29.141 36.173 15 4.601 6.262 7.261 8.547 19.311 22.307 24.996 27.488 30.578 37.697 16 5.142 6.908 7.962 9.312 20.465 23.452 26.296 28.845 32.000 39.752 17 5.697 7.564 8.672 10.085 21.615 24.769 27.587 30.191 33.409 40.790 18 6.265 8.231 9.390 10.865 22.760 25.989 28.869 31.526 34.805 42.312 19 6.844 8.907 10.117 11.651 23.900 27.204 30.144 32.857 36.191 43.820 20 7.434 9.591 10.851 12.443 25.038 28.412 31.410 34.170 37.566 45.315 21 8.034 10.283 11.591 13.240 26.171 29.615 32.671 35.479 38.932 46.797 22 8.643 10.982 12.338 14.041 27.301 30.813 33.924 36.781 40.289 48.268 23 9.260 11.689 13.091 14.848 28.429 32.007 35.172 38.076 41.638 49.728 24 9.886 12.401 13.848 15.659 29.553 33.196 36.415 39.364 42.980 51.179 25 10.520 13.120 14.611 16.473 30.675 34.382 37.652 40.646 44.314 57.620 26 11.160 13.844 15.379 17.292 31.795 35.563 38.885 41.923 45.642 54.052 27 11.808 14.573 16.151 18.114 32.912 36.741 40.113 43.195 46.963 55.476 28 12.461 15.308 16.928 18.939 34.027 37.916 41.337 44.461 48.278 56.892 29 13.121 16.047 17.708 19.769 35.139 39.087 42.557 45.722 49.588 58.301 30 13.787 16.791 18.493 20.599 36.250 40.256 43.773 46.979 50.892 59.703 Tabla de la distribución Chi-cuadrado EJEMPLO 3.26: Si X sigue una distribución Chi-cuadrado con 12 grados de libertad. ¿Cuál es el valor de la variable que deja a su derecha un área de 0.05? Solución: Buscando en la tabla: 21.026
  • 48. 190 3.2.3 Distribución t de Student 3.2.3.1 Definición La distribución "t" es sumamente importante en Inferencia Estadística; fue descubierta por GOSSET (1908). El nombre de STUDENT es el seudónimo con el que firmó sus publicaciones estadísticas, y puede pensarse de él que es el fundador de la inferencia estadística exacta, pues hasta 1908 era corriente tratar a la variable (x ! µ) s n como una variable normal. En su definición matemática, sean (η, η1, η2, ....., ηn) n+1 variables aleatorias normales N(0,1) e independientes Se define la variable "t" de STUDENT con n grados de libertad como tn = ! !1 2 + !2 2 +!+!n 2 n También puede definirse a través de una variable Z normal estándar N(0,1), y una variable χ2 que siga una distribución Chi-cuadrado con n grados de libertad; se define entonces la variable "t" de STUDENT con n grados de libertad como tn = Z !n 2 n La función de densidad de esta variable es: f(x) = !(n+1 2 ) n"!(n 2 ) 1 + x2 n # $ % & ' ( ) n+1 2
  • 49. 191 3.2.3.2 Propiedades de la distribución "t" 1.- Depende de un único parámetro, el número de grados de libertad. 2.- El rango de la variable es todo el eje real (-∞, +∞). 3.- Su gráfica es simétrica respecto al eje de ordenadas OY. 4.- El valor x = 0 es la media, mediana y moda de la distribución. 5.- Al aumentar n, se va haciendo cada vez más apuntada la gráfica de su función de densidad, siendo el límite para n !∞ la curva normal tipificada. 0 Distr. Normal Distr. t de Student Figura 3.10: Función de densidad de la distribución normal y de la "t". 6.- En el muestreo de una población normal N(µ, σ), si tomamos una muestra de tamaño n de media x y varianza S2, la variable tn!1 = (x ! µ) s n !1 sigue una distribución "t" de STUDENT con n-1 grados de libertad. Esta propiedad es muy utilizada en la estimación y el contraste de hipótesis sobre la media de la población.
  • 50. 192 3.2.3.3 Manejo de las tablas de la distribución "t" Existen diferentes tipos de tablas de la distribución "t", siendo las más utilizadas las de una cola, y las de dos colas. Nosotros expondremos la utilización de las tablas de dos colas que aparecen a continuación: gl 0.50 0.40 0.30 0.20 0.10 0.05 0.02 0.01 0.001 1 1.000 1.376 1.963 3.078 6.314 12.706 31.821 63.657 636.619 2 0.816 1.061 1.386 1.886 2.920 4.303 6.965 9.925 31.598 3 0.765 0.978 1.250 1.638 2.353 3.182 4.541 5.841 12.929 4 0.741 0.941 1.190 1.533 2.132 2.776 3.747 4.604 8.610 5 1.727 0.920 1.156 1.476 2.015 2.571 3.365 4.032 6.869 6 0.718 0.906 1.134 1.440 1.943 2.447 3.143 3.707 5.959 7 0.711 0.896 1.119 1.415 1.895 2.365 2.998 3.499 5.408 8 0.706 0.889 1.108 1.397 1.860 2.306 2.896 3.355 5.041 9 0.703 0.883 1.100 1.383 1.833 2.262 2.821 3.250 4.781 10 0.700 0.879 1.093 1.372 1.812 2.228 2.764 3.169 4.587 11 0.697 0.876 1.088 1.363 1.796 2.201 2.718 3.106 4.437 12 0.695 0.873 1.083 1.356 1.782 2.179 2.681 3.055 4.318 13 0.694 0.870 1.07~ 1.350 1.771 2.160 2.650 3.012 4.221 14 0.692 0.868 1.076 1.345 1.761 2.145 2.624 2.977 4.140 15 0.691 0.866 1.074 1.341 1.753 2.131 2.602 2.947 4.073 16 0.690 0.865 1.071 1.337 1.746 2.120 2.583 2.921 4.015 17 0.689 0.863 1.069 1.333 1.740 2.110 2.567 2.898 3.965 18 0.688 0.862 1.067 1.330 1.734 2.101 2.552 2.878 3.922 19 0.688 0.861 1.066 1.328 1.729 2.093 2.539 2.861 3.883 20 0.687 0.860 1.064 1.325 1.725 2.086 2.528 2.845 3.850 21 0.686 0.859 1.063 1.323 1.721 2.080 2.518 2.831 3.819 22 0.686 0.858 1.061 1.321 1.717 2.074 2.508 2.819 3.792 23 0.685 0.858 1.060 1.319 1.714 2.069 2.500 2.807 3.767 24 0.685 0.857 1.059 1.318 1.711 2.064 2.492 2.797 3.745 25 0.684 0.856 1.058 1.316 1.708 2.060 2.485 2.787 3.725 26 0.684 0.856 1.058 1.315 1.706 2.056 2.479 2.779 3.707 27 0.684 0.855 1.057 1.314 1.703 2.052 2.473 2.771 3.690 28 0.683 0.855 1.056 1.313 1.701 2.048 2.467 2.763 3.674 29 0.683 0.854 1.055 1.311 1.699 2.045 2.462 2.756 3.659 30 0.683 0.854 1.055 1.310 1.697 2.042 2.457 2.750 3.646 35 0.682 0.852 1.052 1.306 1.690 2.030 2.438 2.724 3.592 40 0.681 0.851 1.050 1.303 1.684 2.021 2.423 2.705 3.551 45 0.680 0.850 1.049 1.301 1.679 2.014 2.412 2.690 3.521 50 0.679 0.849 1.047 1.299 1.676 2.009 2.403 2.678 3.497 60 0.679 0.848 1.046 1.296 1.671 2.000 2.390 2.660 3.461 80 0.678 0.846 1.043 1.292 1.664 1.990 2.374 2.639 3.417 100 0.677 0.845 1.042 1.290 1.660 1.984 2.364 2.626 3.391 ∞ 0.674 0.842 1.036 1.282 1.645 1.960 2.326 2.576 3.291 Tabla de la distribución t de Student en ellas aparece el valor de la variable que para los grados de libertad indicados en la primera columna, deja un área en las dos colas de valor α indicado en la primera fila. EJEMPLO 3.27: Si X es una distribución que sigue una distribución "t" con 10 grados de libertad, calcular el valor de la variable, tal que a la izquierda de -2.228 y a la derecha de 2.228 deja un área total de 0.05.
  • 52. 194 3.2.4 Distribución "F" de Fisher- Snedecor 3.2.4.1 Definición Supongamos que X e Y sean dos variables aleatorias independientes, que siguen distribuciones Chi-cuadrado con n y m grados de libertad respectivamente, y tales que X = Xi 2 i=1 n ! e Y = Yj 2 j=1 m ! siendo las variables Xi e Yj que siguen distribuciones normal estándar. Se define la variable F de Snedecor (o de Fisher-Snedecor), la definida por F = X n Y m denominada distribución F de Fisher-Snedecor con n y m grados de libertad. Su función de densidad está definida por la función: fn,m(x) = !(n+ m 2 )( n m ) n 2 !(n 2)!(m 2 ) " x n 2#1 (1 + n m x) (n+ m) 2 si x > 0 0 si x $ 0 % & ' ( ' Su representación gráfica es de la siguiente forma: Figura 3.11: Representación de la función de densidad de la distribución F de Snedecor
  • 53. 195 3.2.4.2 Propiedades de la distribución F de Snedecor 1.- El recorrido de la variable F es el intervalo (0,∞). 2.- Depende de dos parámetros, los grados de libertad n y m. 3.- Presenta asimetría positiva, con un grado que depende conjuntamente de los grados de libertad del numerador y del denominador. 4.- El cociente ˆ s1 2 ˆ s2 2 sigue una distribución con n1-1 y n2-1 grados de libertad, siendo ˆ s1 2 y ˆ s2 2 las cuasivarianza muestrales de dos muestras de tamaños n1 y n2 respectivamente, provenientes de dos poblaciones normales N(µ1, σ1) y N(µ2, σ2) respectivamente. Esto es consecuencia de que el teorema de Fisher indica que la variable n1 !1 ( )ˆ s1 2 "2 sigue una distribución Chi-cuadrado con n1-1 grados de libertad, y análogamente, la variable n2 !1 ( )ˆ s2 2 " 2 sigue una distribución Chi-cuadrado con n2-1 grados de libertad. Entonces, el cociente n1 !1 ( )ˆ s1 2 n1 !1 ( )"2 n2 !1 ( )ˆ s2 2 n2 !1 ( )"2 sigue una distribución F de Snedecor con n1-1 y n2-1 grados de libertad, y si las varianzas poblacionales son iguales, se verifica entonces el resultado indicado.
  • 54. 196 5.- La distribución F juega un papel importante en el análisis de la varianza (ANOVA) y en el análisis de la regresión. 3.2.4.3 Utilización de las tablas de la distribución F de Snedecor Las tablas de la distribución F de Snedecor contienen los valores Fα tales que P(F>Fα ) = α, para n y m grados de libertad, y para cada nivel de significación en cada una de las tablas. n2n1 1 2 3 4 5 6 7 8 9 10 20 30 40 60 120 ∞ 1 161.4 199.5 215.7 224.6 230.2 234.0 236.8 238.9 240.5 241.9 248.0 250.1 251.1 252.2 253.3 254.3 2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38 19.40 19.45 19.46 19.47 19.48 19.49 19.50 3 10.13 9.55 9.28 9.12 9.01 8.94 6.89 8.85 8.81 8.79 8.66 8.62 8.59 8.57 8.55 8.53 4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.97 5.80 5.74 5.72 5.69 5.66 5.63 5 6.61 5~79 5.41 5.19 5.05 4.95 4.88 4.82. 4.77 4.73 4.56 4.50 4.46 4.43 4.40 4.36 6 S~99 5.14 4.76 4~53 4.39 4.28 4.21 4.15 4.10 4.06 3.87 3.81 3.77 3.74 3.70 3.67 7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 3.44 3.38 3.34 3.31 3.27 3.23 8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35 3.15 3.08 3.04 3.00 2.97 2.93 9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 2.94 2.86 2.83 2.79 2.75 2.71 10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98 2.77 2.70 2.66 2.62 2.58 2.54 11 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90 2.85 2.65 2.57 2.53 2.49 2.45 2.40 12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75 2.54 2.47 2.43 2.38 2.34 2.30 13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67 2.46 2.38 2.34 2.30 2.25 2.21 14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60 2.39 2.31 2.27 2.22 2.18 2.13 15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54 2.33 2.25 2.20 2.16 2.11 2.07 16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49 2.28 2.19 2.15 2.11 2.06 2.01 17 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49 2.45 2.23 2.15 2.10 2.06 2.01 1.96 18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41 2.19 2.11 2.06 2.02 1.97 1.92 19 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38 2.16 2.07 2.03 1.98 1.93 1.88 20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35 2.12 2.04 1.99 1.95 1.90 1.84 21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32 2.10 2.01 1.96 1.92 1.87 1.81 22 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.34 2.30 2.07 1.98 1.94 1.89 1.84 1.78 23 4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.32 2.27 2.05 1.96 1.91 1.86 1.81 1.76 24 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30 2.25 2.03 1.94 1.89 1.84 1.79 1.73 25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 2.24 2.01 1.92 1.87 1.82 1.77 1.71 26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22 1.99 1.90 1.85 1.80 1.75 1.69 27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.20 1.97 1.88 1.84 1.79 1.73 1.67 28 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19 1.96 1.87 1.82 1.77 1.71 1.65 29 4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.22 2.18 1.94 1.85 1.81 1.75 1.70 1.64 30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16 1.93 1.84 1.79 1.74 1.68 1.62 40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08 1.84 1.74 1.69 1.64 1.58 1.51 60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99 1.75 1.65 1.59 1.53 1.47 1.39 120 3.92 3.07 2.68 2.45 2.29 2.18 2.09 2.02 1.96 1.91 1.66 1.55 1.50 1.43 1.35 1.25 ∞ 3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.88 1.83 1.57 1.46 1.39 1.32 1.22 1.00 Tabla de la distribución F de Fisher-Snedecor al nivel del 5% EJEMPLO 3.28: Calcular Fα para α=0.05, y n=5; m=15 grados de libertad. Solución: Se busca en la tabla correspondiente al nivel del 5%, en la primera fila, los grados de libertad del numerador (5), y en la primera columna los grados de libertad del denominador (15), apareciendo el valor de Fα en la confluencia de dicha fila y columna:
  • 55. 197 Así, se verifica que: F0.05; 5, 15 = 2.90 EJEMPLO 3.29: Calcular Fα para α=0.95, y n=15; m=5 grados de libertad. Solución: Teniendo en cuenta la siguiente propiedad F!;n,m = 1 F1"!;m,n se verifica que F0.95;15,5 = 1 F1!0.95;5,15 = 1 F0.05;5,15 = 1 2.90 = 0.345
  • 57. 199 Obviamente al profesor le bastaría con tener en cuenta que la representación gráfica de la función de densidad es una curva simétrica y que el área bajo la curva es la unidad, pero entendemos que puede resultarle cómodo disponer de un juego de ejercicios que contemplen distintos casos de uso frecuente. El siguiente apartado está redactado de acuerdo a esta idea. 3.3.1 Algunos casos de interés en el manejo de tablas de la normal Dada la importancia y el gran uso de la distribución normal, vamos a analizar en detalle distintos casos que se suelen presentar a la hora de trabajar con esta distribución. PRIMER CASO Supondremos como primer caso, el más trivial: calcular la probabilidad de que la variable aleatoria Z, que sigue una distribución normal estándar, sea menor o igual que un valor positivo a. Basta con buscar en la tabla directamente el valor de a, teniendo en cuenta que en la primera columna de la tabla aparecen las unidades y las décimas del valor a y en la primera fila el valor de las centésimas. Como intersección de la fila y la columna correspondiente aparece el valor P Z ! a ( )
  • 58. 200 0 a Figura 3.12: Representación gráfica de la información que nos suministra de manera directa la tabla de la normal con la que vamos a trabajar: P Z ! a ( ) SEGUNDO CASO: En una distribución N(0,1) calcular P Z ! "a ( ) . Como segundo caso consideraremos, por ejemplo, calcular la probabilidad de que la variable aleatoria Z tome valores menores o iguales que una cierta cantidad a negativa, o sea P Z ! "a ( ) La tabla no distingue entre desviaciones positivas y negativas; es decir, en la tabla sólo aparecen valores positivos. Analicemos, pues, geométricamente la situación. Figura 3.13.a: El área rayada de la curva representa Figura 3.13.b: El área rayada de la curva representa P Z ! " a ( ) P Z ! a ( ) La probabilidad pedida se corresponde con el área rayada en la figura 3.13a. El área rayada en la figura de la izquierda (figura 3.13a) es igual al área rayada en la figura de la derecha (figura 3.13b). A su vez, ese área es igual al área total, que vale 1, menos el área no rayada. El área de la superficie no rayada en la gráfica de la derecha es la que viene en la tabla. Por tanto:
  • 59. 201 P Z ! "a ( )=1 "P Z ! a ( ) EJEMPLO 3.30: Calcular P(Z≤-2) Solución: P Z ! "2 ( )= P Z # 2 ( )= 1 "P Z < 2 ( ) = 0.9772 TERCER CASO: En una distribución N µ,! ( ) , calcular P Z ! a ( ) Como tercer caso consideraremos la misma situación que en el caso primero pero suponiendo ahora, que la variable aleatoria sigue una distribución normal no estándar, de parámetros µ,σ. En este caso, hemos de cambiar previamente de escala de medida; es decir, es preciso tipificar primero la variable. El cambio adecuado es z = x ! µ " y por tanto: P X ! a ( )=P x " µ # ! a " µ # $ % & ' =P z ! a " µ # $ % & ' encontrándonos, una vez efectuado el cambio, en la misma situación del primer caso. EJEMPLO 3.31: Calcular en una N(2,3) la P(X ≤ 2.14): Solución: P X ! 2.14 ( )=P x " 2 3 ! 2.14 " 2 3 # $ % & =P z ! 0.05 ( )= 0.519 Valor que se obtiene directamente de las tablas, como en el caso anterior.
  • 60. 202 CUARTO CASO: En una distribución N µ,! ( ) , obtener P Z ! "a ( ) . Se trata, lo mismo que en el caso anterior de dar solución a uno de los supuestos ya vistos, en concreto al supuesto segundo, pero considerando ahora que trabajamos con una normal no estándar. Lo primero que tenemos que hacer es tipificar ya que si no, la igualdad anterior no se verifica, por tanto: P X ! "a ( )=P x " µ # ! "a " µ # $ % & ' =P z ! " a " µ # $ % & ' = 1" P z < a " µ # $ % & ' EJEMPLO 3.32: En una N(5,3) calcular P X ! "8 ( ) Solución: P X ! "8 ( )=P x " 5 3 ! "8 " 5 3 # $ % & =P z ! " 13 3 # $ % & = 1 " P z < 13 3 # $ % & = = 1 ! P z " 4.33 ( )= 1 ! 0.9999 = 0.0001 QUINTO CASO: En una distribución N (0,1) calcular P Z ! a ( ) Figura 3.14: El área rayada de la curva representa P Z ! a ( ) Obviamente P Z ! a ( )=1 " P Z < a ( ).
  • 61. 203 SEXTO CASO: En una distribución N µ,! ( ) Obtener P X ! a ( ) : P X ! a ( )=P x " µ # ! a " µ # $ % & ' = 1" P z < a " µ # $ % & ' SÉPTIMO CASO: En una distribución N(0,1) calcular P a ! Z ! b ( ) Figura 3.15. El área rayada de la curva representa P a ! Z ! b ( ) Observando el gráfico de la figura 3.15 y teniendo en cuenta las propiedades de la Normal, tenemos: P a ! Z ! b ( )=P Z ! b ( )" P Z < a ( ) OCTAVO CASO: En una N µ,! ( ) obtener P a ! X ! b ( ) Si en lugar de trabajar con una N(0,1) trabajásemos con una N µ,! ( ) sería preciso, como en casos anteriores, tipificar. Es decir: P a ! X ! b ( )= P a " µ # ! x " µ # ! b " µ # $ % & ' = P z ! b " µ # $ % & ' " P z < a " µ # $ % & '
  • 62. 204 EJEMPLO 3.33: En una N(0,1) calcular P 1! X !1.85 ( ) Solución: P 1! X !1.85 ( )=P X !1.85 ( )" P X < 1 ( ) = 0.9678 " 0.8413 = 0.1265 NOVENO CASO: En una N(0,1) calcular P !a " Z " !b ( ) Figura 3.16. El área rayada de la curva representa P ! a " Z " ! b ( ) P !a " Z " !b ( )=P Z " !b ( )! P Z < !a ( ) Tal como ya sabemos esto se puede escribir: P Z ! "b ( ) " P Z < "a ( ) = 1" P Z < b ( )" 1 " P Z ! a ( ) [ ]= = 1 " P Z < b ( )"1 + P Z ! a ( ) = P Z ! a ( ) " P Z < b ( ) EJEMPLO 3.34: En una N(0,1) calcular P !2.3 " Z " !1.8 ( ) Solución: P !2.3 " Z " !1.8 ( ) =P Z " !1.8 ( )! P Z < !2.3 ( ) = =1! P Z < 1.8 ( )!1 + P Z " 2.3 ( )= P Z " 2.3 ( )! P Z <1.8 ( ) = = 0.9893 ! 0.9641 = 0.0252
  • 63. 205 Si en lugar de estar en una N(0,1) estuviésemos en una N µ,! ( ), hubiésemos seguido el mismo razonamiento pero después de tipificar. DÉCIMO CASO: Cálculo del percentil correspondiente a una probabilidad dada. Puede ocurrir que conocida la probabilidad p, se nos pregunte qué valor de a verifica que P X ! a ( )= p Podemos distinguir dos casos: a) La variable aleatoria sigue una N(0,1): En este caso, basta buscar en el interior de la tabla el valor más aproximado a p y anotar cual es el correspondiente valor de a (en las filas y columnas exteriores de la tabla) EJEMPLO 3.35: ¿Cuál es el valor de a para el que P Z ! a ( ) = 0.9251 ? Solución: Buscamos dentro de la tabla el valor 0.9251 y vemos que el correspondiente valor de a es 1.44. b) La variable aleatoria sigue una normal de parámetros N µ,! ( ) En este caso, hemos de tipificar previamente; es decir, expresar a en la escala correspondiente a una N(0,1) EJEMPLO 3.36: Obtener el valor de a que verifica que P X ! a ( )= 0.8413 en una distribución N(5,3)
  • 64. 206 Solución: P X ! a ( )= P Z ! a " 5 3 # $ % & = 0.8413 Buscando esa probabilidad en las tablas obtenemos el valor 1.0; es decir: a ! 5 3 = 1" a = 3 + 5 = 8
  • 66. 208 3.4.1 Aplicación del manejo de tablas de la normal a un ejemplo de investigación Se sabe que el diámetro de los hematíes de individuos normales sigue un modelo N(7.5, 0.2) y que el diámetro de los hematíes de individuos cirróticos sigue un modelo N(8.5 , 0.6). Supongamos que estamos interesados en clasificar a un individuo en uno de dos grupos: normal ó cirrótico en base a una cierta variable: diámetro de los hematíes. En trabajos reales el estudio se lleva a cabo no sólo considerando la información de una variable sino de varias, y la solución se obtiene a través de un análisis multivariante, pero esto excede el nivel de este trabajo. Para clasificar correctamente a los individuos necesitaríamos conocer cuál es el máximo valor del diámetro de los hematíes en individuos normales. Obviamente ese valor no es conocido ya que sólo disponemos de la información de que el valor del diámetro es una cantidad aleatoria que se ajusta a una normal de parámetros determinados. Debemos fijar, pues, el valor M para el diámetro como valor máximo de forma que los individuos con diámetro menor serán clasificados como normales y aquéllos que tengan diámetro mayor serán clasificados como patológicos Fijaremos esta cantidad de forma que el 95%, por ejemplo, de los individuos sanos quede correctamente clasificado, es decir, de forma que sólo un 5% de los individuos sanos tenga un diámetro mayor de esa cantidad M.
  • 67. 209 La situación podría representarse gráficamente de la siguiente manera (figura 3.17): 0 6.5 7 7.5 8 8.5 9 9.5 10 M = ? NORMALES N(7.5; 0.2) CIRROTICOS N(8.5; 0.6) Figura 3.17. Representación gráfica de la distribución del diámetro de los hematíes en individuos sanos y en individuos cirróticos. M será el punto de corte a partir del cual el individuo será clasificado en una o en otra categoría. La cantidad M se calcula de forma que se verifique que P X ! M ( ) = 0. 95 teniendo en cuenta que la variable X sigue una ley Normal de media 7.5 y desviación típica 0.2. El cálculo es inmediato: M / P(X<M) = 0.95 en una N(7.5 , 0.2) P(X<M) = P(Z < (M-7.5)/0.2) = 0.95 (M-7.5)/0.2= 1.645 M = 7.5 + 1.645 . 0.2 = 7.829 Por tanto: Declararemos enfermo (cirrótico) a todo individuo con diámetro de los hematíes superior a 7.829
  • 68. 210 Debemos tener en cuenta que, según este convenio de clasificación, el 5% de los individuos sanos serán declarados patológicos erróneamente, es decir, el procedimiento propuesto proporciona un 5% de "falsos positivos". Llamaremos a este error, por ejemplo error ! . Teniendo en cuenta que el diámetro de los hematíes en individuos cirróticos se ajusta a una ley Normal de media 8.5 y desviación 0.6 es evidente que, con este criterio, algún individuo enfermo puede ser declarado erróneamente normal. Llamaremos a este error β, que nos indica el porcentaje de "falsos negativos." Hemos de determinar qué error β cometemos cuando fijamos un riesgo ! del 5%, es decir, cuando consideramos que el punto de corte para decidirnos en declarar a los individuos en sanos o en patológicos es de 7.829. Para obtener el porcentaje de personas que declararemos como sanas cuando en realidad son cirróticas basta con determinar en una N (8.5, 0.6) (la de los individuos cirróticos) la probabilidad de que la variable aleatoria tome valores menores al valor prefijado como cota. Es decir: P(X < 7.829) en una normal N(8.5, 0.6) P(X < 7.829) = P(Z < (7.829 - 8.5)/0.6) = P(Z < -1.12) = P(Z> 1.12) = 1 - P(Z<1.12) = 1 - 0.8686 = 0.1314 Observamos como siguiendo el criterio de partida, de prefijar el porcentaje de falsos positivos en un 5%, obtenemos un 13.14% de malas clasificaciones en individuos enfermos: El 13.14% de los cirróticos serán declarados normales. La regla: DECLARAR CIRRÓTICO a un individuo con diámetro de hematíes superior a 7.829 y NORMAL en caso contrario, da lugar a que: Un 5% de los normales serán declarados cirróticos (falsos positivos) y un 13.14% de los cirróticos serán declarados sanos (falsos negativos) Gráficamente la situación sería (figura 3.18):
  • 69. 211 7 7.5 8 8.5 9 9.5 10 M = 7.8 29 ! = 0.05(fijado) " = 0.1314 6.5 NORMALES N(7.5; 0.2) CIRROTICOS N(8.5; 0.6) 0 Figura 3.18: Representación gráfica de la distribución del diámetro de hematíes en las dos poblaciones. Prefijado α queda delimitado el valor de M y el valor de β Al observar esta situación podríamos pensar en ser más restrictivos y prefijar un error α más pequeño, por qué no un 1% por ejemplo. ¿Por qué habríamos de arriesgarnos en declarar enfermos a un 5% de los sanos, lo que socialmente podría tener connotaciones negativas (declaramos cirróticos a individuos que no lo son), si podemos prefijar este error tan pequeño como queramos.? Desafortunadamente disminuir el α trae consigo aumentar el β. Observemos qué ocurriría si quisiéramos disminuir cualquiera de los errores, por ejemplo ¿qué ocurriría si disminuyésemos α?: Si α disminuye, β aumenta En efecto: Si ! disminuye, por ejemplo ! = 1% , M aumenta. Veamos como esta afirmación es cierta. Realizar este cálculo es idéntico al caso anterior sólo que ahora la regla de decisión es distinta:
  • 70. 212 Buscamos un M' (diámetro de las hematíes) que sólo lo superan un 1% de individuos normales. Se trata de localizar en una N(7.5, 0.2) un valor de la variable que verifique que el 1% es mayor que él, o lo que es lo mismo un 99% de los individuos tenga el diámetro de los hematíes menor que dicho valor. Sea M’ / P(X<M’)=0.99 en una N(7.5 , 0.2) P(X<M’) = P(Z < (M’-7.5)/0.2) = 0.99 (M’-7.5)/0.2 = 2.33 M’ = 7.5 + 2.33 x 0.2 = 7.966 Observamos que según este criterio el valor de corte es ahora mayor M’> M Hemos conseguido disminuir el porcentaje de falsos positivos pero cómo saber cómo se ha modificado el ! . Se trata de buscar en la normal de los cirróticos la probabilidad de encontrarnos valores menores que 7.966 P(X < 7.966) = P(Z < (7.966-8.5)/0.6) = 0.1867 El 18.67% de los cirróticos serán declarados normales. Luego: Si el porcentaje de falsos positivos disminuye hasta el 1%, el porcentaje de falsos negativos sobrepasa el 18%. Nos interesa prefijar los errores pequeños, obviamente a nadie le gusta asumir riesgos grandes, pero hay que tener cuidado al prefijar los riesgos ya que ambos tipos de errores están claramente relacionados y disminuir uno de ellos trae consigo aumentar el otro considerablemente.