2. DISTRIBUCIÓN JI-CUADRADO
En realidad la distribución ji-cuadrada es la distribución muestral de s2. O sea que si se extraen
todas las muestras posibles de una población normal y a cada muestra se le calcula su varianza,
se obtendrá la distribución muestral de varianzas.
Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico
𝜒2 . Si se elige una muestra de tamaño n de una población normal con varianza 𝜎2 , el
estadístico:
(𝑛 − 1)𝑠2
𝜎2
tiene una distribución muestral que es una distribución ji-cuadrada con 𝑔𝑙 = 𝑛 − 1 grados de
libertad y se denota 𝜒2
(𝜒 es la minúscula de la letra griega ji).
3. El estadístico ji-cuadrada esta dado por:
𝜒2 =
(𝑛 − 1)𝑠2
𝜎2
Donde:
𝑛 es el tamaño de la muestra,
𝑠2
la varianza muestral, y
𝜎2 la varianza de la población de donde se extrajo la muestra.
El estadístico ji-cuadrada también se puede dar con la siguiente expresión:
𝜒2
=
(𝑥 − 𝑥)2
𝜎2
4. Propiedades de la Distribución ji-cuadrado
Los valores de 𝜒2
son mayores o iguales que 0.
La forma de una distribución 𝜒2 depende del 𝑔𝑙 = 𝑛 − 1. En consecuencia, hay un número
infinito de distribuciones 𝜒2
.
El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1.
Las distribuciones 𝜒2
no son simétricas. Tienen colas estrechas que se extienden a la derecha;
esto es, están sesgadas a la derecha.
Cuando 𝑛 > 2, la media de una distribución 𝜒2
es 𝑛 − 1 y la varianza es 2(𝑛 − 1).
El valor modal de una distribución 𝜒2 se da en el valor (𝑛 − 3).
5. La siguiente figura ilustra tres distribuciones 𝝌 𝟐
. Note que el valor modal aparece en el valor
(𝒏 − 𝟑) = (𝒈𝒍 − 𝟐).
La función de densidad de la distribución X2 esta dada por:
𝑓 𝑥 =
1
2
𝑣
2Γ( 𝑣
2)
𝑥
𝑣
2−1 𝑒
−𝑥
2 𝑝𝑎𝑟𝑎 𝑥 > 0
6. Para denotar el valor crítico de una distribución 𝝌 𝟐
con gl grados de libertad se usa el símbolo 𝝌 𝟐
𝜶
(gl); este valor crítico determina a su derecha un área de 𝜶 bajo la curva 𝝌 𝟐
y sobre el eje
horizontal.
Por ejemplo para
encontrar 𝜒2
0.05(6) en la
tabla se localiza 6 gl en
el lado izquierdo y 𝛼 =
0.05 a lo largo del lado
superior de la misma
tabla:
𝜶
𝒈𝒍
7. Ejemplo resuelto con Minitab
Para estudiar la relación entre la edad de las mujeres y
su aceptación de una ley sobre interrupción del
embarazo se ha llevado a cabo una encuesta sobre
400 mujeres cuyos resultados se recogen en la
siguiente tabla:
Ho: Las medias son iguales, por lo tanto no hay
relación entre la edad de la mujer y la aceptación a la
legalización del aborto.
H1: Al menos una media es diferente, por lo tanto hay
una relación entre la edad de la mujer y su
aceptación a la legalización del aborto.
8. Como resultado de aplicar la prueba ji-cuadrado de Pearson se obtuvo como valor del estadístico 𝜒2
=
19,2828. Este valor por si solo no permite extraer ninguna conclusión; debe compararse con el valor de
la distribución ji-cuadrado de (5-1)*(3-1)=8 grados de libertad que deja un 5% de probabilidad a su
derecha, fijado un nivel de significación del 5% o, equivalentemente, un nivel de confianza del 95%.
Este valor, llamado punto crítico, delimita la zona de rechazo de la hipótesis nula de no asociación
entre las variables.
1. Calcular el valor de la ji-cuadrado con 8 grados de libertad que deja a su derecha un área bajo la
curva igual a 0,05.
2. Representar la función de densidad y marcar en ella el valor del estadístico y el punto crítico, ¿qué
puede concluirse acerca de la relación entre las dos variables?
3. Calcular el valor p del estadístico, es decir, la probabilidad a la derecha del valor del estadístico
𝜒2
= 19,2828.
12. Resultados &
Comparación
En la grafica podemos concluir que el
valor crítico 19.2888 esta en la zona
de rechazo, ya que se encuentra
después del valor 15.51 que es el que
deja a la derecha 0.05 de las
probabilidad.
14. Resultados & Comparación
El valor de p es 0.01342, el cual es
menor a nuestro valor de
significancia 0.05, por lo tanto se
rechaza la Ho, no hay asociación
entre la edad de la mujer y su
aceptación la legalización del
aborto.
15. DISTRIBUCIÓN NORMAL
La distribución de probabilidad conocida como distribución normal es, por la cantidad de fenómenos que
explica, la más importante de las distribuciones estadísticas. A la distribución normal también se la
denomina con el nombre de campana de Gauss, pues al representar su función de probabilidad, ésta tiene
forma de campana.
Cuando la distribución normal tiene como parámetros µ = 0 y σ = 1 recibe el nombre de distribución
normal estándar. Cualquier variable X que siga una distribución normal de parámetros µ y σ se puede
transformar en otra variable Y= (X- µ) / σ que sigue una distribución normal estándar; este proceso se
denomina estandarización, tipificación o normalización.
Campo de variación:
-∞ < x < ∞
Parámetros:
µ: media, -∞ < µ < ∞
σ: desviación estándar, σ > 0
16. Características
Una de sus características más importantes es que casi cualquier distribución de probabilidad,
tanto discreta como continua, se puede aproximar por una normal bajo ciertas condiciones.
La distribución de probabilidad normal y la curva normal que la representa, tienen las siguientes
características:
La curva normal tiene forma de campana y un solo pico en el centro de la distribución. De esta
manera, la media aritmética, la mediana y la moda de la se encuentra a la derecha de este punto
central y la otra mitad está a la izquierda de dicho punto.
La distribución de probabilidad normal es simétrica alrededor de su media.
17. La curva normal desciende suavemente en ambas direcciones a partir del valor central. Es
asintótica, lo que quiere decir que la curva se acerca cada vez más al eje X pero jamás llega a
tocarlo. Es decir, las “colas” de la curva se extienden de manera indefinida en ambas direcciones.
Para indicar que una variable aleatoria (v.a.) sigue una distribución normal de media µ y
desviación estándar σ usaremos la expresión: X ∼ N(µ,σ).
18. Función de densidad
La probabilidad de que una variable aleatoria (v.a.) X tome un valor determinado entre dos
números reales a y b coincide con el área encerrada por la función
𝑓 𝑥 =
𝑒−
1
2(
𝑥−𝜇
𝜎 )2
𝜎 2𝜋
entre los puntos a y b, es decir :
𝑃 𝑎 ≤ 𝑥 ≤ 𝑏 = 𝑎
𝑏
𝑓 𝑥 𝑑𝑥:
19. Por lo tanto…
La distribución normal es simétrica respecto de su media µ .
El área total encerrada por f(x) vale 1, i.e.:
−∞
+∞
𝑓 𝑥 𝑑𝑥 = 𝑃 −∞ < 𝑥 < +∞ = 1
Al ser X v.a. continua,
𝑃 𝑥 = 𝑎 =
𝑎
𝑎
𝑓 𝑥 𝑑𝑥 = 0, ∀ 𝑎 ∈ 𝑅 ⇒ 𝑃 𝑥 ≤ 𝑎 = 𝑃(𝑥 < 𝑎)
20. Distribución normal estándar
Se observó que no existe una sola distribución de probabilidad normal, sino una “familia” de
ellas. Cada una de las distribuciones puede tener una media (µ) o una desviación estándar
distinta (σ). Por tanto, el número de distribuciones normales es ilimitado y sería imposible
proporcionar una tabla de probabilidades para cada combinación de µ y σ.
Para resolver este problema, se utiliza un solo “miembro” de la familia de distribuciones
normales, aquella cuya media es 0 y desviación estándar 1 que es la que se conoce como
distribución estándar normal, de forma que todas las distribuciones normales pueden
convertirse a la estándar, restando la media de cada observación y dividiendo por la
desviación estándar.
21. Primero, convertiremos la distribución real en una distribución normal estándar utilizando un
valor llamado Z, o estadístico Z que será la distancia entre un valor seleccionado, designado X, y
la media µ, dividida por la desviación estándar σ.
Formalmente, si 𝑋 ∼ 𝑁(µ, 𝜎) , entonces la v.a.
𝑧 =
𝑋 − 𝜇
𝜎
se distribuye según una normal de media 0 y desviación estándar 1, i.e.: 𝑍 ∼ 𝑁(0,1) , que es la
distribución llamada normal estándar o tipificada.
De esta manera, un valor Z mide la distancia entre un valor especificado de X y la media
aritmética, en las unidades de la desviación estándar.
22. Ejemplo resuelto con Minitab
Se supone que el nivel de colesterol de los enfermos de un hospital sigue una distribución
normal con una media de 179,1 mg/dL y una desviación estándar de 28,2 mg/dL.
1. ¿Cuál es el porcentaje de enfermos con un nivel de colesterol inferior a 169 mg/dL?
2. ¿Cuál será el valor del nivel de colesterol a partir del cual se encuentra el 10% de los enfermos
del hospital con los niveles más altos?
23. 1. ¿Cuál es el porcentaje de enfermos con un nivel de colesterol inferior a 169 mg/dL?
El porcentaje de enfermos con un
nivel de colesterol inferior a
169mg/dL es del 36.01%.
24. Comparación de resultados
Al realizar el ejemplo en
Minitab, se obtuvo el
mismo resultado que el
que venía en el libro.
25. 2. ¿Cuál será el valor del nivel de colesterol a partir del cual se encuentra el 10% de los
enfermos del hospital con los niveles más altos?
26. 2. ¿Cuál será el valor del nivel de colesterol a partir del cual se encuentra el 10% de los
enfermos del hospital con los niveles más altos?
El nivel de colesterol en el
cual se encuentra el 10% de
los enfermos con niveles
mayores es de 215.2 mg/dL.
28. DISTRIBUCIÓN F DE SNEDECOR
Esta distribución es una de las asociadas a la normal, es la que se define como el cociente de
dos variables aleatorias independientes con distribución ji-cuadrado divididas entre sus
respectivos grados de libertad, n y m; la variable aleatoria resultante sigue una distribución F de
Snedecor de parámetros n y m (denotada por Fn,m). Hay muchas aplicaciones de la F en
estadística y, en particular, tiene un papel importante en las técnicas del análisis de la varianza
(ANOVA) y del diseño de experimentos. Debe su nombre al matemático y estadístico americano
George Waddel Snedecor (1881-1974).
Campo de variación:
0 < x < ∞
Parámetros:
n: grados de libertad del numerador, n ≥ 1 entero
m: grados de libertad del denominador, m ≥ 1 entero
29. La necesidad de disponer de métodos estadísticos para comparar las varianzas de dos
poblaciones es evidente a partir del análisis de una sola población.
Intuitivamente, podríamos comparar las varianzas de dos poblaciones, 𝜎1
2
y 𝜎2
2
,
utilizando la razón de las varianzas muestrales 𝑠1
2
𝑠2
2. Si 𝑠1
2
𝑠2
2 es casi igual a 1, se tendrá
poca evidencia para indicar que 𝜎1
2
y 𝜎2
2
no son iguales. Por otra parte, un valor muy
grande o muy pequeño para 𝑠1
2
𝑠2
2, proporcionará evidencia de una diferencia en las
varianzas de las poblaciones.
30. La variable aleatoria F se define como el cociente de dos variables aleatorias ji-cuadrada
independientes, cada una dividida entre sus respectivos grados de libertad. Esto es,
𝐹 =
𝑈
𝑣1
𝑉
𝑣2
donde U y V son variables aleatorias ji-cuadrada independientes con grados de libertad 𝑣1 y 𝑣2
respectivamente.
Sean U y V dos variables aleatorias independientes que tienen distribución ji cuadradas con 𝑣1 y 𝑣2
grados de libertad, respectivamente. Entonces la distribución de la variable aleatoria esta dada por:
𝑓 𝑥 =
Γ
𝑣1 + 𝑣2
2 (
𝑣1
𝑣2
)
𝑣1
2 𝑥(
𝑣1
2 )−1
Γ
𝑣1
2 Γ
𝑣2
2 (1 + 𝑣1 𝑥 𝑣2)
(𝑣1+𝑣2)
2
y se dice que sigue la distribución F con 𝑣1 grados de libertad en el numerador y 𝑣2 grados de libertad
en el denominador.
31. La media y la varianza de la distribución F son:
𝜇 = 𝑣2
𝑣2−2 𝑝𝑎𝑟𝑎 𝑣2 > 2
𝜎2 =
2𝑣2
2
(𝑣1 + 𝑣2 − 2)
𝑣1(𝑣2 − 2)2(𝑣2 − 4)
𝑝𝑎𝑟𝑎 𝑣2 > 4
La variable aleatoria F es no negativa, y la distribución tiene un sesgo hacia la derecha. La distribución
F tiene una apariencia muy similar a la distribución ji-cuadrada; sin embargo, se encuentra centrada
respecto a 1, y los dos parámetros proporcionan una flexibilidad adicional con respecto a la forma de
la distribución.
Si 𝑠1
2
y 𝑠2
2
son las varianzas muestrales independientes de tamaño 𝑛1 y 𝑛2 tomadas de poblaciones
normales con varianzas 𝜎1
2
y 𝜎2
2
, respectivamente, entonces:
𝐹 =
𝑠1
2
𝜎1
2
𝑠1
2
𝜎2
2
=
𝑠1
2
𝜎2
2
𝑠2
2
𝜎1
2 =
𝑠1
𝑠2
2
𝜎2
𝜎1
2
32. Ejemplo resuelto con Minitab
En un laboratorio se efectuaron ciertas mediciones y se comprobó que seguían una distribución
F con 10 grados de libertad en el numerador y 12 grados de libertad en el denominador.
1. Calcule el valor que deja a la derecha el 5% del área bajo la curva de densidad.
2. ¿Cuál es la probabilidad de que la medición sea superior a 4,30?
34. Resultados
El valor que deja a la derecha la
probabilidad de 0.05 es 2.753
La probabilidad de que la medición
sea superior a 4.30 es igual a (1-
0.99) = 0.01
36. DISTRIBUCIÓN T DE STUDENT
Definida por medio de sus grados de libertad, n, y se denota por tn. Surge cuando se plantea estudiar el
cociente entre una variable aleatoria con distribución normal estándar y la raíz cuadrada del cociente entre una
variable aleatoria con distribución ji-cuadrado y sus grados de libertad (n), siendo las dos variables
independientes. Esta distribución desempeña un papel muy importante en la inferencia estadística asociada a la
teoría de muestras pequeñas y es usada habitualmente en el contraste de hipótesis para la media de una
población o para comparar medias de dos poblaciones.
En cuanto a la forma que presenta su función de densidad cabe destacar las similitudes que mantiene con la
función de densidad de la distribución normal estándar: forma acampanada, simétrica y centrada en el origen;
la única diferencia existente entre ambas distribuciones es que la función de densidad de la t de Student
presenta unas colas más pesadas (mayor dispersión) que la normal.
Campo de variación:
-∞ < x < ∞
Parámetros:
n: grados de libertad, n ≥ 1 entero
37. Supóngase que se toma una muestra de una población normal con media 𝜇 y varianza 𝜎2. Si 𝑥 es el
promedio de las n observaciones que contiene la muestra aleatoria, entonces la distribución es una
distribución normal estándar. Supóngase que la varianza de la población 𝜎2 es desconocida. ¿Qué
sucede con la distribución de esta estadística si se reemplaza σ por 𝑠? La distribución t proporciona
la respuesta a esta pregunta.
La media y la varianza de la distribución t son 𝜇 = 0 y 𝜎2 = 𝑣
(𝑣−2) para 𝑣 < 2, respectivamente.
La siguiente figura presenta la gráfica de varias distribuciones
t. La apariencia general de la distribución t es similar a la de la
distribución normal estándar: ambas son simétricas y
unimodales, y el valor máximo de la ordenada se alcanza en
la media 𝜇 = 0. Sin embargo, la distribución t tiene colas más
amplias que la normal; esto es, la probabilidad de las colas es
mayor que en la distribución normal. A medida que el
número de grados de libertad tiende a infinito, la forma
límite de la distribución t es la distribución normal estándar.
38. Propiedades de la Distribución t
Cada curva t tiene forma de campana con centro en 0.
Cada curva t, está más dispersa que la curva normal estándar z.
A medida que 𝑣 aumenta, la dispersión de la curva t correspondiente disminuye.
A medida que 𝑣 → ∞ , la secuencia de curvas t se aproxima a la curva normal estándar, por lo
que la curva z recibe a veces el nombre de curva t con 𝑔𝑙 = ∞
La distribución de la variable aleatoria t está dada por:
ℎ 𝑡 =
Γ[
𝑣 + 1
2]
Γ( 𝑣
2) 𝜋𝑣
1 +
𝑡2
𝑣
−(𝑣+1) 2
, −∞ < 𝑡 < ∞
Esta se conoce como la distribución t con 𝑣 grados de libertad.
39. Sean 𝑥1, 𝑥2, … , 𝑥 𝑛 variables aleatorias independientes que son todas normales con media 𝜇 y
desviación estándar 𝜎 . Entonces la variable aleatoria 𝑡 =
𝑥−𝜇
𝑠
𝑛
tiene una distribución t con ν = 𝑛 −
1 grados de libertad.
La distribución t difiere de la de Z en que la varianza de t depende del tamaño de la muestra y siempre
es mayor a uno. Únicamente cuando el tamaño de la muestra tiende a infinito las dos distribuciones
serán las mismas.
Se acostumbra representar con 𝑡 𝛼 el valor t por arriba del cual se encuentra un área igual a 𝛼. Como la
distribución t es simétrica alrededor de una media de cero, tenemos 𝑡1−𝛼 = −𝑡 𝛼; es decir, el valor t que
deja un área de 1 − 𝑎 a la derecha y por tanto un área de 𝛼 a la izquierda, es igual al valor t negativo
que deja un área de 𝛼 en la cola derecha de la distribución. Esto es, 𝑡0.95 = −𝑡0.05, 𝑡0.99 = −𝑡0.01, etc.
40. Ejemplo resuelto con Minitab
La distribución t de Student se aproxima a la normal a medida que aumentan los grados de
libertad.
1. Calcular, para una distribución N(0,1), el punto que deja a la derecha una cola de probabilidad
0,05.
2. Calcular, para una distribución t de Student, la probabilidad de que la variable tome un valor a la
derecha de ese punto. Tomar como grados de libertad sucesivamente n = 10 y n = 150.
Para el primer apartado hay que seleccionar en la lista de distribuciones la normal de parámetros
µ= 0 y σ = 1.
41. Solución parte 1
El punto 1.645 es el que deja
a la derecha la probabilidad
de 0.05
44. La probabilidad de que haya un valor por
encima de 1.645 con 10 gL es 0.93, y con 150
gL es de 0.95
En las gráficas podemos comprobar la
afirmación, que mientras mayor sea el grado
de libertad, la distribución t se asemejara mas
a una distribución normal.
45. DISTRIBUCIÓN BINOMIAL
Obtenida por Jakob Bernoulli (1654-1705), esta distribución aparece de forma natural al realizar
repeticiones independientes de un experimento que tenga respuesta binaria, generalmente
clasificada como “éxito” o “fracaso”; este experimento recibe el nombre de experimento de
Bernoulli. Ejemplos de respuesta binaria pueden ser el hábito de fumar (sí/no), o si un artículo de
un lote es o no defectuoso. La variable discreta que cuenta el número de éxitos en n pruebas
independientes de ese experimento, cada una de ellas con la misma probabilidad de “éxito” igual a
p, sigue una distribución binomial de parámetros n y p, que se denota por (Bi (n, p)).
46. Este modelo se aplica a poblaciones finitas de las que se toman elementos al azar con reemplazo, y
también a poblaciones conceptualmente infinitas, como por ejemplo las piezas que produce una
máquina, siempre que el proceso de producción sea estable (la proporción de piezas defectuosas se
mantiene constante a largo plazo) y sin memoria (el resultado de cada pieza no depende de las
anteriores).
Un caso particular se tiene cuando n=1, que da lugar a la distribución de Bernoulli.
Valores:
k: 0, 1, 2, ..., n
Parámetros:
n: número de pruebas, n ≥ 1 entero
p: probabilidad de éxito, 0 < p < 1
47. Consideremos una variable aleatoria X que da el número de éxitos que aparecen al repetir n veces
de forma independiente un experimento en idénticas condiciones. En esta situación diremos que X
sigue una distribución Binomial.
Ejemplos:
X= número de huevos defectuosos en un paquete de 12.
Y= número de 2 al tirar 10 veces un dado. Las características principales de este modelo de
distribución son:
1. Repetir n pruebas independientes unas de otras.
2. Para cada una de las pruebas sólo pueden darse dos resultados: éxito o fracaso
3. La probabilidad de éxito en cada prueba es de p
48. En tales condiciones, diremos que la v.a. 𝑋 = “𝑛º 𝑑𝑒 é𝑥𝑖𝑡𝑜𝑠 𝑒𝑛 𝑙𝑎𝑠 𝑛 𝑝𝑟𝑢𝑒𝑏𝑎𝑠” sigue una distribución
Binomial de parámetros n y p, y lo escribiremos como 𝑋 ∼ 𝐵(𝑛, 𝑝) . Observamos que la v.a. 𝑋 sólo
puede tomar los valores 0, 1, 2, 3, … , 𝑛 siendo por tanto una v.a. discreta. Así pues, las funciones de
probabilidad y de distribución de una distribución binomial son las siguientes:
𝑓 𝑥 = 𝑃 𝑋 = 𝑥 =
𝑛
𝑥
𝑝 𝑥(1 − 𝑝) 𝑛−𝑥 𝑝𝑎𝑟𝑎 𝑥 = 0,1,2,3 … 𝑛
𝑑𝑜𝑛𝑑𝑒
𝑛
𝑥
=
𝑛!
𝑥! 𝑛 − 𝑥 !
𝑦 𝐹 𝑥 = 𝑃 𝑋 ≤ 𝑥 =
𝑖=0
𝑛
𝑃(𝑋 = 𝑖)
De la misma manera, la media y la desviación estándar de una distribución binomial son:
𝜇 = 𝑛 ∗ 𝑝, 𝜎 = 𝑛 ∗ 𝑝 ∗ (1 − 𝑝)
49. Ejemplo resuelto con Minitab
En un examen formado por 20 preguntas, cada una de las cuales se responde
declarando “verdadero” o “falso”, el alumno sabe que, históricamente, en el 75% de los
casos la respuesta correcta es “verdadero” y decide responder al examen tirando dos
monedas: pone “falso” si ambas monedas muestran una cara y “verdadero” si al menos
hay una cruz. Se desea saber cual es la probabilidad de que tenga más de 14 aciertos
50. Solución & Resultados
La probabilidad de que se tengan
más de 14 aciertos en el examen es
de (1-0.38)=0.62~ 62%
52. DISTRIBUCIÓN GEOMÉTRICA
La distribución geométrica permite calcular la probabilidad de que tenga que realizarse un
número k de repeticiones antes de obtener un éxito por primera vez; esta probabilidad
decrece a medida que aumenta k con lo que la función de masa de probabilidad es siempre
decreciente. Así pues, se diferencia de la distribución binomial en que el número de
repeticiones no está predeterminado, sino que es la variable aleatoria que se mide y, por otra
parte, el conjunto de valores posibles de la variable es ilimitado.
Para ilustrar el empleo de esta distribución, se supone que cierto medicamento opera
exitosamente ante la enfermedad para la cual fue concebido en el 80% de los casos a los
que se aplica; la variable aleatoria “intentos fallidos en la aplicación del medicamento antes
del primer éxito” sigue una distribución geométrica de parámetro p = 0,8.
53. La distribución geométrica se utiliza en la distribución de tiempos de espera, de manera que, si los
ensayos se realizan a intervalos regulares de tiempo, esta variable aleatoria proporciona el tiempo
transcurrido hasta el primer éxito. Esta distribución presenta la propiedad denominada “falta de
memoria”, que implica que la probabilidad de tener que esperar un tiempo t no depende del
tiempo que ya haya transcurrido.
Valores:
k: 0, 1, 2, ...
Parámetros:
p: probabilidad de éxito, 0 < p < 1
54. De lo anterior, tendremos que la variable X es el número de pruebas necesarias para la
consecución del primer éxito. De esta forma la variables aleatoria toma valores enteros a
partir del uno ; {1, 2,……..}
La función de cuantía P(x) hará corresponder a cada valor de X la probabilidad de obtener el
primer éxito precisamente en la X-sima prueba. Esto es , P(X) será la probabilidad del suceso
obtener X-1 resultados "no A" y un éxito o resultado A en la prueba número X teniendo en
cuenta que todas las pruebas son independientes y que conocemos sus probabilidades
tendremos:
𝑠𝑢𝑐𝑒𝑠𝑜 ≡ 𝐴𝑦 𝐴𝑦 … 𝑦 𝐴𝑦 𝐴 = 𝐴 ∩ 𝐴 ∩ ⋯ ∩ 𝐴 ∩ 𝐴
dado que se trata de sucesos independientes y conocemos las probabilidades
𝑃 𝑥 = 𝑃 𝐴 . 𝑃 𝐴 … 𝑃 𝐴 . 𝑃 𝐴 = 𝑞 𝑛−1
. 𝑝 𝑑𝑎𝑑𝑜 𝑞𝑢𝑒
𝑃 𝐴 = 𝑞 𝑦 𝑃 𝐴 = 𝑝
𝑙𝑢𝑒𝑔𝑜 𝑙𝑎 𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑐𝑢𝑎𝑛𝑡í𝑎 𝑞𝑢𝑒𝑑𝑎𝑟í𝑎: 𝑃 𝑥 = 𝑞 𝑛−1
. 𝑝
Función de cuantía
𝑥 − 1 𝑣𝑒𝑐𝑒𝑠 𝑢𝑛𝑎 𝑣𝑒𝑧 𝑥 − 1 𝑣𝑒𝑐𝑒𝑠 𝑢𝑛𝑎 𝑣𝑒𝑧
55. Características
El proceso consta de un número no definido de pruebas o experimentos separados o separables. El
proceso concluirá cuando se obtenga por primera vez el resultado deseado (éxito).
Cada prueba puede dar dos resultados mutuamente excluyentes : A y no A. La probabilidad de
obtener un resultado A en cada prueba es p y la de obtener un resultado no A es q siendo (p + q = 1).
Las probabilidades p y q son constantes en todas las pruebas ,por tanto , las pruebas ,son
independientes (si se trata de un proceso de "extracción" éste se llevará a , cabo con devolución del
individuo extraído) .
(Derivación de la distribución). Si en estas circunstancias aleatorizamos de forma que tomemos como
variable aleatoria X = “el número de pruebas necesarias para obtener por primera vez un éxito o
resultado A” , esta variable se distribuirá con una distribución geométrica de parámetro p.
𝑥 ⇒ 𝐺(𝑝)
56. Función de distribución
En base a la función de cuantía se puede expresar la función de distribución de la siguiente manera.
𝐹 𝑥 =
𝑥=1
𝑥
𝑞 𝑥−1. 𝑝
desarrollando la expresión tendríamos
𝐹 𝑥 = 𝑝 1 + 𝑞 + 𝑞2
+ ⋯ + 𝑞 𝑥−1
= 𝑝.
1 − 𝑞 𝑥
1 − 𝑞
𝑑𝑒 𝑑𝑜𝑛𝑑𝑒 𝐹 𝑥 = 1 − 𝑞 𝑥
La Función Generatriz de Momentos (F.G.M) quedaría:
𝜑 𝑡 = 𝐸 𝑒 𝑡𝑥
=
𝑥=1
∞
𝑒 𝑡𝑥𝑖
. 𝑝. 𝑞 𝑥𝑖−1
=
𝑝
𝑞
𝑥=1
∞
(𝑒 𝑡
𝑞) 𝑥𝑖
lim
𝑥→∞
𝑝
𝑞
𝑞𝑒 𝑡
+ (𝑞𝑒 𝑡
)2
+ (𝑞𝑒 𝑡
)3
+ ⋯ + (𝑞𝑒 𝑡
) 𝑥
=
lim
𝑥→∞
𝑝
𝑞
(𝑞𝑒 𝑡
) 𝑥+1
−𝑞𝑒 𝑡
𝑞𝑒 𝑡 − 1
=
𝑝
𝑞
𝑞𝑒 𝑡
1 − 𝑞𝑒 𝑡
= 𝑝
𝑒 𝑡
1 − 𝑞𝑒 𝑡
==
𝑝
𝑒−𝑡 − 𝑞
= 𝑝(𝑒−𝑡 − 𝑞)−1
por lo que queda establecida que la F.G.M. tiene la expresión
𝜑 𝑡 = 𝑝(𝑒−𝑡 − 𝑞)−1
57. En base a la FGM podemos obtener la media y varianza:
𝐴𝑠𝑖: 𝛼1 = 𝜇 = 𝜑 𝑡→0
𝐼
(𝑡)
𝜑 𝐼 𝑡 = −1 𝑝(𝑒−𝑡 − 𝑞)−2 −𝑒−𝑡 = 𝑝(𝑒−𝑡 − 𝑞)−2(𝑒−𝑡)
Haciendo 𝑡 = 0 tendríamos la media:
𝜇 =
1
𝑝
La varianza sería:
𝜎2 = 𝛼2 − 𝜇2
𝜑 𝐼𝐼
= −2 𝑝(𝑒−𝑡
− 𝑞)−3
−𝑒−𝑡
𝑒−𝑡
+ −𝑒−𝑡
𝑝(𝑒−𝑡
− 𝑞)−2
=
Haciendo 𝑡 = 0 tendríamos que
𝛼2 = −2𝑝. 𝑝−3
−1 + −1 𝑝. 𝑝−2
=
2
𝑝2
−
1
𝑝
De esta manera
𝜎2
= 𝛼2 − 𝜇2
=
2
𝑝2 −
1
𝑝
−
1
𝑝2 −
1
𝑝
=
1 − 𝑝
𝑝2 =
𝑞
𝑝2
Luego 𝜎2 =
𝑞
𝑝2
58. Ejemplo resuelto con Minitab
La probabilidad de que cierto examen médico dé lugar a una reacción “positiva” es
igual a 0,8, ¿cuál es la probabilidad de que ocurran menos de 5 reacciones
“negativas” antes de la primera positiva?
La variable aleatoria “número de reacciones negativas antes de la primera positiva”
sigue una distribución geométrica con parámetro p = 0,8.
59. Solución & Resultados
La probabilidad de que ocurran
menos de 5 reacciones negativas
antes de la primera positiva es de
99%.
60. Comparación
Minitab arroja unos resultados casi
iguales a los del libro, con una ligera
variación de centésimas.
61. DISTRIBUCIÓN BINOMIAL NEGATIVA
Una generalización obvia de la distribución geométrica aparece si se supone que un experimento se
continúa hasta que un determinado suceso, de probabilidad p, ocurre por r-ésima vez. La variable
aleatoria que proporciona la probabilidad de que se produzcan k fracasos antes de obtener el r-
ésimo éxito sigue una distribución binomial negativa de parámetros r y p, BN(r, p). La distribución
geométrica corresponde al caso particular en que r= 1. Un ejemplo es el número de lanzamientos
fallidos de un dado antes de obtener un 6 en tres ocasiones, que sigue una BN(3,1/6).
La distribución binomial negativa aparece en un estudio de Pierre Rémond de Montmort (1678-1719)
sobre los juegos de azar en 1714, pero años antes ya había sido descrita por Blaise Pascal (1623-
1662). Más adelante, esta distribución fue propuesta como una alternativa a la distribución de
Poisson para modelar el número de ocurrencias de un suceso cuando los datos presentan lo que se
conoce como variación extra-Poisson o sobredispersión. En estas situaciones, la varianza es mayor
que la media, por lo que se incumple la propiedad que caracteriza a una distribución de Poisson,
según la cual la media es igual a la varianza. La primera aplicación en bioestadística la realizó
Student (William Sealy Gosset (1876-1937)) a principios de siglo cuando propuso esta distribución
para modelar el número de glóbulos rojos en una gota de sangre. En este caso, la variabilidad extra
se debe al hecho de que esas células no están uniformemente distribuidas en la gota, es decir, la
tasa de intensidad no es homogénea.
62. La distribución binomial negativa es más adecuada que la de Poisson para modelar, por ejemplo, el número de
accidentes laborales ocurridos en un determinado lapso. La distribución de Poisson asume que todos los
individuos tienen la misma probabilidad de sufrir un accidente y que ésta permanece constante durante el período
de estudio; sin embargo, es más plausible la hipótesis de que los individuos tienen probabilidades constantes en el
tiempo, pero que varían de unos sujetos a otros; esto es lo que se conoce en la literatura como la propensión a los
accidentes (“accident proneness”). Esta hipótesis se traduce en una distribución de Poisson mixta, o de efectos
aleatorios, en la que se supone que las probabilidades varían entre individuos de acuerdo a una distribución
gamma y esto resulta en una distribución binomial negativa para el número de accidentes.
Valores:
k: 0, 1, 2, ...
Parámetros:
r: número de éxitos, r ≥ 1 entero
p: probabilidad de éxito, 0 < p < 1
𝑷 𝑿 = 𝒌 =
𝒓 + 𝒌 − 𝟏
𝒌
𝒑 𝒓
𝒒 𝒌
, 𝒌 ≥ 𝟎
Donde X= numero de fracasos antes
del r-ésimo éxito.
63. DISTRIBUCIÓN HIPERGEOMÉTRICA
La distribución hipergeométrica suele aparecer en procesos muestrales sin reemplazo, en los
que se investiga la presencia o ausencia de cierta característica. Piénsese, por ejemplo, en un
procedimiento de control de calidad en una empresa farmacéutica, durante el cual se extraen
muestras de las cápsulas fabricadas y se someten a análisis para determinar su composición.
Esta distribución se puede ilustrar del modo siguiente: se tiene una población finita con N
elementos, de los cuales R tienen una determinada característica que se llama “éxito” (diabetes,
obesidad, hábito de fumar, etc.). El número de “éxitos” en una muestra aleatoria de tamaño n,
extraída sin reemplazo de la población, es una variable aleatoria con distribución
hipergeométrica de parámetros N, R y n.
64. Cuando el tamaño de la población es grande, los muestreos con y sin reemplazo son equivalentes,
por lo que la distribución hipergeométrica se aproxima en tal caso a la binomial.
Valores:
k: max{0,n-(N-R)}, ..., min{R,n}, donde max{0,n-(N-R)} indica el valor máximo entre 0 y n-(N-R) y
min{R,n} indica el valor mínimo entre R y n.
Parámetros:
N: tamaño de la población, N ≥ 1 entero
R: número de éxitos en la población; 1 ≤ R ≤ N, N entero
n: número de pruebas; 1 ≤ n ≤ N, n entero
65. Características
Los experimentos que tienen este tipo de distribución tienen las siguientes características:
a) Al realizar un experimento con este tipo de distribución, se esperan dos tipos de resultados.
b) Las probabilidades asociadas a cada uno de los resultados no son constantes.
c) Cada ensayo o repetición del experimento no es independiente de los demás.
d) El número de repeticiones del experimento (n) es constante.
66. Donde:
𝑝(𝑥, 𝑛) = probabilidad de obtener x objetos defectuosos de entre n seleccionados
(. 𝑅 𝐶 𝑥)(. 𝑁−𝑅 𝐶 𝑛−𝑥) =muestras de n objetos en donde hay x que son defectuosos y n-x
buenos
. 𝑁 𝐶 𝑛 = 𝛿 = todas las muestras posibles de seleccionar de n objetos tomadas de entre N
objetos en total = espacio muestral
𝑷 𝒙, 𝒏 =
. 𝑹 𝑪 𝒙 . 𝑵−𝑹 𝑪 𝒏−𝒙
. 𝑵 𝑪 𝒏
67. Ejemplo resuelto con Minitab
Se sabe que el 7% de los útiles quirúrgicos en un lote de 100 no cumplen ciertas
especificaciones de calidad. Tomada una muestra al azar de 10 unidades sin
reemplazo, interesa conocer la probabilidad de que no más de dos sean defectuosas.
El número de útiles defectuosos en el lote es R = 0,07x100 = 7. Para un tamaño
muestral de n= 10, la probabilidad buscada es P{número de defectuosos ≤ 2}
68. Solución & Resultados
La probabilidad de que no mas de 2
unidades quirúrgicas sean
defectuosas es de 97.92%
69. DISTRIBUCIÓN DE POISSON
La distribución de Poisson debe su nombre al matemático francés Simeón Denis
Poisson (1781-1840), aunque ya había sido introducida en 1718 por Abraham De
Moivre (1667-1754) como una forma límite de la distribución binomial que surge
cuando se observa un evento raro después de un número grande de repeticiones.
En general, la distribución de Poisson de parámetro λ se puede utilizar como una
aproximación de la binomial, Bin(n, p), si el número de pruebas n es grande, pero la
probabilidad de éxito p es pequeña, siendo λ = np; podemos considerar que la
aproximación Poisson-binomial es “buena” si n ≥ 20 y p ≤ 0,05 y “muy buena” si n ≥
100 y p ≤ 0,01.
70. La distribución de Poisson también surge cuando un evento o suceso “raro” ocurre
aleatoriamente en el espacio o el tiempo. La variable asociada es el número de
ocurrencias del evento en un intervalo o espacio continuo, por tanto, es una variable
aleatoria discreta que toma valores enteros de 0 en adelante (0, 1, 2,...). Así, el número
de pacientes que llegan a un consultorio en un lapso dado, el número de llamadas
que recibe un servicio de atención a urgencias durante 1 hora, el número de células
anormales en una superficie histológica o el número de glóbulos blancos en un
milímetro cúbico de sangre son ejemplos de variables que siguen una distribución de
Poisson. En general, es una distribución muy utilizada en diversas áreas de la
investigación médica y, en particular, en epidemiología.
71. El concepto de evento “raro” o poco frecuente debe ser entendido en el sentido de
que la probabilidad de observar k eventos decrece rápidamente a medida que k
aumenta. Supóngase, por ejemplo, que el número de reacciones adversas tras la
administración de un fármaco sigue una distribución de Poisson de media λ = 2. Si se
administra este fármaco a 1.000 individuos, la probabilidad de que se produzca una
reacción adversa (k = 1) es 0,27; los valores de dicha probabilidad para k = 2, 3, 4, 5, 6
reacciones, respectivamente, son: 0,27; 0,18; 0,09; 0,03 y 0,01. Para k = 10 o mayor, la
probabilidad es virtualmente 0.
72. Para que una variable recuento siga una distribución de Poisson deben cumplirse
varias condiciones:
1. En un intervalo muy pequeño (p. e. de un milisegundo) la probabilidad de que ocurra
un evento es proporcional al tamaño del intervalo.
2. La probabilidad de que ocurran dos o más eventos en un intervalo muy pequeño es
tan reducida que, a efectos prácticos, se puede considerar nula.
3. El número de ocurrencias en un intervalo pequeño no depende de lo que ocurra en
cualquier otro intervalo pequeño que no se solape con aquél.
73. Estas propiedades pueden resumirse en que el proceso que genera una distribución de
Poisson es estable (produce, a largo plazo, un número medio de sucesos constante por
unidad de observación) y no tiene memoria (conocer el número de sucesos en un
intervalo no ayuda a predecir el número de sucesos en el siguiente).
El parámetro de la distribución, λ, representa el número promedio de eventos esperados
por unidad de tiempo o de espacio, por lo que también se suele hablar de λ como “la tasa
de ocurrencia” del fenómeno que se observa. La distribución de Poisson tiene iguales la
media y la varianza. la distribución de Poisson se aproxima a una distribución normal de
media y varianza iguales a λ.
Valores:
k: 0, 1, 2, ...
Parámetros:
λ: tasa de ocurrencia, λ > 0
74. Función de probabilidad
La función de probabilidad de la distribución de Poisson es:
𝑃 𝑥 =
𝜆 𝑥
𝑒−𝜆
𝑥!
donde λ es el número medio de ocurrencias durante un intervalo específico de tiempo,
superficie, .. 𝑒 es la constante exponencial y 𝑥 es el número de ocurrencias (éxitos).
Observamos de la expresión de la función de probabilidad que el parámetro λ caracteriza las
variables con distribuciónde Poisson. Otra característica de la Poisson es que su media es igual
a su varianza y ambas son igual al parámetro λ:
µ = λ , σ = λ
Observamos además que una variable con distribución Poisson toma infinitos valores, 0,1, …
Ahora bien, las probabilidades van disminuyendo cada vez más rápidamente cuando el valor es
alto, haciéndose prácticamente nulas a partir de un valor. Por esto muchas veces la distribución
de Poisson también se la llama distribución de los sucesos “raros” o poco probables.
75. Ejemplo resuelto con Minitab
El número de enfermos que solicitan atención de urgencia en un hospital durante un
periodo de 24 horas tiene una media de 43,2 pacientes. Se sabe que el servicio se
colapsará si el número de enfermos excede de 50. ¿Cuál es la probabilidad de que se
colapse el servicio de urgencias del hospital? Representar la función de masa de
probabilidad.
76. Solución & Resultados
La probabilidad de que colapse el
servicio de urgencias del hospital es
de (1-0.87)=0.13 ~ 13%
77. Comparación Comparamos los resultados de
minitab y los del libro, y se observa
que las graficas generadas son
iguales, así como las probabilidades.
78. DISTRIBUCIÓN BETA
La distribución beta es adecuada para variables aleatorias continuas que toman valores en el intervalo
(0,1), lo que la hace muy apropiada para modelar proporciones. En la inferencia bayesiana, por
ejemplo, es muy utilizada como distribución a priori cuando las observaciones tienen una distribución
binomial.
Uno de los principales recursos de esta distribución es el ajuste a una gran variedad de distribuciones
empíricas, pues adopta formas muy diversas dependiendo de cuáles sean los valores de los
parámetros de forma p y q, mediante los que viene definida la distribución, denotada por Beta(p,q).
Un caso particular de la distribución beta es la distribución uniforme en (0,1), que se corresponde
con una beta de parámetros p = 1 y q = 1.
Campo de variación:
0 < x < 1
Parámetros:
p: forma, p > 0
q: forma, q > 0
79. Ejemplo
En el presupuesto familiar, la porción que se dedica a salud sigue una distribución beta(2,2).
1. ¿Cuál es la probabilidad de que se gaste más del 25% del presupuesto familiar en salud?
80. Comparación
La probabilidad de que se gaste mas del
25% del presupuesto familiar en salud es
del (1-0.1562)=0.8438 ~ 84%
Comparada con los resultados del libro
es correcta.
81. DISTRIBUCIÓN CAUCHY
Esta distribución fue introducida por Simeón Denis Poisson (1781-1840) en 1824, aunque debe su nombre al
matemático francés Augustin Louis Cauchy (1789-1857) quien la reintrodujo en 1853 [14]. En el ámbito de la
física también es conocida con el nombre de distribución de Lorentz o distribución de Breit-Wigner.
La distribución de Cauchy depende de dos parámetros: escala (µ) y situación (θ); en el caso particular de que
µ = 1 y θ = 0, recibe el nombre de distribución de Cauchy estándar.
Una característica destacable de esta distribución es que carece de momentos, por lo que no existen la
media, varianza, asimetría y curtosis de esta distribución. Su función de densidad es simétrica respecto al
parámetro de situación θ.
Campo de variación:
-∞ < x < ∞
Parámetros:
µ: escala, µ > 0
θ: situación, -∞ < θ < ∞
82. Ejemplo resuelto con Minitab
Considere la distribución Cauchy de parámetros µ = 0,75 y θ = 5.
1. ¿Qué proporción del área bajo la curva se ubica a la derecha de 9,21?
83. Resultados
A la derecha del valor 9.21 se
encuentra una proporción del
16.99%
84. DISTRIBUCIÓN EXPONENCIAL
La distribución exponencial es un caso particular de la distribución gamma y el
equivalente continuo de la distribución geométrica discreta. Esta ley de distribución
describe procesos en los que interesa saber el tiempo hasta que ocurre determinado
evento; en particular, se utiliza para modelar tiempos de supervivencia.
Una característica importante de esta distribución es la propiedad conocida como “falta
de memoria”. Esto significa, por ejemplo, que la probabilidad de que un individuo de
edad t sobreviva x años más, hasta la edad x+t, es la misma que tiene un recién nacido
de sobrevivir hasta la edad x. Dicho de manera más general, el tiempo transcurrido
desde cualquier instante dado t0 hasta que ocurre el evento, no depende de lo que haya
ocurrido antes del instante t0.
Se cumple que variable aleatoria que tome valores positivos y que verifique la propiedad
de “falta de memoria” sigue una distribución exponencial.
85. Esta distribución se puede caracterizar como la distribución del tiempo entre sucesos
consecutivos generados por un proceso de Poisson; por ejemplo, el tiempo que
transcurre entre dos heridas graves sufridas por una persona. La media de la distribución
de Poisson, λ, que representa la tasa de ocurrencia del evento por unidad de tiempo, es
el parámetro de la distribución exponencial, y su inversa es el valor medio de la
distribución.
El uso de la distribución exponencial ha sido limitado en bioestadística, debido a que la
propiedad de falta de memoria la hace demasiado restrictiva para la mayoría de los
problemas.
Campo de variación:
0 < x < ∞
Parámetros:
λ: tasa, λ > 0
86. Función de densidad
La variable aleatoria x tiene una distribución exponencial, con parámetro b, si su función
de densidad es:
𝑓 𝑥 =
1
𝛽
𝑥
−𝑥
𝛽 , 𝑥 > 0
𝑓(𝑥) = 0 en cualquier otro caso, donde β > 0
La media y la variancia de la distribución exponencial son:
𝜇 = 𝛽
𝜎2 = 𝛽2
87. Relación con el proceso de Poisson
Las aplicaciones más importantes de la distribución exponencial son aquellas situaciones en donde se
aplica el proceso de Poisson , es necesario recordar que un proceso de Poisson permite el uso de la
distribución de Poisson. Recuérdese también que la distribución de Poisson se utiliza para calcular la
probabilidad de números específicos de “eventos” durante un período o espacio particular. En muchas
aplicaciones, el período o la cantidad de espacio es la variable aleatoria. Por ejemplo un ingeniero
industrial puede interesarse en el tiempo T entre llegadas en una intersección congestionada durante la
hora de salida de trabajo en una gran ciudad. Una llegada representa el evento de Poisson.
La relación entre la distribución exponencial (con frecuencia llamada exponencial negativa) y el proceso
llamado de Poisson es bastante simple. La distribución de Poisson se desarrolló como una distribución de
un solo parámetro l, donde l puede interpretarse como el número promedio de eventos por unidad de
“tiempo” . Considérese ahora la variable aleatoria descrita por el tiempo que se requiere para que ocurra
el primer evento. Mediante la distribución de Poisson, se encuentra que la probabilidad de que no
ocurran en el espacio hasta el tiempo t está dada por:
𝑝 0, 𝜆𝑡 =
𝐸−𝜆𝑡
(𝜆𝑡)0
0!
= 𝐸−𝜆𝑡
; 𝐸 = 2.718
88. Ahora puede utilizarse lo anterior y hacer que X sea el tiempo para el primer evento de Poisson. La
probabilidad de que el período hasta que ocurre el primer evento de Poisson exceda x es la misma que
la probabilidad de que no ocurra un evento de Poisson en x. Esto último por supuesto está dado por
𝐸−𝜆𝑡
. Como resultado,
𝑃 𝑋 ≥ 𝑥 = 𝐸−𝜆𝑡
Entonces, la función de distribución acumulada para x es:
𝑃 0 ≤ 𝑋 ≤ 𝑥 = 1 − 𝐸−𝜆𝑡
Ahora, con objeto de que se reconozca la presencia de la distribución exponencial, puede derivarse la
distribución acumulada anterior para obtener la función de densidad:
𝑓 𝑥 = 𝜆𝐸−𝜆𝑡
La cual es la función de densidad de la distribución exponencial con
𝜆 =
1
𝛽
Nótese que la media de la distribución exponencial es el parámetro 𝛽, el recíproco del parámetro en la
distribución de Poisson. El lector debe recordar que con frecuencia se dice que la distribución de Poisson
no tiene memoria, lo cuál implica que las ocurrencias en períodos de tiempo sucesivos son
independientes. Aquí el parámetro importante 𝛽 es el tiempo promedio entre eventos. En teoría de la
confiabilidad, donde la falla de un equipo concuerda con el proceso de Poisson, 𝛽 recibe el nombre de
tiempo promedio entre fallas. Muchas descomposturas de equipo siguen el proceso de Poisson, y
entonces la distribución exponencial es aplicable.
89. Ejemplo resuelto con Minitab
Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una distribución
exponencial con media de 14 años.
1. ¿Cuál es la probabilidad de que a una persona a la que se le ha implantado este marcapasos se le
deba reimplantar otro antes de 20 años?
90. Resultados & Comparación
La probabilidad de que se deba
reimplantar otro marcapasos antes de 20
años es de 76%
Podemos observar en la comparación que
el resultado varia un poco por el uso de la
media completa en minitab.
91. DISTRIBUCIÓN GAMMA
La distribución gamma se puede caracterizar del modo siguiente: si se está interesado en la
ocurrencia de un evento generado por un proceso de Poisson de media λ, la variable que
mide el tiempo transcurrido hasta obtener n ocurrencias del evento sigue una distribución
gamma con parámetros a = n λ (escala) y p = n (forma). Se denota por Gamma(a,p).
Por ejemplo, la distribución gamma aparece cuando se realiza el estudio de la duración de
elementos físicos (tiempo de vida).
Cuando p es un número entero positivo se tiene un caso particular de la distribución gamma
que se denomina distribución de Erlang. Otros casos particulares de la distribución gamma,
que se comentarán con detalle más adelante, son la distribución exponencial (Gamma(λ,1)) y
la distribución ji-cuadrado (Gamma(1/2,n/2)).
92. Según los valores que tome el parámetro de forma, p, la función de densidad
presenta perfiles muy diversos. Con valores de p menores o iguales que 1, la
función de densidad muestra un perfil decreciente; en cambio, si p es mayor que
la unidad, la función de densidad crece hasta el valor x= (p-1)/a y decrece a partir
de este valor.
Campo de variación:
0 < x < ∞
Parámetros:
a: escala, a > 0
p: forma, p > 0
𝑭 𝒙 =
𝒌 𝝀
𝜞 𝝀
𝒙 𝝀−𝟏 𝒆−𝒌𝒙
93. Ejemplo resuelto con Minitab
Suponiendo que el tiempo de supervivencia, en años, de pacientes que son sometidos a una cierta
intervención quirúrgica en un hospital sigue una distribución gamma con parámetros a = 0,81 y p = 7,81,
interesa saber los años a partir de los cuales la probabilidad de supervivencia es menor que 0,1.
95. DISTRIBUCIÓN LAPLACE
Fue descubierta en 1774 por Pierre-Simon Laplace (1749-1827), a quien debe su nombre, aunque
también es conocida por el nombre de distribución doble exponencial.
Esta distribución viene determinada por dos parámetros, uno de situación (a) y otro de escala (b).
Su función de densidad es simétrica y el parámetro de situación determina su eje de simetría, además de
ser el punto donde la función alcanza su valor máximo en forma de pico afilado. Independientemente
de los valores que tomen sus parámetros, es una distribución leptocúrtica, lo que quiere decir que su
función de densidad es más apuntada que la función de densidad de la normal con la misma media y
desviación estándar.
Campo de variación:
-∞ < x < ∞
Parámetros:
a: situación, -∞ < a < ∞
b: escala, b > 0
96. DISTRIBUCIÓN LOGÍSTICA
Pierre François Verhulst (1804-1849) describió por primera vez la curva logística en un trabajo, publicado en 1845,
que versaba sobre las investigaciones matemáticas en las leyes que gobiernan el crecimiento de la población.
La distribución logística se utiliza en el estudio del crecimiento temporal de variables, en particular, demográficas.
La más conocida y generalizada aplicación de la distribución logística en Ciencias de la Salud se fundamenta en la
siguiente propiedad: si U es una variable uniformemente distribuida en el intervalo (0,1), entonces la variable X=
ln(U/(1-U)) sigue una distribución logística. Esta transformación, denominada logit, se utiliza para modelar datos
de respuesta binaria, especialmente en el contexto de la regresión logística.
Los parámetros asociados a esta distribución son situación (a) y escala (b). Su función de densidad es simétrica
respecto al parámetro a y presenta un perfil más apuntado que el de la distribución normal con la misma media y
desviación estándar (distribución leptocúrtica).
Campo de variación:
-∞ < x < ∞
Parámetros:
a: situación, -∞ < a < ∞
b: escala, b > 0
97. Ejemplo resuelto con Minitab
El crecimiento relativo anual (%) de la población de un determinado país sigue una
distribución logística de parámetro de posición 1 y de escala 2. Calcular la probabilidad de
que el crecimiento en un año determinado sea superior al 5% y representar la función de
densidad
99. Resultados &
Comparación
La probabilidad de que el
crecimiento de una población en un
año sea mayor a un 5% es (1-
0.8807)=0.1193 ~ 11.93%
100. DISTRIBUCIÓN LOGNORMAL
La variable resultante de aplicar la función exponencial a una variable que se distribuye normal con
media µ y desviación estándar σ, sigue una distribución lognormal con parámetros µ (escala) y σ (forma).
Dicho de otro modo, si una variable X sigue una distribución lognormal entonces la variable lnX se
distribuye normalmente. Esta variable aleatoria fue propuesta por Francis Galton (1822-1911) en 1879,
como consecuencia del estudio de la media geométrica de n variables aleatorias independientes.
La distribución lognormal es útil para modelar datos de numerosos estudios médicos tales como el
período de incubación de una enfermedad, los títulos de anticuerpo a un virus, el tiempo de
supervivencia en pacientes con determinada enfermedad, etc.
Campo de variación:
0 < x < ∞
Parámetros:
µ: escala, -∞ < µ < ∞
σ: forma, σ > 0
101. Ejemplo resuelto con Minitab
Supóngase que la supervivencia, en años, luego de una intervención quirúrgica (tiempo
que pasa hasta que ocurre la muerte del enfermo) en una cierta población sigue una
distribución lognormal de parámetro de escala 2,32 y de forma 0,20.
Calcular la probabilidad de supervivencia a los 12 años.
102. Solución & Resultados
La probabilidad de supervivencia a los
12 años de una intervención quirúrgica
es de 83.37%
103. DISTRIBUCIÓN TRIANGULAR
El nombre de esta distribución viene dado por la forma de su función de densidad. Este modelo
proporciona una primera aproximación cuando hay poca información disponible, de forma que sólo se
necesita conocer el mínimo (valor pesimista), el máximo (valor optimista) y la moda (valor más probable).
Estos tres valores son los parámetros que caracterizan a la distribución triangular y se denotan por a, b y c,
respectivamente.
Un ejemplo del uso de esta distribución se encuentra en el análisis del riesgo, donde la distribución más
apropiada es la beta pero dada su complejidad, tanto en la su comprensión como en la estimación de sus
parámetros, se utiliza la distribución triangular como proxy para la beta.
Campo de variación:
a ≤ x ≤ b
Parámetros:
a: mínimo, -∞ < a < ∞
c: moda, -∞ < c < ∞ con a ≤ c ≤ b
b: máximo, -∞ < b < ∞ con a < b
104. Ejemplo resuelto con Minitab
Uno de los problemas de salud que afectan en mayor medida a la población en los meses
de verano son los golpes de calor; por ese motivo, es necesario llevar un control de la
temperatura atmosférica que alerta, entre otros indicadores, de la presencia de una ola de
calor.
Durante el mes de Agosto del año 2010, en Santiago de Compostela, las temperaturas
mínima y máxima absolutas fueron de 12,2 ºC y 35,8ºC, respectivamente, y el valor más
probable fue de 19,8ºC. Si se asume que la temperatura sigue una distribución triangular de
parámetros a=12,2, c=19,8 y b=35,8, ¿cuál es la probabilidad de que supere los 30ºC?
106. Resultados & Comparación
La probabilidad de que se
superen los 30° de
temperatura es de (1-
0.9109)=0.0891 ~ 8.91%
107. DISTRIBUCIÓN WEIBULL
Esta distribución debe su nombre al físico sueco Waloddi Weibull (1887-1979) quien la usó en un artículo
publicado en 1939 sobre resistencia de los materiales (A Statistical Theory of the Strength of Materials),
aunque ya era conocida de años antes.
Esta distribución se utiliza para modelar situaciones del tipo tiempo-fallo, modelar tiempos de vida o
en el análisis de supervivencia, a parte de otros usos como, por ejemplo, caracterizar el
comportamiento climático de la lluvia en un año determinado.
El perfil de la función de densidad presenta formas muy variadas dependiendo del valor que tome su
parámetro de forma, a. Si a es menor o igual que 1, la función de densidad es siempre decreciente; en
caso de tomar valores mayores que la unidad su función de densidad muestra una forma más
acampanada, pero no simétrica, de forma que crece hasta alcanzar el máximo y luego decrece.
Campo de variación:
0 < x < ∞
Parámetros:
a: forma, a > 0
b: escala, b > 0
108. Ejemplo resuelto con Minitab
La vida útil, en años, de cierto tipo de instrumental médico quirúrgico sigue una distribución de
Weibull con parámetros a= 2 y b= 1,75.
1. ¿Cuál es la probabilidad de que el instrumental dure menos de 3 años?