2. PROBABILIDAD
Establecer claramente el espacio de probabilidad será el primer paso
imprescindible para estudiar cualquier experimento aleatorio.
En la práctica, muchas de las dificultades que surgen en el análisis
estadístico de investigaciones clínicas tienen que ver con el establecimiento
implícito y defectuoso de este espacio.
EXPERIMENTO ALEATORIO: experimento que puede ser repetido bajo "las mismas
condiciones", del que puede establecerse el conjunto de sus posibles
resultados, pero no predecir un resultado concreto.
SUCESO ELEMENTAL: todo resultado que puede ocurrir al realizar una sola vez el
experimento.
ESPACIO MUESTRAL: conjunto de todos los sucesos elementales de un
experimento: Ω.
SUCESO: cualquier subconjunto del espacio muestral, incluidos Ω (seguro) y ∅
(imposible).
EJEMPLOS
Lanzar una moneda al aire: Ω={1,2,3,4,5,6}.
Grupo sanguíneo de un individuo Ω={A, B, AB, 0}.
Nº de niños que nacen en una maternidad un día concreto. Ω={0,1,2,…}.
Una mujer portadora de hemofilia tiene 3 hijos ¿Cuál es el espacio muestral
apropiado para estudiar la posible transmisión de hemofilia a sus hijos?
Cada hijo puede padecer hemofilia (s) o no (n), por tanto
Ω={sss, ssn, sns, nss, snn, nsn, nns, nnn}
En este espacio muestral, el suceso "dos hijos padecen hemofilia" se
representa como A1={ssn, sns, nss} y el suceso "los dos primeros no la
padecen" como A2={nns, nnn} .
3. OPERACIONES CON SUCESOS
INTERSECCIÓN: sean A y B dos sucesos cualesquiera de un experimento, la
intersección es A ∩ B son todas las posibilidades comunes a A y B. A ∩ B es otro
suceso.
B
A
A∩B
Incompatibilidad :
Dos sucesos A y B son incompatibles si A ∩ B = ∅.
UNIÓN: La unión de dos sucesos A y B es otro suceso que contiene todas las
posibilidades de A y de B: A U B.
A∪B
A∪ B = Ω
A B
SISTEMA COMPLETO DE SUCESOS (PARTICIÓN)
Un conjunto de sucesos { A1 , A2 ,...., Ak } forma un sistema completo si verifica:
1. Ai ∩ A j = ∅ ∀i ≠ j (incompatibles dos a dos).
k
2. A1 ∪ A2 ∪ ..... ∪ Ak = ∪ Ai =Ω
i =1 A1
A3
A5
A2
A4 A6
Ejemplo: El conjunto de sucesos elementales siempre conforma un sistema
completo.
4. DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD
Se define la probabilidad como una función:
P : A → [ 0,1]
A → P ( A)
que verifica:
1.- 0 ≤ p ( A) ≤ 1 para todo suceso A.
2.- P (Ω) = 1 .
3.- Dados dos sucesos A, B / A ∩ B = o (sucesos incompatibles) se tiene
/
que:
P( A ∪ B) = P( A) + P( B) .
A la estructura ( Ω, A, P ) se le denomina espacio de probabilidad.
CONSECUENCIAS
1.- Si A ⊆ B entonces p ( A ) ≤ p ( B ) .
2.- P ( A) = 1 − p ( A ) , siendo A el complementario de A .
A A
3. - Si { A1 , A2 ,...., Ak } es conjunto de sucesos verificando Ai ∩ A j = ∅ ∀i ≠ j ,
k
p ( A1 ∪ A2 ∪ ..... ∪ Ak ) = ∑ p ( Ai )
i =1
4.- Dados dos sucesos A, B cualesquiera:
P( A ∪ B ) = P( A) + P( B ) − p( A ∩ B ) .
5. Ejemplo
Un 15% de los pacientes atendidos en un hospital son hipertensos, un 10% son
obesos y un 3% son hipertensos y obesos. ¿Qué probabilidad hay de que
elegido un paciente al azar sea obeso o hipertenso?
A = {obeso} , B = {hipertenso}
B
A
El conjunto de sucesos elementales es
{ A ∩ B, A ∩ B, A ∩ B , A ∩ B }
y forman un sistema completo.
A ∩ B = {hipertenso y obeso}
A ∪ B = {obeso o hipertenso}
p(A) = 0.10; p(B) = 0.15
p( A ∩ B ) = 0.03
Como podemos observar, los sucesos “ser hipertenso” y “ser obeso”, son
sucesos compatibles ( A ∩ B ≠ ∅ )
p( A ∪ B ) = 0.10 + 0.15 – 0.03 = 0.22
p( A )=1-0.10=0.90
p( B )=1-0.15=0.85
p( A ∩ B )=p( A )-p( A ∩ B )=0.10-0.03=0.07
p( A ∩ B )=p( B )-p( A ∩ B )=0.15-0.03=0.12
p( A ∩ B )=1- p( A ∪ B )=1-0.22=0.78
6. PREVALENCIA E INCIDENCIA DE UNA ENFERMEDAD
nº individuos con enfermedad
prevalencia =
nº total individuos
n º nuevos casos de enfermedad durante (t 0 , t1 )
incidencia =
n º individuos sanos en t 0
EJEMPLOS
1.- En 1974 se contabilizaron 22626 hipertensos entre 144380 individuos con
edades ≥ 17 años. ¿Cuál era la prevalencia de la hipertensión en 1974?
n º hipertensos 22626
prevalencia = = = 0.157
nº individuos ≥ 17 años 144380
Por tanto la prevalencia de la hipertensión en 1974 era del 15.7 %.
2.- El 01/01/1970 se inició un estudio de cáncer de mama. Se registraron 1000
mujeres
sanas. Entre éstas se contabilizó un caso de cáncer de mama hasta el
31/12/1970.
¿Incidencia?
nº nuevos casos (01 / 01 / 1970,31 / 12 / 1970) 1
incidencia = = = 0.001
mujeres sanas al 01 / 01 / 1970 1000
Luego la incidencia del cáncer de mama a 01/01/1970 era del 1 o oo .
7. PROBABILIDAD CONDICIONADA
En ocasiones la probabilidad de un suceso viene condicionada por la
ocurrencia de otro(s) suceso(s). El proceso de realizar la historia clínica,
explorar y realizar pruebas complementarias ilustra este principio.
La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se
denomina probabilidad condicionada y se define
p ( A∩ B)
p ( A/ B) =
p (B)
Por ejemplo:
La probabilidad de cáncer de pulmón es de 0.001, en cierta población. Sin
embargo, si sabemos que el individuo es “fumador” la probabilidad de cáncer de
pulmón aumenta a 0.02. Se escribiría así:
P(cáncer de pulmón)=0.001
P(cáncer de pulmón / fumador) =0.02
Dos sucesos A y B, son INDEPENDIENTES si la probabilidad de ocurrencia
de cada uno no viene afectada por la ocurrencia del otro:
p ( A / B ) = p ( A) ; p ( B / A) = p ( B ) ó bien
p( A ∩ B ) = p ( A) p ( B )
Por el contrario, son DEPENDIENTES si
p ( A / B ) ≠ p ( A) ; p ( B / A) ≠ p ( B ) ó bien
p( A ∩ B ) ≠ p ( A) p ( B )
En el ejemplo anterior, el cáncer de pulmón depende de si el individuo es
fumador. Dicho en otras palabras, ser fumador va a suponer un “factor de
riesgo” para el cáncer de pulmón respecto a la población general.
8. EJEMPLO
1. Una mujer es portadora de la enfermedad de Duchenne ¿Cuál es la
probabilidad de que su próximo hijo tenga la enfermedad?
2. Para un hijo de una mujer portadora de Duchenne, el sexo y la enfermedad
¿son independientes?
Según las leyes de Mendel, todos los posibles genotipos de un hijo de una
madre portadora (xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la
misma probabilidad.
El espacio muestral es {xX, xY, XX, XY}
El suceso A={hijo enfermo} corresponde al genotipo xY, por tanto,
p(A) = 1/4 = 0.25.
1. La mujer tiene el hijo varón. Se define el suceso B = {ser varón} = {xY, XY}
La probabilidad pedida es p(A|B)
p(B) = 0.5;
A ∩ B = {xY}; p(A ∩B) = 0.25
Entonces:
p(A|B) = 0.25/0.5 = 0.5
2. p(A) = 0.25; p(B) = 0.5 ; p(A) p(B)= 0.125
p(A ∩ B) = 0.25 ≠ p(A) p(B) , por lo que A y B son DEPENDIENTES.
9. MEDIDAS DE EFECTO:
RIESGO RELATIVO (RR) , ODDS-RATIO (OR)
Si F es un factor de exposición para una cierta enfermedad, es necesario
construir alguna “medida de efecto” de F sobre la enfermedad.
RIESGO RELATIVO (RR)
>1 F es factor de riesgo
P(enfermedad / F )
RR = =1 no asociación
P(enfermedad / no F )
<1 F es factor protector
• Es una tasa de incidencias.
• Sólo es aplicable en estudios prospectivos (cohorte).
ODDS-RATIO (OR)
P( F / enfermedad )
P(no F / enfermedad ) P( F / enfermedad ) P(no F / sanos)
OR = =
P( F / sanos ) P( F / sanos ) P (no F / enfermedad )
P(no F / sanos )
• La OR tiene una interpretación análoga al RR (<1 F protector, =1 no
asociación, >1 F factor de riesgo).
• Se puede calcular en cualquier tipo de estudio (cohorte, casos-control,
sección cruzada).
• La OR se aproxima a la RR, en enfermedades de incidencia baja
(p(enfermedad)<0.1).
10. ESTIMACIÓN DE LA OR
En la práctica no se conocen las medidas de efecto (como la OR) y habrá
que estimarlas a través de muestras.
En un estudio caso-control, se extrae una muestra de enfermos (casos), y una
muestra de sanos (controles):
CASOS CONTROLES
(Enfermos) (Sanos)
Presente a b a+b
Exposición
Ausente c d c+d
nE = a+c nS = b+d n=a+b+c+d
• Según la definición de OR, una estimación de esta medida de efecto viene
dada por la razón de productos cruzados (cross-product ratio) :
ad
OR =
bc
• Para medir el error de esta estimación puntual, es conveniente construir
un Intervalo de Confianza (IC) al 95% para la verdadera OR.
• Interpretación del IC95% de la OR:
Si el valor 1 “no cae” en el IC de la OR, existe asociación significativa.
11. EJEMPLO (infec.sav)
Queremos estudiar la ASOCIACIÓN entre la infección post-quirúrgica y la
diabetes:
IPO=Infección post-quirúrgica ( SI, NO)
DIABETES (SI, NO).
IPO NO
SI 45 97 142
(31.7%) (68.3%) (100%)
Diabetes
NO 419 1792 2211
(19.0%) (81.0%) (100%)
464 1889 2553
OR=1.984, IC95% (1.372, 2.870)
Estos resultados se pueden interpretar de dos formas equivalentes:
A) Tomando como REFERENCIA la categoría “NO” en DIABETES:
• La presencia de diabetes (es decir, la categoría “SI”) está 1.984 veces
asociada a la infección post-quirúrgica.
• Dicha asociación es significativa (IC95%=(1.372 , 2.870)).
La diabetes es un factor de “riesgo” significativo.
B) Tomando como REFERENCIA la categoría “SI” en DIABETES:
• La ausencia de diabetes (es decir, la categoría “NO”) está 0.504 (=
1/1.984) veces asociada a la infección post-quirúrgica.
• Dicha asociación es significativa (IC95%=(1/1.372 , 1/2.870)=(0.348 ,
0.729) ).
No tener diabetes es un factor “protector” significativo.
12. Resolviéndolo en el SPSS…
Analizar…
→ Estadísticos descriptivos…
→ Tablas de contingencia…
Filas …. diabetes (1=si; 0=no)
Columnas …. infec1 (1=si; 0=no).
→ Estadísticos……Riesgo (es decir, OR)
→ Casillas…. Porcentajes por filas (es decir, por diabetes)
% por filas (diabetes) Riesgo = OR
Estimación de riesgo
Intervalo de confianza
al 95%
Valor Inferior Superior
Razón de las ventajas
1.984 1.372 2.870
para DIABETES (si / no)
Para la cohorte INFEC1
1.672 1.294 2.161
= si
Para la cohorte INFEC1
.843 .752 .944
= no
N de casos válidos 2353
13. TEOREMA DE BAYES
Diagnóstico médico: El diagnóstico consiste en establecer la enfermedad de
un paciente, a partir de una serie de síntomas.
Pruebas diagnósticas, pruebas de paternidad…..
Enunciado
Sea conjunto de sucesos { A1 , A2 ,...., Ak } que forma un sistema completo
B
(partición), de Sea B un suceso de interés.
A1
A3
A5
A2
A4 A6
Supongamos que conocemos las siguientes probabilidades:
k
a) p ( A1 ) , p ( A2 ) ,....., p ( Ak ) . Se tiene además que ∑ p ( A ) = 1 . i
i =1
b) p ( B / A1 ) , p ( B / A2 ) ,....., p ( B / Ak ) .
Entonces se pueden calcular las siguientes probabilidades (∀i = 1,.., k ) :
p ( Ai ) p ( B / Ai ) p ( Ai ) p ( B / Ai )
p ( Ai / B ) = =
p ( A1 ) p ( B / A1 ) + ..... + p ( Ai ) p ( B / Ai ) + ... + p ( Ak ) p ( B / Ak ) k
∑ p ( A ) p (B / A )
j =1
j j
Es decir: a partir de las probabilidades “a priori”, p ( Ai ) , podremos calcular las
probabilidades a posteriori, p ( Ai / B ) .
14. Ejemplo
Un individuo puede presentar cualquiera de dos enfermedades E1 ó E2 (o estar
sano, S) según una serie de síntomas B que presenta.
Se sabe que en la población de partida la distribución de las enfermedades es
0.2 y 0.3 respectivamente. Por otro lado, se sabe también que la probabilidad de
presentar B si tuviese E1 es 0.5, si tuviese E2 es de 0.3, y si estuviese sano es
de 0.1. ¿Cuál es la situación más probable para dicho individuo?
p( E1 ) = 0.2 , p( E2 ) = 0.3 , p( S ) = 0.5
p( B / E1 ) = 0.5 , p( B / E2 ) = 0.3 , p( B / S ) = 0.1
p ( E1 ) p( B / E1 ) 0.1
p( E1 / B ) = = = 0.42
p ( E1 ) p( B / E1 ) + p ( E2 ) p( B / E2 ) + p ( S ) p( B / S ) 0.24
p ( E2 ) p ( B / E2 ) 0.09
p ( E2 / B ) = = = 0.38
p ( E1 ) p ( B / E1 ) + p ( E2 ) p ( B / E2 ) + p ( S ) p ( B / S ) 0.24
p ( S / B ) = 1 − p ( E1 / B ) − p ( E2 / B ) = 1 − 0.42 − 0.38 = 0.2
Lo más probable es que padezca la enfermedad E1.
15. Pruebas diagnósticas
En la práctica, antes de que un Laboratorio ó un Servicio de Salud puedan
recomendar una prueba diagnóstica de una enfermedad, se ha de evaluar la
capacidad de la prueba para discriminar a los sanos de los enfermos.
Se plantea entonces un diseño experimental que consiste en considerar
una población general en dos sub-poblaciones independientes:
• Enfermos ( E ): indiv. diagnosticados verdaderamente (gold standard).
• Sanos ( E ): indiv. sanos a dicha enfermedad.
Aplicada la prueba a un individuo cualquiera, ésta puede dar como resultado:
• Positivo ( + ): La prueba indica presencia de la enfermedad.
• Negativo ( − ): La prueba indica ausencia de la enfermedad.
Aplicamos la prueba a las dos poblaciones ( E , E ) , y ésta puede acertar ó no:
probabilidades de acierto
• Sensibilidad (True Positive Fraction, TPF): p (+ E ) .
• Especificidad (True Negative Fraction, TNF): p (− E ) .
probabilidades de fallo
• Falso positivo : p ( + E ) = 1-especificidad .
• Falso Negativo : p ( − E ) = 1-sensibilidad .
Prueba
+ -
Gold E Acierto Fallo
standard E Fallo Acierto
16. Cuando la prueba se usa con fines diagnósticos (o de "screening") interesa
calcular alguna de las siguientes probabilidades:
• Valor Predictivo Positivo: p ( E + ) .
• Valor Predictivo Positivo: p E − . ( )
Conociendo la prevalencia de la enfermedad en la población general, p ( E ) , por
la Regla Bayes, podemos calcular ambos valores predictivos:
lid
a d +
ibi
ns
se
E Fa
lso
p(E) ne
−
ga
tiv
o
Población
o sit
ivo +
op
1− p (E) F als
E
Es
pe
cif
ici
da
d −
p ( E ) p( + / E )
p( E / + ) =
p ( E ) p( + / E ) + (1 − p ( E ) ) p( + / E )
p ( E ) p( − / E )
p( E / −) =
p ( E ) p( − / E ) + (1 − p ( E ) ) p( − / E )
Nótese que ambas dependen de la prevalencia de la enfermedad: una prueba
diagnóstica que funciona muy bien en el CHUS, puede ser inútil en el Hospital
Ramón y Cajal.
17. Ejemplo
Un test diagnóstico diseñado para diagnosticar cáncer de cuello uterino, tiene un
coeficiente falso positivo y falso negativo de 0.05 y 0.01, respectivamente. En
una cierta población de mujeres, el 4% de ellas sufren este tipo de cáncer.
1. Si una mujer de dicha población ha reaccionado positivamente al test, ¿qué
posibilidades hay de que padezca cáncer de cuello uterino?
2. Si otra mujer de la misma población ha reaccionado negativamente al test,
¿qué posibilidades hay de que esté sana?
+
5
0.9
E
0.04 0.0
5
−
Población
1
+
0.96 0.0
E
0.9
9
−
0.04 × 0.95 0.038
1. p( E / + ) = = = 0.798
0.04 × 0.95 + 0.96 × 0.01 0.0476
0.96 × 0.99 0.950
2. p( E / −) = = = 0.998
0.04 × 0.05 + 0.96 × 0.99 0.952
18. VARIABLES ALEATORIAS
1. VARIABLE ALEATORIA DISCRETA:
FUNCIÓN DE MASA DE PROBABILIDAD
FUNCIÓN DE DISTRIBUCIÓN
ESPERANZA MATEMÁTICA
VARIANZA. DESVIACIÓN TÍPICA
2. PRINCIPALES DISTRIBUCIONES DISCRETAS
3. VARIABLE ALEATORIA CONTINUA:
FUNCIÓN DE DENSIDAD
FUNCIÓN DE DISTRIBUCIÓN
ESPERANZA MATEMÁTICA
VARIANZA. DESVIACIÓN TÍPICA
4. PRINCIPALES DISTRIBUCIONES CONTÍNUAS
19. • En ciertos fenómenos aleatorios el resultado es un número, o se le puede asociar un
número:
1. Tomar un individuo al azar y medir su altura.
2. Tomar una familia al azar y contar el número de hijos.
3. El resultado de administrar un tratamiento a un enfermo: se cura o no se cura.
4. Cuantificar el tiempo de vida de un paciente de cáncer,…..
• Toda función o regla que asigna un número a cada suceso de un experimento aleatorio
será una variable aleatoria.
• En concreto nos interesaremos por ciertos parámetros de esas variables aleatorias que
resuman su información: esperanza (media), varianza, desviación típica...
DEFINICIÓN
X es una VARIABLE ALEATORIA si es función del conjunto de sucesos A de un fenómeno
aleatorio en :
X: A →
A → X ( A)
Diremos que se ha definido una variable aleatoria, o que se ha construido un modelo de
distribución de probabilidad, cuando se especifican los posibles valores de la variable
aleatoria con sus respectivas probabilidades.
20. TIPOS DE VARIABLES ALEATORIAS
Según los valores que pueda tomar la v.a. distinguiremos entre dos tipos:
V. A. DISCRETA: Toma valores discretos (enteros aislados).
Se asocian a procesos de conteo.
• Nº de hijos de una familia.
• Nº de episodios de otitis media en niños hasta 2 años.
• Lanzar un dado y observar el resultado.
• Administrar un tratamiento a un enfermo y observar si mejora o no.
• Número de colonias bacterianas/cm2
• Nº de nuevos casos de VIH/SIDA en un año…
V. A. CONTÍNUA: Puede tomar infinitos valores reales.
• Altura de un individuo.
• Peso de un individuo.
• Nivel de glucosa.
• Tiempo de vida de un paciente de cáncer.
• Tensión sistólica/diastólica de un individuo…..
21. Variables aleatorias en SPSS
Podemos:
1. Generar números aleatorios.
2. Calcular probabilidades y distribuciones.
para variables aleatorias discretas y contínuas.
24. VARIABLES ALEATORIAS DISCRETAS
Función de Masa de Probabilidad
Dada una variable aleatoria discreta X que toma valores { x1 , x2 ,..., xk } definimos la
función de masa de probabilidad de X como:
p: → [0,1]
xi → p( xi ) = P( X = xi ) = pi
verificando:
1. 0 ≤ p ( xi ) ≤ 1 ∀xi
k
2. ∑p
i =1
i =1.
Ejemplo: El experimento consiste en lanzar un dado y ver qué sale. Definimos la variable
aleatoria X = resultado del lanzamiento.
Conjunto de posibles sucesos elementales:
{sale 1, sale 2, sale 3, sale 4, sale 5, sale 6}
La variable aleatoria es:
X: A →
{sale 1} → 1
...
{sale 6} → 6
Las probabilidades para los sucesos elementales (sistema de probabilidades):
1
P (sale 1) = P ( X = 1) = ⇒ Diagrama de Probabilidades.
6 Lanzamiento de un dado.
⇒ p (1) = 1/ 6
1,00
0,80
.....
Probabilidad
0,60
0,40
1
P (sale 6) = P ( X = 6) = ⇒ 0,20
6
⇒ p (6) = 1/ 6 0,00
1 2 3 4 5 6
25. FUNCIÓN DE DISTRIBUCIÓN
Dada una variable aleatoria X su función de distribución será una función:
F: → [ 0,1]
x → F ( x) = P( X ≤ x)
que debe verificar las siguientes condiciones:
1.- F (−∞) = 0
2.- F ( +∞) = 1
3.- debe ser no decreciente: x1 > x2 ⇒ F ( x1 ) ≥ F ( x2 )
Para variables aleatorias discretas podemos definir la función de distribución de forma
concreta como:
F ( x) = P ( X ≤ x) = ∑ P ( X = xi ) ∀x ∈
xi ≤ x
Ejemplo:
Función de Distribución.
Lanzamiento de un dado.
1,00
0,80
0,60
0,40
0,20
0,00
0 1 2 3 4 5 6 7
1
F (1) = P ( X ≤ 1) =
6
2
F (2) = P( X ≤ 2) = P( X = 1) + P( X = 2) =
6
5
F (5) = P ( X ≤ 5) = P ( X = 1) + P ( X = 2) + P ( X = 3) + P( X = 4) + P( X = 5) =
6
26. PARÁMETROS DE UNA V.A. DISCRETA
Dada una variable aleatoria discreta X, que toma valores { x1 , x2 ,..., xk } , con función de
masa de probabilidad p [p(xi)=pi], podemos calcular sus parámetros como
ESPERANZA: E [ X ]
Representa el valor esperado (promedio) de la variable aleatoria X en la población.
k
E [ X ] = ∑ pi xi = µ
i =1
VARIANZA: V [ X ]
k
V [ X ] = ∑ pi ( xi − µ ) = σ 2
2
i =1
k
V [ X ] = ∑ pi xi2 − µ 2 = E X 2 − E [ X ]
2
i =1
DESVIACIÓN TÍPICA: DT [ X ]
DT [ X ] = σ 2 = σ
27. VARIABLES DISCRETAS NOTABLES
1. Proceso de Bernoulli:
Bernoulli
Binomial
Geométrica
Binomial Negativa
2. Proceso de Poisson:
Poisson
3. Otras distribuciones:
Hipergeométrica
28. 1. Sucesión de Bernoulli y sus distribuciones asociadas
La realización de algunos experimentos genera uno de dos posibles resultados:
• Un individuo puede estar enfermo ó no.
• Una persona puede ser mujer ó varón.
• Un aparato de laboratorio puede estar defectuoso ó no,….
Llamamos Proceso de Bernoulli al experimento en que se observan individuos
de una población con las siguientes características:
• Cada individuo se clasifica en una de dos posibles categorías, que
corresponden a la ocurrencia o no de un cierto suceso de interés, A.
Llamaremos Éxito a la ocurrencia de A y Fracaso a la no ocurrencia
de A ( A ).
• La probabilidad de éxito es constante en toda la población y no
depende del número de elementos de ésta. Representaremos por p la
probabilidad de éxito y por (1-p) la probabilidad de fracaso.
• Las observaciones son independientes. Es decir la probabilidad de
éxito es siempre la misma y no se modifica dependiendo del número de
individuos observados.
En este proceso podemos definir distintas variables aleatorias que generan
distintas distribuciones de probabilidad:
Distribución de Bernoulli
Distribución Binomial
Distribución Geométrica (o de Pascal)
Distribución Binomial Negativa
29. Distribución de Bernoulli
Realizamos un experimento con dos posibles resultados ( A, A ). Decimos que X es una v.a.
Bernoulli si toma los valores:
0 si ocurre A
X =
1 si ocurre A
Su sistema de probabilidades es:
p ( X = r ) = p r (1 − p )
1− r
, r = 0,1
E(X ) = p , V ( X ) = p (1 − p ) , DT ( X ) = p (1 − p )
Distribución Binomial
Realizamos un experimento con dos posibles resultados ( A, A ), un número n de veces. Una
v.a. Binomial B ( n, p ) viene definida por:
X= nº de veces que sale A en las n pruebas= {0,1, 2,...., n}
n
p ( X = r ) = p r (1 − p )
1− r
, r = 0,1,..., n
r
E ( X ) = np , V ( X ) = np (1 − p ) , DT ( X ) = np (1 − p )
Ejemplos:
X = Nº de varones en familias de 4 hijos (suponer p=0.49).
X = Nº de neutrófilos en 10 células (suponer p=0.6 ).
Notas:
Una Bernoulli es una B (1, p ) .
n
Si X es B ( n, p ) entonces X = ∑Xi =1
i , donde X i son Bernoulli.
30. Distribución Geométrica (Pascal)
Realizamos un experimento en las mismas condiciones de la v.a. binomial.
Una v.a. Geométrica viene definida por:
X = nº de veces que sale fracaso ( A ) asta obtener el primer éxito.
p ( X = r ) = p (1 − p )
r
, r = 0,1, 2,.....
1− p 1− p
E(X ) = , V (X ) =
p p2
A diferencia de la binomial, la geométrica puede tomar infinitos valores.
Ejemplo:
X=nº de recién nacidos en un Hospital hasta que nazca la primera mujer.
Distribución Binomial Negativa
Se utiliza en estudios de fiabilidad,
En Ecología: análisis de poblaciones (agregación, “contagio”).
La distribución binomial negativa es una generalización de la v.a. geométrica al caso de que
se observan n éxitos
X=nº de fracasos hasta obtener el éxito n.
X es una v.a. Binomial Negativa con parámetros n, p, y se denota por BN ( n, p ) .
n − r + 1 n
p ( X = r) = p (1 − p )
r
, r = 0,1, 2,.....
r
(1 − p ) (1 − p )
E(X ) = n , V (X ) = n
p p2
Notas:
Una v.a. Geométrica es una BN (1, p )
Si X es BN ( n, p ) puede pensarse como “el nº de pruebas que hay que realizar
para obtener el éxito n”.
El “índice de agregación” de los individuos es V ( X ) E ( X ) = 1 / p .
31. 2. El proceso de Poisson y sus distribuciones asociadas.
Llamamos Proceso de Poisson al experimento aleatorio que consiste en
observar la aparición de sucesos puntuales en soporte contínuo (tiempo,
área, volumen,…) de forma que:
• El proceso es estable. Es decir, a largo plazo el nº medio de sucesos por
unidad de medida, λ ( > 0 ) , es constante.
• Los sucesos ocurren aleatoriamente de forma independiente.
Este proceso es la generalización del proceso de Bernoulli en un soporte
contínuo.
La v.a. discreta más importante es la v.a. de Poisson, con importantes
aplicaciones en la Biomedicina, Teoría de Colas, etc…
Ejemplos:
• Nº de glóbulos rojos/cm3 de sangre.
• Nº de personas en la cola de cita previa/9-10 h
• Nº de casos SIDA en una comunidad autónoma/mes.
• Nº de casos de fiebre tifoidea/1 año,…
32. Distribución de Poisson
Realizamos un experimento en las condiciones del proceso de Poisson.
Una v.a. Poisson viene definida por:
X = nº de veces que sale un suceso ( A ) por unidad de medida.
X es una v.a. de Poisson de parámetro λ ( > 0 ) se denota por P ( λ ) .
λr
p ( X = r ) = e −λ , r = 0,1, 2,.....
r!
E(X ) = λ , Var ( X ) = λ
NOTAS:
1. P ( λ ) puede aproximarse por una v.a. Binomial B ( n, p ) con n → ∞ y
p → 0 , y entonces λ = np .
Ejemplo: X=Nº de personas que padecen una cierta enfermedad (sobre
n=50.000 hab). La prevalencia de dicha enfermedad es 1/100.000.
2. El índice de agregación de los individuos es V ( X ) E ( X ) = 1 .
33. 3. Otras distribuciones discretas notables.
Existen ciertas distribuciones discretas que son muy útiles en la práctica, aunque no verifican
ni el Proceso de Bernoulli ni el de Poisson.
Distribución Hipergeométrica (“esquema de urnas”).
Realizamos un experimento con dos posibles resultados ( A, A ), un número n de veces.
Los individuos se extraen sin reemplazamiento de una población FINITA de tamaño N ,
donde hay N A individuos con A y N A = N − N A con A .
Una v.a. Hipergeométrica H ( n, N , N A ) viene definida por:
X= nº de veces que sale A en las n pruebas= {0,1, 2,...., n}
NA N − NA
r n − r
p ( X = r) = , r = 0,1,..., n
N
n
N −n
E ( X ) = np , V ( X ) = np (1 − p )
N −1
Ejemplos:
X=Nº de pacientes cirróticos en 20 historias clínicas de un Servicio de Medicina Interna
( N = 224, N A = 50 ).
NOTAS:
Si el muestreo fuese con reemplazamiento, la variable H sería Binomial.
Si la población fuese infinita (ó N → ∞ ), la variable H se aproxima por una Binomial.
34. VARIABLES ALEATORIAS CONTINUAS
FUNCIÓN DE DENSIDAD
Dada una variable aleatoria continua X definimos la función de densidad de X como:
f: →
x → f ( x)
que verifica:
1. f ( x) ≥ 0 ∀x ∈
∞
2. ∫
−∞
f ( x)dx = 1
PROPIEDADES:
El área por debajo de la curva de la densidad representa la probabilidad.
Dados dos puntos cualesquiera: a y b, la probabilidad del intervalo (a,b] es el área
comprendida entre la curva de la densidad, el eje OX y las rectas x = a y x = b. Es
decir:
b
P(a < x ≤ b) = ∫ f ( x)dx
a
La probabilidad de cualquier punto es 0:
P ( x = c) = 0 ∀c ∈
35. FUNCIÓN DE DISTRIBUCIÓN
Dada una variable aleatoria X su función de distribución será una función:
F: → [ 0,1]
x → F ( x) = P ( X ≤ x)
que debe verificar las siguientes condiciones:
1.- F (−∞) = 0
2.- F ( +∞) = 1
3.- debe ser no decreciente: x1 > x2 ⇒ F ( x1 ) ≥ F ( x2 )
Para variables aleatorias continuas podemos definir la función de distribución de forma
concreta como:
x0
F ( x0 ) = P( X ≤ x0 ) = ∫ f ( x)dx ∀x0 ∈
−∞
PROPIEDADES:
F ′( x) = f ( x)
b
P(a < x ≤ b) = ∫ f ( x)dx = F (b) − F (a)
a
36. PARÁMETROS DE UNA V.A. CONTÍNUA
Dada una variable aleatoria continua X, con función de densidad f(X),
podemos calcular sus parámetros.
ESPERANZA:
Representa el valor esperado de la variable aleatoria X en la población.
∞
E [ X ] = ∫ x f ( x)dx = µ
−∞
VARIANZA:
∞
V [ X ] = ∫ ( x − µ )2 f ( x)dx = σ 2
−∞
∞
V [ X ] = ∫ x 2 f ( x)dx − µ 2 = E X 2 − E [ X ]
2
−∞
DESVIACIÓN TÍPICA:
DT [ X ] = σ 2 = σ
37. VARIABLES CONTÍNUAS NOTABLES
1. Distribuciones de duraciones de Vida:
• Imprescindibles en Análisis de Supervivencia.
• Son distribuciones que se utilizan para modelizar la duración (vida de
personas, animales o componentes físicos; duración de desempleo,…) ó el
tamaño (rentas de familias, tamaño de yacimientos, etc.).
• Casos importantes: Exponencial, Weibull.
2. Distribución Beta.
• Es una distribución muy versátil, y admite una gran variedad de formas.
• Esto permite que la incertidumbre pueda describirse con esta distribución.
• Es de gran utilidad en Estadística Bayesiana, en la Teoría de la Decisión,
tests estadísticos de máxima verosimilitud…
3. Distribución Normal.
• Es la más importante y de mayor uso en estadística.
• Multitud de experimentos generan esta variable: variables antropométricas,
errores de medición, puntuaciones de tests, etc….
• El Teorema Central del Límite indica que una suma de muchas v.a.s
independientes se distribuye aproximadamente según una normal.
• El muestreo de la normal genera distribuciones imprescindibles en inferencia
estadística: t-Student, Chi-Cuadrado, F-Fisher Snedecor.
• Papel fundamental en la inferencia estadística.
• Diversas aplicaciones en biomedicina: Intervalos de normalidad clínica,
curvas ROC binormales, etc…
38. Distribución exponencial
En un proceso de Poisson, consideremos la v.a.
X= tiempo entre dos sucesos consecutivos.
Decimos que X tiene un distribución exponencial de parámetro λ > 0 , que denotaremos por
Exp ( λ ) , siendo λ el nº promedio de sucesos que ocurren por unidad de tiempo.
λ e − λ x si x > 0 1 − e− λ x si x > 0
f ( x) = , F ( x) =
0 otro caso 0 otro caso
E( X ) =1 λ , V ( X ) =1 λ 2
Ejemplos:
X=tiempo de vida de las bacterias en una cierta cepa.
X= tiempo de vida (en meses) de una máquina de laboratorio= tiempo hasta el suceso “fallo”.
1.0
.8
.6
.4
.2 Exp(2)
Exp(1)
0.0
0 1 2 3 4 5 6 7 8
39. NOTAS:
• La distribución exponencial “no tiene memoria”, ya que:
p ( X > x + t X > x) = p ( X > t)
Es decir, la probabilidad de sobrevivir al tiempo x + t , sabiendo que ha sobrevivido al
instante x , es la misma que sobrevivir al tiempo t .
O lo que es lo mismo, la probabilidad de vivir en un intervalo, solo depende de la longitud
de dicho intervalo.
• La distribución exponencial se caracteriza por tener “la tasa de fallo” constante. Es decir:
la probabilidad de fallar en cualquier intervalo no depende de la vida anterior.
• Es, por tanto, adecuada para describir la aparición de fallos (muertes,etc) al azar, no
debidas a desgaste o deterioro.
• La tasa de fallo vendrá dada por:
λ si x > 0
h( x ) =
0 otro caso
40. Distribución Weibull
• Está estrechamente relacionada con la distribución exponencial.
• A diferencia de la exponencial, modeliza de un modo más realista los tiempos de vida, ya
que no asume que la tasa de fallo sea constante.
• En muchas ocasiones ocurre que el riesgo de muerte varía (aumenta o disminuye) con el
tiempo.
• Es la distribución por defecto en Análisis de Supervivencia con el Splus.
Decimos que X tiene un distribución Weibull de parámetros b y λ ( > 0 ) , que denotaremos
por W ( b,λ ) , si posee la siguiente densidad:
λ bbx b −1e( − λ x )
b
si x > 0
f ( x) =
0 otro caso
,
1 − e( − λ x )
b
si x > 0
F ( x) =
0 otro caso
b = parámetro de forma.
λ =parámetro de escala.
NOTAS:
• La distribución exponencial “tiene memoria”.
• Es adecuada para describir la aparición de fallos (muertes, etc) debidas a desgaste o
deterioro.
• La tasa de fallo vendrá dada por:
λ bbx b −1 si x > 0
h( x ) =
0 otro caso
• La Exponencial Exp ( λ ) es una Weibull W (1,λ ) .
41. Distribución Normal
Decimos que X tiene una distribución Normal de parámetros µ y σ , que denotaremos por
N ( µ , σ ) , si posee la siguiente densidad:
2
1 x−µ
1 −
f ( x) = e 2 σ
− ∞ < x < +∞
σ 2π
donde:
µ = media.
σ =desviación típica.
Normal Típica
Es la distribución normal Z → N ( 0,1)
Estandarización
Es el proceso por el cual tipificamos cualquier distribución normal. Se consigue así:
X −µ
Si X → N (µ ,σ ) entonces Z= → N ( 0,1)
σ
X −µ
X → N (µ ,σ ) Z= → N ( 0,1)
σ
µ 0
42. INTERVALOS DE NORMALIDAD (IN)
• Se utilizan con frecuencia en estudios biomédicos.
• Son intervalos de extremos simétricos (respecto a µ) entre los cuales se encuentra un
determinado porcentaje de datos (por ejemplo, 95%, 99%,…)
Intervalo de Normalidad al (1-α)100%
Fijado α (p.e. 0.05),
1. Sea Z → N ( 0,1) un IN al (1-α)100% será:
− zα , zα
2 2
α α
2 2
Asum H0
o
1-α
−zα 2 zα 2
2. Sea X → N ( µ , σ ) , un IN al (1-α)100% vendrá dado por:
µ − zα σ , µ + zα σ
2 2
43. EJEMPLO: Construir un IN para el peso (Kgs.) en niños varones de 7 años.
X = Peso → N (25,5)
a) al 95%
IN 95% es [ 25 − 1.96 × 5 , 25 + 1.96 × 5]95%
[ 25 − 9.8 , 25 + 9.8]95% = [15.2 , 34.8]95%
b) al 99%
IN 99% es [ 25 − 2.58 × 5 , 25 + 2.58 × 5]99%
[ 25 − 12.9 , 25 + 12.9]99% = [12.1 , 37.9]99%