SlideShare una empresa de Scribd logo
1 de 43
Descargar para leer sin conexión
FUNDAMENTOS

    DE

PROBABILIDAD
PROBABILIDAD
  Establecer claramente el espacio de probabilidad será el primer paso
  imprescindible para estudiar cualquier experimento aleatorio.
  En la práctica, muchas de las dificultades que surgen en el análisis
  estadístico de investigaciones clínicas tienen que ver con el establecimiento
  implícito y defectuoso de este espacio.


EXPERIMENTO ALEATORIO: experimento que puede ser repetido bajo "las mismas
condiciones", del que puede establecerse el conjunto de sus posibles
resultados, pero no predecir un resultado concreto.


SUCESO ELEMENTAL: todo resultado que puede ocurrir al realizar una sola vez el
experimento.
ESPACIO   MUESTRAL:   conjunto de todos los sucesos elementales de un
experimento: Ω.
SUCESO: cualquier subconjunto del espacio muestral, incluidos Ω (seguro) y ∅
(imposible).


                                     EJEMPLOS

  Lanzar una moneda al aire: Ω={1,2,3,4,5,6}.
  Grupo sanguíneo de un individuo Ω={A, B, AB, 0}.
  Nº de niños que nacen en una maternidad un día concreto. Ω={0,1,2,…}.
  Una mujer portadora de hemofilia tiene 3 hijos ¿Cuál es el espacio muestral
  apropiado para estudiar la posible transmisión de hemofilia a sus hijos?
   Cada hijo puede padecer hemofilia (s) o no (n), por tanto
                   Ω={sss, ssn, sns, nss, snn, nsn, nns, nnn}
    En este espacio muestral, el suceso "dos hijos padecen hemofilia" se
    representa como A1={ssn, sns, nss} y el suceso "los dos primeros no la
    padecen" como A2={nns, nnn} .
OPERACIONES CON SUCESOS
INTERSECCIÓN: sean A y B dos sucesos cualesquiera de un experimento, la
intersección es A ∩ B son todas las posibilidades comunes a A y B. A ∩ B es otro
suceso.
                                                                      B
                                                      A




                                                            A∩B



Incompatibilidad :
Dos sucesos A y B son incompatibles si A ∩ B = ∅.



UNIÓN: La unión de dos sucesos A y B es otro suceso que contiene todas las
posibilidades de A y de B: A U B.
                                                          A∪B
      A∪ B = Ω
                                                            A         B




                        SISTEMA COMPLETO DE SUCESOS (PARTICIÓN)

Un conjunto de sucesos { A1 , A2 ,...., Ak } forma un sistema completo si verifica:

1. Ai ∩ A j = ∅     ∀i ≠ j       (incompatibles dos a dos).
                          k

2. A1 ∪ A2 ∪ ..... ∪ Ak = ∪ Ai   =Ω
                         i =1                    A1
                                                            A3
                                                                          A5



                                                A2
                                                                 A4            A6




Ejemplo: El conjunto de sucesos elementales siempre conforma un sistema
completo.
DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD
Se define la probabilidad como una función:
                                                 P : A → [ 0,1]
                                                     A → P ( A)

que verifica:
      1.- 0 ≤ p ( A) ≤ 1 para todo suceso A.

      2.- P (Ω) = 1 .
      3.- Dados dos sucesos A, B /                    A ∩ B = o (sucesos incompatibles) se tiene
                                                              /
      que:
                                          P( A ∪ B) = P( A) + P( B) .

          A la estructura ( Ω, A, P ) se le denomina espacio de probabilidad.



CONSECUENCIAS

1.- Si A ⊆ B entonces p ( A ) ≤ p ( B ) .




2.- P ( A) = 1 − p ( A ) , siendo A el complementario de A .



                                               A            A


3. - Si   { A1 , A2 ,...., Ak }   es conjunto de sucesos verificando Ai ∩ A j = ∅     ∀i ≠ j ,
                                                                   k
                                      p ( A1 ∪ A2 ∪ ..... ∪ Ak ) = ∑ p ( Ai )
                                                                  i =1



4.- Dados dos sucesos A, B cualesquiera:
                                  P( A ∪ B ) = P( A) + P( B ) − p( A ∩ B ) .
Ejemplo


Un 15% de los pacientes atendidos en un hospital son hipertensos, un 10% son
obesos y un 3% son hipertensos y obesos. ¿Qué probabilidad hay de que
elegido un paciente al azar sea obeso o hipertenso?

                        A = {obeso} , B = {hipertenso}


                                                   B
                                    A




El conjunto de sucesos elementales es

                      { A ∩ B,      A ∩ B, A ∩ B , A ∩ B }

y forman un sistema completo.
                 A ∩ B = {hipertenso y obeso}
                 A ∪ B = {obeso o hipertenso}


                p(A) = 0.10; p(B) = 0.15
                p( A ∩ B ) = 0.03
Como podemos observar, los sucesos “ser hipertenso” y “ser obeso”, son
sucesos compatibles ( A ∩ B ≠ ∅ )
                p( A ∪ B ) = 0.10 + 0.15 – 0.03 = 0.22


                p( A )=1-0.10=0.90
                p( B )=1-0.15=0.85
                p( A ∩ B )=p( A )-p( A ∩ B )=0.10-0.03=0.07
                p( A ∩ B )=p( B )-p( A ∩ B )=0.15-0.03=0.12
                p( A ∩ B )=1- p( A ∪ B )=1-0.22=0.78
PREVALENCIA E INCIDENCIA DE UNA ENFERMEDAD


                                        nº individuos con enfermedad
                        prevalencia =
                                             nº total individuos


                             n º nuevos casos de enfermedad durante (t 0 , t1 )
              incidencia =
                                       n º individuos sanos en t 0




                                        EJEMPLOS


1.- En 1974 se contabilizaron 22626 hipertensos entre 144380 individuos con
edades ≥ 17 años. ¿Cuál era la prevalencia de la hipertensión en 1974?
                                   n º hipertensos     22626
          prevalencia =                              =       = 0.157
                              nº individuos ≥ 17 años 144380
  Por tanto la prevalencia de la hipertensión en 1974 era del 15.7 %.




2.- El 01/01/1970 se inició un estudio de cáncer de mama. Se registraron 1000
mujeres
  sanas. Entre éstas se contabilizó un caso de cáncer de mama hasta el
31/12/1970.
  ¿Incidencia?
                      nº nuevos casos (01 / 01 / 1970,31 / 12 / 1970)     1
       incidencia =                                                   =      = 0.001
                           mujeres sanas al 01 / 01 / 1970              1000
   Luego la incidencia del cáncer de mama a 01/01/1970 era del 1 o oo .
PROBABILIDAD CONDICIONADA

    En ocasiones la probabilidad de un suceso viene condicionada por la
ocurrencia de otro(s) suceso(s).         El proceso de realizar la historia clínica,
explorar y realizar pruebas complementarias ilustra este principio.


La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se
denomina probabilidad condicionada y se define

                                               p ( A∩ B)
                                 p ( A/ B) =
                                                  p (B)
Por ejemplo:
    La probabilidad de cáncer de pulmón es de 0.001, en cierta población. Sin
embargo, si sabemos que el individuo es “fumador” la probabilidad de cáncer de
pulmón aumenta a 0.02. Se escribiría así:
                P(cáncer de pulmón)=0.001
                P(cáncer de pulmón / fumador) =0.02


  Dos sucesos A y B, son INDEPENDIENTES si la probabilidad de ocurrencia
  de cada uno no viene afectada por la ocurrencia del otro:
            p ( A / B ) = p ( A) ; p ( B / A) = p ( B )       ó bien

                              p( A ∩ B ) = p ( A) p ( B )

  Por el contrario, son DEPENDIENTES si
               p ( A / B ) ≠ p ( A) ; p ( B / A) ≠ p ( B )    ó bien

                                p( A ∩ B ) ≠ p ( A) p ( B )


En el ejemplo anterior, el cáncer de pulmón depende de si el individuo es
fumador. Dicho en otras palabras, ser fumador va a suponer un “factor de
riesgo” para el cáncer de pulmón respecto a la población general.
EJEMPLO


1. Una mujer es portadora de la enfermedad de Duchenne               ¿Cuál es la
probabilidad de que su próximo hijo tenga la enfermedad?
2. Para un hijo de una mujer portadora de Duchenne, el sexo y la enfermedad
¿son independientes?




Según las leyes de Mendel, todos los posibles genotipos de un hijo de una
madre portadora (xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la
misma probabilidad.
El espacio muestral es {xX, xY, XX, XY}


El suceso A={hijo enfermo} corresponde al genotipo xY, por tanto,
                                     p(A) = 1/4 = 0.25.


1. La mujer tiene el hijo varón. Se define el suceso B = {ser varón} = {xY, XY}
   La probabilidad pedida es p(A|B)


    p(B) = 0.5;
    A ∩ B = {xY};     p(A ∩B) = 0.25
    Entonces:
                               p(A|B) = 0.25/0.5 = 0.5




2. p(A) = 0.25;   p(B) = 0.5     ;     p(A) p(B)= 0.125
   p(A ∩ B) = 0.25 ≠ p(A) p(B) , por lo que A y B son DEPENDIENTES.
MEDIDAS DE EFECTO:
                RIESGO RELATIVO (RR) , ODDS-RATIO (OR)


Si F es un factor de exposición para una cierta enfermedad, es necesario
construir alguna “medida de efecto” de F sobre la enfermedad.


                          RIESGO RELATIVO (RR)

                                        >1    F es factor de riesgo
              P(enfermedad / F )
      RR =                              =1    no asociación
             P(enfermedad / no F )
                                        <1   F es factor protector

• Es una tasa de incidencias.
• Sólo es aplicable en estudios prospectivos (cohorte).




                                ODDS-RATIO (OR)
             P( F / enfermedad )
            P(no F / enfermedad ) P( F / enfermedad ) P(no F / sanos)
       OR =                      =
                P( F / sanos )     P( F / sanos ) P (no F / enfermedad )
              P(no F / sanos )


• La OR tiene una interpretación análoga al RR (<1             F protector, =1 no
  asociación, >1 F factor de riesgo).


• Se puede calcular en cualquier tipo de estudio (cohorte, casos-control,
  sección cruzada).


• La OR se aproxima a la RR, en enfermedades de incidencia baja
  (p(enfermedad)<0.1).
ESTIMACIÓN DE LA OR

   En la práctica no se conocen las medidas de efecto (como la OR) y habrá
que estimarlas a través de muestras.

En un estudio caso-control, se extrae una muestra de enfermos (casos), y una
muestra de sanos (controles):

                                   CASOS           CONTROLES
                                 (Enfermos)           (Sanos)
                Presente              a                  b           a+b
 Exposición
                Ausente               c                  d           c+d
                                  nE = a+c           nS = b+d        n=a+b+c+d




  • Según la definición de OR, una estimación de esta medida de efecto viene
     dada por la razón de productos cruzados (cross-product ratio) :


                                      ad
                              OR =
                                      bc

  • Para medir el error de esta estimación puntual, es conveniente construir
     un Intervalo de Confianza (IC) al 95% para la verdadera OR.




  • Interpretación del IC95% de la OR:


     Si el valor 1 “no cae” en el IC de la OR, existe asociación significativa.
EJEMPLO (infec.sav)

Queremos estudiar la ASOCIACIÓN entre la infección post-quirúrgica y la
diabetes:


                        IPO=Infección post-quirúrgica ( SI, NO)
                        DIABETES (SI, NO).


                                    IPO               NO
                 SI                  45               97           142
                                   (31.7%)          (68.3%)        (100%)
 Diabetes
                 NO                 419              1792          2211
                                   (19.0%)          (81.0%)        (100%)
                                    464              1889          2553

                      OR=1.984,     IC95% (1.372, 2.870)


Estos resultados se pueden interpretar de dos formas equivalentes:


A) Tomando como REFERENCIA la categoría “NO” en DIABETES:
  • La presencia de diabetes (es decir, la categoría “SI”) está 1.984 veces
     asociada a la infección post-quirúrgica.
  • Dicha asociación es significativa (IC95%=(1.372 , 2.870)).
             La diabetes es un factor de “riesgo” significativo.


B) Tomando como REFERENCIA la categoría “SI” en DIABETES:
  • La ausencia de diabetes (es decir, la categoría “NO”) está 0.504 (=
     1/1.984) veces asociada a la infección post-quirúrgica.
  • Dicha asociación es significativa (IC95%=(1/1.372 , 1/2.870)=(0.348 ,
     0.729) ).


        No tener diabetes es un factor “protector” significativo.
Resolviéndolo en el SPSS…
Analizar…
  → Estadísticos descriptivos…
        → Tablas de contingencia…
            Filas ….     diabetes (1=si; 0=no)
            Columnas …. infec1 (1=si; 0=no).
            → Estadísticos……Riesgo (es decir, OR)
            → Casillas…. Porcentajes por filas (es decir, por diabetes)




% por filas (diabetes)        Riesgo = OR


                                        Estimación de riesgo

                                                          Intervalo de confianza
                                                                  al 95%
                                                Valor      Inferior     Superior
                     Razón de las ventajas
                                                  1.984        1.372      2.870
                     para DIABETES (si / no)
                     Para la cohorte INFEC1
                                                  1.672        1.294      2.161
                     = si
                     Para la cohorte INFEC1
                                                   .843         .752       .944
                     = no
                     N de casos válidos           2353
TEOREMA DE BAYES
   Diagnóstico médico: El diagnóstico consiste en establecer la enfermedad de
   un paciente, a partir de una serie de síntomas.
   Pruebas diagnósticas, pruebas de paternidad…..


                                                     Enunciado
Sea conjunto de sucesos { A1 , A2 ,...., Ak } que forma un sistema completo
                                                                B
(partición), de Sea B un suceso de interés.
                                                                       A1
                                                                                A3
                                                                                              A5



                                                                       A2
                                                                                     A4            A6




Supongamos que conocemos las siguientes probabilidades:
                                                                                                   k

       a) p ( A1 ) , p ( A2 ) ,....., p ( Ak )           .   Se tiene además que ∑ p ( A ) = 1 .             i
                                                                                                i =1


       b)   p ( B / A1 ) , p ( B / A2 ) ,....., p ( B / Ak ) .

Entonces se pueden calcular las siguientes probabilidades (∀i = 1,.., k ) :

                                                 p ( Ai ) p ( B / Ai )                                       p ( Ai ) p ( B / Ai )
p ( Ai / B ) =                                                                                       =
                 p ( A1 ) p ( B / A1 ) + ..... + p ( Ai ) p ( B / Ai ) + ... + p ( Ak ) p ( B / Ak )     k

                                                                                                         ∑ p ( A ) p (B / A )
                                                                                                         j =1
                                                                                                                    j                j




Es decir: a partir de las probabilidades “a priori”, p ( Ai ) , podremos calcular las

probabilidades a posteriori, p ( Ai / B ) .
Ejemplo
Un individuo puede presentar cualquiera de dos enfermedades E1 ó E2 (o estar
sano, S) según una serie de síntomas B que presenta.
Se sabe que en la población de partida la distribución de las enfermedades es
0.2 y 0.3 respectivamente. Por otro lado, se sabe también que la probabilidad de
presentar B si tuviese E1 es 0.5, si tuviese E2 es de 0.3, y si estuviese sano es
de 0.1. ¿Cuál es la situación más probable para dicho individuo?
                        p( E1 ) = 0.2       ,     p( E2 ) = 0.3     , p( S ) = 0.5
                 p( B / E1 ) = 0.5      ,       p( B / E2 ) = 0.3    ,    p( B / S ) = 0.1




                                       p ( E1 ) p( B / E1 )                        0.1
p( E1 / B ) =                                                                    =     = 0.42
                 p ( E1 ) p( B / E1 ) + p ( E2 ) p( B / E2 ) + p ( S ) p( B / S ) 0.24


                                        p ( E2 ) p ( B / E2 )                         0.09
p ( E2 / B ) =                                                                      =      = 0.38
                 p ( E1 ) p ( B / E1 ) + p ( E2 ) p ( B / E2 ) + p ( S ) p ( B / S ) 0.24


p ( S / B ) = 1 − p ( E1 / B ) − p ( E2 / B ) = 1 − 0.42 − 0.38 = 0.2

                    Lo más probable es que padezca la enfermedad E1.
Pruebas diagnósticas
     En la práctica, antes de que un Laboratorio ó un Servicio de Salud puedan
recomendar una prueba diagnóstica de una enfermedad, se ha de evaluar la
capacidad de la prueba para discriminar a los sanos de los enfermos.


     Se plantea entonces un diseño experimental que consiste en considerar
una población general en dos sub-poblaciones independientes:
• Enfermos ( E ): indiv. diagnosticados verdaderamente (gold standard).
• Sanos ( E ):      indiv. sanos a dicha enfermedad.


Aplicada la prueba a un individuo cualquiera, ésta puede dar como resultado:
• Positivo ( + ): La prueba indica presencia de la enfermedad.
• Negativo ( − ): La prueba indica ausencia de la enfermedad.


Aplicamos la prueba a las dos poblaciones ( E , E ) , y ésta puede acertar ó no:


                           probabilidades de acierto
     • Sensibilidad (True Positive Fraction, TPF):             p (+ E ) .

     • Especificidad (True Negative Fraction, TNF):              p (− E ) .
                             probabilidades de fallo

     • Falso positivo :      p ( + E ) = 1-especificidad .

     • Falso Negativo :         p ( − E ) = 1-sensibilidad .
                                                  Prueba

                                              +            -
                         Gold         E    Acierto     Fallo
                      standard        E     Fallo     Acierto
Cuando la prueba se usa con fines diagnósticos (o de "screening") interesa
calcular alguna de las siguientes probabilidades:


           • Valor Predictivo Positivo: p ( E + ) .

           • Valor Predictivo Positivo: p E − .        (         )

Conociendo la prevalencia de la enfermedad en la población general, p ( E ) , por

la Regla Bayes, podemos calcular ambos valores predictivos:




                                                                             lid
                                                                                a   d       +
                                                                    ibi
                                                                  ns
                                                             se

                                                      E     Fa
                                                                 lso
                                  p(E)                                 ne
                                                                                            −
                                                                         ga
                                                                           tiv
                                                                              o

              Población

                                                                        o          sit
                                                                                      ivo   +
                                                                     op
                                 1− p (E)                     F   als
                                                       E
                                                             Es
                                                               pe
                                                                       cif
                                                                             ici
                                                                                   da
                                                                                      d     −



                                               p ( E ) p( + / E )
                  p( E / + ) =
                                 p ( E ) p( + / E ) + (1 − p ( E ) ) p( + / E )



                                              p ( E ) p( − / E )
                  p( E / −) =
                                 p ( E ) p( − / E ) + (1 − p ( E ) ) p( − / E )


Nótese que ambas dependen de la prevalencia de la enfermedad: una prueba
diagnóstica que funciona muy bien en el CHUS, puede ser inútil en el Hospital
Ramón y Cajal.
Ejemplo
Un test diagnóstico diseñado para diagnosticar cáncer de cuello uterino, tiene un
coeficiente falso positivo y falso negativo de 0.05 y 0.01, respectivamente. En
una cierta población de mujeres, el 4% de ellas sufren este tipo de cáncer.
1. Si una mujer de dicha población ha reaccionado positivamente al test, ¿qué

     posibilidades hay de que padezca cáncer de cuello uterino?


2. Si otra mujer de la misma población ha reaccionado negativamente al test,

     ¿qué posibilidades hay de que esté sana?




                                                               +
                                                         5
                                                      0.9
                                                E
                                  0.04               0.0
                                                        5
                                                              −
                   Población


                                                          1
                                                               +
                                   0.96                0.0
                                                E
                                                     0.9
                                                        9
                                                              −



                                   0.04 × 0.95         0.038
1.           p( E / + ) =                            =       = 0.798
                            0.04 × 0.95 + 0.96 × 0.01 0.0476



                                   0.96 × 0.99         0.950
2.           p( E / −) =                             =       = 0.998
                            0.04 × 0.05 + 0.96 × 0.99 0.952
VARIABLES ALEATORIAS


1. VARIABLE ALEATORIA DISCRETA:
                  FUNCIÓN DE MASA DE PROBABILIDAD
                  FUNCIÓN DE DISTRIBUCIÓN
                  ESPERANZA MATEMÁTICA
                  VARIANZA. DESVIACIÓN TÍPICA

2. PRINCIPALES DISTRIBUCIONES DISCRETAS


3. VARIABLE ALEATORIA CONTINUA:
                  FUNCIÓN DE DENSIDAD
                  FUNCIÓN DE DISTRIBUCIÓN
                  ESPERANZA MATEMÁTICA
                  VARIANZA. DESVIACIÓN TÍPICA


4. PRINCIPALES DISTRIBUCIONES CONTÍNUAS
•   En ciertos fenómenos aleatorios el resultado es un número, o se le puede asociar un
    número:
         1. Tomar un individuo al azar y medir su altura.
         2. Tomar una familia al azar y contar el número de hijos.
         3. El resultado de administrar un tratamiento a un enfermo: se cura o no se cura.
         4. Cuantificar el tiempo de vida de un paciente de cáncer,…..




•   Toda función o regla que asigna un número a cada suceso de un experimento aleatorio
    será una variable aleatoria.


•   En concreto nos interesaremos por ciertos parámetros de esas variables aleatorias que
    resuman su información: esperanza (media), varianza, desviación típica...




                                          DEFINICIÓN
     X es una VARIABLE ALEATORIA si es función del conjunto de sucesos A de un fenómeno
aleatorio en   :
                                       X: A →
                                             A   →    X ( A)
     Diremos que se ha definido una variable aleatoria, o que se ha construido un modelo de
distribución de probabilidad, cuando se especifican los posibles valores de la variable
aleatoria con sus respectivas probabilidades.
TIPOS DE VARIABLES ALEATORIAS




 Según los valores que pueda tomar la v.a. distinguiremos entre dos tipos:




V. A. DISCRETA: Toma valores discretos (enteros aislados).
                         Se asocian a procesos de conteo.
           •   Nº de hijos de una familia.
           •   Nº de episodios de otitis media en niños hasta 2 años.
           •   Lanzar un dado y observar el resultado.
           •   Administrar un tratamiento a un enfermo y observar si mejora o no.
           •   Número de colonias bacterianas/cm2
           •   Nº de nuevos casos de VIH/SIDA en un año…


V. A. CONTÍNUA: Puede tomar infinitos valores reales.


           •   Altura de un individuo.
           •   Peso de un individuo.
           •   Nivel de glucosa.
           •   Tiempo de vida de un paciente de cáncer.
           •   Tensión sistólica/diastólica de un individuo…..
Variables aleatorias en SPSS
Podemos:
        1. Generar números aleatorios.
        2. Calcular probabilidades y distribuciones.
para variables aleatorias discretas y contínuas.
Variables aleatorias en SPlus y R
Variables aleatorias en SPlus y R (cont.)
VARIABLES ALEATORIAS DISCRETAS


                                         Función de Masa de Probabilidad
     Dada una variable aleatoria discreta X que toma valores                                       { x1 , x2 ,..., xk }   definimos la

función de masa de probabilidad de X como:


                                         p:         → [0,1]
                                               xi   → p( xi ) = P( X = xi ) = pi
     verificando:

        1.     0 ≤ p ( xi ) ≤ 1 ∀xi
                k
        2.     ∑p
               i =1
                      i   =1.



Ejemplo: El experimento consiste en lanzar un dado y ver qué sale. Definimos la variable

aleatoria    X = resultado del lanzamiento.
        Conjunto de posibles sucesos elementales:

                                    {sale 1, sale 2, sale 3, sale 4, sale 5, sale 6}
        La variable aleatoria es:
                                                    X: A        →
                                                       {sale 1} → 1
                                                                ...
                                                       {sale 6} → 6

Las probabilidades para los sucesos elementales (sistema de probabilidades):

                                         1
             P (sale 1) = P ( X = 1) =     ⇒                                    Diagrama de Probabilidades.
                                         6                                        Lanzamiento de un dado.
            ⇒ p (1) = 1/ 6
                                                                         1,00

                                                                         0,80

                            .....
                                                          Probabilidad




                                                                         0,60


                                                                         0,40
                                     1
            P (sale 6) = P ( X = 6) = ⇒                                  0,20
                                     6
            ⇒ p (6) = 1/ 6                                               0,00
                                                                                 1     2     3     4       5      6
FUNCIÓN DE DISTRIBUCIÓN


    Dada una variable aleatoria X su función de distribución será una función:

                                           F:        → [ 0,1]
                                                x → F ( x) = P( X ≤ x)

    que debe verificar las siguientes condiciones:
            1.- F (−∞) = 0

            2.- F ( +∞) = 1

            3.- debe ser no decreciente: x1 > x2 ⇒ F ( x1 ) ≥ F ( x2 )


    Para variables aleatorias discretas podemos definir la función de distribución de forma
concreta como:

                                   F ( x) = P ( X ≤ x) = ∑ P ( X = xi ) ∀x ∈
                                                          xi ≤ x




    Ejemplo:

                                                Función de Distribución.
                                                Lanzamiento de un dado.
                                1,00

                                0,80

                                0,60

                                0,40

                                0,20

                                0,00
                                       0   1     2        3        4       5   6      7




                            1
     F (1) = P ( X ≤ 1) =
                            6
                                                      2
     F (2) = P( X ≤ 2) = P( X = 1) + P( X = 2) =
                                                      6
                                                                                           5
     F (5) = P ( X ≤ 5) = P ( X = 1) + P ( X = 2) + P ( X = 3) + P( X = 4) + P( X = 5) =
                                                                                           6
PARÁMETROS DE UNA V.A. DISCRETA




    Dada una variable aleatoria discreta X, que toma valores { x1 , x2 ,..., xk } , con función de

masa de probabilidad p [p(xi)=pi], podemos calcular sus parámetros como




ESPERANZA: E [ X ]
    Representa el valor esperado (promedio) de la variable aleatoria X en la población.
                                                           k
                                       E [ X ] = ∑ pi xi = µ
                                                          i =1




VARIANZA: V [ X ]
                                                    k
                                  V [ X ] = ∑ pi ( xi − µ ) = σ 2
                                                                  2

                                                   i =1

                                             k
                                  V [ X ] = ∑ pi xi2 − µ 2 = E  X 2  − E [ X ]
                                                                               2
                                                                
                                            i =1




DESVIACIÓN TÍPICA: DT [ X ]

                                        DT [ X ] = σ 2 = σ
VARIABLES DISCRETAS NOTABLES


     1. Proceso de Bernoulli:
         Bernoulli
         Binomial
         Geométrica
         Binomial Negativa


     2. Proceso de Poisson:
         Poisson


     3. Otras distribuciones:
         Hipergeométrica
1. Sucesión de Bernoulli y sus distribuciones asociadas




La realización de algunos experimentos genera uno de dos posibles resultados:
             • Un individuo puede estar enfermo ó no.
             • Una persona puede ser mujer ó varón.
             • Un aparato de laboratorio puede estar defectuoso ó no,….


Llamamos Proceso de Bernoulli al experimento en que se observan individuos
de una población con las siguientes características:


     • Cada individuo se clasifica en una de dos posibles categorías, que
        corresponden a la ocurrencia o no de un cierto suceso de interés, A.
        Llamaremos Éxito a la ocurrencia de A y Fracaso a la no ocurrencia
        de A ( A ).


     • La probabilidad de éxito es constante en toda la población y no
        depende del número de elementos de ésta. Representaremos por p la
        probabilidad de éxito y por (1-p) la probabilidad de fracaso.


     • Las observaciones son independientes. Es decir la probabilidad de
        éxito es siempre la misma y no se modifica dependiendo del número de
        individuos observados.


  En este proceso podemos definir distintas variables aleatorias que generan
  distintas distribuciones de probabilidad:


                       Distribución de Bernoulli
                       Distribución Binomial
                       Distribución Geométrica (o de Pascal)
                       Distribución Binomial Negativa
Distribución de Bernoulli

Realizamos un experimento con dos posibles resultados ( A, A ). Decimos que X es una v.a.
Bernoulli si toma los valores:

                                           0 si ocurre A
                                        X =
                                           1 si ocurre A

Su sistema de probabilidades es:


                          p ( X = r ) = p r (1 − p )
                                                             1− r
                                                                     , r = 0,1


     E(X ) = p         , V ( X ) = p (1 − p ) , DT ( X ) =                      p (1 − p )


Distribución Binomial

Realizamos un experimento con dos posibles resultados ( A, A ), un número n de veces. Una
v.a. Binomial B ( n, p ) viene definida por:

     X= nº de veces que sale A en las n pruebas= {0,1, 2,...., n}

                                          n
                            p ( X = r ) =   p r (1 − p )
                                                          1− r
                                                                      , r = 0,1,..., n
                                          r

     E ( X ) = np       , V ( X ) = np (1 − p ) , DT ( X ) = np (1 − p )


     Ejemplos:
     X = Nº de varones en familias de 4 hijos             (suponer   p=0.49).
     X = Nº de neutrófilos en 10 células        (suponer      p=0.6 ).


     Notas:
        Una Bernoulli es una B (1, p ) .
                                                n
        Si X es B ( n, p ) entonces X =      ∑Xi =1
                                                      i   , donde X i son Bernoulli.
Distribución Geométrica (Pascal)

Realizamos un experimento en las mismas condiciones de la v.a. binomial.

Una v.a. Geométrica viene definida por:

     X = nº de veces que sale fracaso ( A ) asta obtener el primer éxito.



                           p ( X = r ) = p (1 − p )
                                                      r
                                                              , r = 0,1, 2,.....
                                          1− p                      1− p
                              E(X ) =               , V (X ) =
                                           p                         p2
     A diferencia de la binomial, la geométrica puede tomar infinitos valores.
Ejemplo:

X=nº de recién nacidos en un Hospital hasta que nazca la primera mujer.

Distribución Binomial Negativa

Se utiliza en estudios de fiabilidad,
En Ecología: análisis de poblaciones (agregación, “contagio”).



La distribución binomial negativa es una generalización de la v.a. geométrica al caso de que
se observan n éxitos
                       X=nº de fracasos hasta obtener el éxito n.

X es una v.a. Binomial Negativa con parámetros n,         p, y se denota por BN ( n, p ) .

                                     n − r + 1 n
                       p ( X = r) =             p (1 − p )
                                                            r
                                                                   , r = 0,1, 2,.....
                                     r 
                                       (1 − p )                  (1 − p )
                           E(X ) = n              , V (X ) = n
                                          p                         p2
Notas:
         Una v.a. Geométrica es una BN (1, p )

         Si X es BN ( n, p ) puede pensarse como “el nº de pruebas que hay que realizar

         para obtener el éxito n”.
         El “índice de agregación” de los individuos es V ( X ) E ( X ) = 1 / p .
2. El proceso de Poisson y sus distribuciones asociadas.




  Llamamos Proceso de Poisson al experimento aleatorio que consiste en
  observar la aparición de sucesos puntuales en soporte contínuo (tiempo,
  área, volumen,…) de forma que:

  • El proceso es estable. Es decir, a largo plazo el nº medio de sucesos por
     unidad de medida, λ ( > 0 ) , es constante.


  • Los sucesos ocurren aleatoriamente de forma independiente.




  Este proceso es la generalización del proceso de Bernoulli en un soporte
  contínuo.




  La v.a. discreta más importante      es la v.a. de Poisson, con importantes
  aplicaciones en la Biomedicina, Teoría de Colas, etc…




  Ejemplos:

               •   Nº de glóbulos rojos/cm3 de sangre.
               •   Nº de personas en la cola de cita previa/9-10 h
               •   Nº de casos SIDA en una comunidad autónoma/mes.
               •   Nº de casos de fiebre tifoidea/1 año,…
Distribución de Poisson

Realizamos un experimento en las condiciones del proceso de Poisson.

Una v.a. Poisson viene definida por:

     X = nº de veces que sale un suceso ( A ) por unidad de medida.

X es una v.a. de Poisson de parámetro λ ( > 0 ) se denota por P ( λ ) .



                                         λr
                p ( X = r ) = e −λ                   , r = 0,1, 2,.....
                                         r!

                           E(X ) = λ            , Var ( X ) = λ

NOTAS:

1.     P ( λ ) puede aproximarse por una v.a. Binomial B ( n, p ) con n → ∞ y

       p → 0 , y entonces λ = np .
     Ejemplo: X=Nº de personas que padecen una cierta enfermedad (sobre
     n=50.000 hab). La prevalencia de dicha enfermedad es 1/100.000.


2.    El índice de agregación de los individuos es V ( X ) E ( X ) = 1 .
3. Otras distribuciones discretas notables.

Existen ciertas distribuciones discretas que son muy útiles en la práctica, aunque no verifican
ni el Proceso de Bernoulli ni el de Poisson.


Distribución Hipergeométrica (“esquema de urnas”).

Realizamos un experimento con dos posibles resultados ( A, A ), un número n de veces.

Los individuos se extraen sin reemplazamiento de una población FINITA de tamaño N ,
donde hay N A individuos con A y N A = N − N A con A .

Una v.a. Hipergeométrica H ( n, N , N A ) viene definida por:

X= nº de veces que sale A en las n pruebas= {0,1, 2,...., n}
                                           NA  N − NA 
                                           r  n − r 
                             p ( X = r) =                 , r = 0,1,..., n
                                                N
                                                n
                                                 

                                                                         N −n
                           E ( X ) = np        , V ( X ) = np (1 − p )
                                                                         N −1
Ejemplos:


X=Nº de pacientes cirróticos en 20 historias clínicas de un Servicio de Medicina Interna
( N = 224, N A = 50 ).




NOTAS:

   Si el muestreo fuese con reemplazamiento, la variable H sería Binomial.



   Si la población fuese infinita (ó N → ∞ ), la variable H se aproxima por una Binomial.
VARIABLES ALEATORIAS CONTINUAS


                                  FUNCIÓN DE DENSIDAD
Dada una variable aleatoria continua X definimos la función de densidad de X como:

                                     f:         →
                                          x     → f ( x)
que verifica:

   1.   f ( x) ≥ 0 ∀x ∈
            ∞
   2.   ∫
        −∞
                f ( x)dx = 1


PROPIEDADES:
   El área por debajo de la curva de la densidad representa la probabilidad.


   Dados dos puntos cualesquiera: a y b, la probabilidad del intervalo (a,b] es el área
   comprendida entre la curva de la densidad, el eje OX y las rectas x = a y x = b. Es
   decir:
                                                  b
                               P(a < x ≤ b) = ∫ f ( x)dx
                                                 a




     La probabilidad de cualquier punto es 0:

                                     P ( x = c) = 0 ∀c ∈
FUNCIÓN DE DISTRIBUCIÓN


    Dada una variable aleatoria X su función de distribución será una función:


                                      F:     → [ 0,1]
                                           x → F ( x) = P ( X ≤ x)


    que debe verificar las siguientes condiciones:

                 1.-   F (−∞) = 0
                 2.- F ( +∞) = 1

                 3.- debe ser no decreciente: x1 > x2 ⇒ F ( x1 ) ≥ F ( x2 )


    Para variables aleatorias continuas podemos definir la función de distribución de forma
concreta como:
                                                         x0
                            F ( x0 ) = P( X ≤ x0 ) = ∫        f ( x)dx ∀x0 ∈
                                                      −∞




    PROPIEDADES:
                   F ′( x) = f ( x)
                                      b
                   P(a < x ≤ b) = ∫ f ( x)dx = F (b) − F (a)
                                      a
PARÁMETROS DE UNA V.A. CONTÍNUA



    Dada una variable aleatoria continua X, con función de densidad f(X),
podemos calcular sus parámetros.



    ESPERANZA:
    Representa el valor esperado de la variable aleatoria X en la población.
                                           ∞
                               E [ X ] = ∫ x f ( x)dx = µ
                                           −∞




    VARIANZA:
                                      ∞
                         V [ X ] = ∫ ( x − µ )2 f ( x)dx = σ 2
                                      −∞

                               ∞
                    V [ X ] = ∫ x 2 f ( x)dx − µ 2 = E  X 2  − E [ X ]
                                                                       2
                               −∞                       



    DESVIACIÓN TÍPICA:

                                    DT [ X ] = σ 2 = σ
VARIABLES CONTÍNUAS NOTABLES


1. Distribuciones de duraciones de Vida:
•   Imprescindibles en Análisis de Supervivencia.
•   Son distribuciones que se utilizan para modelizar la duración (vida de
    personas, animales o componentes físicos; duración de desempleo,…) ó el
    tamaño (rentas de familias, tamaño de yacimientos, etc.).
•   Casos importantes: Exponencial, Weibull.



2. Distribución Beta.
•   Es una distribución muy versátil, y admite una gran variedad de formas.
•   Esto permite que la incertidumbre pueda describirse con esta distribución.
•   Es de gran utilidad en Estadística Bayesiana, en la Teoría de la Decisión,
    tests estadísticos de máxima verosimilitud…




3. Distribución Normal.
•   Es la más importante y de mayor uso en estadística.
•   Multitud de experimentos generan esta variable: variables antropométricas,
    errores de medición, puntuaciones de tests, etc….
•   El Teorema Central del Límite indica que una suma de muchas v.a.s
    independientes se distribuye aproximadamente según una normal.
•   El muestreo de la normal genera distribuciones imprescindibles en inferencia
    estadística: t-Student, Chi-Cuadrado, F-Fisher Snedecor.
•   Papel fundamental en la inferencia estadística.
•   Diversas aplicaciones en biomedicina: Intervalos de normalidad clínica,
    curvas ROC binormales, etc…
Distribución exponencial


En un proceso de Poisson, consideremos la v.a.
X= tiempo entre dos sucesos consecutivos.
Decimos que X tiene un distribución exponencial de parámetro        λ > 0 , que denotaremos por
Exp ( λ ) , siendo λ el nº promedio de sucesos que ocurren por unidad de tiempo.

                   λ e − λ x          si x > 0                 1 − e− λ x       si x > 0
          f ( x) =                               ,    F ( x) = 
                    0                otro caso                  0           otro caso


                               E( X ) =1 λ ,          V ( X ) =1 λ 2
Ejemplos:

X=tiempo de vida de las bacterias en una cierta cepa.
X= tiempo de vida (en meses) de una máquina de laboratorio= tiempo hasta el suceso “fallo”.


                     1.0




                      .8




                      .6




                      .4




                      .2                 Exp(2)
                               Exp(1)
                     0.0
                           0      1      2    3   4       5     6      7      8
NOTAS:

•   La distribución exponencial “no tiene memoria”, ya que:

                             p ( X > x + t X > x) = p ( X > t)
    Es decir, la probabilidad de sobrevivir al tiempo x + t , sabiendo que ha sobrevivido al
    instante x , es la misma que sobrevivir al tiempo t .
    O lo que es lo mismo, la probabilidad de vivir en un intervalo, solo depende de la longitud
    de dicho intervalo.


•   La distribución exponencial se caracteriza por tener “la tasa de fallo” constante. Es decir:
    la probabilidad de fallar en cualquier intervalo no depende de la vida anterior.


•   Es, por tanto, adecuada para describir la aparición de fallos (muertes,etc) al azar, no
    debidas a desgaste o deterioro.


•   La tasa de fallo vendrá dada por:


                                               λ si x > 0
                                      h( x ) = 
                                                0 otro caso
Distribución Weibull


•   Está estrechamente relacionada con la distribución exponencial.
•   A diferencia de la exponencial, modeliza de un modo más realista los tiempos de vida, ya
    que no asume que la tasa de fallo sea constante.
•   En muchas ocasiones ocurre que el riesgo de muerte varía (aumenta o disminuye) con el
    tiempo.
•   Es la distribución por defecto en Análisis de Supervivencia con el Splus.


Decimos que X tiene un distribución Weibull de parámetros b y λ ( > 0 ) , que denotaremos

por W ( b,λ ) , si posee la siguiente densidad:

                                         λ bbx b −1e( − λ x )
                                                               b
                                                                    si x > 0
                                f ( x) = 
                                         
                                                 0                 otro caso
                                                       ,

                                         1 − e( − λ x )
                                                           b
                                                                   si x > 0
                                F ( x) = 
                                         
                                              0                   otro caso


                                     b = parámetro de forma.
                                     λ =parámetro de escala.

NOTAS:

•   La distribución exponencial “tiene memoria”.
•   Es adecuada para describir la aparición de fallos (muertes, etc) debidas a desgaste o
    deterioro.
•   La tasa de fallo vendrá dada por:

                                         λ bbx b −1 si x > 0
                                h( x ) = 
                                          0         otro caso


•   La Exponencial Exp ( λ ) es una Weibull           W (1,λ ) .
Distribución Normal

Decimos que X tiene una distribución Normal de parámetros µ y σ , que denotaremos por

N ( µ , σ ) , si posee la siguiente densidad:
                                                             2
                                                 1  x−µ 
                                      1         −       
                         f ( x) =        e       2 σ 
                                                                  − ∞ < x < +∞
                                    σ 2π
donde:
                                    µ = media.

                                    σ =desviación típica.


                                       Normal Típica
                           Es la distribución normal Z → N ( 0,1)




                                      Estandarización
Es el proceso por el cual tipificamos cualquier distribución normal. Se consigue así:


                                                                  X −µ
                   Si   X → N (µ ,σ )     entonces           Z=        → N ( 0,1)
                                                                   σ


                                                                        X −µ
         X → N (µ ,σ )                                             Z=        → N ( 0,1)
                                                                         σ




               µ                                                            0
INTERVALOS DE NORMALIDAD (IN)


•   Se utilizan con frecuencia en estudios biomédicos.

•   Son intervalos de extremos simétricos (respecto a µ) entre los cuales se encuentra un

    determinado porcentaje de datos (por ejemplo, 95%, 99%,…)


                        Intervalo de Normalidad al (1-α)100%


Fijado α (p.e. 0.05),

1. Sea Z → N ( 0,1) un IN al (1-α)100% será:

                                                   
                                         − zα , zα 
                                            2    2 




                          α                                      α
                          2                                      2
                                           Asum H0
                                                o
                                              1-α


                                −zα 2                    zα 2


2. Sea X → N ( µ , σ ) , un IN al (1-α)100% vendrá dado por:

                                                     
                                 µ − zα σ , µ + zα σ 
                                      2          2   
EJEMPLO: Construir un IN para el peso (Kgs.) en niños varones de 7 años.


                             X = Peso → N (25,5)


a) al 95%
               IN 95%    es    [ 25 − 1.96 × 5   , 25 + 1.96 × 5]95%


                [ 25 − 9.8   , 25 + 9.8]95% = [15.2 , 34.8]95%



b) al 99%
               IN 99%    es    [ 25 − 2.58 × 5   , 25 + 2.58 × 5]99%


               [ 25 − 12.9   , 25 + 12.9]99% = [12.1 , 37.9]99%

Más contenido relacionado

La actualidad más candente

Fase2 100402 grupo_9
Fase2 100402 grupo_9Fase2 100402 grupo_9
Fase2 100402 grupo_9Elvia Padilla
 
Distribución de poisson ejercicio práctico-
Distribución de poisson  ejercicio práctico-Distribución de poisson  ejercicio práctico-
Distribución de poisson ejercicio práctico-Jhonatan Arroyave Montoya
 
Ejemplos de distribuciones de probabilidad
Ejemplos de distribuciones de probabilidadEjemplos de distribuciones de probabilidad
Ejemplos de distribuciones de probabilidadLaksmi Rodriguez
 
Subir tarea estadistica chi cuadrado
Subir tarea estadistica chi cuadradoSubir tarea estadistica chi cuadrado
Subir tarea estadistica chi cuadradoAndy Shalom
 
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJADIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJAajimenezz
 
Tarea 5 de probabilidad con respuestas
Tarea 5 de probabilidad con respuestasTarea 5 de probabilidad con respuestas
Tarea 5 de probabilidad con respuestasIPN
 
Distribucion de probabilidad binomal
Distribucion de probabilidad binomalDistribucion de probabilidad binomal
Distribucion de probabilidad binomaleraperez
 
Ejercicios prueba de hipótesis
Ejercicios prueba de hipótesisEjercicios prueba de hipótesis
Ejercicios prueba de hipótesisHugo_Franco
 
577544365.u04 poisson - ejercicio resuelto
577544365.u04   poisson - ejercicio resuelto577544365.u04   poisson - ejercicio resuelto
577544365.u04 poisson - ejercicio resueltosaposapoloko
 
Prueba De HipóTesis Sobre La Diferencia De Proporciones Poblacionales
Prueba De HipóTesis Sobre La Diferencia De Proporciones PoblacionalesPrueba De HipóTesis Sobre La Diferencia De Proporciones Poblacionales
Prueba De HipóTesis Sobre La Diferencia De Proporciones PoblacionalesMaría Isabel Bautista
 
Unidad dos punto n°3
Unidad dos punto n°3Unidad dos punto n°3
Unidad dos punto n°3eduardobarco
 
2. ejercicios de prueba de hipótesis
2. ejercicios de prueba de hipótesis2. ejercicios de prueba de hipótesis
2. ejercicios de prueba de hipótesisluiisalbertoo-laga
 
93034691 deber-2
93034691 deber-293034691 deber-2
93034691 deber-2cesa1996
 
50 ejercicios estadistica
50 ejercicios estadistica50 ejercicios estadistica
50 ejercicios estadisticaPAHOLA24
 

La actualidad más candente (20)

Modelos probabilidad
Modelos probabilidadModelos probabilidad
Modelos probabilidad
 
Fase2 100402 grupo_9
Fase2 100402 grupo_9Fase2 100402 grupo_9
Fase2 100402 grupo_9
 
Distribución de poisson ejercicio práctico-
Distribución de poisson  ejercicio práctico-Distribución de poisson  ejercicio práctico-
Distribución de poisson ejercicio práctico-
 
Ejemplos de distribuciones de probabilidad
Ejemplos de distribuciones de probabilidadEjemplos de distribuciones de probabilidad
Ejemplos de distribuciones de probabilidad
 
Subir tarea estadistica chi cuadrado
Subir tarea estadistica chi cuadradoSubir tarea estadistica chi cuadrado
Subir tarea estadistica chi cuadrado
 
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJADIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
 
Tarea 5 de probabilidad con respuestas
Tarea 5 de probabilidad con respuestasTarea 5 de probabilidad con respuestas
Tarea 5 de probabilidad con respuestas
 
Distribucion de probabilidad binomal
Distribucion de probabilidad binomalDistribucion de probabilidad binomal
Distribucion de probabilidad binomal
 
Ejercicios prueba de hipótesis
Ejercicios prueba de hipótesisEjercicios prueba de hipótesis
Ejercicios prueba de hipótesis
 
577544365.u04 poisson - ejercicio resuelto
577544365.u04   poisson - ejercicio resuelto577544365.u04   poisson - ejercicio resuelto
577544365.u04 poisson - ejercicio resuelto
 
Prueba De HipóTesis Sobre La Diferencia De Proporciones Poblacionales
Prueba De HipóTesis Sobre La Diferencia De Proporciones PoblacionalesPrueba De HipóTesis Sobre La Diferencia De Proporciones Poblacionales
Prueba De HipóTesis Sobre La Diferencia De Proporciones Poblacionales
 
Unidad dos punto n°3
Unidad dos punto n°3Unidad dos punto n°3
Unidad dos punto n°3
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Ph2 m
Ph2 mPh2 m
Ph2 m
 
Tema 2 colorprobabilidades
Tema 2 colorprobabilidadesTema 2 colorprobabilidades
Tema 2 colorprobabilidades
 
2. ejercicios de prueba de hipótesis
2. ejercicios de prueba de hipótesis2. ejercicios de prueba de hipótesis
2. ejercicios de prueba de hipótesis
 
93034691 deber-2
93034691 deber-293034691 deber-2
93034691 deber-2
 
50 ejercicios estadistica
50 ejercicios estadistica50 ejercicios estadistica
50 ejercicios estadistica
 
Ejercicios Distribución Poisson
Ejercicios Distribución PoissonEjercicios Distribución Poisson
Ejercicios Distribución Poisson
 
Normal
NormalNormal
Normal
 

Similar a Probabilidad

Psico 14ava. probabilidades y distribución binomial
Psico 14ava. probabilidades y distribución binomialPsico 14ava. probabilidades y distribución binomial
Psico 14ava. probabilidades y distribución binomialUniv Peruana Los Andes
 
Seminario 7 estadistica tics 2011 20120
Seminario 7 estadistica tics 2011 20120Seminario 7 estadistica tics 2011 20120
Seminario 7 estadistica tics 2011 20120elicesgut
 
Teoria-Probabilidad-ASasaSAdaDadaDadA2.ppt
Teoria-Probabilidad-ASasaSAdaDadaDadA2.pptTeoria-Probabilidad-ASasaSAdaDadaDadA2.ppt
Teoria-Probabilidad-ASasaSAdaDadaDadA2.pptSANTOS400018
 
4 probabilidades ejem-
4 probabilidades ejem-4 probabilidades ejem-
4 probabilidades ejem-Valeria Velez
 
Probabilidad Variables Aleatorias
Probabilidad Variables AleatoriasProbabilidad Variables Aleatorias
Probabilidad Variables AleatoriasPZB200
 
Apoyo para unidad 4
Apoyo para unidad 4Apoyo para unidad 4
Apoyo para unidad 4matedivliss
 
U3_Probabilidades Estadísticas.pdf
U3_Probabilidades Estadísticas.pdfU3_Probabilidades Estadísticas.pdf
U3_Probabilidades Estadísticas.pdfDANIELMOYA54
 
Trabajo A Entregar Unidad I 15 10 2008
Trabajo A Entregar Unidad I 15 10 2008Trabajo A Entregar Unidad I 15 10 2008
Trabajo A Entregar Unidad I 15 10 2008paolojpim
 
Teoria de la probabilida
Teoria de la probabilidaTeoria de la probabilida
Teoria de la probabilidaYomev
 
3 solo%20probabilidad
3 solo%20probabilidad3 solo%20probabilidad
3 solo%20probabilidadphilipo2006
 
3 solo%20probabilidad
3 solo%20probabilidad3 solo%20probabilidad
3 solo%20probabilidadphilipo2006
 
unidad 2 2.5 y 2.6
unidad 2 2.5 y 2.6unidad 2 2.5 y 2.6
unidad 2 2.5 y 2.6ITCM
 
Probabilidad ok (1)
Probabilidad   ok (1)Probabilidad   ok (1)
Probabilidad ok (1)pilosofando
 
Probabilidad Saltos Lissette
Probabilidad Saltos LissetteProbabilidad Saltos Lissette
Probabilidad Saltos LissetteLiLi Saltos
 

Similar a Probabilidad (20)

Bioestadistica 5
Bioestadistica 5Bioestadistica 5
Bioestadistica 5
 
Psico 14ava. probabilidades y distribución binomial
Psico 14ava. probabilidades y distribución binomialPsico 14ava. probabilidades y distribución binomial
Psico 14ava. probabilidades y distribución binomial
 
Seminario 7 estadistica tics 2011 20120
Seminario 7 estadistica tics 2011 20120Seminario 7 estadistica tics 2011 20120
Seminario 7 estadistica tics 2011 20120
 
Estad uma 04
Estad uma 04Estad uma 04
Estad uma 04
 
Teoria-Probabilidad-ASasaSAdaDadaDadA2.ppt
Teoria-Probabilidad-ASasaSAdaDadaDadA2.pptTeoria-Probabilidad-ASasaSAdaDadaDadA2.ppt
Teoria-Probabilidad-ASasaSAdaDadaDadA2.ppt
 
4 probabilidades ejem-
4 probabilidades ejem-4 probabilidades ejem-
4 probabilidades ejem-
 
Probabilidad Variables Aleatorias
Probabilidad Variables AleatoriasProbabilidad Variables Aleatorias
Probabilidad Variables Aleatorias
 
Probabilidadeshtml
ProbabilidadeshtmlProbabilidadeshtml
Probabilidadeshtml
 
Eventos dependientes e independientes
Eventos dependientes e independientesEventos dependientes e independientes
Eventos dependientes e independientes
 
Apoyo para unidad 4
Apoyo para unidad 4Apoyo para unidad 4
Apoyo para unidad 4
 
U3_Probabilidades Estadísticas.pdf
U3_Probabilidades Estadísticas.pdfU3_Probabilidades Estadísticas.pdf
U3_Probabilidades Estadísticas.pdf
 
Trabajo estadistica.
Trabajo estadistica.Trabajo estadistica.
Trabajo estadistica.
 
Trabajo A Entregar Unidad I 15 10 2008
Trabajo A Entregar Unidad I 15 10 2008Trabajo A Entregar Unidad I 15 10 2008
Trabajo A Entregar Unidad I 15 10 2008
 
Tema 2 colorprobabilidades
Tema 2 colorprobabilidadesTema 2 colorprobabilidades
Tema 2 colorprobabilidades
 
Teoria de la probabilida
Teoria de la probabilidaTeoria de la probabilida
Teoria de la probabilida
 
3 solo%20probabilidad
3 solo%20probabilidad3 solo%20probabilidad
3 solo%20probabilidad
 
3 solo%20probabilidad
3 solo%20probabilidad3 solo%20probabilidad
3 solo%20probabilidad
 
unidad 2 2.5 y 2.6
unidad 2 2.5 y 2.6unidad 2 2.5 y 2.6
unidad 2 2.5 y 2.6
 
Probabilidad ok (1)
Probabilidad   ok (1)Probabilidad   ok (1)
Probabilidad ok (1)
 
Probabilidad Saltos Lissette
Probabilidad Saltos LissetteProbabilidad Saltos Lissette
Probabilidad Saltos Lissette
 

Más de agtzglez22

ElaboracióN De Un Plan
ElaboracióN De Un PlanElaboracióN De Un Plan
ElaboracióN De Un Planagtzglez22
 
PlaneacióN Agregada
PlaneacióN AgregadaPlaneacióN Agregada
PlaneacióN Agregadaagtzglez22
 
DiseñO De Embalaje I
DiseñO De Embalaje IDiseñO De Embalaje I
DiseñO De Embalaje Iagtzglez22
 
Qué Es Un Web Quest
Qué Es Un Web QuestQué Es Un Web Quest
Qué Es Un Web Questagtzglez22
 
Ejemplo de trabajo colaborativo
Ejemplo de trabajo colaborativoEjemplo de trabajo colaborativo
Ejemplo de trabajo colaborativoagtzglez22
 
Cariño especial
Cariño especialCariño especial
Cariño especialagtzglez22
 
20 Reglas De Vida
20 Reglas De Vida20 Reglas De Vida
20 Reglas De Vidaagtzglez22
 

Más de agtzglez22 (9)

ElaboracióN De Un Plan
ElaboracióN De Un PlanElaboracióN De Un Plan
ElaboracióN De Un Plan
 
PlaneacióN Agregada
PlaneacióN AgregadaPlaneacióN Agregada
PlaneacióN Agregada
 
DiseñO De Embalaje I
DiseñO De Embalaje IDiseñO De Embalaje I
DiseñO De Embalaje I
 
Qué Es Un Web Quest
Qué Es Un Web QuestQué Es Un Web Quest
Qué Es Un Web Quest
 
Ejemplo de trabajo colaborativo
Ejemplo de trabajo colaborativoEjemplo de trabajo colaborativo
Ejemplo de trabajo colaborativo
 
Ensayo de
Ensayo deEnsayo de
Ensayo de
 
Cariño especial
Cariño especialCariño especial
Cariño especial
 
20 Reglas De Vida
20 Reglas De Vida20 Reglas De Vida
20 Reglas De Vida
 
Equipo 1
Equipo 1Equipo 1
Equipo 1
 

Último

La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafiosFundación YOD YOD
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIAWilbisVega
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)GDGSucre
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíassuserf18419
 
9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudianteAndreaHuertas24
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan JosephBRAYANJOSEPHPEREZGOM
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesFundación YOD YOD
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...silviayucra2
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveFagnerLisboa3
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx241521559
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxJOSEMANUELHERNANDEZH11
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricKeyla Dolores Méndez
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfsoporteupcology
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxpabonheidy28
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024GiovanniJavierHidalg
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdfIsabellaMontaomurill
 

Último (16)

La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafios
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnología
 
9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Joseph
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento Protégeles
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial Uninove
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptx
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdf
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docx
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdf
 

Probabilidad

  • 1. FUNDAMENTOS DE PROBABILIDAD
  • 2. PROBABILIDAD Establecer claramente el espacio de probabilidad será el primer paso imprescindible para estudiar cualquier experimento aleatorio. En la práctica, muchas de las dificultades que surgen en el análisis estadístico de investigaciones clínicas tienen que ver con el establecimiento implícito y defectuoso de este espacio. EXPERIMENTO ALEATORIO: experimento que puede ser repetido bajo "las mismas condiciones", del que puede establecerse el conjunto de sus posibles resultados, pero no predecir un resultado concreto. SUCESO ELEMENTAL: todo resultado que puede ocurrir al realizar una sola vez el experimento. ESPACIO MUESTRAL: conjunto de todos los sucesos elementales de un experimento: Ω. SUCESO: cualquier subconjunto del espacio muestral, incluidos Ω (seguro) y ∅ (imposible). EJEMPLOS Lanzar una moneda al aire: Ω={1,2,3,4,5,6}. Grupo sanguíneo de un individuo Ω={A, B, AB, 0}. Nº de niños que nacen en una maternidad un día concreto. Ω={0,1,2,…}. Una mujer portadora de hemofilia tiene 3 hijos ¿Cuál es el espacio muestral apropiado para estudiar la posible transmisión de hemofilia a sus hijos? Cada hijo puede padecer hemofilia (s) o no (n), por tanto Ω={sss, ssn, sns, nss, snn, nsn, nns, nnn} En este espacio muestral, el suceso "dos hijos padecen hemofilia" se representa como A1={ssn, sns, nss} y el suceso "los dos primeros no la padecen" como A2={nns, nnn} .
  • 3. OPERACIONES CON SUCESOS INTERSECCIÓN: sean A y B dos sucesos cualesquiera de un experimento, la intersección es A ∩ B son todas las posibilidades comunes a A y B. A ∩ B es otro suceso. B A A∩B Incompatibilidad : Dos sucesos A y B son incompatibles si A ∩ B = ∅. UNIÓN: La unión de dos sucesos A y B es otro suceso que contiene todas las posibilidades de A y de B: A U B. A∪B A∪ B = Ω A B SISTEMA COMPLETO DE SUCESOS (PARTICIÓN) Un conjunto de sucesos { A1 , A2 ,...., Ak } forma un sistema completo si verifica: 1. Ai ∩ A j = ∅ ∀i ≠ j (incompatibles dos a dos). k 2. A1 ∪ A2 ∪ ..... ∪ Ak = ∪ Ai =Ω i =1 A1 A3 A5 A2 A4 A6 Ejemplo: El conjunto de sucesos elementales siempre conforma un sistema completo.
  • 4. DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD Se define la probabilidad como una función: P : A → [ 0,1] A → P ( A) que verifica: 1.- 0 ≤ p ( A) ≤ 1 para todo suceso A. 2.- P (Ω) = 1 . 3.- Dados dos sucesos A, B / A ∩ B = o (sucesos incompatibles) se tiene / que: P( A ∪ B) = P( A) + P( B) . A la estructura ( Ω, A, P ) se le denomina espacio de probabilidad. CONSECUENCIAS 1.- Si A ⊆ B entonces p ( A ) ≤ p ( B ) . 2.- P ( A) = 1 − p ( A ) , siendo A el complementario de A . A A 3. - Si { A1 , A2 ,...., Ak } es conjunto de sucesos verificando Ai ∩ A j = ∅ ∀i ≠ j , k p ( A1 ∪ A2 ∪ ..... ∪ Ak ) = ∑ p ( Ai ) i =1 4.- Dados dos sucesos A, B cualesquiera: P( A ∪ B ) = P( A) + P( B ) − p( A ∩ B ) .
  • 5. Ejemplo Un 15% de los pacientes atendidos en un hospital son hipertensos, un 10% son obesos y un 3% son hipertensos y obesos. ¿Qué probabilidad hay de que elegido un paciente al azar sea obeso o hipertenso? A = {obeso} , B = {hipertenso} B A El conjunto de sucesos elementales es { A ∩ B, A ∩ B, A ∩ B , A ∩ B } y forman un sistema completo. A ∩ B = {hipertenso y obeso} A ∪ B = {obeso o hipertenso} p(A) = 0.10; p(B) = 0.15 p( A ∩ B ) = 0.03 Como podemos observar, los sucesos “ser hipertenso” y “ser obeso”, son sucesos compatibles ( A ∩ B ≠ ∅ ) p( A ∪ B ) = 0.10 + 0.15 – 0.03 = 0.22 p( A )=1-0.10=0.90 p( B )=1-0.15=0.85 p( A ∩ B )=p( A )-p( A ∩ B )=0.10-0.03=0.07 p( A ∩ B )=p( B )-p( A ∩ B )=0.15-0.03=0.12 p( A ∩ B )=1- p( A ∪ B )=1-0.22=0.78
  • 6. PREVALENCIA E INCIDENCIA DE UNA ENFERMEDAD nº individuos con enfermedad prevalencia = nº total individuos n º nuevos casos de enfermedad durante (t 0 , t1 ) incidencia = n º individuos sanos en t 0 EJEMPLOS 1.- En 1974 se contabilizaron 22626 hipertensos entre 144380 individuos con edades ≥ 17 años. ¿Cuál era la prevalencia de la hipertensión en 1974? n º hipertensos 22626 prevalencia = = = 0.157 nº individuos ≥ 17 años 144380 Por tanto la prevalencia de la hipertensión en 1974 era del 15.7 %. 2.- El 01/01/1970 se inició un estudio de cáncer de mama. Se registraron 1000 mujeres sanas. Entre éstas se contabilizó un caso de cáncer de mama hasta el 31/12/1970. ¿Incidencia? nº nuevos casos (01 / 01 / 1970,31 / 12 / 1970) 1 incidencia = = = 0.001 mujeres sanas al 01 / 01 / 1970 1000 Luego la incidencia del cáncer de mama a 01/01/1970 era del 1 o oo .
  • 7. PROBABILIDAD CONDICIONADA En ocasiones la probabilidad de un suceso viene condicionada por la ocurrencia de otro(s) suceso(s). El proceso de realizar la historia clínica, explorar y realizar pruebas complementarias ilustra este principio. La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se denomina probabilidad condicionada y se define p ( A∩ B) p ( A/ B) = p (B) Por ejemplo: La probabilidad de cáncer de pulmón es de 0.001, en cierta población. Sin embargo, si sabemos que el individuo es “fumador” la probabilidad de cáncer de pulmón aumenta a 0.02. Se escribiría así: P(cáncer de pulmón)=0.001 P(cáncer de pulmón / fumador) =0.02 Dos sucesos A y B, son INDEPENDIENTES si la probabilidad de ocurrencia de cada uno no viene afectada por la ocurrencia del otro: p ( A / B ) = p ( A) ; p ( B / A) = p ( B ) ó bien p( A ∩ B ) = p ( A) p ( B ) Por el contrario, son DEPENDIENTES si p ( A / B ) ≠ p ( A) ; p ( B / A) ≠ p ( B ) ó bien p( A ∩ B ) ≠ p ( A) p ( B ) En el ejemplo anterior, el cáncer de pulmón depende de si el individuo es fumador. Dicho en otras palabras, ser fumador va a suponer un “factor de riesgo” para el cáncer de pulmón respecto a la población general.
  • 8. EJEMPLO 1. Una mujer es portadora de la enfermedad de Duchenne ¿Cuál es la probabilidad de que su próximo hijo tenga la enfermedad? 2. Para un hijo de una mujer portadora de Duchenne, el sexo y la enfermedad ¿son independientes? Según las leyes de Mendel, todos los posibles genotipos de un hijo de una madre portadora (xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la misma probabilidad. El espacio muestral es {xX, xY, XX, XY} El suceso A={hijo enfermo} corresponde al genotipo xY, por tanto, p(A) = 1/4 = 0.25. 1. La mujer tiene el hijo varón. Se define el suceso B = {ser varón} = {xY, XY} La probabilidad pedida es p(A|B) p(B) = 0.5; A ∩ B = {xY}; p(A ∩B) = 0.25 Entonces: p(A|B) = 0.25/0.5 = 0.5 2. p(A) = 0.25; p(B) = 0.5 ; p(A) p(B)= 0.125 p(A ∩ B) = 0.25 ≠ p(A) p(B) , por lo que A y B son DEPENDIENTES.
  • 9. MEDIDAS DE EFECTO: RIESGO RELATIVO (RR) , ODDS-RATIO (OR) Si F es un factor de exposición para una cierta enfermedad, es necesario construir alguna “medida de efecto” de F sobre la enfermedad. RIESGO RELATIVO (RR) >1 F es factor de riesgo P(enfermedad / F ) RR = =1 no asociación P(enfermedad / no F ) <1 F es factor protector • Es una tasa de incidencias. • Sólo es aplicable en estudios prospectivos (cohorte). ODDS-RATIO (OR) P( F / enfermedad ) P(no F / enfermedad ) P( F / enfermedad ) P(no F / sanos) OR = = P( F / sanos ) P( F / sanos ) P (no F / enfermedad ) P(no F / sanos ) • La OR tiene una interpretación análoga al RR (<1 F protector, =1 no asociación, >1 F factor de riesgo). • Se puede calcular en cualquier tipo de estudio (cohorte, casos-control, sección cruzada). • La OR se aproxima a la RR, en enfermedades de incidencia baja (p(enfermedad)<0.1).
  • 10. ESTIMACIÓN DE LA OR En la práctica no se conocen las medidas de efecto (como la OR) y habrá que estimarlas a través de muestras. En un estudio caso-control, se extrae una muestra de enfermos (casos), y una muestra de sanos (controles): CASOS CONTROLES (Enfermos) (Sanos) Presente a b a+b Exposición Ausente c d c+d nE = a+c nS = b+d n=a+b+c+d • Según la definición de OR, una estimación de esta medida de efecto viene dada por la razón de productos cruzados (cross-product ratio) : ad OR = bc • Para medir el error de esta estimación puntual, es conveniente construir un Intervalo de Confianza (IC) al 95% para la verdadera OR. • Interpretación del IC95% de la OR: Si el valor 1 “no cae” en el IC de la OR, existe asociación significativa.
  • 11. EJEMPLO (infec.sav) Queremos estudiar la ASOCIACIÓN entre la infección post-quirúrgica y la diabetes: IPO=Infección post-quirúrgica ( SI, NO) DIABETES (SI, NO). IPO NO SI 45 97 142 (31.7%) (68.3%) (100%) Diabetes NO 419 1792 2211 (19.0%) (81.0%) (100%) 464 1889 2553 OR=1.984, IC95% (1.372, 2.870) Estos resultados se pueden interpretar de dos formas equivalentes: A) Tomando como REFERENCIA la categoría “NO” en DIABETES: • La presencia de diabetes (es decir, la categoría “SI”) está 1.984 veces asociada a la infección post-quirúrgica. • Dicha asociación es significativa (IC95%=(1.372 , 2.870)). La diabetes es un factor de “riesgo” significativo. B) Tomando como REFERENCIA la categoría “SI” en DIABETES: • La ausencia de diabetes (es decir, la categoría “NO”) está 0.504 (= 1/1.984) veces asociada a la infección post-quirúrgica. • Dicha asociación es significativa (IC95%=(1/1.372 , 1/2.870)=(0.348 , 0.729) ). No tener diabetes es un factor “protector” significativo.
  • 12. Resolviéndolo en el SPSS… Analizar… → Estadísticos descriptivos… → Tablas de contingencia… Filas …. diabetes (1=si; 0=no) Columnas …. infec1 (1=si; 0=no). → Estadísticos……Riesgo (es decir, OR) → Casillas…. Porcentajes por filas (es decir, por diabetes) % por filas (diabetes) Riesgo = OR Estimación de riesgo Intervalo de confianza al 95% Valor Inferior Superior Razón de las ventajas 1.984 1.372 2.870 para DIABETES (si / no) Para la cohorte INFEC1 1.672 1.294 2.161 = si Para la cohorte INFEC1 .843 .752 .944 = no N de casos válidos 2353
  • 13. TEOREMA DE BAYES Diagnóstico médico: El diagnóstico consiste en establecer la enfermedad de un paciente, a partir de una serie de síntomas. Pruebas diagnósticas, pruebas de paternidad….. Enunciado Sea conjunto de sucesos { A1 , A2 ,...., Ak } que forma un sistema completo B (partición), de Sea B un suceso de interés. A1 A3 A5 A2 A4 A6 Supongamos que conocemos las siguientes probabilidades: k a) p ( A1 ) , p ( A2 ) ,....., p ( Ak ) . Se tiene además que ∑ p ( A ) = 1 . i i =1 b) p ( B / A1 ) , p ( B / A2 ) ,....., p ( B / Ak ) . Entonces se pueden calcular las siguientes probabilidades (∀i = 1,.., k ) : p ( Ai ) p ( B / Ai ) p ( Ai ) p ( B / Ai ) p ( Ai / B ) = = p ( A1 ) p ( B / A1 ) + ..... + p ( Ai ) p ( B / Ai ) + ... + p ( Ak ) p ( B / Ak ) k ∑ p ( A ) p (B / A ) j =1 j j Es decir: a partir de las probabilidades “a priori”, p ( Ai ) , podremos calcular las probabilidades a posteriori, p ( Ai / B ) .
  • 14. Ejemplo Un individuo puede presentar cualquiera de dos enfermedades E1 ó E2 (o estar sano, S) según una serie de síntomas B que presenta. Se sabe que en la población de partida la distribución de las enfermedades es 0.2 y 0.3 respectivamente. Por otro lado, se sabe también que la probabilidad de presentar B si tuviese E1 es 0.5, si tuviese E2 es de 0.3, y si estuviese sano es de 0.1. ¿Cuál es la situación más probable para dicho individuo? p( E1 ) = 0.2 , p( E2 ) = 0.3 , p( S ) = 0.5 p( B / E1 ) = 0.5 , p( B / E2 ) = 0.3 , p( B / S ) = 0.1 p ( E1 ) p( B / E1 ) 0.1 p( E1 / B ) = = = 0.42 p ( E1 ) p( B / E1 ) + p ( E2 ) p( B / E2 ) + p ( S ) p( B / S ) 0.24 p ( E2 ) p ( B / E2 ) 0.09 p ( E2 / B ) = = = 0.38 p ( E1 ) p ( B / E1 ) + p ( E2 ) p ( B / E2 ) + p ( S ) p ( B / S ) 0.24 p ( S / B ) = 1 − p ( E1 / B ) − p ( E2 / B ) = 1 − 0.42 − 0.38 = 0.2 Lo más probable es que padezca la enfermedad E1.
  • 15. Pruebas diagnósticas En la práctica, antes de que un Laboratorio ó un Servicio de Salud puedan recomendar una prueba diagnóstica de una enfermedad, se ha de evaluar la capacidad de la prueba para discriminar a los sanos de los enfermos. Se plantea entonces un diseño experimental que consiste en considerar una población general en dos sub-poblaciones independientes: • Enfermos ( E ): indiv. diagnosticados verdaderamente (gold standard). • Sanos ( E ): indiv. sanos a dicha enfermedad. Aplicada la prueba a un individuo cualquiera, ésta puede dar como resultado: • Positivo ( + ): La prueba indica presencia de la enfermedad. • Negativo ( − ): La prueba indica ausencia de la enfermedad. Aplicamos la prueba a las dos poblaciones ( E , E ) , y ésta puede acertar ó no: probabilidades de acierto • Sensibilidad (True Positive Fraction, TPF): p (+ E ) . • Especificidad (True Negative Fraction, TNF): p (− E ) . probabilidades de fallo • Falso positivo : p ( + E ) = 1-especificidad . • Falso Negativo : p ( − E ) = 1-sensibilidad . Prueba + - Gold E Acierto Fallo standard E Fallo Acierto
  • 16. Cuando la prueba se usa con fines diagnósticos (o de "screening") interesa calcular alguna de las siguientes probabilidades: • Valor Predictivo Positivo: p ( E + ) . • Valor Predictivo Positivo: p E − . ( ) Conociendo la prevalencia de la enfermedad en la población general, p ( E ) , por la Regla Bayes, podemos calcular ambos valores predictivos: lid a d + ibi ns se E Fa lso p(E) ne − ga tiv o Población o sit ivo + op 1− p (E) F als E Es pe cif ici da d − p ( E ) p( + / E ) p( E / + ) = p ( E ) p( + / E ) + (1 − p ( E ) ) p( + / E ) p ( E ) p( − / E ) p( E / −) = p ( E ) p( − / E ) + (1 − p ( E ) ) p( − / E ) Nótese que ambas dependen de la prevalencia de la enfermedad: una prueba diagnóstica que funciona muy bien en el CHUS, puede ser inútil en el Hospital Ramón y Cajal.
  • 17. Ejemplo Un test diagnóstico diseñado para diagnosticar cáncer de cuello uterino, tiene un coeficiente falso positivo y falso negativo de 0.05 y 0.01, respectivamente. En una cierta población de mujeres, el 4% de ellas sufren este tipo de cáncer. 1. Si una mujer de dicha población ha reaccionado positivamente al test, ¿qué posibilidades hay de que padezca cáncer de cuello uterino? 2. Si otra mujer de la misma población ha reaccionado negativamente al test, ¿qué posibilidades hay de que esté sana? + 5 0.9 E 0.04 0.0 5 − Población 1 + 0.96 0.0 E 0.9 9 − 0.04 × 0.95 0.038 1. p( E / + ) = = = 0.798 0.04 × 0.95 + 0.96 × 0.01 0.0476 0.96 × 0.99 0.950 2. p( E / −) = = = 0.998 0.04 × 0.05 + 0.96 × 0.99 0.952
  • 18. VARIABLES ALEATORIAS 1. VARIABLE ALEATORIA DISCRETA: FUNCIÓN DE MASA DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ESPERANZA MATEMÁTICA VARIANZA. DESVIACIÓN TÍPICA 2. PRINCIPALES DISTRIBUCIONES DISCRETAS 3. VARIABLE ALEATORIA CONTINUA: FUNCIÓN DE DENSIDAD FUNCIÓN DE DISTRIBUCIÓN ESPERANZA MATEMÁTICA VARIANZA. DESVIACIÓN TÍPICA 4. PRINCIPALES DISTRIBUCIONES CONTÍNUAS
  • 19. En ciertos fenómenos aleatorios el resultado es un número, o se le puede asociar un número: 1. Tomar un individuo al azar y medir su altura. 2. Tomar una familia al azar y contar el número de hijos. 3. El resultado de administrar un tratamiento a un enfermo: se cura o no se cura. 4. Cuantificar el tiempo de vida de un paciente de cáncer,….. • Toda función o regla que asigna un número a cada suceso de un experimento aleatorio será una variable aleatoria. • En concreto nos interesaremos por ciertos parámetros de esas variables aleatorias que resuman su información: esperanza (media), varianza, desviación típica... DEFINICIÓN X es una VARIABLE ALEATORIA si es función del conjunto de sucesos A de un fenómeno aleatorio en : X: A → A → X ( A) Diremos que se ha definido una variable aleatoria, o que se ha construido un modelo de distribución de probabilidad, cuando se especifican los posibles valores de la variable aleatoria con sus respectivas probabilidades.
  • 20. TIPOS DE VARIABLES ALEATORIAS Según los valores que pueda tomar la v.a. distinguiremos entre dos tipos: V. A. DISCRETA: Toma valores discretos (enteros aislados). Se asocian a procesos de conteo. • Nº de hijos de una familia. • Nº de episodios de otitis media en niños hasta 2 años. • Lanzar un dado y observar el resultado. • Administrar un tratamiento a un enfermo y observar si mejora o no. • Número de colonias bacterianas/cm2 • Nº de nuevos casos de VIH/SIDA en un año… V. A. CONTÍNUA: Puede tomar infinitos valores reales. • Altura de un individuo. • Peso de un individuo. • Nivel de glucosa. • Tiempo de vida de un paciente de cáncer. • Tensión sistólica/diastólica de un individuo…..
  • 21. Variables aleatorias en SPSS Podemos: 1. Generar números aleatorios. 2. Calcular probabilidades y distribuciones. para variables aleatorias discretas y contínuas.
  • 23. Variables aleatorias en SPlus y R (cont.)
  • 24. VARIABLES ALEATORIAS DISCRETAS Función de Masa de Probabilidad Dada una variable aleatoria discreta X que toma valores { x1 , x2 ,..., xk } definimos la función de masa de probabilidad de X como: p: → [0,1] xi → p( xi ) = P( X = xi ) = pi verificando: 1. 0 ≤ p ( xi ) ≤ 1 ∀xi k 2. ∑p i =1 i =1. Ejemplo: El experimento consiste en lanzar un dado y ver qué sale. Definimos la variable aleatoria X = resultado del lanzamiento. Conjunto de posibles sucesos elementales: {sale 1, sale 2, sale 3, sale 4, sale 5, sale 6} La variable aleatoria es: X: A → {sale 1} → 1 ... {sale 6} → 6 Las probabilidades para los sucesos elementales (sistema de probabilidades): 1 P (sale 1) = P ( X = 1) = ⇒ Diagrama de Probabilidades. 6 Lanzamiento de un dado. ⇒ p (1) = 1/ 6 1,00 0,80 ..... Probabilidad 0,60 0,40 1 P (sale 6) = P ( X = 6) = ⇒ 0,20 6 ⇒ p (6) = 1/ 6 0,00 1 2 3 4 5 6
  • 25. FUNCIÓN DE DISTRIBUCIÓN Dada una variable aleatoria X su función de distribución será una función: F: → [ 0,1] x → F ( x) = P( X ≤ x) que debe verificar las siguientes condiciones: 1.- F (−∞) = 0 2.- F ( +∞) = 1 3.- debe ser no decreciente: x1 > x2 ⇒ F ( x1 ) ≥ F ( x2 ) Para variables aleatorias discretas podemos definir la función de distribución de forma concreta como: F ( x) = P ( X ≤ x) = ∑ P ( X = xi ) ∀x ∈ xi ≤ x Ejemplo: Función de Distribución. Lanzamiento de un dado. 1,00 0,80 0,60 0,40 0,20 0,00 0 1 2 3 4 5 6 7 1 F (1) = P ( X ≤ 1) = 6 2 F (2) = P( X ≤ 2) = P( X = 1) + P( X = 2) = 6 5 F (5) = P ( X ≤ 5) = P ( X = 1) + P ( X = 2) + P ( X = 3) + P( X = 4) + P( X = 5) = 6
  • 26. PARÁMETROS DE UNA V.A. DISCRETA Dada una variable aleatoria discreta X, que toma valores { x1 , x2 ,..., xk } , con función de masa de probabilidad p [p(xi)=pi], podemos calcular sus parámetros como ESPERANZA: E [ X ] Representa el valor esperado (promedio) de la variable aleatoria X en la población. k E [ X ] = ∑ pi xi = µ i =1 VARIANZA: V [ X ] k V [ X ] = ∑ pi ( xi − µ ) = σ 2 2 i =1 k V [ X ] = ∑ pi xi2 − µ 2 = E  X 2  − E [ X ] 2   i =1 DESVIACIÓN TÍPICA: DT [ X ] DT [ X ] = σ 2 = σ
  • 27. VARIABLES DISCRETAS NOTABLES 1. Proceso de Bernoulli: Bernoulli Binomial Geométrica Binomial Negativa 2. Proceso de Poisson: Poisson 3. Otras distribuciones: Hipergeométrica
  • 28. 1. Sucesión de Bernoulli y sus distribuciones asociadas La realización de algunos experimentos genera uno de dos posibles resultados: • Un individuo puede estar enfermo ó no. • Una persona puede ser mujer ó varón. • Un aparato de laboratorio puede estar defectuoso ó no,…. Llamamos Proceso de Bernoulli al experimento en que se observan individuos de una población con las siguientes características: • Cada individuo se clasifica en una de dos posibles categorías, que corresponden a la ocurrencia o no de un cierto suceso de interés, A. Llamaremos Éxito a la ocurrencia de A y Fracaso a la no ocurrencia de A ( A ). • La probabilidad de éxito es constante en toda la población y no depende del número de elementos de ésta. Representaremos por p la probabilidad de éxito y por (1-p) la probabilidad de fracaso. • Las observaciones son independientes. Es decir la probabilidad de éxito es siempre la misma y no se modifica dependiendo del número de individuos observados. En este proceso podemos definir distintas variables aleatorias que generan distintas distribuciones de probabilidad: Distribución de Bernoulli Distribución Binomial Distribución Geométrica (o de Pascal) Distribución Binomial Negativa
  • 29. Distribución de Bernoulli Realizamos un experimento con dos posibles resultados ( A, A ). Decimos que X es una v.a. Bernoulli si toma los valores: 0 si ocurre A X = 1 si ocurre A Su sistema de probabilidades es: p ( X = r ) = p r (1 − p ) 1− r , r = 0,1 E(X ) = p , V ( X ) = p (1 − p ) , DT ( X ) = p (1 − p ) Distribución Binomial Realizamos un experimento con dos posibles resultados ( A, A ), un número n de veces. Una v.a. Binomial B ( n, p ) viene definida por: X= nº de veces que sale A en las n pruebas= {0,1, 2,...., n} n p ( X = r ) =   p r (1 − p ) 1− r , r = 0,1,..., n r E ( X ) = np , V ( X ) = np (1 − p ) , DT ( X ) = np (1 − p ) Ejemplos: X = Nº de varones en familias de 4 hijos (suponer p=0.49). X = Nº de neutrófilos en 10 células (suponer p=0.6 ). Notas: Una Bernoulli es una B (1, p ) . n Si X es B ( n, p ) entonces X = ∑Xi =1 i , donde X i son Bernoulli.
  • 30. Distribución Geométrica (Pascal) Realizamos un experimento en las mismas condiciones de la v.a. binomial. Una v.a. Geométrica viene definida por: X = nº de veces que sale fracaso ( A ) asta obtener el primer éxito. p ( X = r ) = p (1 − p ) r , r = 0,1, 2,..... 1− p 1− p E(X ) = , V (X ) = p p2 A diferencia de la binomial, la geométrica puede tomar infinitos valores. Ejemplo: X=nº de recién nacidos en un Hospital hasta que nazca la primera mujer. Distribución Binomial Negativa Se utiliza en estudios de fiabilidad, En Ecología: análisis de poblaciones (agregación, “contagio”). La distribución binomial negativa es una generalización de la v.a. geométrica al caso de que se observan n éxitos X=nº de fracasos hasta obtener el éxito n. X es una v.a. Binomial Negativa con parámetros n, p, y se denota por BN ( n, p ) .  n − r + 1 n p ( X = r) =  p (1 − p ) r  , r = 0,1, 2,.....  r  (1 − p ) (1 − p ) E(X ) = n , V (X ) = n p p2 Notas: Una v.a. Geométrica es una BN (1, p ) Si X es BN ( n, p ) puede pensarse como “el nº de pruebas que hay que realizar para obtener el éxito n”. El “índice de agregación” de los individuos es V ( X ) E ( X ) = 1 / p .
  • 31. 2. El proceso de Poisson y sus distribuciones asociadas. Llamamos Proceso de Poisson al experimento aleatorio que consiste en observar la aparición de sucesos puntuales en soporte contínuo (tiempo, área, volumen,…) de forma que: • El proceso es estable. Es decir, a largo plazo el nº medio de sucesos por unidad de medida, λ ( > 0 ) , es constante. • Los sucesos ocurren aleatoriamente de forma independiente. Este proceso es la generalización del proceso de Bernoulli en un soporte contínuo. La v.a. discreta más importante es la v.a. de Poisson, con importantes aplicaciones en la Biomedicina, Teoría de Colas, etc… Ejemplos: • Nº de glóbulos rojos/cm3 de sangre. • Nº de personas en la cola de cita previa/9-10 h • Nº de casos SIDA en una comunidad autónoma/mes. • Nº de casos de fiebre tifoidea/1 año,…
  • 32. Distribución de Poisson Realizamos un experimento en las condiciones del proceso de Poisson. Una v.a. Poisson viene definida por: X = nº de veces que sale un suceso ( A ) por unidad de medida. X es una v.a. de Poisson de parámetro λ ( > 0 ) se denota por P ( λ ) . λr p ( X = r ) = e −λ , r = 0,1, 2,..... r! E(X ) = λ , Var ( X ) = λ NOTAS: 1. P ( λ ) puede aproximarse por una v.a. Binomial B ( n, p ) con n → ∞ y p → 0 , y entonces λ = np . Ejemplo: X=Nº de personas que padecen una cierta enfermedad (sobre n=50.000 hab). La prevalencia de dicha enfermedad es 1/100.000. 2. El índice de agregación de los individuos es V ( X ) E ( X ) = 1 .
  • 33. 3. Otras distribuciones discretas notables. Existen ciertas distribuciones discretas que son muy útiles en la práctica, aunque no verifican ni el Proceso de Bernoulli ni el de Poisson. Distribución Hipergeométrica (“esquema de urnas”). Realizamos un experimento con dos posibles resultados ( A, A ), un número n de veces. Los individuos se extraen sin reemplazamiento de una población FINITA de tamaño N , donde hay N A individuos con A y N A = N − N A con A . Una v.a. Hipergeométrica H ( n, N , N A ) viene definida por: X= nº de veces que sale A en las n pruebas= {0,1, 2,...., n}  NA  N − NA   r  n − r  p ( X = r) =    , r = 0,1,..., n N n   N −n E ( X ) = np , V ( X ) = np (1 − p ) N −1 Ejemplos: X=Nº de pacientes cirróticos en 20 historias clínicas de un Servicio de Medicina Interna ( N = 224, N A = 50 ). NOTAS: Si el muestreo fuese con reemplazamiento, la variable H sería Binomial. Si la población fuese infinita (ó N → ∞ ), la variable H se aproxima por una Binomial.
  • 34. VARIABLES ALEATORIAS CONTINUAS FUNCIÓN DE DENSIDAD Dada una variable aleatoria continua X definimos la función de densidad de X como: f: → x → f ( x) que verifica: 1. f ( x) ≥ 0 ∀x ∈ ∞ 2. ∫ −∞ f ( x)dx = 1 PROPIEDADES: El área por debajo de la curva de la densidad representa la probabilidad. Dados dos puntos cualesquiera: a y b, la probabilidad del intervalo (a,b] es el área comprendida entre la curva de la densidad, el eje OX y las rectas x = a y x = b. Es decir: b P(a < x ≤ b) = ∫ f ( x)dx a La probabilidad de cualquier punto es 0: P ( x = c) = 0 ∀c ∈
  • 35. FUNCIÓN DE DISTRIBUCIÓN Dada una variable aleatoria X su función de distribución será una función: F: → [ 0,1] x → F ( x) = P ( X ≤ x) que debe verificar las siguientes condiciones: 1.- F (−∞) = 0 2.- F ( +∞) = 1 3.- debe ser no decreciente: x1 > x2 ⇒ F ( x1 ) ≥ F ( x2 ) Para variables aleatorias continuas podemos definir la función de distribución de forma concreta como: x0 F ( x0 ) = P( X ≤ x0 ) = ∫ f ( x)dx ∀x0 ∈ −∞ PROPIEDADES: F ′( x) = f ( x) b P(a < x ≤ b) = ∫ f ( x)dx = F (b) − F (a) a
  • 36. PARÁMETROS DE UNA V.A. CONTÍNUA Dada una variable aleatoria continua X, con función de densidad f(X), podemos calcular sus parámetros. ESPERANZA: Representa el valor esperado de la variable aleatoria X en la población. ∞ E [ X ] = ∫ x f ( x)dx = µ −∞ VARIANZA: ∞ V [ X ] = ∫ ( x − µ )2 f ( x)dx = σ 2 −∞ ∞ V [ X ] = ∫ x 2 f ( x)dx − µ 2 = E  X 2  − E [ X ] 2 −∞   DESVIACIÓN TÍPICA: DT [ X ] = σ 2 = σ
  • 37. VARIABLES CONTÍNUAS NOTABLES 1. Distribuciones de duraciones de Vida: • Imprescindibles en Análisis de Supervivencia. • Son distribuciones que se utilizan para modelizar la duración (vida de personas, animales o componentes físicos; duración de desempleo,…) ó el tamaño (rentas de familias, tamaño de yacimientos, etc.). • Casos importantes: Exponencial, Weibull. 2. Distribución Beta. • Es una distribución muy versátil, y admite una gran variedad de formas. • Esto permite que la incertidumbre pueda describirse con esta distribución. • Es de gran utilidad en Estadística Bayesiana, en la Teoría de la Decisión, tests estadísticos de máxima verosimilitud… 3. Distribución Normal. • Es la más importante y de mayor uso en estadística. • Multitud de experimentos generan esta variable: variables antropométricas, errores de medición, puntuaciones de tests, etc…. • El Teorema Central del Límite indica que una suma de muchas v.a.s independientes se distribuye aproximadamente según una normal. • El muestreo de la normal genera distribuciones imprescindibles en inferencia estadística: t-Student, Chi-Cuadrado, F-Fisher Snedecor. • Papel fundamental en la inferencia estadística. • Diversas aplicaciones en biomedicina: Intervalos de normalidad clínica, curvas ROC binormales, etc…
  • 38. Distribución exponencial En un proceso de Poisson, consideremos la v.a. X= tiempo entre dos sucesos consecutivos. Decimos que X tiene un distribución exponencial de parámetro λ > 0 , que denotaremos por Exp ( λ ) , siendo λ el nº promedio de sucesos que ocurren por unidad de tiempo. λ e − λ x si x > 0 1 − e− λ x si x > 0 f ( x) =  , F ( x) =   0 otro caso  0 otro caso E( X ) =1 λ , V ( X ) =1 λ 2 Ejemplos: X=tiempo de vida de las bacterias en una cierta cepa. X= tiempo de vida (en meses) de una máquina de laboratorio= tiempo hasta el suceso “fallo”. 1.0 .8 .6 .4 .2 Exp(2) Exp(1) 0.0 0 1 2 3 4 5 6 7 8
  • 39. NOTAS: • La distribución exponencial “no tiene memoria”, ya que: p ( X > x + t X > x) = p ( X > t) Es decir, la probabilidad de sobrevivir al tiempo x + t , sabiendo que ha sobrevivido al instante x , es la misma que sobrevivir al tiempo t . O lo que es lo mismo, la probabilidad de vivir en un intervalo, solo depende de la longitud de dicho intervalo. • La distribución exponencial se caracteriza por tener “la tasa de fallo” constante. Es decir: la probabilidad de fallar en cualquier intervalo no depende de la vida anterior. • Es, por tanto, adecuada para describir la aparición de fallos (muertes,etc) al azar, no debidas a desgaste o deterioro. • La tasa de fallo vendrá dada por: λ si x > 0 h( x ) =   0 otro caso
  • 40. Distribución Weibull • Está estrechamente relacionada con la distribución exponencial. • A diferencia de la exponencial, modeliza de un modo más realista los tiempos de vida, ya que no asume que la tasa de fallo sea constante. • En muchas ocasiones ocurre que el riesgo de muerte varía (aumenta o disminuye) con el tiempo. • Es la distribución por defecto en Análisis de Supervivencia con el Splus. Decimos que X tiene un distribución Weibull de parámetros b y λ ( > 0 ) , que denotaremos por W ( b,λ ) , si posee la siguiente densidad: λ bbx b −1e( − λ x ) b  si x > 0 f ( x) =    0 otro caso , 1 − e( − λ x ) b  si x > 0 F ( x) =    0 otro caso b = parámetro de forma. λ =parámetro de escala. NOTAS: • La distribución exponencial “tiene memoria”. • Es adecuada para describir la aparición de fallos (muertes, etc) debidas a desgaste o deterioro. • La tasa de fallo vendrá dada por: λ bbx b −1 si x > 0 h( x ) =   0 otro caso • La Exponencial Exp ( λ ) es una Weibull W (1,λ ) .
  • 41. Distribución Normal Decimos que X tiene una distribución Normal de parámetros µ y σ , que denotaremos por N ( µ , σ ) , si posee la siguiente densidad: 2 1  x−µ  1 −   f ( x) = e 2 σ  − ∞ < x < +∞ σ 2π donde: µ = media. σ =desviación típica. Normal Típica Es la distribución normal Z → N ( 0,1) Estandarización Es el proceso por el cual tipificamos cualquier distribución normal. Se consigue así: X −µ Si X → N (µ ,σ ) entonces Z= → N ( 0,1) σ X −µ X → N (µ ,σ ) Z= → N ( 0,1) σ µ 0
  • 42. INTERVALOS DE NORMALIDAD (IN) • Se utilizan con frecuencia en estudios biomédicos. • Son intervalos de extremos simétricos (respecto a µ) entre los cuales se encuentra un determinado porcentaje de datos (por ejemplo, 95%, 99%,…) Intervalo de Normalidad al (1-α)100% Fijado α (p.e. 0.05), 1. Sea Z → N ( 0,1) un IN al (1-α)100% será:    − zα , zα   2 2  α α 2 2 Asum H0 o 1-α −zα 2 zα 2 2. Sea X → N ( µ , σ ) , un IN al (1-α)100% vendrá dado por:    µ − zα σ , µ + zα σ   2 2 
  • 43. EJEMPLO: Construir un IN para el peso (Kgs.) en niños varones de 7 años. X = Peso → N (25,5) a) al 95% IN 95% es [ 25 − 1.96 × 5 , 25 + 1.96 × 5]95% [ 25 − 9.8 , 25 + 9.8]95% = [15.2 , 34.8]95% b) al 99% IN 99% es [ 25 − 2.58 × 5 , 25 + 2.58 × 5]99% [ 25 − 12.9 , 25 + 12.9]99% = [12.1 , 37.9]99%