SlideShare una empresa de Scribd logo
1 de 21
Descargar para leer sin conexión
>Que es la probabilidad?

Es la parte de las matematicas que proporciona modelos para la in-
certidumbre
La incertidumbre se da en los resultados de los experimentos aleatorios


                 >Que es un experimento aleatorio?

Es una actividad en la que conocemos los posibles resultados pero no
podemos predecirlos con exactitud

Ejemplos:
 1. Lanzar una dado tres veces
 2. Medir la temperatura
 3. Numero de personas que van a venir a clase ma~ana
                                                 n

                                                              ESPACIO
Al conjunto de todos los resultados posibles lo llamamos ,!
                                                              MUESTRAL


     El objetivo de la PROBABILIDAD es medir la certidumbre
      (o incertidumbre) de que ocurran determinados sucesos
>Que es un suceso?

Es un acontecimiento que puede o no ocurrir en un experimento
aleatorio y que es combinacion de posibles resultados

Ejemplos de sucesos:
 1. La suma de los tres dados es 9
 2. La temperatura que medimos ahora es superior a la ultima medida
 3. Ma~ana vienen entre 60 y 80 personas a clase
      n


               Si llamamos   A a un suceso cualquiera
                                     +
                               P (A)
            es la probabilidad de que ocurra el suceso   A
             Ejemplo: Tiramos una moneda no trucada"
      P (cara) = 1=2      P (cruz ) = 1=2     P (canto) = 0           .
Propiedades de la probabilidad:
 1) 0   P (A) 1

 2) Si A es un suceso que ocurre seguro, P (A) = 1

 3) Si A es un suceso que no puede ocurrir, P (A) = 0

 4) P (no A) = P (A) = 1 ; P (A)

 5) Si A y B son dos sucesos que no tienen nada en comun,
                    P (A o B) = P (A) + P (B)
 6) Si A y B son dos sucesos INDEPENDIENTES (la aparicion de
    uno no afecta a la aparicion del otro),
                P (A y B) = P (A B) = P (A)P (B)
>Que entendemos cuando decimos que P (A) = p ?

Entre las diferentes interpretaciones que existen, la que da origen al
concepto de probabilidad que se utiliza hoy en d a es la

               INTERPRETACION FRECUENTISTA

                                  l
  - Si el experimento se repite muchas veces, y
  - Registramos cuantas veces sucede   A
  La frecuencia relativa

            fr = numero de veces pruebas A
                      numero de
                                 que ocurre

  se aproxima cada vez mas a la medida de incertidumbre P (A)
  cuando aumenta el numero de pruebas
Espacios muestrales discretos

Son aquellos en los que el numero de todos los posibles resultados es
 nito, o si es in nito, se puede numerar
             = fa1 : : : an : : : g - Espacio muestral

En este caso el MODELO DE PROBABILIDAD queda perfectamente
especi cado dando la probabilidad de cada resultado posible:
                    P (a1) : : : P (an) : : :
 1. P (an) 0 para todo an
 2. n P (an) = 1
   P


 3. La probabilidad de cualquier suceso A es la suma de las proba-
    bilidades de los resultados posibles que lo forman
 4. Si el espacio muestral es nito, y el experimento EQUIPROBA-
    BLE: P (a1) = = P (an) = 1=n

                          casos favorables
                P (A) =     casos {z
                                  posibles }
                          |
                                  ,! Regla de Laplace
>Nos interesan todos los detalles del experimento?
Generalmente, NO. Resumimos los resultados del experimento con
variables aleatorias
                    >Que es una variable aleatoria?
Una VARIABLE ALEATORIA es una transformacion de los resultados
de un experimento aleatorio en valores numericos

Ejemplo 1: Lanzamos un dado tres veces y nos interesa la suma de los
puntos
                  = f(1 1 1) (1 2 1) : : : (6 6 6)g
La variable aleatoria asociada a este experimento es:
          X Suma de los puntos de los tres lanzamientos
X toma valores en el conjunto f3 4 : :{z 17 18g
                              |
                                      :
                                              }
                                           ,!   Soporte de X

Ejemplo 2: Medimos el nivel de ruido en tres puntos muy proximos y nos
interesa la medicion mas alta
                      = (0 +1) (0 +1) (0 +1)
La variable aleatoria asociada a este experimento es:
          Y     Nivel de ruido mas alto entre los tres puntos
Y   toma valores entre (0 {z1}
                       |
                          + )
                              ,!   Soporte de Y
8
                                       >
                                       >
                                       < - Discretas (como X )
     Tipos de variables aleatorias: ;! > - Continuas (como Y )
                                       >
                                       : - Mixtas




            >Que nos interesa de una variable aleatoria?

Nos interesa saber: 1.- Como se distribuyen las probabilidades
                        entre todos los valores que puede tomar
                    2. Entorno a que valor esperamos el resultado
                    3.- Como es la variabilidad

               Distribucion de una variable aleatoria

Se entiende por DISTRIBUCION de X a la forma en que se asignan
las probabilidades a los valores que toma X

La distribucion se puede representar por:
 1. La funcion de distribucion F (x), que se de ne como
                           F (x) = P (X x)
 2. Para variables aleatorias discretas, por la funcion de masa
    o de probabilidad
 3. Para variables aleatorias continuas, por la funcion de densidad
Variables aleatorias discretas
La DISTRIBUCION de la v.a. discreta X viene determinada por:
  - los valores x1 x2 : : : xk : : : que puede tomar, y
  - las probabilidades con que aparecen, p1 p2 : : : pk : : :

             pi = P (X = xi)                 i = 1 2 ::: k :::
                         ,! Funcion de masa o de probabilidad

Comentarios:
1. 0 P (X = xi) 1 para todos los i, y 1 pi = 1
                                           P
                                             i=1
2. Si conocemos la distribucion de X , podemos calcular la probabili-
dad de que tome valores entre a y b
P (a X b)         =     P (X = a) + P (X = a + 1) +   +   P (X = b ; 1) + P (X = b)
                        b
                        X
                  =             P (X = xi)
                        xi =a

3. Para visualizar la FUNCION DE MASA se utiliza el diagrama de
barras: - En el eje horizontal los valores que toma X
        - En el eje vertical las probabilidades de cada valor
Ejemplo: X    no de caras en cuatro lanzamientos de una moneda equili-
brada
                 0.4


                 0.3


                 0.2


                 0.1


                  0
                                 0   1   2   3    4
Variables aleatorias continua
La DISTRIBUCION de la v.a. continua X no puede venir determi-
nada por P (X = xi)
          Si X es una v.a. continua =) P (X         = x) = 0
La DISTRIBUCION de una v.a. continua viene determinada por la
FUNCION DE DENSIDAD f (x):
- En el eje horizontal los valores que toma X
- En el eje vertical la probabilidad de que la variable tome valores en un
entorno muy peque~o" de cada punto dividida por la longitud del intervalo
                     n
                                 f (x) = F 0(x)
                  0.4


                  0.3


                  0.2


                  0.1


                   0
                   −5                   0               5




1. La funcion de densidad representa probabilidades por areas
Si conocemos la distribucion de X , podemos calcular la probabilidad
de que tome valores entre a y b
   P (a X b)            =   area que f (x) deja por debajo entre a y b
                            Rb
                        =
                             a   f (x)dx
2. Siempre es no negativa
3. El area total que deja la curva por debajo es siempre 1
Vectores aleatorios
Si tenemos las variables aleatorias X e Y podemos construir el vector
aleatorio: (   XY      )
                                                            Ejemplo:
                                           X Altura de una persona
                                             Y Peso de una persona

 1. Cada variable sigue una DISTRIBUCION de probabilidad MARGI-
    NAL que puede ser: Discreta                     o Continua
                            P (X = x), P (Y = y)      f (x), f (y)
 2. El vector aleatorio sigue una DISTRIBUCION de probabilidad
    CONJUNTA que puede ser: Discreta                 o Continua
                                   P (X = x Y = y )      f (x y)




       El volumen debajo es = 1 ,!

 3. Las v.a. discretas X e Y
    son independientes () P (X = x Y = y) = P (X = x)P (Y = y)
                             para todo x 2 Sop(X ) e y 2 Sop(Y )

     Las v.a. continuas X e Y
     son independientes () f (x y) = f (x)f (y)
                              para todo x 2 Sop(X ) e y 2 Sop(Y )
Valores caracter sticos de una variable aleatoria
Medida de posicion: >Entorno a que valor esperamos los resultados
del experimento?
 1. Para v.a. discretas hacemos un promedio de todos los posibles resul-
    tados, ponderando cada uno por su probabilidad de aparecer
                                         1
                                         X
                            E (X ) =           xipi
                                         i=1
 2. Para v.a. continuas hacemos lo mismo pero ponderando cada resultado
    posible por su densidad de probabilidad (e integrando)
                                    Z   1
                         E (X ) =            xf (x)dx
                                        ;1


        E (X ) es la MEDIA o ESPERANZA de la v.a. X
Propiedades:
 1. Si X es una v.a. y a un numero cualquiera
                            E (aX ) = aE (X )
 2. Si X es una v.a., a y b dos numeros cualesquiera
                       E (aX + b) = aE (X ) + b
 3. Si X e Y son dos v.a.
                     E (X + Y ) = E (X ) + E (Y )
 4. Si X e Y son dos v.a., a y b dos numeros cualesquiera
                  E (aX + bY ) = aE (X ) + bE (Y )
Medida de escala: >Como es la variabilidad?

 1. Para v.a. discretas hacemos un promedio de las discrepancias entre
    todos los posibles resultados y el valor central (MEDIA), ponderando
    cada una por la probabilidad de que se de el resultado
                                   1
                                   X
                      V (X ) =           (xi ; E (X ))2pi
                                   i=1

 2. Para v.a. continuas hacemos lo mismo pero ponderando cada discrep-
    ancia por la densidad de probabilidad (e integrando)
                              Z   1
                   V (X ) =            (x ; E (X ))2f (x)dx
                                  ;1



               V (X ) es la VARIANZA de la v.a. X
        p
          V (X ) es la DESVIACION TIPICA de la v.a. X
Propiedades de la varianza:
 1. V (X )   0
 2. V (X ) = E (X 2) ; E (X )2
 3. Si X es una v.a. y a un numero cualquiera
                           V (aX ) = a2V (X )
 4. Si X es una v.a., a y b dos numeros cualesquiera
                         V (aX + b) = a2V (X )
 5. Si X e Y son dos v.a. INDEPENDIENTES
                     V (X + Y ) = V (X ) + V (Y )
                                (
                             - Si X e Y no son independientes,
                                     NO ES CIERTO
Valores caracter sticos de un vector aleatorio

Medida de asociacion: >Como es la relacion?
            Cov(X Y ) = E (X ; E (X ))(Y ; E (Y ))]

          Cov(X Y ) es la COVARIANZA de la v.a. X
Propiedades:

 1. La Cov(X Y ) es una medida de asociacion lineal
 2. Cov(X Y ) = E (XY ) ; E (X )E (Y )
 3. Si X e Y son v.a. discretas,
                   1 1
                   XX
    Cov(X Y ) =               (xi ; E (X ))(yj ; E (Y ))P (X = xi Y = yj )
                   i=1 j =i

 4. Si X e Y son v.a. continuas,
                     Z   1   Z   1
     Cov(X Y ) =                     (x ; E (X ))(y ; E (Y ))f (x y)dxdy
                      ;1 ;1
 5. Si X e Y son v.a. INDEPENDIENTES ) Cov(X Y ) = 0
 6. Si Cov(X Y ) = 0             XeY     son v.a. INDEPENDIENTES
DISTRIBUCION NORMAL

Def: Sea X la variable aleatoria con funcion de densidad
                              (x ; )2
                             ; 22
        f (x) =   p1       e                x 2 R:
                   2
                                          2R y       >0

 Entonces, se dice que X tiene distribucion NORMAL
                       X    N(    2
                                      )




                                  f(x)




                             µ




CARACTERISTICAS PRINCIPALES DE LA DENSIDAD:

         1. Depende de dos parametros:           y
         2. Unimodal
         3. Simetrica con respecto a
USOS PRINCIPALES:
1) Como modelo de probabilidad para muchos fenomenos
2) En particular, representa la distribucion de probabilidad de muchos procesos
de medicion sin errores sistematicos.
3) Aproxima otras distribuciones, entre ellas la BINOMIAL.

NORMAL ESTANDAR:
                                                       z2
                             f (z ) =     p1       e
                                                     ;2       z 2 R:
                                              2
                                              Z     N (0 1)
Propiedades:
            Z 1
                    z
1) E(Z) =           p       e ; z22 dz   =0
               ;1    2
            Z 1
                    z2
2) V(Z) =           p       e; 2 dz = 1
                                z2

               ;1       2
                               Z z
3) F(z) = P (Z          z) =             p1       e; 2 dx
                                                    x2
                                                              ESTA TABULADA
                                 ;1       2
PROPIEDADES DE X           N(         2
                                          ):

1)       Z   =X;        N (0 1)                ESTADARIZACION DE LA NORMAL

               Si Z   N (0 1) =)               X    = Z+         N(   2
                                                                          )

2) E(X) = E ( Z + ) = E (Z ) + =

     V(X) = V ( Z + ) =        2
                                   V (Z ) =         2



     >Como afectan y a la distribucion?
     - Cambios en la media :




                                    µ1                  µ2




     - Cambios en la varianza 2:      1    <    2


                                                    σ
                                                        1




                                                             σ
                                                             2


                                               µ
3) F(x) = P (X            x) = P (   + Z    x)

                           x;
           = P Z                     = FZ x ;

         UTILIZAMOS LA TABLA DE LA N (0 1) PARA CALCULAR
             PROBABILIDADES ASOCIADAS A UNA N ( 2)
Ejemplo:
Sea X      N (1   2
                      = 4), >Cual es la probabilidad de que X tome valores entre
0 y 3?
 P (0    X    3) = P 0 ; 1 X 2 1 3 ; 1
                         2
                             ;
                                      2
                 = P (;0:5 Z 1) = P (Z 1) ; P (Z                      ;0:5)
                      = (1 ; P (Z > 1)) ; P (Z > 0:5) = 1 ; 0:1587 ; 0:3085
                      = 0:5328
                                                                  N(0,1)



                      N(1,4)




                                                                  1



                                                                  N(0,1)




              0       3
                                                     −.5     .5
4) Para una N (   2
                      ) cualquiera, podemos calcular las probabilidades:
      P( ;        X        + ) = P (X este entre              )     0:68
     P( ; 2       X        + 2 ) = P (X este entre          2 )     0:95
     P( ; 3       X        + 3 ) = P (X este entre          3 )     0:99




        68%                        95%                       99%




     µ−σ   µ+σ                µ−2σ       µ+2σ         µ−3σ           µ+3σ
6) Por el TEOREMA CENTRAL DEL LIMITE, si los resultados de un experi-
mento se deben a:
  1.   un conjunto grande" de causas (X1 : : : Xn),
  2.   independientes unas de otras,
  3.   que actuan sumando sus efectos,
  4.   siendo cada una de poca" importancia,
entonces la distribucion de los resultados del experimento es aprox-
imadamente NORMAL.




  TCL: Sean X1 : : : Xn : : : v.a. indep. con E (Xi) =        i   y V (Xi) = i2.
          P
  Sea Y = n=1 Xi, entonces
            i

                      Y ; Pn=1
                       pP i
                                      i   n!1
                                          ;!    Z   N (0 1)
                              n   2
                              i=1 i
                       ;              ;Pn     Pn
                          Y    AN       i=1 i
                                                   2
                                               i=1 i
5) La BINOMIAL se puede aproximar por la NORMAL
Si X    Bin(n p), estamos en las condiciones del TCL
                n
                X
        X   =         Xi     donde X1 : : : Xn son v:a:i:i:d: Bernoulli(p)
                i=1

Entonces,
                               X ; np    n!1
                             p           ;!      N (0 1)
                               np(1 ; p)


Lo que dice el teorema es que
                                                            !
                                            X ; np
       Si X     Bin(n p) =)       lim P    p               x    = P (Z   x)
                                 n!1        np(1 ; p)



                  APROXIMACIONES DE LA BINOMIAL
          n grande
         p peque~o =)
                 n            Se aproxima por una P (np)
        np constante
        np(1 ; p) > 5 =) Se aproxima por una N (np np(1 ; p))


8) La POISSON tambien se puede aproximar por una NORMAL. La aproxi-
macion es buena cuando > 5, entonces
                      Si Y    P ( ) =) Yp;       n!1
                                                 ;! N (0 1)

Más contenido relacionado

La actualidad más candente

L ochoa-distribuciones-probabilidad-discretas
L ochoa-distribuciones-probabilidad-discretasL ochoa-distribuciones-probabilidad-discretas
L ochoa-distribuciones-probabilidad-discretasleo_8a
 
Distribuciones de variables aleatorias discretas y continuas
Distribuciones de variables aleatorias discretas y continuasDistribuciones de variables aleatorias discretas y continuas
Distribuciones de variables aleatorias discretas y continuasCristhiam Montalvan Coronel
 
Tema 4 variables aleatorias continuas
Tema 4 variables aleatorias continuasTema 4 variables aleatorias continuas
Tema 4 variables aleatorias continuasMelanie Nogué
 
La clase
La claseLa clase
La clasegumzeli
 
Valor esperado o media
Valor esperado o mediaValor esperado o media
Valor esperado o mediaJag Är Omxr
 
Variables Aleatorias y Distribuciones de Probabilidad
Variables Aleatorias y Distribuciones de ProbabilidadVariables Aleatorias y Distribuciones de Probabilidad
Variables Aleatorias y Distribuciones de ProbabilidadJuliho Castillo
 
Variables aleatorias discretas y continuas
Variables aleatorias discretas y continuasVariables aleatorias discretas y continuas
Variables aleatorias discretas y continuasScarlet Íglez
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidadErikadame
 
Presentacion estadistica II
Presentacion estadistica IIPresentacion estadistica II
Presentacion estadistica IIalexjcv
 
Variables aleatorias discretas y continuas
Variables aleatorias discretas y continuasVariables aleatorias discretas y continuas
Variables aleatorias discretas y continuascolcaxsiempre
 
Distribuciones de probabilidad
Distribuciones de probabilidad Distribuciones de probabilidad
Distribuciones de probabilidad alerioz
 
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFB
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFBVARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFB
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFBLola FFB
 
Variables Aleatorias
Variables AleatoriasVariables Aleatorias
Variables Aleatoriasantoniovera
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidadalerioz
 

La actualidad más candente (20)

Variables aleatorias
Variables aleatoriasVariables aleatorias
Variables aleatorias
 
L ochoa-distribuciones-probabilidad-discretas
L ochoa-distribuciones-probabilidad-discretasL ochoa-distribuciones-probabilidad-discretas
L ochoa-distribuciones-probabilidad-discretas
 
Distribuciones de variables aleatorias discretas y continuas
Distribuciones de variables aleatorias discretas y continuasDistribuciones de variables aleatorias discretas y continuas
Distribuciones de variables aleatorias discretas y continuas
 
Tema 4 variables aleatorias continuas
Tema 4 variables aleatorias continuasTema 4 variables aleatorias continuas
Tema 4 variables aleatorias continuas
 
La clase
La claseLa clase
La clase
 
Valor esperado o media
Valor esperado o mediaValor esperado o media
Valor esperado o media
 
Variables Aleatorias y Distribuciones de Probabilidad
Variables Aleatorias y Distribuciones de ProbabilidadVariables Aleatorias y Distribuciones de Probabilidad
Variables Aleatorias y Distribuciones de Probabilidad
 
Variable aleatoria
Variable aleatoriaVariable aleatoria
Variable aleatoria
 
Transparencias variable aleatoria_discreta2016
Transparencias variable aleatoria_discreta2016Transparencias variable aleatoria_discreta2016
Transparencias variable aleatoria_discreta2016
 
Variables aleatorias discretas y continuas
Variables aleatorias discretas y continuasVariables aleatorias discretas y continuas
Variables aleatorias discretas y continuas
 
Tema3
Tema3Tema3
Tema3
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 
Presentacion estadistica II
Presentacion estadistica IIPresentacion estadistica II
Presentacion estadistica II
 
Variables aleatorias discretas y continuas
Variables aleatorias discretas y continuasVariables aleatorias discretas y continuas
Variables aleatorias discretas y continuas
 
Distribuciones de probabilidad
Distribuciones de probabilidad Distribuciones de probabilidad
Distribuciones de probabilidad
 
03 Variable Aleatoria
03   Variable Aleatoria03   Variable Aleatoria
03 Variable Aleatoria
 
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFB
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFBVARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFB
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFB
 
Distribucion de variable aleatoria discreta
Distribucion de variable aleatoria discretaDistribucion de variable aleatoria discreta
Distribucion de variable aleatoria discreta
 
Variables Aleatorias
Variables AleatoriasVariables Aleatorias
Variables Aleatorias
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 

Destacado

Castillo de harry potter
Castillo de harry potterCastillo de harry potter
Castillo de harry potterPaula Sánchez
 
Agendas compartidas de ComPart
Agendas compartidas de ComPartAgendas compartidas de ComPart
Agendas compartidas de ComPartcompartadmin
 
Poster definitivo de electiva
Poster definitivo de electivaPoster definitivo de electiva
Poster definitivo de electivaFania Machiste
 
Representation of disability
Representation of disabilityRepresentation of disability
Representation of disabilityZara Bhatti
 
Empresa comercial
Empresa comercialEmpresa comercial
Empresa comercial1milo7
 
American and English gangster films
American and English gangster filmsAmerican and English gangster films
American and English gangster filmsyumeproduction
 
Rewords Presentation
Rewords   PresentationRewords   Presentation
Rewords PresentationGiovanna73
 
Used 2011 Toyota Sienna LE - Boston
Used 2011 Toyota Sienna LE - BostonUsed 2011 Toyota Sienna LE - Boston
Used 2011 Toyota Sienna LE - BostonWoburn Toyota
 
Question 7 pp.
Question 7 pp.Question 7 pp.
Question 7 pp.s130678
 
Manejo de conflictos
Manejo de conflictosManejo de conflictos
Manejo de conflictosMike Lozano
 
Conversion as semiotic mechanism for urban palimpsesting
Conversion as semiotic mechanism for urban palimpsestingConversion as semiotic mechanism for urban palimpsesting
Conversion as semiotic mechanism for urban palimpsestingNew Bulgarian University
 
Augmented Reality and Journalism
Augmented Reality and JournalismAugmented Reality and Journalism
Augmented Reality and JournalismAdriano Farano
 
System Update Midland County April 2010
System Update Midland County April 2010System Update Midland County April 2010
System Update Midland County April 2010Early On Michigan
 
Control De ConstruccióN De Palas Y Almejas En La Empresa B U S T O S R E Y ...
Control De ConstruccióN De Palas Y Almejas En La Empresa  B U S T O S  R E Y ...Control De ConstruccióN De Palas Y Almejas En La Empresa  B U S T O S  R E Y ...
Control De ConstruccióN De Palas Y Almejas En La Empresa B U S T O S R E Y ...guest496cf6
 
Normas apa 6ta edición
Normas apa 6ta ediciónNormas apa 6ta edición
Normas apa 6ta ediciónjeronimo1968
 

Destacado (20)

Castillo de harry potter
Castillo de harry potterCastillo de harry potter
Castillo de harry potter
 
Agendas compartidas de ComPart
Agendas compartidas de ComPartAgendas compartidas de ComPart
Agendas compartidas de ComPart
 
Poster definitivo de electiva
Poster definitivo de electivaPoster definitivo de electiva
Poster definitivo de electiva
 
Representation of disability
Representation of disabilityRepresentation of disability
Representation of disability
 
Valores corporativos
Valores corporativosValores corporativos
Valores corporativos
 
Origen del lenguaje
Origen del lenguajeOrigen del lenguaje
Origen del lenguaje
 
Empresa comercial
Empresa comercialEmpresa comercial
Empresa comercial
 
American and English gangster films
American and English gangster filmsAmerican and English gangster films
American and English gangster films
 
Biodiversida lucila
Biodiversida  lucilaBiodiversida  lucila
Biodiversida lucila
 
Rewords Presentation
Rewords   PresentationRewords   Presentation
Rewords Presentation
 
Used 2011 Toyota Sienna LE - Boston
Used 2011 Toyota Sienna LE - BostonUsed 2011 Toyota Sienna LE - Boston
Used 2011 Toyota Sienna LE - Boston
 
Question 7 pp.
Question 7 pp.Question 7 pp.
Question 7 pp.
 
Wonderful waves
Wonderful wavesWonderful waves
Wonderful waves
 
Manejo de conflictos
Manejo de conflictosManejo de conflictos
Manejo de conflictos
 
Novela de gely
Novela de gelyNovela de gely
Novela de gely
 
Conversion as semiotic mechanism for urban palimpsesting
Conversion as semiotic mechanism for urban palimpsestingConversion as semiotic mechanism for urban palimpsesting
Conversion as semiotic mechanism for urban palimpsesting
 
Augmented Reality and Journalism
Augmented Reality and JournalismAugmented Reality and Journalism
Augmented Reality and Journalism
 
System Update Midland County April 2010
System Update Midland County April 2010System Update Midland County April 2010
System Update Midland County April 2010
 
Control De ConstruccióN De Palas Y Almejas En La Empresa B U S T O S R E Y ...
Control De ConstruccióN De Palas Y Almejas En La Empresa  B U S T O S  R E Y ...Control De ConstruccióN De Palas Y Almejas En La Empresa  B U S T O S  R E Y ...
Control De ConstruccióN De Palas Y Almejas En La Empresa B U S T O S R E Y ...
 
Normas apa 6ta edición
Normas apa 6ta ediciónNormas apa 6ta edición
Normas apa 6ta edición
 

Similar a Tr bases 3

Que es probabilidad
Que es probabilidadQue es probabilidad
Que es probabilidadLLendy GIl
 
probabilidad, definiciones, propiedades fundamentales
probabilidad, definiciones, propiedades fundamentalesprobabilidad, definiciones, propiedades fundamentales
probabilidad, definiciones, propiedades fundamentalesfjmurield1
 
Probabilidad Variables Aleatorias
Probabilidad Variables AleatoriasProbabilidad Variables Aleatorias
Probabilidad Variables AleatoriasPZB200
 
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.pptVARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.pptJuanJosGarcaAlvarado2
 
Tema 6. variables aleatorias y distribuciones de probabilidad
Tema 6. variables aleatorias y distribuciones de probabilidadTema 6. variables aleatorias y distribuciones de probabilidad
Tema 6. variables aleatorias y distribuciones de probabilidadAna Lopez
 
Distribuciones de probabilidad continua
Distribuciones de probabilidad continuaDistribuciones de probabilidad continua
Distribuciones de probabilidad continuaLIZBETH IZA
 
VARIABLES ALEATORIAS .DIST PROBAB.pdf
VARIABLES ALEATORIAS .DIST PROBAB.pdfVARIABLES ALEATORIAS .DIST PROBAB.pdf
VARIABLES ALEATORIAS .DIST PROBAB.pdfAlbert-Montilla
 
Presentacion diapostvas 2da parte inferencia estad upg
Presentacion diapostvas 2da parte inferencia estad upgPresentacion diapostvas 2da parte inferencia estad upg
Presentacion diapostvas 2da parte inferencia estad upgEdgar López
 
Tema 6, DISTRIBUCIONES DE PROBABILIDAD
Tema 6, DISTRIBUCIONES DE PROBABILIDADTema 6, DISTRIBUCIONES DE PROBABILIDAD
Tema 6, DISTRIBUCIONES DE PROBABILIDADJORGE JIMENEZ
 
Estadistica y probabilidades cap vii
Estadistica y probabilidades cap viiEstadistica y probabilidades cap vii
Estadistica y probabilidades cap viiManuel Chavez Leandro
 
Presentacion diapostvas7 2da parte inferencia estad upg
Presentacion diapostvas7 2da parte inferencia estad upgPresentacion diapostvas7 2da parte inferencia estad upg
Presentacion diapostvas7 2da parte inferencia estad upgEdgar López
 
Presentacion diapostvas7 2da parte inferencia estad upg
Presentacion diapostvas7 2da parte inferencia estad upgPresentacion diapostvas7 2da parte inferencia estad upg
Presentacion diapostvas7 2da parte inferencia estad upgEdgar López
 
Modelos de probabilidad
Modelos de probabilidadModelos de probabilidad
Modelos de probabilidadRicardo Nunfio
 

Similar a Tr bases 3 (20)

Que es probabilidad
Que es probabilidadQue es probabilidad
Que es probabilidad
 
probabilidad, definiciones, propiedades fundamentales
probabilidad, definiciones, propiedades fundamentalesprobabilidad, definiciones, propiedades fundamentales
probabilidad, definiciones, propiedades fundamentales
 
Probabilidad Variables Aleatorias
Probabilidad Variables AleatoriasProbabilidad Variables Aleatorias
Probabilidad Variables Aleatorias
 
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.pptVARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
 
Estadistica Aplicada
Estadistica AplicadaEstadistica Aplicada
Estadistica Aplicada
 
Tema 6. variables aleatorias y distribuciones de probabilidad
Tema 6. variables aleatorias y distribuciones de probabilidadTema 6. variables aleatorias y distribuciones de probabilidad
Tema 6. variables aleatorias y distribuciones de probabilidad
 
Tema2
Tema2Tema2
Tema2
 
Estadística i tema 3
Estadística i tema 3Estadística i tema 3
Estadística i tema 3
 
2 distribución de probabilidad discreta
2 distribución de probabilidad discreta2 distribución de probabilidad discreta
2 distribución de probabilidad discreta
 
Distribuciones de probabilidad continua
Distribuciones de probabilidad continuaDistribuciones de probabilidad continua
Distribuciones de probabilidad continua
 
Estadistica 2
Estadistica 2Estadistica 2
Estadistica 2
 
VARIABLES ALEATORIAS .DIST PROBAB.pdf
VARIABLES ALEATORIAS .DIST PROBAB.pdfVARIABLES ALEATORIAS .DIST PROBAB.pdf
VARIABLES ALEATORIAS .DIST PROBAB.pdf
 
Presentacion diapostvas 2da parte inferencia estad upg
Presentacion diapostvas 2da parte inferencia estad upgPresentacion diapostvas 2da parte inferencia estad upg
Presentacion diapostvas 2da parte inferencia estad upg
 
Tema 6, DISTRIBUCIONES DE PROBABILIDAD
Tema 6, DISTRIBUCIONES DE PROBABILIDADTema 6, DISTRIBUCIONES DE PROBABILIDAD
Tema 6, DISTRIBUCIONES DE PROBABILIDAD
 
Clase modelos de probabilidad
Clase modelos de probabilidadClase modelos de probabilidad
Clase modelos de probabilidad
 
Estadistica y probabilidades cap vii
Estadistica y probabilidades cap viiEstadistica y probabilidades cap vii
Estadistica y probabilidades cap vii
 
Presentacion diapostvas7 2da parte inferencia estad upg
Presentacion diapostvas7 2da parte inferencia estad upgPresentacion diapostvas7 2da parte inferencia estad upg
Presentacion diapostvas7 2da parte inferencia estad upg
 
Presentacion diapostvas7 2da parte inferencia estad upg
Presentacion diapostvas7 2da parte inferencia estad upgPresentacion diapostvas7 2da parte inferencia estad upg
Presentacion diapostvas7 2da parte inferencia estad upg
 
Modelos de probabilidad
Modelos de probabilidadModelos de probabilidad
Modelos de probabilidad
 
PROBABILIDAD IV
PROBABILIDAD IVPROBABILIDAD IV
PROBABILIDAD IV
 

Tr bases 3

  • 1. >Que es la probabilidad? Es la parte de las matematicas que proporciona modelos para la in- certidumbre La incertidumbre se da en los resultados de los experimentos aleatorios >Que es un experimento aleatorio? Es una actividad en la que conocemos los posibles resultados pero no podemos predecirlos con exactitud Ejemplos: 1. Lanzar una dado tres veces 2. Medir la temperatura 3. Numero de personas que van a venir a clase ma~ana n ESPACIO Al conjunto de todos los resultados posibles lo llamamos ,! MUESTRAL El objetivo de la PROBABILIDAD es medir la certidumbre (o incertidumbre) de que ocurran determinados sucesos
  • 2. >Que es un suceso? Es un acontecimiento que puede o no ocurrir en un experimento aleatorio y que es combinacion de posibles resultados Ejemplos de sucesos: 1. La suma de los tres dados es 9 2. La temperatura que medimos ahora es superior a la ultima medida 3. Ma~ana vienen entre 60 y 80 personas a clase n Si llamamos A a un suceso cualquiera + P (A) es la probabilidad de que ocurra el suceso A Ejemplo: Tiramos una moneda no trucada" P (cara) = 1=2 P (cruz ) = 1=2 P (canto) = 0 .
  • 3. Propiedades de la probabilidad: 1) 0 P (A) 1 2) Si A es un suceso que ocurre seguro, P (A) = 1 3) Si A es un suceso que no puede ocurrir, P (A) = 0 4) P (no A) = P (A) = 1 ; P (A) 5) Si A y B son dos sucesos que no tienen nada en comun, P (A o B) = P (A) + P (B) 6) Si A y B son dos sucesos INDEPENDIENTES (la aparicion de uno no afecta a la aparicion del otro), P (A y B) = P (A B) = P (A)P (B)
  • 4. >Que entendemos cuando decimos que P (A) = p ? Entre las diferentes interpretaciones que existen, la que da origen al concepto de probabilidad que se utiliza hoy en d a es la INTERPRETACION FRECUENTISTA l - Si el experimento se repite muchas veces, y - Registramos cuantas veces sucede A La frecuencia relativa fr = numero de veces pruebas A numero de que ocurre se aproxima cada vez mas a la medida de incertidumbre P (A) cuando aumenta el numero de pruebas
  • 5. Espacios muestrales discretos Son aquellos en los que el numero de todos los posibles resultados es nito, o si es in nito, se puede numerar = fa1 : : : an : : : g - Espacio muestral En este caso el MODELO DE PROBABILIDAD queda perfectamente especi cado dando la probabilidad de cada resultado posible: P (a1) : : : P (an) : : : 1. P (an) 0 para todo an 2. n P (an) = 1 P 3. La probabilidad de cualquier suceso A es la suma de las proba- bilidades de los resultados posibles que lo forman 4. Si el espacio muestral es nito, y el experimento EQUIPROBA- BLE: P (a1) = = P (an) = 1=n casos favorables P (A) = casos {z posibles } | ,! Regla de Laplace
  • 6. >Nos interesan todos los detalles del experimento? Generalmente, NO. Resumimos los resultados del experimento con variables aleatorias >Que es una variable aleatoria? Una VARIABLE ALEATORIA es una transformacion de los resultados de un experimento aleatorio en valores numericos Ejemplo 1: Lanzamos un dado tres veces y nos interesa la suma de los puntos = f(1 1 1) (1 2 1) : : : (6 6 6)g La variable aleatoria asociada a este experimento es: X Suma de los puntos de los tres lanzamientos X toma valores en el conjunto f3 4 : :{z 17 18g | : } ,! Soporte de X Ejemplo 2: Medimos el nivel de ruido en tres puntos muy proximos y nos interesa la medicion mas alta = (0 +1) (0 +1) (0 +1) La variable aleatoria asociada a este experimento es: Y Nivel de ruido mas alto entre los tres puntos Y toma valores entre (0 {z1} | + ) ,! Soporte de Y
  • 7. 8 > > < - Discretas (como X ) Tipos de variables aleatorias: ;! > - Continuas (como Y ) > : - Mixtas >Que nos interesa de una variable aleatoria? Nos interesa saber: 1.- Como se distribuyen las probabilidades entre todos los valores que puede tomar 2. Entorno a que valor esperamos el resultado 3.- Como es la variabilidad Distribucion de una variable aleatoria Se entiende por DISTRIBUCION de X a la forma en que se asignan las probabilidades a los valores que toma X La distribucion se puede representar por: 1. La funcion de distribucion F (x), que se de ne como F (x) = P (X x) 2. Para variables aleatorias discretas, por la funcion de masa o de probabilidad 3. Para variables aleatorias continuas, por la funcion de densidad
  • 8. Variables aleatorias discretas La DISTRIBUCION de la v.a. discreta X viene determinada por: - los valores x1 x2 : : : xk : : : que puede tomar, y - las probabilidades con que aparecen, p1 p2 : : : pk : : : pi = P (X = xi) i = 1 2 ::: k ::: ,! Funcion de masa o de probabilidad Comentarios: 1. 0 P (X = xi) 1 para todos los i, y 1 pi = 1 P i=1 2. Si conocemos la distribucion de X , podemos calcular la probabili- dad de que tome valores entre a y b P (a X b) = P (X = a) + P (X = a + 1) + + P (X = b ; 1) + P (X = b) b X = P (X = xi) xi =a 3. Para visualizar la FUNCION DE MASA se utiliza el diagrama de barras: - En el eje horizontal los valores que toma X - En el eje vertical las probabilidades de cada valor Ejemplo: X no de caras en cuatro lanzamientos de una moneda equili- brada 0.4 0.3 0.2 0.1 0 0 1 2 3 4
  • 9. Variables aleatorias continua La DISTRIBUCION de la v.a. continua X no puede venir determi- nada por P (X = xi) Si X es una v.a. continua =) P (X = x) = 0 La DISTRIBUCION de una v.a. continua viene determinada por la FUNCION DE DENSIDAD f (x): - En el eje horizontal los valores que toma X - En el eje vertical la probabilidad de que la variable tome valores en un entorno muy peque~o" de cada punto dividida por la longitud del intervalo n f (x) = F 0(x) 0.4 0.3 0.2 0.1 0 −5 0 5 1. La funcion de densidad representa probabilidades por areas Si conocemos la distribucion de X , podemos calcular la probabilidad de que tome valores entre a y b P (a X b) = area que f (x) deja por debajo entre a y b Rb = a f (x)dx 2. Siempre es no negativa 3. El area total que deja la curva por debajo es siempre 1
  • 10. Vectores aleatorios Si tenemos las variables aleatorias X e Y podemos construir el vector aleatorio: ( XY ) Ejemplo: X Altura de una persona Y Peso de una persona 1. Cada variable sigue una DISTRIBUCION de probabilidad MARGI- NAL que puede ser: Discreta o Continua P (X = x), P (Y = y) f (x), f (y) 2. El vector aleatorio sigue una DISTRIBUCION de probabilidad CONJUNTA que puede ser: Discreta o Continua P (X = x Y = y ) f (x y) El volumen debajo es = 1 ,! 3. Las v.a. discretas X e Y son independientes () P (X = x Y = y) = P (X = x)P (Y = y) para todo x 2 Sop(X ) e y 2 Sop(Y ) Las v.a. continuas X e Y son independientes () f (x y) = f (x)f (y) para todo x 2 Sop(X ) e y 2 Sop(Y )
  • 11. Valores caracter sticos de una variable aleatoria Medida de posicion: >Entorno a que valor esperamos los resultados del experimento? 1. Para v.a. discretas hacemos un promedio de todos los posibles resul- tados, ponderando cada uno por su probabilidad de aparecer 1 X E (X ) = xipi i=1 2. Para v.a. continuas hacemos lo mismo pero ponderando cada resultado posible por su densidad de probabilidad (e integrando) Z 1 E (X ) = xf (x)dx ;1 E (X ) es la MEDIA o ESPERANZA de la v.a. X Propiedades: 1. Si X es una v.a. y a un numero cualquiera E (aX ) = aE (X ) 2. Si X es una v.a., a y b dos numeros cualesquiera E (aX + b) = aE (X ) + b 3. Si X e Y son dos v.a. E (X + Y ) = E (X ) + E (Y ) 4. Si X e Y son dos v.a., a y b dos numeros cualesquiera E (aX + bY ) = aE (X ) + bE (Y )
  • 12. Medida de escala: >Como es la variabilidad? 1. Para v.a. discretas hacemos un promedio de las discrepancias entre todos los posibles resultados y el valor central (MEDIA), ponderando cada una por la probabilidad de que se de el resultado 1 X V (X ) = (xi ; E (X ))2pi i=1 2. Para v.a. continuas hacemos lo mismo pero ponderando cada discrep- ancia por la densidad de probabilidad (e integrando) Z 1 V (X ) = (x ; E (X ))2f (x)dx ;1 V (X ) es la VARIANZA de la v.a. X p V (X ) es la DESVIACION TIPICA de la v.a. X
  • 13. Propiedades de la varianza: 1. V (X ) 0 2. V (X ) = E (X 2) ; E (X )2 3. Si X es una v.a. y a un numero cualquiera V (aX ) = a2V (X ) 4. Si X es una v.a., a y b dos numeros cualesquiera V (aX + b) = a2V (X ) 5. Si X e Y son dos v.a. INDEPENDIENTES V (X + Y ) = V (X ) + V (Y ) ( - Si X e Y no son independientes, NO ES CIERTO
  • 14. Valores caracter sticos de un vector aleatorio Medida de asociacion: >Como es la relacion? Cov(X Y ) = E (X ; E (X ))(Y ; E (Y ))] Cov(X Y ) es la COVARIANZA de la v.a. X Propiedades: 1. La Cov(X Y ) es una medida de asociacion lineal 2. Cov(X Y ) = E (XY ) ; E (X )E (Y ) 3. Si X e Y son v.a. discretas, 1 1 XX Cov(X Y ) = (xi ; E (X ))(yj ; E (Y ))P (X = xi Y = yj ) i=1 j =i 4. Si X e Y son v.a. continuas, Z 1 Z 1 Cov(X Y ) = (x ; E (X ))(y ; E (Y ))f (x y)dxdy ;1 ;1 5. Si X e Y son v.a. INDEPENDIENTES ) Cov(X Y ) = 0 6. Si Cov(X Y ) = 0 XeY son v.a. INDEPENDIENTES
  • 15. DISTRIBUCION NORMAL Def: Sea X la variable aleatoria con funcion de densidad (x ; )2 ; 22 f (x) = p1 e x 2 R: 2 2R y >0 Entonces, se dice que X tiene distribucion NORMAL X N( 2 ) f(x) µ CARACTERISTICAS PRINCIPALES DE LA DENSIDAD: 1. Depende de dos parametros: y 2. Unimodal 3. Simetrica con respecto a
  • 16. USOS PRINCIPALES: 1) Como modelo de probabilidad para muchos fenomenos 2) En particular, representa la distribucion de probabilidad de muchos procesos de medicion sin errores sistematicos. 3) Aproxima otras distribuciones, entre ellas la BINOMIAL. NORMAL ESTANDAR: z2 f (z ) = p1 e ;2 z 2 R: 2 Z N (0 1) Propiedades: Z 1 z 1) E(Z) = p e ; z22 dz =0 ;1 2 Z 1 z2 2) V(Z) = p e; 2 dz = 1 z2 ;1 2 Z z 3) F(z) = P (Z z) = p1 e; 2 dx x2 ESTA TABULADA ;1 2
  • 17. PROPIEDADES DE X N( 2 ): 1) Z =X; N (0 1) ESTADARIZACION DE LA NORMAL Si Z N (0 1) =) X = Z+ N( 2 ) 2) E(X) = E ( Z + ) = E (Z ) + = V(X) = V ( Z + ) = 2 V (Z ) = 2 >Como afectan y a la distribucion? - Cambios en la media : µ1 µ2 - Cambios en la varianza 2: 1 < 2 σ 1 σ 2 µ
  • 18. 3) F(x) = P (X x) = P ( + Z x) x; = P Z = FZ x ; UTILIZAMOS LA TABLA DE LA N (0 1) PARA CALCULAR PROBABILIDADES ASOCIADAS A UNA N ( 2) Ejemplo: Sea X N (1 2 = 4), >Cual es la probabilidad de que X tome valores entre 0 y 3? P (0 X 3) = P 0 ; 1 X 2 1 3 ; 1 2 ; 2 = P (;0:5 Z 1) = P (Z 1) ; P (Z ;0:5) = (1 ; P (Z > 1)) ; P (Z > 0:5) = 1 ; 0:1587 ; 0:3085 = 0:5328 N(0,1) N(1,4) 1 N(0,1) 0 3 −.5 .5
  • 19. 4) Para una N ( 2 ) cualquiera, podemos calcular las probabilidades: P( ; X + ) = P (X este entre ) 0:68 P( ; 2 X + 2 ) = P (X este entre 2 ) 0:95 P( ; 3 X + 3 ) = P (X este entre 3 ) 0:99 68% 95% 99% µ−σ µ+σ µ−2σ µ+2σ µ−3σ µ+3σ
  • 20. 6) Por el TEOREMA CENTRAL DEL LIMITE, si los resultados de un experi- mento se deben a: 1. un conjunto grande" de causas (X1 : : : Xn), 2. independientes unas de otras, 3. que actuan sumando sus efectos, 4. siendo cada una de poca" importancia, entonces la distribucion de los resultados del experimento es aprox- imadamente NORMAL. TCL: Sean X1 : : : Xn : : : v.a. indep. con E (Xi) = i y V (Xi) = i2. P Sea Y = n=1 Xi, entonces i Y ; Pn=1 pP i i n!1 ;! Z N (0 1) n 2 i=1 i ; ;Pn Pn Y AN i=1 i 2 i=1 i
  • 21. 5) La BINOMIAL se puede aproximar por la NORMAL Si X Bin(n p), estamos en las condiciones del TCL n X X = Xi donde X1 : : : Xn son v:a:i:i:d: Bernoulli(p) i=1 Entonces, X ; np n!1 p ;! N (0 1) np(1 ; p) Lo que dice el teorema es que ! X ; np Si X Bin(n p) =) lim P p x = P (Z x) n!1 np(1 ; p) APROXIMACIONES DE LA BINOMIAL n grande p peque~o =) n Se aproxima por una P (np) np constante np(1 ; p) > 5 =) Se aproxima por una N (np np(1 ; p)) 8) La POISSON tambien se puede aproximar por una NORMAL. La aproxi- macion es buena cuando > 5, entonces Si Y P ( ) =) Yp; n!1 ;! N (0 1)