SlideShare una empresa de Scribd logo
1 de 110
Descargar para leer sin conexión
T E S IS




2010
iii




Dedicatoria
iv
v




Agradecimientos
vi
vii




´
Indice general

Dedicatoria                                                                   III


Agradecimientos                                                                V


Introducci´n
          o                                                                    1

1. Conceptos bayesianos                                                        5
  1.1. Probabilidad subjetiva . . . . . . . . . . . . . . . . . . . . . .      5
  1.2. An´lisis bayesiano . . . . . . . . . . . . . . . . . . . . . . . . .
         a                                                                     6
  1.3. Funci´n de verosimilitud . . . . . . . . . . . . . . . . . . . . .
            o                                                                  6
       1.3.1. Principio de verosimilitud . . . . . . . . . . . . . . . .       7
  1.4. Distribuci´n a priori . . . . . . . . . . . . . . . . . . . . . . .
                 o                                                             8
       1.4.1. Determinaci´n subjetiva de la distribuci´n a priori . . .
                         o                            o                        8
       1.4.2. Distribuci´n a priori conjugada . . . . . . . . . . . . . 10
                        o
       1.4.3. Distribuci´n a priori no informativa . . . . . . . . . . . 12
                        o
  1.5. Distribuci´n a posteriori . . . . . . . . . . . . . . . . . . . . . 15
                 o
  1.6. Inferencia bayesiana . . . . . . . . . . . . . . . . . . . . . . . . 18
       1.6.1. Estimaci´n . . . . . . . . . . . . . . . . . . . . . . . . 18
                      o
       1.6.2. Error de estimaci´n. . . . . . . . . . . . . . . . . . . . 19
                               o
       1.6.3. Estimaci´n multivariada . . . . . . . . . . . . . . . . . 20
                      o
       1.6.4. Conjuntos cre´
                           ıbles . . . . . . . . . . . . . . . . . . . . 21
       1.6.5. Contraste de hip´tesis . . . . . . . . . . . . . . . . . . 23
                              o
viii                                                     ´
                                                         INDICE GENERAL

        1.6.6. Inferencia predictiva . . . . . . . . . . . . . . . . . . . 27

2. Conceptos astron´micos.
                   o                                                        31
   2.1. Sistemas de coordenadas. . . . . . . . . . . . . . . . . . . . . . 31
   2.2. Determinaci´n de las ecuaciones. . . . . . . . . . . . . . . . . 35
                   o
   2.3. Paralaje estelar . . . . . . . . . . . . . . . . . . . . . . . . . . 38
   2.4. T Tauri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3. An´lisis de regresi´n lineal
     a                o                                                     43
   3.1. Regresi´n lineal simple. . . . . . . . . . . . . . . . . . . . . . . 44
               o
        3.1.1. Propiedades de los E.M.V. . . . . . . . . . . . . . . . . 47
        3.1.2. Contraste de hip´tesis. . . . . . . . . . . . . . . . . . . 50
                               o
   3.2. Regresi´n lineal m´ltiple. . . . . . . . . . . . . . . . . . . . . . 56
               o          u
        3.2.1. Estimaci´n de los coeficientes de regresi´n . . . . . . . 56
                       o                               o
        3.2.2. Propiedades de los estimadores. . . . . . . . . . . . . . 60
        3.2.3. Contr´ste de hip´tesis . . . . . . . . . . . . . . . . . . 65
                    a          o
   3.3. An´lisis bayesiano del modelo de regresi´n lineal. . . . . . . . 65
          a                                     o
        3.3.1. Distribuci´n a posteriori con informaci´n a priori no infor-
                         o                            o
               mativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
        3.3.2. Distribuci´n a posteriori con informaci´n
                          o                             o
               a priori conjugada . . . . . . . . . . . . . . . . . . . . . 70
        3.3.3. Inferencia bayesiana para β y σ 2 . . . . . . . . . . . . . 74

4. Aplicaci´n.
           o                                                                77
   4.1. Tratamiento de los datos. . . . . . . . . . . . . . . . . . . . . . 77
        4.1.1. Tratamiento de los datos para la ascenci´n recta. . . . 77
                                                       o
        4.1.2. Tratamiento de los datos para la declinaci´n. . . . . . . 81
                                                         o
        4.1.3. Comparaci´n de las estimaciones puntuales cl´sicas y
                         o                                       a
               bayesianas . . . . . . . . . . . . . . . . . . . . . . . . . 86
        4.1.4. Intervalos HPD para los par´metros. . . . . . . . . . . 90
                                          a
   4.2. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
´
INDICE GENERAL                                                              ix


A. Ap´ndice
     e                                                                      95
   A.1. Distribuciones especiales. . . . . . . . . . . . . . . . . . . . . . 95
   A.2. Algunos teoremas relacionados con matrices. . . . . . . . . . . . . 96
   A.3. Integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
   A.4. Valores esperados y teor´ de la distribuci´n. . . . . . . . . . . 97
                                ıa                o

Bibliograf´
          ıa                                                                97
Introducci´n
          o

    En la actualidad se reconoce la importancia que tiene la estad´    ıstica en
las diversas ´reas del conocimiento. Cada vez son mas las distintas ´reas
              a                                                            a
de la investigaci´n cient´
                 o       ıfica que utilizan la estad´
                                                   ıstica, para la recopilaci´n,
                                                                             o
presentaci´n, an´lisis e interpretaci´n de los datos, con el fin de ayudar en
          o      a                   o
una mejor toma de decisiones.
    La estad´ıstica se ocupa fundamentalmente del an´lisis de datos que pre-
                                                    a
senten variabilidad con el fin de comprender el mecanismo que los genera, o
para ayudar en un proceso de toma de decisiones. En cualquiera de los casos
existe una componente de incertidumbre involucrada, por lo que ´l estad´
                                                                 e       ısti-
co se ocupa en reducir lo m´s posible esa componente, as´ como tambi´n en
                             a                            ı            e
describirla en forma apropiada. Adem´s, la probabilidad es el unico lenguaje
                                     a                        ´
posible para describir una l´gica que trata con todos los niveles de incer-
                              o
tidumbre y no s´lo con los extremos de verdad o falsedad.
                  o
    Se supone que toda forma de incertidumbre debe decidirse por medio de
modelos de probabilidad. En el caso de la estad´ıstica bayesiana se considera al
par´metro, sobre el cu´l se desea infererir, como un evento incierto. Entonces,
    a                  a
como nuestro conocimiento no es preciso y est´ sujeta a incertidumbre, se
                                                  a
puede describir mediante una distribuci´n de probabilidad π(θ), llamada dis-
                                         o
tribuci´n a priori del par´metro θ, lo que hace que el par´metro tenga el
       o                   a                                   a
car´cter de aleatorio.
    a
    La estad´ıstica bayesiana es una alternativa a la estad´ıstica cl´sica en los
                                                                     a
problemas t´ ıpicos estad´ ısticos como son estimaci´n, prueba de hip´tesis y
                                                      o                  o
predicci´n. La estad´
        o             ıstica bayesiana proporciona un completo paradigma de
inferencia estad´ıstica y teor´ de la decisi´n con incertidumbre y est´ basada
                               ıa           o                           a
en el teorema de Bayes que es el que nos proporciona una forma adecuada
para incluir informaci´n inicial del par´metros mediante la distribuci´n π(θ)
                        o                a                                o
adem´s de la informaci´n muestral f (x|θ) para as´ describir toda la informa-
      a                   o                          ı
ci´n disponible del par´metro mediante la distribuci´n a posteriori π(θ|x).
     o                    a                            o
    La teor´ bayesiana plantea la soluci´n a un problema estad´
           ıa                             o                        ıstico desde
el punto de vista subjetivo de la probabilidad, seg´n el cual, la probabilidad
                                                     u
que un estad´ ıstico asigna a uno de los posibles resultados de un proceso, re-
presenta su propio juicio sobre la verosimilitud de que se tenga el resultado y
dicha informaci´n esta representada en π(θ). Algunos investigadores rechazan
                 o
que la informaci´n inicial se incluya en un proceso de inferencia cient´
                   o                                                       ıfica,
sin embargo los m´todos bayesianos pueden ser aplicados a problemas que
                     e
han sido inaccesibles a la teor´ frecuentista tradicional.
                                ıa
    A un problema espec´ ıfico se le puede asignar cualquier tipo de distribuci´n
                                                                              o
a priori, ya que finalmente al actualizar la informaci´n a priori que se tenga
                                                       o
acerca del par´metro, mediante el teorema de Bayes se estar´ actualizando
               a                                                 a
la distribuci´n a posteriori del par´metro y es con esta con las que se hacen
             o                       a
las inferencias del mismo.
    Cuando un investigador tiene conocimiento previo a un problema, este
conocimiento previo puede cuantificarse en un modelo de probabilidad. Si los
juicios de una persona sobre la verosimilitud relativa a ciertas combinaciones
de resultados satisfacen ciertas condiciones de consistencia, se puede decir
que sus probabilidades subjetivas se determinan de manera unica.
                                                               ´
    Dentro de los campos de la investigaci´n en los cuales se utiliza la Es-
                                              o
tad´ıstica se encuentra la Astronom´ en el caso particular de este trabajo
                                       ıa,
de tesis utilizando los modelos de regresi´n lineal para estimar el valor de
                                             o
par´metros como la paralaje que son importantes al calcular distancias a las
    a
estrellas. Para calcular las distancias algunos tipos de observaci´n que se ha-
                                                                   o
cen son las de infrarrojo u ondas de radio que nos son visibles a simple vista,
utilizando dichas observaciones en modelos que describen la posici´n de las
                                                                      o
estrellas en la esfera celeste y resolviendolos con regresi´n lineal.
                                                           o
   El objetivo de esta tesis, es revisar el modelo de regresi´n lineal con la
                                                             o
metodolog´ cl´sica y tambi´n con el enfoque bayesiano y hacer una com-
          ıa a               e
paraci´n entre ambos resultados, otro objetivo es resolver las ecuaciones de
      o
posici´n para la estrella T Tau Sb, a trav´s de un modelo de regresi´n li-
      o                                      e                          o
neal y hacer inferencia para los par´metros del modelo y as´ determinar el
                                     a                        ı
par´metro p de paralaje y la distancia a que se encuentra la estrella men-
   a
cionada y compararla con el resultado obtenido en el art´ıculo (ve´se [12]).
                                                                  a
    Para lograr los objetivos se desarrolla la teor´ necesaria en los cap´
                                                   ıa                    ıtulos
de la siguiente manera:
En el Cap´  ıtulo uno, se da un panorama general de lo que es el an´lisis
                                                                          a
bayesiano, el teorema de Bayes, funci´n de verosimilitud, las distintas formas
                                      o
de obtener la distribuci´n a priori y la distribuci´n a posteriori, as´ como la
                         o                         o                  ı
forma de hacer inferencia bayesiana.
    En el segundo Cap´   ıtulo se presenta la informaci´n para conocer mas a-
                                                       o
cerca de la estrella T Tau Sb, las ecuaciones de posici´n y los sistemas coorde-
                                                       o
nados para la ubicaci´n de estrellas en la esfera celeste, se dan las ecuaciones
                       o
necesarias para determinar la distancia a una estrella, se hace menci´n de la
                                                                        o
paralaje trigonom´trica y su relaci´n con la distancia, asi como una breve
                    e                 o
descripci´n del sistema de estrellas doble T Tau y la correspondiente estre-
         o
lla T Tau Sb y se presentan las observaciones de posici´n de dicha estrella,
                                                            o
tomadas de (ve´se [12]) y una mas proporcionada por Laurent R.Loinard
                 a
Corvaisier del Centro de Radioastronom´ y Astrof´
                                            ıa          ısica de la Universidad
Nacional Aut´noma de M´xico (CRyA-UNAM).
               o             e
    El Cap´ıtulo 3 contiene el desarrollo del an´lisis de regresi´n, iniciando con
                                                a                o
los modelos lineal simple y m´ltiple, para dar paso al an´lisis bayesiano del
                                u                             a
modelo de regresi´n con una distribuci´n a priori no informativa y enseguida
                   o                      o
el modelo de regresi´n con distribuci´n a priori conjugada, se determinan las
                     o                  o
distribuciones a posteriori de los par´metros de regresi´n, sus estimadores e
                                        a                   o
intervalos HPD.
    Por ultimo, el cap´
         ´             ıtulo 4 aborda todo lo concerniente a la aplicaci´n de
                                                                        o
los modelos, se dan los resultados obtenidos haciendo una comparaci´n entre
                                                                     o
los resultados cl´sicos y bayesianos, las estimaciones de los par´metros, y se
                 a                                               a
presentan graficas de las distribuciones a posteriori .
    Se obtiene la distancia a la estrella T Tau Sb, utilizando la paralaje
trigon´metrica obtenida con el an´lisis de regresion lineal bayesiano y se
      o                            a
incluyen las conclusiones obtenidas en esta tesis.
5




Cap´
   ıtulo 1

Conceptos bayesianos

    El concepto de probabilidad es utilizado en la vida diaria y a pesar de que
es una parte tan com´n y natural de nuestra experiencia, no existe una unifi-
                      u
caci´n de la interpretaci´n de tal concepto, las interpretaciones m´s utilizadas
    o                    o                                           a
son, la interpretaci´n cl´sica, la frecuentista y la subjetiva. La interpretaci´n
                    o    a                                                     o
cl´sica se basa en decir que los resultados son igualmente verosimiles, la fre-
  a
cuentista en la frecuencia relativa es decir que un proceso se repita un gran
n´mero de veces.
 u
A continuaci´n se abordar´ el enfoque subjetivo de la probabilidad y algunos
              o             a
de los aspectos de inferencia estad´ ıstica m´s utilizados, ahora estudiados des-
                                             a
de la interpretaci´n subjetiva de la probabilidad.
                  o


1.1.      Probabilidad subjetiva
    La idea principal de la probabilidad subjetiva es dejar que la probabilidad
de un evento refleje la creencia personal en la ocurrencia de ese evento.
De acuerdo con la interpretaci´n subjetiva de la probabilidad, ´sta establece
                                o                                 e
que la probabilidad que un estad´ ıstico asigna a cada uno de los posibles re-
sultados de un proceso, representa su propio juicio sobre la verosimilitud de
que se obtenga ese resultado.
Este juicio estar´ basado en opiniones e informaci´n acerca del proceso.
                  a                                    o
Adem´s, esta interpretaci´n subjetiva de la probabilidad puede ser forma-
      a                     o
lizada.
   Si los juicios de un estad´
                             ıstico acerca de las verosimilitudes relativas a
6                                       Cap´
                                           ıtulo 1. Conceptos bayesianos


diversas combinaciones de resultados, satisfacen ciertas condiciones de con-
sistencia, entonces puede demostrarse que sus probabilidades subjetivas para
los diferentes sucesos posibles, pueden ser determinadas en forma unica.
                                                                  ´


1.2.      An´lisis bayesiano
            a
   En el an´lisis bayesiano, adem´s de especificar el modelo de los datos
             a                       a
observados x = (x1 , ..., xn ), dado un vector de par´metros desconocidos θ,
                                                      a
usualmente en la forma de la funci´n de probabilidad o funci´n de densidad
                                     o                           o
de probabilidad f (x|θ) se supone que θ es una cantidad aleatoria y que tiene
una distribuci´n a priori π(θ). La inferencia concerniente a θ est´ basada en
               o                                                    a
su distribuci´n a posteriori, dada por, el cociente de la distribuci´n conjunta
             o                                                      o
h(x, θ) entre la distribuci´n marginal de X.
                           o

                         h(x, θ)     h(x, θ)       f (x|θ)π(θ)
              π(θ|x) =           =             =                          (1.1)
                          m(x)       h(x, θ)dθ     f (x|θ)π(θ)dθ


    A la expresi´n anterior se le llama teorema de Bayes. N´tese la contribu-
                o                                          o
ci´n, tanto los datos experimentales (en la forma de la probabilidad f ) y la
  o
opini´n a priori (en la forma de la distribuci´n a priori π) en la ecuaci´n
     o                                         o                           o
(1.1).
    Las inferencias se basan en π(θ|x) en lugar de f (x|θ); es decir, en la
distribuci´n de probabilidad (del valor desconocido) del par´metro dados los
          o                                                 a
datos observados, en vez de la distribuci´n de los datos dado el valor del
                                           o
par´metro.
    a


1.3.      Funci´n de verosimilitud
               o
   La funci´n de verosimilitud l(θ|x) expresa el proceso por el cual pueden
            o
aparecer los datos x en t´rminos del par´metro desconocido θ.
                         e              a

Definici´n 1.3.1 Sea una muestra aleatoria X1 , ..., Xn , de tama˜o n, se
          o                                                     n
define y se obtiene la funci´n de verosimilitud (o conjunta) l(θ|x) como
                           o
  n
  i=1 f (xi |θ).
1.3. Funci´n de verosimilitud
          o                                                                      7


En la inferencia cl´sica l(θ|x) representa el modelo estad´
                   a                                          ıstico del proceso de
generaci´n de datos. La estad´
         o                       ıstica cl´sica suele considerar ese proceso como
                                          a
un muestreo aleatorio sobre la poblaci´n de datos, y as´ l(θ|x) se interpreta
                                            o                ı
como una probabilidad frecuentista por tanto x es una variable aleatoria que
se utiliza para realizar inferencia.
Desde el punto de vista bayesiano l(θ|x) mide los grados de creencia del inves-
tigador de que los datos tomen ciertos valores dada la informaci´n hipot´tica
                                                                      o       e
de que los par´metros tomen ciertos valores, adem´s de toda la informaci´n
               a                                        a                        o
a priori. El modelo estad´  ıstico no es entonces tanto una hip´tesis sobre los
                                                                    o
procesos de generaci´n de datos, sino una afirmaci´n desde el punto de vista
                      o                                 o
subjetivo del investigador acerca del proceso; afirmaci´n que se encuentra
                                                             o
condicionada a los valores de los par´metros desconocidos. Es m´s la funci´n
                                        a                              a         o
de verosimilitud l(θ|x) es una funci´n de θ y tan s´lo es un instrumento para
                                       o               o
pasar de la distribuci´n a priori a la distribuci´n a posteriori.
                       o                            o


1.3.1.     Principio de verosimilitud
    Un principio muy importante para el paradigma bayesiano es el de verosi-
militud que establece en forma expl´  ıcita la idea natural de que s´lo las ob-
                                                                    o
servaciones actuales x, deber´ ser relevantes para poder establecer conclu-
                              ıan
siones o tener alguna evidencia sobre θ. Este principio se basa en la funci´no
de verosimilitud l(θ|x) y dice lo siguiente:
     Al hacer inferencia o tomar decisones sobre θ despu´s de que x se ha ob-
                                                        e
servado, toda la informaci´n experimental relevante se encuentra en la fun-
                            o
ci´n de verosimilitud para el x observado. Es m´s, dos funciones de verosimi-
   o                                            a
litud contienen la misma informaci´n sobre θ si una es directamente propor-
                                    o
cional a la otra como funci´n de θ.
                             o
    Algunos aspectos importantes del principio de verosimilitud son los siguien-
tes:

      La correspondencia de informaci´n a partir de funciones de verosimili-
                                       o
      tud proporcionales se aplica s´lo cuando las dos funciones de verosimi-
                                    o
      litud son para el mismo par´metro.
                                  a

      El principio de verosimilitud se cumple s´
                                               ı:

                             ∀x l1 (θ|x) = αl2 (θ|x) ∀θ.
8                                       Cap´
                                           ıtulo 1. Conceptos bayesianos


     Es decir, la raz´n de las verosimilitudes para los dos experimentos y
                      o
     cada observaci´n de los datos es constante.
                    o

     El principio de verosimilitud no dice que toda la informaci´n sobre θ
                                                                 o
     se encuentra en l(θ|x), sino que toda la informaci´n experimental es la
                                                       o
     que se encuentra en l(θ|x).

     Para los m´todos bayesianos, la verosimilitud no es lo m´s importante,
                e                                               a
     ya que en comparaci´n con los m´todos cl´sicos, en estos la funci´n de
                           o            e        a                        o
     verosimilitud es el centro alrededor del cual gira todo tipo de inferencia.
     Para los m´todos bayesianos la funci´n de verosimilitud es tan solo un
                e                          o
     instrumento para pasar de la distribuci´n a priori π(θ) a la distribuci´n
                                              o                              o
     a posteriori π(θ|x).


1.4.     Distribuci´n a priori
                   o
    Al hacer inferencias sobre un par´metro, generalmente se cuenta con alg´n
                                     a                                     u
tipo de informaci´n (juicios, creencias) acerca de su valor, incluso antes de
                   o
observar los datos.
La distribuci´n a priori π(θ) expresa lo que es conocido del par´metro des-
              o                                                   a
conocido θ antes de observar alg´n dato.
                                  u

1.4.1.    Determinaci´n subjetiva de la distribuci´n a priori
                     o                            o

    Un elemento importante en las decisiones de muchos problemas es la
informaci´n a priori que se tenga acerca del par´metro de inter´s θ. La in-
          o                                        a               e
formaci´n que el estad´
        o                ıstico tiene sobre la verosimilitud de dichos sucesos
debe ser cuantificada a trav´s de una medida de probabilidad sobre el espa-
                               e
cio param´trico Θ.
          e
Si Θ es discreto, el problema se reduce a la determinaci´n de la probabilidad
                                                          o
subjetiva para cada elemento de Θ. Cuando Θ es continuo, el problema de
construir π(θ) es m´s dif´
                     a     ıcil.

Histograma de aproximaci´n
                        o

   Cuando Θ es un intervalo de la l´
                                   ınea real, la aproximaci´n por histogramas
                                                           o
de π(θ) consiste en
1.4. Distribuci´n a priori
               o                                                            9


  1. Dividir Θ en subintervalos.

  2. Determinar la probabilidad subjetiva para cada subintervalo.

  3. Dibujar el histograma de probabilidad.

  4. A partir de este histograma, se esboza una densidad π(θ).

   Atendiendo la cantidad de subintervalos, se obtendr´n desde histogramas
                                                        a
burdos (con pocos subintervalos) hasta histogramas muy detallados (gran
cantidad de subintervalos). El tipo de histograma depender´ del tipo de pro-
                                                            a
blema, pero en cualquier caso se tienen los siguientes inconvenientes:

   - No existe ninguna regla que determine la cantidad de subintervalos que
     deben determinarse.

   - Ni tampoco alguna que diga que tama˜o deben de tener dichos subin-
                                        n
     tervalos.

   Existen dos dificultades para esta aproximaci´n, las funciones as´ obtenidas
                                                 o                  ı
son dif´
       ıciles de trabajar y las funciones de densidad no tienen colas.

Aproximaci´n por creencias relativas
          o

    La aproximaci´n por creencias relativas es muy usada cuando Θ es un
                    o
intervalo de la l´
                 ınea real, esto consiste simplemente en comparar las proba-
bilidades intuitivas para varios puntos en Θ, y directamente esbozar la dis-
tribuci´n a priori para esta determinaci´n.
       o                                  o
La implementaci´n desde el enfoque bayesiano depende del conocimiento pre-
                  o
vio o subjetivo que se le asigne a la distribuci´n de probabilidad, no solo a
                                                o
las variables como x, sino tambi´n a los par´metros como θ.
                                  e           a
    Hist´ricamente un obst´culo importante para el uso generalizado del
        o                    a
paradigma bayesiano ha sido la determinaci´n de la forma apropiada de la
                                            o
distribuci´n a priori π que es usualmente una ardua tarea.
          o
    T´ıpicamente, ´sta distribuci´n se especifica bas´ndose en la informaci´n
                  e              o                  a                       o
acumulada de estudios pasados o de la opini´n subjetiva de los expertos en
                                              o
el ´rea. Con el fin de racionalizar el proceso de elecci´n de la distribuci´n a
   a                                                   o                  o
10                                      Cap´
                                           ıtulo 1. Conceptos bayesianos


priori, as´ como simplificar la carga computacional subsecuente, los experi-
          ı
mentos solo limitan a menudo esta elecci´n a restringir π a algunas familias
                                        o
de distribuciones familiares.
    Una alternativa simple, disponible en algunos casos, es dotar a la dis-
tribuci´n a priori con poco contenido informativo, de modo que los datos del
       o
presente estudio ser´ la fuerza dominante en la determinaci´n de la distribu-
                     a                                     o
ci´n a posteriori.
  o


1.4.2.    Distribuci´n a priori conjugada
                    o
   Supongamos que θ es univariado. Quiz´s la m´s simple aproximaci´n
                                            a      a                     o
para especificar π(θ) es primero limitar las consideraciones a una colecci´n
                                                                         o
manejable (a lo mas numerable) de posibles valores considerados de θ y sub-
secuentemente asignar probabilidades de masa a estos valores de tal forma
que su suma sea 1, su relativa contribuci´n reflejan al experimentador sus
                                          o
creencias a priori tan cercanas como sea posible.
    Si θ es un valor discreto, tal aproximaci´n puede ser muy natural. Si θ
                                             o
es continuo, debemos asignar a las masas un intervalo en la l´  ınea real, en
lugar de un solo punto, resultando un histograma a priori para θ. Tal his-
tograma (necesariamente sobre una regi´n acotada) parece ser inapropiado,
                                         o
especialmente en lo concerniente a una probabilidad continua f (x|θ), pero
puede de hecho ser m´s apropiada si la integral requiere el c´lculo num´rico
                      a                                      a          e
de la distribuci´n a posteriori.
                o
    Adem´s, el histograma a priori puede tener tantos subintervalos como sea
          a
posible as´ como tambi´n la precisi´n de la opini´n a priori lo permita. Es de
          ı            e           o             o
vital importancia, sin embargo, que el rango del histograma sea suficiente-
mente grande, ya que como puede verse en (1.1), el soporte de la distribuci´n
                                                                            o
a posteriori ser´ necesariamente un subconjunto del soporte de la distribu-
                a
ci´n a priori.
  o
Alternativamente, podemos simplemente asumir que la distribuci´n a priori
                                                                   o
para θ pertenece a una familia param´trica de distribuciones π(θ).
                                      e

    Al elegir a la distribuci´n a priori en una familia de distribuciones es-
                             o
pec´
   ıficas π(θ), algunas elecciones pueden ser convenientemente m´s calcula-
                                                                  a
bles unas que otras. En particular puede ser posible seleccionar un miembro
de una familia la cual es conjugada para la funci´n de verosimilitud l(θ|x),
                                                  o
1.4. Distribuci´n a priori
               o                                                              11


que es, una que conduce a una distribuci´n a posteriori π(θ|x) que pertenece
                                         o
a la misma familia de distribuciones de la distribuci´n a priori.
                                                     o

Definici´n 1.4.1 Sea la clase F de funciones de densidad f (x|θ), una clase
         o
ρ de distribuciones a priori se dice que es una familia conjugada para F si
π(θ|x) est´ en la clase de ρ, para toda f ∈ F y π ∈ ρ.
          a

    Usualmente para una clase de densidades F , una familia conjugada puede
ser determinada examinando la funci´n de verosimilitud l(θ|x). Entonces la
                                     o
familia conjugada puede ser escogida como la clase de distribuciones con la
misma estructura funcional. A esta clase de familia conjugada se le conoce
como distribuci´n a priori conjugada natural.
               o

Ejemplo 1.4.1 Supongamos que X es el n´mero de mujeres embarazadas
                                             u
que llegan a un hospital para tener a sus bebes durante un mes dado. Supon-
gamos adem´s que la tasa de llegada de las mujeres embarazadas tiene la
             a
forma de una distribuci´n de probabilidad de Poisson.
                        o

Se tiene Xi ∼ P oi(θ).


                                          exp{−θ}θxi
                           f (xi |θ) =               ,
                                              xi !
con funci´n de verosimilitud
         o
                                         exp{−nθ}θnx
                          l(θ|x) =                   .
                                              xi !
Para realizar el an´lisis bayesiano requerimos de una distribuci´n a priori
                     a                                                o
para θ, teniendo como soporte la l´  ınea real, una elecci´n natural para la dis-
                                                          o
tribuci´n a priori la da la distribuci´n gamma, l(x|θ) ∝ θ(nx−1)+1 exp{−nθ},
       o                               o
es decir una posible familia de distribuciones para π(θ) es la de la distribuci´n
                                                                               o
gamma.


                             β α θα−1 exp{−βθ}
                  π(θ) =                       , θ, α, β > 0,
                                    Γ(α)
o θ ∼ G(α, β), la distribuci´n gamma tiene media αβ y varianza αβ 2 .
                            o
12                                        Cap´
                                             ıtulo 1. Conceptos bayesianos


1.4.3.     Distribuci´n a priori no informativa
                     o
    En ciertos problemas, el conocimiento inicial sobre el verdadero valor del
par´metro θ puede ser muy d´bil, o vago, ´sto ha llevado a generar un tipo
    a                          e            e
de distribuciones a priori llamada distribuciones a priori no informativas, las
cuales reflejan un estado de ignorancia inicial.
Una distribuci´n sobre θ se dice que es no informativa si no contiene infor-
               o
maci´n sobre θ, es decir, no establece si unos valores de θ son m´s favorables
      o                                                           a
que otros.
Por ejemplo, si se establecen dos hip´tesis simples sobre el valor de θ y asig-
                                     o
namos una probabilidad 1/2 a cada una de ellas, se tiene una situaci´n noo
informativa.

M´todo de Jeffreys.
 e

    Esta t´cnica consiste en buscar funciones a priori no informativas invarian-
          e
tes, es decir, si existe ignorancia sobre θ, esto implica cierta ignorancia acerca
de φ = h(θ), con la que deber´ verificarse la siguiente condici´n de invarian-
                                 ıa                                o
za.
    Si la a priori no informativa sobre θ es π(θ), la a priori no informativa
                               −1
sobre φ debe ser π(h−1 (φ))| dh dφ(φ) |.
Jeffreys propuso solucionar esto, definiendo la a priori como la ra´ cuadrada
                                                                  ız
de la informaci´n esperada de Fisher.
                o

Definici´n 1.4.2 Si θ ∈ R, se define la informaci´n esperada de Fisher
       o                                       o
como
                                     ∂2
                       I(θ) = −Eθ        log f (x|θ) ,
                                     ∂θ2

en donde
Eθ : el valor esperado de la variable aleatoria que es funci´n de x.
                                                            o
f (x|θ): funci´n de densidad de x (que depende de θ).
              o
   Jeffrey propone que se elija como funci´n a priori no informativa la de-
                                         o
terminada por la siguiente ecuaci´n,
                                 o


                              π(θ) ∝ |I(θ)|1/2 .
1.4. Distribuci´n a priori
               o                                                                   13


Definici´n 1.4.3 Si θ ∈ Rn , se define la matriz de informaci´n de Fisher
       o                                                   o
como aquella matriz n × n cuyas componentes son:
                                            ∂2
                      Iij (θ) = −Eθ               log f (x|θ) .
                                          ∂θi ∂θj

   Jeffrey propone que se elija como funci´n a priori no informativa la de-
                                         o
terminada por la siguiente expresi´n:
                                  o


                              π(θ) ∝ [detI(θ)]1/2 .

Ejemplo 1.4.2 Considere un experimento el cual consiste de la observaci´n
                                                                       o
de un ensayo Bernoulli.
                  f (x|θ) = θx (1 − θ)1−x , x = 0, 1, 0 ≤ θ ≤ 1,


                                      1
                                                     ∂2
                      I(θ) = −             f (x|θ)       log f (x|θ),
                                  x=0
                                                     ∂θ2

se tiene que
               ∂2                ∂2
                   log f (x|θ) =      log θx (1 − θ)1−x
               ∂θ2               ∂θ2
                                 ∂
                               =    [xθ−1 − (1 − x)(1 − θ)−1 ]
                                 ∂θ
                                   x      (1 − x)
                               = − 2−              ,
                                   θ      (1 − θ)2
luego entonces,
         ∂2                                         x     (1 − x)
     E       log θx (1 − θ)1−x    = E −                 −
         ∂θ2                                        θ 2   (1 − θ)2
                                             1
                                                                     x   (1 − x)
                                  =              θx (1 − θ)1−x −       −
                                            x=0
                                                                     θ2 (1 − θ)2
                                 = −θ (1 − θ)−1 ,
                                               −1

                            I(θ) = −(−θ−1 (1 − θ)−1 )
                                 = θ−1 (1 − θ)−1 .
14                                         Cap´
                                              ıtulo 1. Conceptos bayesianos


As´ la distribuci´n a priori obtenida mediante el m´todo de Jeffrey es:
  ı,             o                                 e



                           π(θ) ∝ θ−1/2 (1 − θ)−1/2 ,

que es el kernel de una densidad beta, por tanto

                       Γ(1)       1            1
          π(θ) =                θ 2 −1 (1 − θ) 2 −1 = Beta(1/2, 1/2).
                   Γ(1/2)Γ(1/2)


Ejemplo 1.4.3


Una densidad de localizaci´n-escala es una densidad de la forma
                          o

                     σ −1 f ((x − θ)/σ) con θ ∈ R, σ > 0,

los par´metros θ y σ son conocidos, llamados par´metros de localizaci´n y
       a                                            a                      o
escala respectivamente.
El par´metro de localizaci´n se usa para desplazar una distribuci´n hacia un
      a                    o                                       o
lado u otro.
El par´metro de escala define cu´n dispersa se encuentra la distribuci´n(en el
      a                          a                                     o
caso de la distribuci´n normal, el par´metro de escala es la desviaci´n t´
                     o                a                              o ıpica).
La distribuci´n normal es una densidad de localizaci´n-escala, con los par´me-
              o                                     o                      a
tros σ y θ.
    Una muestra aleatoria se dice que tiene una densidad de localizaci´n-o
escala si las densidades de cada una de las variables aleatorias es de loca-
lizaci´n-escala.
      o
   Ya que la ditribuci´n normal pertenece a este tipo de densidades, se desea
                      o
encontrar la distribuci´n a priori de η = (θ, σ).
                       o
     Se sabe que una distribuci´n normal tiene la forma siguiente,
                               o

                                                        2
                                 1         1    x−θ
                   f (x|θ) = √       exp −                  ,
                                 2πσ       2     σ
1.5. Distribuci´n a posteriori
               o                                                                            15


el par´metro η = (θ, σ), tiene la matriz de informaci´n de Fisher,
      a                                              o
                                   ∂2                       ∂2
                                   ∂θ2
                                       ln f (x|θ)                ln f (x|θ)
            I(η) = −Eη             ∂2
                                                          ∂θ∂σ
                                                            ∂2
                                  ∂θ∂σ
                                        ln f (x|θ)         ∂σ 2
                                                                ln f (x|θ)
                                                     2                           2
                                                                                      
                                   ∂2                          ∂2
                                   ∂θ2
                                           − (X−θ)
                                               2σ 2           ∂θ∂σ
                                                                       − (X−θ)
                                                                           2σ 2
                  = −Eη                              2                       2
                                                                                      
                                   ∂2                          ∂2
                                  ∂θ∂σ
                                               − (X−θ)
                                                   2σ 2       ∂σ 2
                                                                       − (X−θ)
                                                                           2σ 2
                                                  2(θ−X)
                                   − σ12             σ3
                  = −Eη           2(θ−X)           3(X−θ)2
                                     σ3
                                                 − σ4
                         1
                         σ2
                                  0
                  =               3        .
                          0       σ2

De (1.4) se tiene que la distribuci´n a priori para η es,
                                   o
                                                             1/2
                                                 1 3                   1
                  π(η) = π(θ, σ) =                 ·               ∝      .               (1.2)
                                                 σ2 σ2                 σ2


1.5.      Distribuci´n a posteriori
                    o
    La informaci´n a posteriori de θ dado x , con θ ∈ Θ, est´ dada por la
                o                                                 a
expresi´n π(x|θ) y expresa lo que es conocido de θ despu´s de observar los
       o                                                     e
datos de x.
N´tese que por la ley multiplicativa de la probabilidad, θ y x tienen la siguien-
  o
te funci´n de densidad(subjetiva) conjunta,
        o


                              h(x, θ) = π(θ)l(θ|x),

en donde:
π(θ): densidad a priori de θ.
l(θ|x): funci´n de verosimilitud,
             o
y x tiene funci´n de densidad marginal dada por:
               o



                         m(x) =                l(θ|x)π(θ)dθ.
                                           Θ
16                                      Cap´
                                           ıtulo 1. Conceptos bayesianos


Si la funcion marginal m(x) = 0,


                                      h(x, θ)
                           π(θ|x) =           ,
                                       m(x)
o sustituyendo
                                       π(θ)l(θ|x)
                        π(θ|x) =                    .
                                       l(θ|x)π(θ)dθ

Que es la misma que la ecuaci´n (1.1), es decir, el teorema de Bayes.
                             o

   Ahora, dada una muestra de n observaciones independientes, se puede
obtener l(θ|x) y proceder evaluando en la ecuaci´n (1.1). Pero evaluar esta
                                                o
expresi´n puede ser simplificada, utilizando un estad´
       o                                             ıstico suficiente para θ
con funci´n de densidad g(S(x)|θ), y esto se enuncia en el lema siguiente.
         o

Lema 1.5.1 Sea S(x) un estad´stico suficiente para θ (es decir, l(θ|x) =
                               ı
h(x)g(S(x)|θ)), m(s) = 0 la densidad marginal para S(x) = s, entonces se
cumple que:
                          π(θ|x) = π(θ|s)
                                   g(s|θ)π(θ)
                                 =            .
                                      m(s)

     Demostraci´n.
               o

                                l(θ|x)π(θ)
                     π(θ|x) =
                                l(x|θ)π(θ)dθ
                                h(x)g(S(x)|θ)π(θ)
                            =
                                h(x)g(S(x)|θ)π(θ)dθ
                              g(s|θ)π(θ)
                            =            = π(θ|s).
                                 m(s)


   Se observa que la ecuaci´n (1.1) se puede expresar de la manera m´s corta
                           o                                        a
conveniente.
1.5. Distribuci´n a posteriori
               o                                                            17



                             π(θ|x) ∝ l(x|θ)π(θ).                         (1.3)
En otras palabras la distribuci´n a posteriori es proporcional a la verosimili-
                                 o
tud por la a priori, es decir, que la probabilidad es multiplicada por una con-
stante (o una funci´n de x), sin alterar a la a posteriori, pues en la ecuaci´n
                     o                                                       o
(1.1) el denominador no depende de θ.

Ejemplo 1.5.1

Obtenga la a posteriori para el ejemplo (1.4.2).
Para el ejemplo (1.3.2) se conoce π(θ).
Si r = n xi , entonces la a posteriori es
          i=1

                      π(θ|x) ∝ l(θ|x)π(θ)
                             ∝ θr−1/2 (1 − θ)n−r−1/2 .

    De lo anterior se nota, que π(θ|x) tiene una distribuci´n beta, pues ha-
                                                           o
ciendo
         1
α = r + 2,
β = n − r + 1.
             2
   Se tiene que:

                                Γ(α + β) α−1
                    π(θ|x) =             θ (1 − θ)β−1 .
                                Γ(α)Γ(β)

Ejemplo 1.5.2

Obtenga la a posteriori para el ejemplo (1.4.1).
Se tiene que θ ∼ G(α, β), as´ la a posteriori utilizando el teorema de Bayes
                            ı
(1.1) es,

                π(θ|x) ∝ l(θ|x)π(θ)
                       ∝ (exp{−nθ}θnx )(θα−1 exp{−βθ})
                       ∝ θnx+α−1 exp{−θ(n + β)}.

   Por lo tanto π(θ|x) = G(nx + α − 1, n + β).
18                                      Cap´
                                           ıtulo 1. Conceptos bayesianos


1.6.     Inferencia bayesiana
    Los problemas concernientes a la inferencia de θ pueden ser resueltos
f´cilmente utilizando an´lisis bayesiano. Dado que la distribuci´n a poste-
 a                        a                                      o
riori contiene toda la informaci´n disponible acerca del par´metro, muchas
                                o                           a
inferencias concernientes a θ pueden consistir unicamente de las caracter´
                                               ´                         ısti-
cas de esta distribuci´n.
                      o


1.6.1.    Estimaci´n
                  o
Estimaci´n puntual
        o

    Para estimar θ, se pueden aplicar numerosas t´cnicas de la estad´
                                                     e                  ıstica
cl´sica a la distribuci´n a posteriori. La t´cnica m´s conocida es estimaci´n
  a                    o                    e       a                       o
por m´xima verosimilitud, en la cual se elige como estimador de θ a θ que es
       a
el valor que maximiza a la funci´n de verosimilitud l(θ|x).
                                 o
An´logamente la estimaci´n bayesiana por m´xima verosimilitud se define
    a                       o                    a
de la manera siguiente.

Definici´n 1.6.1 La estimaci´n de m´xima verosimilitud generalizada de θ
        o                    o      a
es la moda m´s grande θ de π(θ|x). En otras palabras el valor de θ, θ que
            a
maximiza a π(θ|x), considerada como funci´n de θ.
                                         o

Ejemplo 1.6.1

Para la siguiente funci´n de verosimilitud, calcular el estimador m´ximo
                       o                                           a
verosimil de θ,

                     l(θ|x) = exp{−(x − θ)}I(θ,∞) (x),

y la distribuci´n a priori es una Cauchy
               o
                                      1
                           π(θ) =       (1 + θ2 )−1 .
                                      π
Luego se tiene que la distribuci´n a posteriori es
                                o
                                 exp{−(x − θ)}I(θ,∞) (x)
                    π(θ|x) =                             .
                                     m(x)(1 + θ2 )π
1.6. Inferencia bayesiana                                                  19

                   ˆ
Para encontrar el θ, se tienen dos posiblidades, la primera es que, si θ > x,
entonces I(θ,∞) = 0, luego π(θ|x) = 0.
La siguiente es que θ ≤ x, entonces I(θ,∞) = 1 y para esto se tiene que:
                                       exp{−(x − θ)}
                        π(θ|x) =                      .
                                       m(x)(1 + θ2 )π
Para este θ, calculamos la derivada con respecto a ´l,
                                                   e
     d            d exp{−(x − θ)}
        π(θ|x) =
     dθ          dθ m(x)(1 + θ2 )π
                 exp{−x} d exp{θ}
               =
                   m(x)π dθ (1 + θ2 )
                 exp{−x}
               =         [(1 + θ2 )−1 exp{θ} − 2θ exp{θ}(1 + θ2 )−2 ]
                   m(x)π
                 exp{−x} exp{θ}(1 + θ2 ) 2θ exp{θ}
               =                               −
                   m(x)π      (1 + θ2 )2         (1 + θ2 )2
                 exp{−x} exp{θ}(1 − 2θ + θ2 )
               =
                   m(x)π          (1 + θ2 )2
                 exp{−x} exp{θ} (θ − 1)2
               =                             .
                      m(x)π       (1 + θ2 )2
Ya que la derivada es siempre positiva π(θ|x) se decrementa para θ ≤ x, as´ se
                                                                          ı
tiene que π(θ|x) se maximiza en θ ˆ = x. Otro estimador bayesiano com´n de
                                                                       u
θ es la media de la a posteriori π(θ|x).


1.6.2.    Error de estimaci´n.
                           o
    Cuando se hace una estimaci´n, es usualmente necesario indicar la pre-
                                 o
cisi´n de la estimaci´n. La medida bayesiana que se utiliza para medir la
    o                o
precisi´n de una estimaci´n (en una dimensi´n) es la varianza a posteriori de
       o                 o                 o
la estimaci´n .
           o

Definici´n 1.6.2 Si θ es un par´metro de valor real con distribuci´n a pos-
         o                        a                                 o
teriori π(θ|x), y δ es el estimador de θ, entonces la varianza a posteriori de
δ es


                        Vδπ (x) = E π(θ|x) [(θ − δ)2 ].
20                                           Cap´
                                                ıtulo 1. Conceptos bayesianos


      o                   o                                       ˆ
   N´tese en la definici´n anterior, que al tener el estimador θ de θ, en este
caso δ, solo se necesita sustituir a δ en la definici´n de la varianza para obte-
                                                    o
ner la varianza a posteriori.
Cuando δ es la media a posteriori,
                              µπ (x) = E π(θ|x) [θ],
entonces V π (x) = Vµ π(x) ser´ llamada varianza a posteriori (y es en efecto
                     π
                               a
la varianza de θ para la distribuci´n π(θ|x)).
                                   o

    La desviaci´n est´ndar a posteriori es V π (x). Generalmente se utiliza
               o     a
a la desviaci´n est´ndar a posteriori Vδπ (x) del estimador δ , como el error
             o     a
est´ndar de la estimaci´n δ.
   a                    o
Para simplificar c´lculos que ser´n utilizados m´s adelante, se puede repre-
                   a              a              a
sentar a la varianza a posteriori con la f´rmula siguiente:
                                          o


Vδπ (x) =    E π(θ|x) [(θ − δ)2 ]
        =    E[(θ − µπ (x) + µπ (x) − δ)2 ]
        =    E[(θ − µπ (x))2 ] + E[2(θ − µπ (x))(µπ (x) − δ)] + E[(µπ (x) − δ)2 ]
        =    V π (x) + 2(µπ (x) − δ)(E[θ] − µπ (x)) + (µπ − δ)2
        =    V π (x) + (µπ − δ)2 .
As´ entonces
  ı,
                           Vδπ (x) = V π (x) + (µπ − δ)2 .                  (1.4)


1.6.3.      Estimaci´n multivariada
                    o
    La estimaci´n bayesiana de un vector θ = (θ1 , ..., θn ) es la estimaci´n de
               o                                                           o
                                                             ˆ     ˆ     ˆ
m´xima verosimilitud generalizada (moda a posteriori) θ = (θ1 , ..., θn ). Sin
  a
embargo, por cuestiones de c´lculo y porque la unicidad y existencia no se
                             a
garantizan en el caso multivariado, es m´s conveniente utilizar la media a
                                        a
posteriori
             µπ (x) = (µπ (x), µπ (x), . . . , µπ (x))t = E π(θ|x) [θ],
                        1       2               n

como el estimador bayesiano, y la precisi´n puede ser descrita por la matriz
                                         o
de covarianza a posteriori.
                V π (x) = E π(θ|x) [(θ − µπ (x))(θ − µπ (x))t ].
1.6. Inferencia bayesiana                                                   21


              a                  o i         ˆ
El error est´ndar de la estimaci´n µπ (x) de θi ser´    π                 π
                                                   ıa Vii (x), en donde Vii (x)
                          π
es el (i, i) elemento de V (x). An´logamente a la ecuaci´n (1.7) se tiene que,
                                  a                     o
el estimador δ de θ, es:


                Vδπ (x) = E π(θ|x) [(θ − δ)(θ − δ)t ]
                        = V π (x) + (µπ (x) − δ)(µπ (x) − δ)t .
N´tese que la media a posteriori minimiza Vδπ (x).
 o


1.6.4.    Conjuntos cre´
                       ıbles
   El an´logo bayesiano de un intervalo de confianza (IC), suele hacer refe-
         a
rencia a un conjunto cre´
                        ıble.

Definici´n 1.6.3 Un 100 × (1 − α) % conjunto cre´ para θ, es un subcon-
        o                                      ıble
junto C de Θ tal que:
                            
                             θ∈C π(θ|x) caso discreto
          1 − α ≤ P (C|x) =
                            
                              C
                                π(θ|x)dθ caso continuo.

Ya que la distribuci´n a posteriori es actualmente una distribuci´n de proba-
                    o                                             o
bilidad en Θ, se puede decir subjetivamente que la probabilidad de θ est´ en
                                                                           a
C. Esta es la diferencia con los procedimientos de la estad´ ıstica cl´sica los
                                                                      a
cuales s´lo se interpretan como la probabilidad de que la variable aleatoria
        o
X sea tal que el conjunto cre´ C(X) contenga a θ.
                              ıble
   Al escoger un conjuto cre´ ıble para θ, de lo que se trata es siempre de
minimizar el tama˜o del intervalo. Para realizar esto, se deben incluir en el
                   n
conjunto, solo aquellos puntos con la densidad a posteriori m´s grande, es
                                                               a
decir, los m´s probables valores para θ.
            a

Definici´n 1.6.4 El conjunto cre´ de m´xima densidad a posteriori (HPD)
         o                        ıble    a
al 100 × (1 − α) %, es el subconjunto C en Θ de la forma
                      C = {θ ∈ Θ : π(θ|x) ≥ k(α)},
en donde k(α) es la mayor constante tal que:
                            P (C|x) ≥ 1 − α.
22                                      Cap´
                                           ıtulo 1. Conceptos bayesianos


Ejemplo 1.6.2

Sup´ngase que X = (X1 , ..., Xn ) es una muesta aleatoria de una distribuci´n
    o                                                                      o
Bernoulli con par´metro θ. Sup´ngase adem´s que 16 consumidores han sido
                   a             o            a
seleccionados por una cadena de comida r´pida para comparar dos tipos de
                                            a
hamburguesas de carne molida en base al sabor, en la cual una hamburguesa
es m´s cara que la otra. Desp´es de someterlos a la prueba, los consumidores
     a                         u
dan sus puntos de vista de estos dos tipos de hamburguesa. El resultado es
que 13 de los 16 consumidores prefieren la hamburguesa m´s cara.
                                                            a
Sup´ngase que θ es la probabilidad de que un consumidor prefiera la ham-
    o
burguesa m´s cara.
            a
           1 si el consumidor i prefiere la hamburguesa m´s cara
                                                            a
    Yi =                                                            .
           0                       en otro caso
Como las desiciones de los consumidores son independientes y θ es constante
sobre los consumidores, esto forma una secuencia de pruebas Bernoulli. Se
define X =      Yi , se tiene entonces que X|θ ∼ Binomial(16, θ), entonces la
funci´n de densidad de X es,
     o

                                 16
                    f (x|θ) =         θx (1 − θ)16−x .
                                 X

Luego realizando los calculos pertinentes se llega a que

                   π(θ|x) = Beta(α + x, β − x + 16).

Utilizando el software ANESBA, se calcula el HPD al 95 % y se obtiene
el intervalo (0.6867,0.9387), que quiere decir que la probabilidad de que el
estimador de θ este en ese intervalo es de 0.95.

    En la figura (1.1) se puede ver la distribuci´n a posteriori del consumo
                                                o
de hamburguesas, y en efecto se ve que el estimador se encuentra dentro del
intervalo mencionado anteriormente.

Diferencia entre los conjuntos cre´
                                  ıbles y los intervalos de confianza

   Bayesianamente un conjunto cre´    ıble C al (1 − α)100 % significa que, la
probabilidad de que θ est´ en C dados los datos observados es al menos (1−α).
                         e
En otras palabras, un conjunto cre´ da la certeza de que dada la muestra
                                    ıble
1.6. Inferencia bayesiana                                                                                                  23


                                 4
                                 3
         Densidad a posteriori

                                 2
                                 1
                                 0




                                      0.0             0.2          0.4           0.6           0.8           1.0

                                                                           θ




   Figura 1.1:                              Gr´fica de la distribuci´n a posteriori derivada del consumo de hamburguesas.
                                              a                    o



aleatoria tal conjunto C contenga a θ con al menos una probabilidad de
(1 − α).
    Cl´sicamente un intervalo de confianza al (1 − α)100 % significa que, si se
      a
pudiera calcular C para una gran cantidad de conjuntos de muestras aleato-
rias, cerca del (1 − α)100 % de ellos cubrir´ el valor real de θ.
                                            ıan
Es decir, si se generan 100 conjuntos de muestras aleatorias, y se calcula el
intervalo de confianza para cada caso (no necesariamente iguales para cada
caso), al menos (1 − α)100 cubrir´ a θ, sin embargo, la desventaja principal
                                 ıan
que tienen los intervalos de confianza cl´sicos es que no siempre se pueden
                                         a
generar tantas muestras aleatorias.


1.6.5.                               Contraste de hip´tesis
                                                     o
    Una hip´tesis estad´
            o          ıstica consiste en una afirmaci´n acerca de un par´metro.
                                                      o                     a
Lo que se desea saber al formular una hip´tesis es saber si es verdadera o
                                              o
falsa. Usualmente, la hip´tesis de la que se pretende averiguar si es verdadera
                          o
o falsa, se denomina hip´tesis nula, esta se contrasta con la afirmaci´n con-
                          o                                               o
traria a ella llamada hip´tesis alternativa. En la estad´
                           o                               ıstica cl´sica para el
                                                                    a
contraste de hip´tesis se tienen, la hip´tesis nula H0 : θ ∈ Θ0 y la hip´tesis
                 o                       o                                  o
alternativa H1 : θ ∈ Θ1 . El procedimiento de contraste se realiza en t´rminos
                                                                         e
de las probabilidades de error tipo I y error tipo II , estas probabilidades de
error representan la posibilidad de rechazar la hip´tesis nula dado que es ver-
                                                   o
24                                             Cap´
                                                  ıtulo 1. Conceptos bayesianos


dadera o de no rechazar la hip´tesis nula dado que es falsa, respectivamente.
                              o
    Bayesianamente, la tarea de decidir entre H0 y H1 es m´s simple. Pues
                                                              a
solamente se calculan las probabilidades a posteriori α0 = P (Θ0 |x) y
α1 = P (Θ1 |x) y se decide entre H0 y H1 . La ventaja es que α0 y α1 son las
probabilidades reales de las hip´tesis de acuerdo a los datos observados y las
                                o
opiniones a priori.
Se denotar´ como π0 y π1 a las probabilidades a priori de Θ0 y Θ1 respecti-
           a
vamente.

                                                                                  π0
Definici´n 1.6.5 Se llamara raz´n a priori de H0 contra H1 al cociente
       o                        o                                                 π1
                                                                                     .
An´logamente, raz´n a posteriori de H0 contra H1 al cociente α0 .
  a              o                                           α1


Si la raz´n a priori es cercana a la unidad significa que se considera que
         o
H0 y H1 tienen inicialmente (casi) la misma probabilidad de ocurrir. Si este
cociente de probabilidades es grande significa que se considera que H0 es
m´s probable que H1 y si el cociente es peque˜o (< 1) es que inicialmente se
  a                                          n
considera que H0 es menos probable que H1 .

Definici´n 1.6.6 La cantidad
       o
                                     α0 /α1   α 0 π1
                              B=            =        ,
                                     π0 /π1   α 1 π0
es llamada factor de Bayes en favor de Θ0 .

El factor de Bayes se interpreta como la raz´n para H0 con respecto a H1
                                                o
est´ dada por los datos. Esto se puede ver f´cilmente cuando se tienen hip´tesis
   a                                        a                             o
simples, Θ0 = {θ0 } y Θ1 = {θ1 }, as´ se tiene
                                     ı
                      π0 f (x|θ0 )                       π1 f (x|θ1 )
        α0 =                               , α1 =                             ,
               π0 f (x|θ0 ) + π1 f (x|θ1 )        π0 f (x|θ0 ) + π1 f (x|θ1 )

                                α0    π0 f (x|θ0 )
                                   =               ,
                                α1    π1 f (x|θ1 )
                                α0 π1    f (x|θ0 )
                             B=       =             .
                                α1 π0    f (x|θ1 )
En otras palabras, B es la raz´n de probabilidad de H0 contra H1 .
                              o
1.6. Inferencia bayesiana                                                   25


    Adem´s, n´tese que el factor de Bayes proporciona una medida de la
         a    o
forma en que los datos aumentan o disminuyen las razones de probabilidades
de H0 respecto de H1 . As´ si B > 1 quiere decir que H0 es ahora relativamente
                         ı,
m´s probable que H1 y si B < 1 ha aumentado la probabilidad relativa de
  a
H1 .

Contraste de una cola o unilateral

   Este sucede cuando Θ ⊆ R y Θ0 es totalmente un lado de Θ1 , es decir.

                                H0 : θ ≤ θ0
                                H1 : θ > θ 0 ,
o el otro caso
                                H0 : θ ≥ θ0
                                H1 : θ < θ 0 .
Lo interesante de este tipo de contraste es que el uso del valor −p del enfoque
cl´sico tiene una justificaci´n bayesiana.
  a                         o
Ejemplo 1.6.3
Sup´ngase que X ∼ N (θ, σ 2 ) y θ tiene una a priori no informativa π(θ) = 1,
    o
entonces
                                 1          (θ − x)2
                    π(θ|x) = √        exp −
                                 2πσ           2σ 2
El contraste a realizar es el siguiente:
                                H0 : θ ≤ θ0
                                H1 : θ > θ 0 ,
luego,
                     α0 = P (θ ≤ θ0 |x) = Φ((θ0 − x)/σ).
Cl´sicamente el valor − p es la probabilidad, cuando θ = θ0 . Aqu´ el valor − p
   a                                                             ı
es,
                 valor − p = P (X ≥ x) = 1 − Φ((x − θ0 )/σ),
ya que la distribuci´n normal es sim´trica, se tiene que el valor − p es el
                    o               e
mismo que α0 .
26                                          Cap´
                                               ıtulo 1. Conceptos bayesianos


Contraste de hip´tesis nula puntual
                o

     El contraste de hip´tesis nula puntual se refiere al siguiente contraste
                        o

                                   H0 : θ = θ 0
                                   H1 : θ = θ 0

que es interesante porque a diferencia del contraste cl´sico, contiene nuevas
                                                       a
caracter´
        ısticas pero principalmente porque las respuestas en el enfoque baye-
siano difieren radicalmente de las que da el enfoque cl´sico.
                                                       a
   Casi nunca se da el caso en que θ = θ0 exactamente. Es m´s razonable
                                                             a
tener a la hip´tesis nula como θ ∈ Θ0 = (θ0 − b, θ0 + b), en donde b > 0
              o
es alguna constante elegida de tal forma que para cada θ ∈ Θ0 puede ser
considerada indistinguible de θ0 .
    Si b llega a ser muy grande, ya no es recomendable utilizar el contraste
por hip´tesis nula puntual, porque no da buenos resultados. Dado que se
        o
debe hacer el contraste H0 : θ ∈ (θ0 − b, θ0 + b), se necesita saber cuan-
do es apropiado aproximar H0 por H0 : θ = θ0 . Desde la perspectiva del
an´lisis bayesiano, la unica respuesta a esta pregunta es, la aproximaci´n
   a                   ´                                                  o
es razonable si las probabilidades a posteriori de H0 son casi iguales en las
dos situaciones. Una condici´n fuerte cuando ´ste sea el caso es que la fun-
                              o                 e
ci´n de distribuci´n conjunta de probabilidad (verosimilitud) observada sea
  o                o
aproximadamente constante en (θ0 − b, θ0 + b).
    Para llevar a cabo el contraste bayesiano para una hip´tesis nula puntual
                                                             o
H0 : θ = θ0 , no se utiliza una densidad a priori continua, ya que en cualquiera
de estos casos θ0 dara una probabilidad a priori cero. Se debe utilizar una
distribuci´n inicial mixta que asigne probabilidad π0 al punto θ0 y distribuya
          o
el resto, 1 − π0 en los valores θ = θ0 es decir la densidad π1 g1 (θ), con una
densidad propia g1 , en donde π1 = 1 − π0 .
    Si X1 , ..., Xn es una muestra aleatoria simple de la variable aleatoria X,
la densidad marginal de X = (X1 , ..., Xn ) es:

                    m(x) = π0 f (x|θ0 ) + (1 − π0 )m1 (x),

donde m1 (x) =    θ=θ0
                         f (x|θ)g1 (θ)dθ es la densidad bajo H1 . Entonces la prob-
1.6. Inferencia bayesiana                                                  27


abilidad a posteriori de θ = θ0 es:

                     α0 = P (θ0 |x)
                          f (x|θ0 )π0
                        =
                             m(x)
                                    f (x|θ0 )π0
                        =
                          f (x|θ0 )π0 + (1 − π0 )m1 (x)
                                 f (x|θ0 )π0
                        =                         ,
                          f (x|θ0 )π0 + π1 m1 (x)

luego

                       α0      P (θ0 |x)
                          =
                       α1   1 − π(θ0 |x)
                                         P (θ0 |x)
                          = f (x|θ0 )π0 +π1 m1 (x)−f (x|θ0 )π0
                                      f (x|θ0 )π0 +π1 m1 (x)
                                 f (x|θ0 )π0
                            =                .
                                 π1 m1 (x)

Entonces el factor de Bayes de H0 contra H1 es,
                                     α0 π1
                              B =
                                     α1 π0
                                     π0 f (x|θ)π1
                                   =              ,
                                     π1 m1 (x)π0


                                      f (x|θ0 )
                                B=              .
                                      m1 (x)

1.6.6.    Inferencia predictiva
    Los problemas predictivos en estad´  ıstica son aquellos en los cuales las
cantidades desconocidas de inter´s son las futuras variables aleatorias.
                                  e
            o ıpica de este tipo es cuando la variable aleatoria Z, tiene una
Una situaci´n t´
densidad g(z|θ) (θ desconocida), y se quiere predecir un valor de Z cuando
existen datos , x, derivados de una densidad h(x|θ). Por ejemplo, x pueden ser
los datos de un estudio de regresi´n, y se desea predecir una futura respuesta
                                  o
28                                          Cap´
                                               ıtulo 1. Conceptos bayesianos


de la variable aleatoria Z, en la regresi´n.
                                         o
La idea es predecir a la variable aletoria Z ∼ g(z|θ) basado en la observaci´n
                                                                            o
de X ∼ h(x|θ).
    Ahora, se supone que X y Z son independientes y g es una densidad (si no
fueran independientes, ser´ necesario cambiar g(z|θ) por g(z|θ, x)). La idea
                           ıa
de la predicci´n bayesiana es que, ya que π(θ|x) es la distribuci´n a posteriori
              o                                                  o
de θ, entonces g(z|θ)π(θ|x) es la distribuci´n conjunta de Z y θ dado X, y
                                              o
al integrar sobre θ se obtenie la distribuci´n a posteriori de Z dado X.
                                            o

Definici´n 1.6.7 La densidad predictiva de Z dado X = x, cuando la
         o
distribuci´n a priori para θ es π, est´ definida por
          o                           a

                       P (z|x) =       g(z|θ)π(θ|x)dθ.
                                   Θ


Ejemplo 1.6.4

Consideremos el siguiente modelo de regresi´n lineal.
                                           o

                               Z = θY + ε,

donde ε ∼ N (0, σ 2 ) con σ 2 conocido, y sup´ngase que se tiene un conjunto
                                                    o
de datos disponibles ((z1 , y1 ), ..., (zn , yn )).
Un estad´ıstico suficiente para θ, es el estimador por m´
                                                       ınimos cuadrados X,en
donde
                                        n
                                        i=1 Zi yi
                             X=          n    2
                                                  .
                                         i=1 yi

Como Zi es normal y X es combinaci´n lineal de normales, entonces X ten-
                                  o
dr´ una distribuci´n normal.
  a               o

                            X ∼ N (θ, σ 2 /Sy),

en donde:
Sy = n yi .
         i=1
              2

Si se utiliza una a priori no informativa π(θ) = 1 para θ, la distribuci´n a
                                                                        o
                            2
posteriori, π(θ|x) ∼ N (x, σ /Sy).
1.6. Inferencia bayesiana                                                                    29


   Ahora se obtiene la probabilidad de Z dado X:
                       ∞
                          1            1                                   1
       P (z|x) =           √  exp − 2 (z − θy)2                     √               ×
                      −∞  2πσ         2σ                                2πσ/   Sy
                             1
                     exp − 2      (θ − x)2 dθ
                           2σ /Sy
                               ∞
                       Sy                    1
                 =                  exp −        [(z − θy)2 + Sy (θ − x)]2 dθ.
                     2πσ 2     −∞           2σ 2

Desarrollando separadamente [(z − θy)2 + Sy (θ − x)]2 , se tiene:

[(z − θy)2 + Sy (θ − x)]2 = z 2 + Sz x2 + θ2 y 2 + Sy θ2 − 2Sy xθ + Sy x2
                           = z 2 + Sy x2 + θ2 (y 2 + Sy ) − 2θ(yz + Sy x)
                                                                                                  2
                                    2         z 2 + Sy x2 (yz + Sy x)2      yz + Sy
                           = (y + Sy )                   −              + θ− 2                        .
                                                y 2 + Sy   (y 2 + Sy )2     y + Sy

 Luego sustituyendo nuevamente la expresi´n anterior en p(z|x),
                                            o
             √
               Sy        (y 2 + Sy ) z 2 + Sy x2 (yz + Sy x)2
P (z|x) =          exp −                        −               ×
             2πσ 2           2σ 2     y 2 + Sy    (y 2 + Sy )2
                ∞                                                   2
                              1                  yz + Sy
                exp − 2 2                  θ− 2               dθ
            −∞        2σ /(y + Sy )              y + Sy
           √
             Sy        (y 2 + Sy ) z 2 + Sy x2 (yz + Sy x)2                              σ
         =       exp −                             −                                           2π
           2πσ 2           2σ 2        y 2 + Sy       (y 2 + Sy )2                      y2+ Sy
                                                         
                  1                  1                   
                                                        2
         = √            exp                    (z − xy) .
                    2
             2πσ y +Sy        2σ 2 ( y2 +Sy )            
                         Sy                    Sy


Finalmente se tiene:
                                              σ 2 (y 2 + Sy )
                      P (z|x) = N       xy,                     .
                                                     Sy
30   Cap´
        ıtulo 1. Conceptos bayesianos
31




Cap´
   ıtulo 2

Conceptos astron´micos.
                o

2.1.      Sistemas de coordenadas.
    La rotaci´n diaria de la Tierra junto con su movimiento alrededor del Sol
               o
y la precesi´n sobre su eje de rotaci´n, aunado al movimiento relativo de las
             o                        o
estrellas, planetas y otros objetos, dan lugar al constante cambio de posici´n o
aparente de los objetos celestes.
Se puede imaginar que todos los objetos est´n localizados en la esfera celeste.
                                              a
Para localizar la posici´n de un objeto en ´sta esfera celeste es necesario crear
                         o                  e
un sistema de coordenadas, el cual consta de tres componentes b´sicas; un
                                                                       a
gran c´ ırculo, la elecci´n de una direcci´n positiva del eje de simetr´ del
                         o                 o                               ıa
c´
 ırculo y un punto de referencia sobre este c´  ırculo.

Definici´n 2.1.1 Gran c´
         o                ırculo es la curva resultante de la intersecci´n de
                                                                        o
una esfera con un plano que pasa por el centro de dicha esfera.

Se necesita un punto por encima del gran c´  ırculo, que es el que nos va a dar
la referencia de Norte y Sur. Y un punto de referencia en el per´     ımetro del
gran c´rculo, apartir del cual se tomaran las medidas.
       ı
Un ejemplo de esto es el sistema de coordenadas terrestre, con el ecuador
como gran c´ırculo, el polo Norte como el punto encima del c´ırculo y finalmente
el punto en el que el meridiano de Greenwich que corta al ecuador terrestre
como punto de referencia sobre el c´ ırculo.
   Cabe destacar que los sistemas de coordenadas que se utilizan en la As-
tronom´ son sistemas de coordenadas en dos dimensiones, y no en tres di-
      ıa
32                                              Cap´
                                                   ıtulo 2. Conceptos astron´micos.
                                                                            o


mensiones como se piensa que deber´ ser, la raz´n es que no se tiene idea
                                    ıa           o
de la medida de profundidad de los objetos celestes.
    El sistema mas simple de coordenadas que se puede concebir se basa en
el horizonte local del observador. El sistema de coordenadas altitud-acimut
est´ basado en la medida del ´ngulo acimut a lo largo del horizonte y el
   a                            a
´ngulo de altitud por encima del horizonte.
a
Cenit es el punto justo arriba del observador.
Vertical son llamados los gran c´ırculos que pasan por el cenit.

Definici´n 2.1.2 La altura h es la medida del ´ngulo, desde el horizonte
          o                                           a
hasta la vertical que pasa a trav´s del objeto, se mide en el rango de [−90◦ , +90◦ ],
                                 e
es positiva si el objeto se encuentra por arriba del ecuador celeste y negativa
si se encuentra por debajo.


Definici´n 2.1.3 La distancia cenital z es el ´ngulo medido del cenit al
         o                                    a
                               ◦
objeto, y cumple que z + h = 90 (complemento de la altura).


Definici´n 2.1.4 El acimut A es la medida del ´ngulo a lo largo del hori-
         o                                           a
zonte hacia el este desde el norte en el gran c´
                                               ırculo, utilizado para la medida
de altitud.


En la Figura 2.1, se puede ver como se ubican estas medidas en la esfera
celeste.
                                                Cenit




                          Estrella

                                            Oeste

                                                z
                                                    O                 Norte
             Sur
                                            h

                                                        A

              Horizonte
                                     Este


             Figura 2.1: Sistema de coordenadas altitud-acimut.
2.1. Sistemas de coordenadas.                                                33


   Sin embargo el sistema de coordenadas altitud-acimut es dif´ de utilizar
                                                              ıcil
en la pr´ctica, porque las coordenadas dependen de la ubicaci´n del obser-
        a                                                      o
vador. Dos personas en dos lugares distintos mediran coordenadas diferentes
para el mismo objeto. Para la definici´n de un sistema m´s apropiado se
                                         o                 a
necesita definir el ecuador celeste y la ecl´
                                           ıptica.

Definici´n 2.1.5 El ecuador celeste es un gran c´
         o                                         ırculo en la esfera celeste
en el mismo plano que el ecuador de la Tierra y por tanto perpendicular al
eje de rotaci´n de la Tierra. En otras palabras, es la intersecci´n entre el
             o                                                    o
ecuador terrestre en la esfera celeste.

Definici´n 2.1.6 La Ecl´
         o                 ıptica es la l´
                                         ınea curva por donde transcurre el
Sol alrededor de la Tierra, en su movimiento aparente visto desde la Tierra.
Est´ formada por la intersecci´n del plano de la ´rbita terrestre con la esfera
    a                          o                 o
celeste.

Como resultado de la inclinaci´n del eje de rotaci´n de la Tierra, la ecl´
                                o                  o                      ıptica
                    ◦
est´ inclinada 23.5 con respecto al ecuador celeste.
   a
Los dos puntos de la esfera celeste en los que se corta la ecl´   ıptica con el
ecuador celeste son denominados equinoccios. En este caso el ecuador celeste
ser´ tomado como un gran c´
   a                          ırculo, el punto por encima del ecuador celeste
que se utiliza en este sistema de coordenadas, es llamado polo norte celeste
y es la intersecci´n entre el eje de rotaci´n de la Tierra y la esfera celeste.
                  o                        o
Finalmente, el punto de referencia sobre el c´ırculo ser´ el equinoccio vernal.
                                                        a

Definici´n 2.1.7 La declinaci´n δ es equivalente a la altitud y es medida
        o                        o
en grados de norte a sur a partir del ecuador celeste.

Definici´n 2.1.8 La ascenci´n recta α es an´loga al acimut y es medida
         o                       o                  a
en direcci´n este a lo largo del ecuador celeste, desde el equinoccio vernal (γ)
          o
hasta su intersecci´n con el c´rculo horario del objeto.
                   o           ı

La ascenci´n recta se mide en horas, minutos y segundos, 24 horas de ascen-
           o
si´n recta son equivalentes a 360◦ , o 1 hora = 15◦ .
  o
    Ya que el sistema de coordenadas ecuatoriales se basa en el ecuador celeste
y el equinoccio vernal, cambios en la latitud y longitud del observador no
afectan los valores de la ascenci´n recta y la declinaci´n. Los valores de α
                                 o                       o
34                                                 Cap´
                                                      ıtulo 2. Conceptos astron´micos.
                                                                               o

                                             Polo norte celeste




                                                                  Estrella




                                          Tierra   δ                                     Ecuador celeste

                                                    α

                                            γ

                                                                             ecliptica




                 Figura 2.2: Sistema de coordenadas ecuatoriales.
     α, δ, γ son la ascenci´n recta, declinaci´n y posici´n del equinoccio vernal respectivamente.
                           o                  o          o



y δ no son afectados similarmente por el movimiento de la tierra alrededor
del sol. En la Figura 2.2, se muestra el sistema de coordenadas ecuatoriales
descrito.
   A pesar de las referencias del sistema de coordenadas ecuatorial con el
ecuador celeste y su intersecci´n con la ecl´
                               o            ıptica (equinoccio vernal), existe
un movimiento llamado precesi´n, el cual hace que el equinoccio vernal no
                                o
suceda en el mismo lugar cada a˜o, y por lo tanto la ascenci´n recta y la
                                  n                             o
declinaci´n del objeto cambien un poco.
         o

Definici´n 2.1.9 Precesi´n es el lento tambaleo del eje de rotaci´n de la
         o                 o                                          o
Tierra, debido a la forma no esf´rica de ´sta y a su interacci´n gravitacional
                                e        e                    o
con el Sol y la Luna.

    El peri´do de precesi´n de la Tierra es de 25 770 a˜os y causa que la
           o               o                                 n
proyecci´n del polo norte celeste sobre la esfera celeste describa un peque˜o
         o                                                                    n
c´
 ırculo (Ve´se [6]). Ya que la precesi´n altera la posici´n del equinoccio vernal
           a                          o                  o
a lo largo de la ecl´ptica, es necesario referirse a una ´poca espec´
                     ı                                     e          ıfica (refe-
rencia) para definir la ascenci´n recta y la declinaci´n de un objeto celeste.
                                o                       o
El valor actual de α y δ, se pueden calcular bas´ndose en la cantidad de
                                                      a
tiempo transcurrido a partir de la ´poca de referencia.
                                     e
2.2. Determinaci´n de las ecuaciones.
                o                                                            35


La ´poca utilizada comunmente en la actualidad por los cat´logos astron´mi-
   e                                                       a             o
cos de estrellas, galaxias y otros fen´menos celestes refiere a la posici´n de
                                      o                                 o
un objeto al medio d´ en Greenwich, Inglaterra el 1 de enero del 2000.
                      ıa
    El calendario utilizado comunmente en la mayor´ de los pa´
                                                        ıa           ıses es el
calendario Gregoriano, sin embargo los astr´nomos no se preocupan por los
                                              o
a˜os bisiestos como en el calendario Gregoriano, a ellos m´s bien lo que les
 n                                                           a
interesa es el n´mero de d´ (o segundos) entre eventos. Ellos normalmente
                u          ıas
cuentan los eventos a partir de tiempo 0 que fue el 1 de enero de 4713 A.C.
como lo especifica el calendario Gregoriano , y JD 0.0 para el calendario
Juliano. La fecha de referencia 1 de enero del 2000 (J2000.0) es JD 2451545.0,
y para referise a las 6 pm del d´ 1 de enero del 2000 lo que se hace es que se
                                ıa
suma la fraccion del d´ entonces esta fecha se designa como JD 2451545.25.
                        ıa
El a˜o Juliano consta de 365.25 d´ (Ve´se [6]).
    n                              ıas     a



2.2.      Determinaci´n de las ecuaciones.
                     o
   Las estrellas tienen un movimiento propio, a trav´s de la b´veda celeste
                                                       e          o
que se puede describir generalmente como un movimiento con una aceleraci´n    o
constante.
Cuando un objeto se encuentra en movimiento, con una aceleraci´n cons- o
tante, es importante determinar su posici´n x(t) al inst´nte t, la cual est´ da-
                                         o               a                 a
da por las ecuaciones de la cinem´tica.
                                 a

                                              1
                            x(t) = x0 + v0 t + at2 ,                       (2.1)
                                              2

donde:
v0 : velocidad del objeto al tiempo t = 0.
x0 : la posici´n del objeto al tiempo t = 0,
              o
a: aceleraci´n.
             o
   El movimiento de las estrellas en la b´veda celeste refelaja un cambio de
                                         o
sus coordenadas ecuatoriales. El Sol, la Luna y los planetas manifiestan un
movimiento complejo y relativamente r´pido en el cielo. Las estrellas tambi´n
                                       a                                   e
se mueven con respecto de las dem´s, aunque su velocidad actual puede ser
                                   a
muy grande, su movimiento relativo aparente es muy dif´ de medir por la
                                                         ıcil
grandes distancias a las que se encuentran.
36                                      Cap´
                                           ıtulo 2. Conceptos astron´micos.
                                                                    o


    Consid´rese la velocidad de una estrella relativa a un observador (Figura
          e
2.3). Con θ el ´ngulo de cambio en el movimiento, D distancia a la estrella
               a
suponiendo que es constante y r distancia que se mueve la estrella.
                                                   estrella
                                                       r
                                                              v
                                                      vθ               vr
                                                                  estrella



                                    D

                                        θ




                       Figura 2.3: Movimiento propio.

    El vector velocidad se puede descomponer en componentes mutuamente
perpendiculares, una a lo largo de la l´ınea de visi´n del observador y la otra
                                                    o
perpendicular. La componente a lo largo de la l´ ınea de visi´n es la velocidad
                                                             o
radial, vr de la estrella y la segunda componente que es la de nuestro inter´se
es la velocidad transversal, vθ de la estrella, a lo largo de la esfera celeste.
Esta velocidad transversal aparece como un cambio angular lento en el sis-
tema de coordenas, conocido como movimiento propio.
En un intervalo de tiempo dt la estrella se mueve en direcci´n perpendicular
                                                               o
a la l´
      ınea de visi´n del observador una distancia
                  o

                                dr = Ddθ.

Si la distancia del observador a la estrella es D, entonces el cambio angular
                                                  dθ
en su posici´n a lo largo de la esfera celeste es
            o                                        , que se obtiene al derivar
                                                  dt
la distancia recorrida por la estrella con respecto al tiempo.

                           dr   d(Dθ)   dθ
                              =       =D ,
                           dt     dt    dt
en donde
dθ
   = µ : movimiento propio de la estrella.
dt
2.2. Determinaci´n de las ecuaciones.
                o                                                            37


Al encontrar la segunda derivada de la distancia recorrida por la estrella con
respecto al tiempo, se tiene que

                         dr2   d2 (Dθ)    d2 θ
                             =         = D 2.
                         dt2     dt2      dt

As´ como se esta suponiendo una aceleraci´n constante, de acuerdo a la
  ı                                      o
ecuaci´n (2.1),
      o

                                 dθ     1 d2 θ 2
                         r = r0 + D t+D       t,
                                 dt     2 dt2
                                 dθ     1 d2 θ 2
                     Dθ = Dθ0 + D t + D        t,
                                 dt     2 dt2

                                      dθ    1 d2 θ 2
                           θ = θ0 +      t+       t.                       (2.2)
                                      dt    2 dt2

   Ahora aplicando, la ecuaci´n (2.2) se tienen las ecuaciones de posici´n
                               o                                        o
para la ascenci´n recta (α) y la declinaci´n (δ), respectivamente.
               o                          o

                                            1
                          α(t) = α0 + µα t + aα t2 ,                       (2.3)
                                            2

                                             1
                           δ(t) = δ0 + µδ t + aδ t2 ,                      (2.4)
                                             2
en donde:
α0 : posici´n en α al tiempo 0, en este caso para el a˜o 2000 (J2000),
           o                                          n
δ0 : posici´n en δ al tiempo 0, J2000,
           o
µα : movimiento propio en α,
µδ : movimiento propio en δ,
aα : aceleraci´n en α,
              o
aδ : aceleraci´n en δ.
              o
    Sin embargo, tomando en cuenta que dadas las ascenciones rectas α1 y
α2 de dos estrellas la diferencia es ∆α = (α1 − α2 ) cos δ, entonces la ecuaci´n
                                                                              o
(2.3) queda de la siguiente forma,

                                            1
                   α(t) = α0 + (µα cos δ)t + (aα cos δ)t2 .                (2.5)
                                            2
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*

Más contenido relacionado

La actualidad más candente

Metodos
MetodosMetodos
Metodostototl
 
notas de análisis numerico
notas de análisis numericonotas de análisis numerico
notas de análisis numericoxino7
 
Apuntes de estadistica basica
Apuntes de estadistica basicaApuntes de estadistica basica
Apuntes de estadistica basicaA Javier Santana
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementalesNoelia Larsen
 
Estadística para ingeniería
Estadística para ingenieríaEstadística para ingeniería
Estadística para ingenieríalocke23
 
INDICE DE SEGURIDAD ALIMENTARIA POR MACRONUTRIENTES
INDICE DE SEGURIDAD ALIMENTARIA POR MACRONUTRIENTESINDICE DE SEGURIDAD ALIMENTARIA POR MACRONUTRIENTES
INDICE DE SEGURIDAD ALIMENTARIA POR MACRONUTRIENTESmilenagost
 
Libro.metodos.matematicos.avanzados.2006
Libro.metodos.matematicos.avanzados.2006Libro.metodos.matematicos.avanzados.2006
Libro.metodos.matematicos.avanzados.2006Daline Rios
 
Intr a la matematica discreta
Intr a la matematica discretaIntr a la matematica discreta
Intr a la matematica discretaroyvelarde
 

La actualidad más candente (16)

Metodos
MetodosMetodos
Metodos
 
calculo en fenómenos naturales y procesos sociales
calculo en fenómenos naturales y procesos socialescalculo en fenómenos naturales y procesos sociales
calculo en fenómenos naturales y procesos sociales
 
notas de análisis numerico
notas de análisis numericonotas de análisis numerico
notas de análisis numerico
 
Ed
EdEd
Ed
 
Apuntes de estadistica basica
Apuntes de estadistica basicaApuntes de estadistica basica
Apuntes de estadistica basica
 
Materia investigación operativa 2
Materia investigación operativa 2Materia investigación operativa 2
Materia investigación operativa 2
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementales
 
Estadística para ingeniería
Estadística para ingenieríaEstadística para ingeniería
Estadística para ingeniería
 
Apuntes termo
Apuntes termoApuntes termo
Apuntes termo
 
INDICE DE SEGURIDAD ALIMENTARIA POR MACRONUTRIENTES
INDICE DE SEGURIDAD ALIMENTARIA POR MACRONUTRIENTESINDICE DE SEGURIDAD ALIMENTARIA POR MACRONUTRIENTES
INDICE DE SEGURIDAD ALIMENTARIA POR MACRONUTRIENTES
 
Libro.metodos.matematicos.avanzados.2006
Libro.metodos.matematicos.avanzados.2006Libro.metodos.matematicos.avanzados.2006
Libro.metodos.matematicos.avanzados.2006
 
Intr a la matematica discreta
Intr a la matematica discretaIntr a la matematica discreta
Intr a la matematica discreta
 
Analisis factorial
Analisis factorialAnalisis factorial
Analisis factorial
 
Metodosnumerics
MetodosnumericsMetodosnumerics
Metodosnumerics
 
Matematicas tres parte uno
Matematicas tres parte unoMatematicas tres parte uno
Matematicas tres parte uno
 
Algebra superior i reyes
Algebra superior i   reyesAlgebra superior i   reyes
Algebra superior i reyes
 

Destacado

Día mundial 2013 guía para la acción
Día mundial 2013   guía para la acciónDía mundial 2013   guía para la acción
Día mundial 2013 guía para la acciónJornal do Commercio
 
Modelo de plan de trabajo para restaurantes
Modelo de plan de trabajo para restaurantesModelo de plan de trabajo para restaurantes
Modelo de plan de trabajo para restaurantesManuel Motta lara
 
Ejemplo de plan de trabajo
Ejemplo de plan de trabajoEjemplo de plan de trabajo
Ejemplo de plan de trabajosandraruthi
 
Hype vs. Reality: The AI Explainer
Hype vs. Reality: The AI ExplainerHype vs. Reality: The AI Explainer
Hype vs. Reality: The AI ExplainerLuminary Labs
 
Study: The Future of VR, AR and Self-Driving Cars
Study: The Future of VR, AR and Self-Driving CarsStudy: The Future of VR, AR and Self-Driving Cars
Study: The Future of VR, AR and Self-Driving CarsLinkedIn
 

Destacado (8)

Plan de trabajo
Plan de trabajoPlan de trabajo
Plan de trabajo
 
Plan
PlanPlan
Plan
 
Sas
SasSas
Sas
 
Día mundial 2013 guía para la acción
Día mundial 2013   guía para la acciónDía mundial 2013   guía para la acción
Día mundial 2013 guía para la acción
 
Modelo de plan de trabajo para restaurantes
Modelo de plan de trabajo para restaurantesModelo de plan de trabajo para restaurantes
Modelo de plan de trabajo para restaurantes
 
Ejemplo de plan de trabajo
Ejemplo de plan de trabajoEjemplo de plan de trabajo
Ejemplo de plan de trabajo
 
Hype vs. Reality: The AI Explainer
Hype vs. Reality: The AI ExplainerHype vs. Reality: The AI Explainer
Hype vs. Reality: The AI Explainer
 
Study: The Future of VR, AR and Self-Driving Cars
Study: The Future of VR, AR and Self-Driving CarsStudy: The Future of VR, AR and Self-Driving Cars
Study: The Future of VR, AR and Self-Driving Cars
 

Similar a *

06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...MarioRivera243377
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementalesChristian Infante
 
Inferencia estadistica.para.economia.y.administracion.de.empresas
Inferencia estadistica.para.economia.y.administracion.de.empresasInferencia estadistica.para.economia.y.administracion.de.empresas
Inferencia estadistica.para.economia.y.administracion.de.empresasNirka Mora Mejia
 
Inferencia estadistica para economia y administracion de empresas
Inferencia estadistica para economia y administracion de empresasInferencia estadistica para economia y administracion de empresas
Inferencia estadistica para economia y administracion de empresasFreddy Rojas Rojas
 
Econometria aplicada con gretl
Econometria aplicada con gretlEconometria aplicada con gretl
Econometria aplicada con gretlapuntesdeeconomia
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementalesPaul Alexander
 
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...L Méndez
 
Mi proyecto de pre-tesis
Mi proyecto de pre-tesisMi proyecto de pre-tesis
Mi proyecto de pre-tesisErwin Salas
 
Libro estadistica javier gorgas
Libro estadistica javier gorgasLibro estadistica javier gorgas
Libro estadistica javier gorgasPedroMuoz672118
 
Estadística inferencial
Estadística inferencialEstadística inferencial
Estadística inferencialMagdalena B
 
Teoria de la medida
Teoria de la medidaTeoria de la medida
Teoria de la medidajhorkham
 
Detección de Bordes Tumorales Mediante Contornos Activos (Snake) y Caracteriz...
Detección de Bordes Tumorales Mediante Contornos Activos (Snake) y Caracteriz...Detección de Bordes Tumorales Mediante Contornos Activos (Snake) y Caracteriz...
Detección de Bordes Tumorales Mediante Contornos Activos (Snake) y Caracteriz...Aileen Quintana
 
2011 minitab-15
2011 minitab-152011 minitab-15
2011 minitab-15JOREOS
 

Similar a * (20)

06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
 
Memoria Exploración y Análisis de Datos
Memoria Exploración y Análisis de DatosMemoria Exploración y Análisis de Datos
Memoria Exploración y Análisis de Datos
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementales
 
Inferencia estadistica.para.economia.y.administracion.de.empresas
Inferencia estadistica.para.economia.y.administracion.de.empresasInferencia estadistica.para.economia.y.administracion.de.empresas
Inferencia estadistica.para.economia.y.administracion.de.empresas
 
Inferencia estadistica para economia y administracion de empresas
Inferencia estadistica para economia y administracion de empresasInferencia estadistica para economia y administracion de empresas
Inferencia estadistica para economia y administracion de empresas
 
Econometria aplicada con gretl
Econometria aplicada con gretlEconometria aplicada con gretl
Econometria aplicada con gretl
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementales
 
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
Estadistica 2, distribuciones muestrales, intervalos de confianza y prueba de...
 
Apuntes de estadistica basica.pdf
Apuntes de estadistica basica.pdfApuntes de estadistica basica.pdf
Apuntes de estadistica basica.pdf
 
EstadisticaIngenieros.pdf
EstadisticaIngenieros.pdfEstadisticaIngenieros.pdf
EstadisticaIngenieros.pdf
 
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datosInferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
 
Mi proyecto de pre-tesis
Mi proyecto de pre-tesisMi proyecto de pre-tesis
Mi proyecto de pre-tesis
 
Libro estadistica javier gorgas
Libro estadistica javier gorgasLibro estadistica javier gorgas
Libro estadistica javier gorgas
 
Estadística inferencial
Estadística inferencialEstadística inferencial
Estadística inferencial
 
Rarepaso
RarepasoRarepaso
Rarepaso
 
Rarepaso
RarepasoRarepaso
Rarepaso
 
Teoria de la medida
Teoria de la medidaTeoria de la medida
Teoria de la medida
 
Detección de Bordes Tumorales Mediante Contornos Activos (Snake) y Caracteriz...
Detección de Bordes Tumorales Mediante Contornos Activos (Snake) y Caracteriz...Detección de Bordes Tumorales Mediante Contornos Activos (Snake) y Caracteriz...
Detección de Bordes Tumorales Mediante Contornos Activos (Snake) y Caracteriz...
 
2011 minitab-15
2011 minitab-152011 minitab-15
2011 minitab-15
 
Fisica I
Fisica IFisica I
Fisica I
 

Último

Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxpabonheidy28
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesFundación YOD YOD
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx241521559
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxJOSEMANUELHERNANDEZH11
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024GiovanniJavierHidalg
 
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...FacuMeza2
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIAWilbisVega
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricKeyla Dolores Méndez
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíassuserf18419
 
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...AlanCedillo9
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)GDGSucre
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan JosephBRAYANJOSEPHPEREZGOM
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...silviayucra2
 
SalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 TestcontainersSalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 TestcontainersIván López Martín
 
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfPARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfSergioMendoza354770
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveFagnerLisboa3
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafiosFundación YOD YOD
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfsoporteupcology
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdfIsabellaMontaomurill
 

Último (19)

Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docx
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento Protégeles
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptx
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024
 
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnología
 
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
Instrumentación Hoy_ INTERPRETAR EL DIAGRAMA UNIFILAR GENERAL DE UNA PLANTA I...
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Joseph
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
 
SalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 TestcontainersSalmorejoTech 2024 - Spring Boot <3 Testcontainers
SalmorejoTech 2024 - Spring Boot <3 Testcontainers
 
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfPARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial Uninove
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafios
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdf
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdf
 

*

  • 1. T E S IS 2010
  • 2.
  • 4. iv
  • 6. vi
  • 7. vii ´ Indice general Dedicatoria III Agradecimientos V Introducci´n o 1 1. Conceptos bayesianos 5 1.1. Probabilidad subjetiva . . . . . . . . . . . . . . . . . . . . . . 5 1.2. An´lisis bayesiano . . . . . . . . . . . . . . . . . . . . . . . . . a 6 1.3. Funci´n de verosimilitud . . . . . . . . . . . . . . . . . . . . . o 6 1.3.1. Principio de verosimilitud . . . . . . . . . . . . . . . . 7 1.4. Distribuci´n a priori . . . . . . . . . . . . . . . . . . . . . . . o 8 1.4.1. Determinaci´n subjetiva de la distribuci´n a priori . . . o o 8 1.4.2. Distribuci´n a priori conjugada . . . . . . . . . . . . . 10 o 1.4.3. Distribuci´n a priori no informativa . . . . . . . . . . . 12 o 1.5. Distribuci´n a posteriori . . . . . . . . . . . . . . . . . . . . . 15 o 1.6. Inferencia bayesiana . . . . . . . . . . . . . . . . . . . . . . . . 18 1.6.1. Estimaci´n . . . . . . . . . . . . . . . . . . . . . . . . 18 o 1.6.2. Error de estimaci´n. . . . . . . . . . . . . . . . . . . . 19 o 1.6.3. Estimaci´n multivariada . . . . . . . . . . . . . . . . . 20 o 1.6.4. Conjuntos cre´ ıbles . . . . . . . . . . . . . . . . . . . . 21 1.6.5. Contraste de hip´tesis . . . . . . . . . . . . . . . . . . 23 o
  • 8. viii ´ INDICE GENERAL 1.6.6. Inferencia predictiva . . . . . . . . . . . . . . . . . . . 27 2. Conceptos astron´micos. o 31 2.1. Sistemas de coordenadas. . . . . . . . . . . . . . . . . . . . . . 31 2.2. Determinaci´n de las ecuaciones. . . . . . . . . . . . . . . . . 35 o 2.3. Paralaje estelar . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.4. T Tauri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3. An´lisis de regresi´n lineal a o 43 3.1. Regresi´n lineal simple. . . . . . . . . . . . . . . . . . . . . . . 44 o 3.1.1. Propiedades de los E.M.V. . . . . . . . . . . . . . . . . 47 3.1.2. Contraste de hip´tesis. . . . . . . . . . . . . . . . . . . 50 o 3.2. Regresi´n lineal m´ltiple. . . . . . . . . . . . . . . . . . . . . . 56 o u 3.2.1. Estimaci´n de los coeficientes de regresi´n . . . . . . . 56 o o 3.2.2. Propiedades de los estimadores. . . . . . . . . . . . . . 60 3.2.3. Contr´ste de hip´tesis . . . . . . . . . . . . . . . . . . 65 a o 3.3. An´lisis bayesiano del modelo de regresi´n lineal. . . . . . . . 65 a o 3.3.1. Distribuci´n a posteriori con informaci´n a priori no infor- o o mativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3.3.2. Distribuci´n a posteriori con informaci´n o o a priori conjugada . . . . . . . . . . . . . . . . . . . . . 70 3.3.3. Inferencia bayesiana para β y σ 2 . . . . . . . . . . . . . 74 4. Aplicaci´n. o 77 4.1. Tratamiento de los datos. . . . . . . . . . . . . . . . . . . . . . 77 4.1.1. Tratamiento de los datos para la ascenci´n recta. . . . 77 o 4.1.2. Tratamiento de los datos para la declinaci´n. . . . . . . 81 o 4.1.3. Comparaci´n de las estimaciones puntuales cl´sicas y o a bayesianas . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.1.4. Intervalos HPD para los par´metros. . . . . . . . . . . 90 a 4.2. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
  • 9. ´ INDICE GENERAL ix A. Ap´ndice e 95 A.1. Distribuciones especiales. . . . . . . . . . . . . . . . . . . . . . 95 A.2. Algunos teoremas relacionados con matrices. . . . . . . . . . . . . 96 A.3. Integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 A.4. Valores esperados y teor´ de la distribuci´n. . . . . . . . . . . 97 ıa o Bibliograf´ ıa 97
  • 10.
  • 11. Introducci´n o En la actualidad se reconoce la importancia que tiene la estad´ ıstica en las diversas ´reas del conocimiento. Cada vez son mas las distintas ´reas a a de la investigaci´n cient´ o ıfica que utilizan la estad´ ıstica, para la recopilaci´n, o presentaci´n, an´lisis e interpretaci´n de los datos, con el fin de ayudar en o a o una mejor toma de decisiones. La estad´ıstica se ocupa fundamentalmente del an´lisis de datos que pre- a senten variabilidad con el fin de comprender el mecanismo que los genera, o para ayudar en un proceso de toma de decisiones. En cualquiera de los casos existe una componente de incertidumbre involucrada, por lo que ´l estad´ e ısti- co se ocupa en reducir lo m´s posible esa componente, as´ como tambi´n en a ı e describirla en forma apropiada. Adem´s, la probabilidad es el unico lenguaje a ´ posible para describir una l´gica que trata con todos los niveles de incer- o tidumbre y no s´lo con los extremos de verdad o falsedad. o Se supone que toda forma de incertidumbre debe decidirse por medio de modelos de probabilidad. En el caso de la estad´ıstica bayesiana se considera al par´metro, sobre el cu´l se desea infererir, como un evento incierto. Entonces, a a como nuestro conocimiento no es preciso y est´ sujeta a incertidumbre, se a puede describir mediante una distribuci´n de probabilidad π(θ), llamada dis- o tribuci´n a priori del par´metro θ, lo que hace que el par´metro tenga el o a a car´cter de aleatorio. a La estad´ıstica bayesiana es una alternativa a la estad´ıstica cl´sica en los a problemas t´ ıpicos estad´ ısticos como son estimaci´n, prueba de hip´tesis y o o predicci´n. La estad´ o ıstica bayesiana proporciona un completo paradigma de inferencia estad´ıstica y teor´ de la decisi´n con incertidumbre y est´ basada ıa o a en el teorema de Bayes que es el que nos proporciona una forma adecuada para incluir informaci´n inicial del par´metros mediante la distribuci´n π(θ) o a o adem´s de la informaci´n muestral f (x|θ) para as´ describir toda la informa- a o ı
  • 12. ci´n disponible del par´metro mediante la distribuci´n a posteriori π(θ|x). o a o La teor´ bayesiana plantea la soluci´n a un problema estad´ ıa o ıstico desde el punto de vista subjetivo de la probabilidad, seg´n el cual, la probabilidad u que un estad´ ıstico asigna a uno de los posibles resultados de un proceso, re- presenta su propio juicio sobre la verosimilitud de que se tenga el resultado y dicha informaci´n esta representada en π(θ). Algunos investigadores rechazan o que la informaci´n inicial se incluya en un proceso de inferencia cient´ o ıfica, sin embargo los m´todos bayesianos pueden ser aplicados a problemas que e han sido inaccesibles a la teor´ frecuentista tradicional. ıa A un problema espec´ ıfico se le puede asignar cualquier tipo de distribuci´n o a priori, ya que finalmente al actualizar la informaci´n a priori que se tenga o acerca del par´metro, mediante el teorema de Bayes se estar´ actualizando a a la distribuci´n a posteriori del par´metro y es con esta con las que se hacen o a las inferencias del mismo. Cuando un investigador tiene conocimiento previo a un problema, este conocimiento previo puede cuantificarse en un modelo de probabilidad. Si los juicios de una persona sobre la verosimilitud relativa a ciertas combinaciones de resultados satisfacen ciertas condiciones de consistencia, se puede decir que sus probabilidades subjetivas se determinan de manera unica. ´ Dentro de los campos de la investigaci´n en los cuales se utiliza la Es- o tad´ıstica se encuentra la Astronom´ en el caso particular de este trabajo ıa, de tesis utilizando los modelos de regresi´n lineal para estimar el valor de o par´metros como la paralaje que son importantes al calcular distancias a las a estrellas. Para calcular las distancias algunos tipos de observaci´n que se ha- o cen son las de infrarrojo u ondas de radio que nos son visibles a simple vista, utilizando dichas observaciones en modelos que describen la posici´n de las o estrellas en la esfera celeste y resolviendolos con regresi´n lineal. o El objetivo de esta tesis, es revisar el modelo de regresi´n lineal con la o metodolog´ cl´sica y tambi´n con el enfoque bayesiano y hacer una com- ıa a e paraci´n entre ambos resultados, otro objetivo es resolver las ecuaciones de o posici´n para la estrella T Tau Sb, a trav´s de un modelo de regresi´n li- o e o neal y hacer inferencia para los par´metros del modelo y as´ determinar el a ı par´metro p de paralaje y la distancia a que se encuentra la estrella men- a cionada y compararla con el resultado obtenido en el art´ıculo (ve´se [12]). a Para lograr los objetivos se desarrolla la teor´ necesaria en los cap´ ıa ıtulos de la siguiente manera:
  • 13. En el Cap´ ıtulo uno, se da un panorama general de lo que es el an´lisis a bayesiano, el teorema de Bayes, funci´n de verosimilitud, las distintas formas o de obtener la distribuci´n a priori y la distribuci´n a posteriori, as´ como la o o ı forma de hacer inferencia bayesiana. En el segundo Cap´ ıtulo se presenta la informaci´n para conocer mas a- o cerca de la estrella T Tau Sb, las ecuaciones de posici´n y los sistemas coorde- o nados para la ubicaci´n de estrellas en la esfera celeste, se dan las ecuaciones o necesarias para determinar la distancia a una estrella, se hace menci´n de la o paralaje trigonom´trica y su relaci´n con la distancia, asi como una breve e o descripci´n del sistema de estrellas doble T Tau y la correspondiente estre- o lla T Tau Sb y se presentan las observaciones de posici´n de dicha estrella, o tomadas de (ve´se [12]) y una mas proporcionada por Laurent R.Loinard a Corvaisier del Centro de Radioastronom´ y Astrof´ ıa ısica de la Universidad Nacional Aut´noma de M´xico (CRyA-UNAM). o e El Cap´ıtulo 3 contiene el desarrollo del an´lisis de regresi´n, iniciando con a o los modelos lineal simple y m´ltiple, para dar paso al an´lisis bayesiano del u a modelo de regresi´n con una distribuci´n a priori no informativa y enseguida o o el modelo de regresi´n con distribuci´n a priori conjugada, se determinan las o o distribuciones a posteriori de los par´metros de regresi´n, sus estimadores e a o intervalos HPD. Por ultimo, el cap´ ´ ıtulo 4 aborda todo lo concerniente a la aplicaci´n de o los modelos, se dan los resultados obtenidos haciendo una comparaci´n entre o los resultados cl´sicos y bayesianos, las estimaciones de los par´metros, y se a a presentan graficas de las distribuciones a posteriori . Se obtiene la distancia a la estrella T Tau Sb, utilizando la paralaje trigon´metrica obtenida con el an´lisis de regresion lineal bayesiano y se o a incluyen las conclusiones obtenidas en esta tesis.
  • 14.
  • 15. 5 Cap´ ıtulo 1 Conceptos bayesianos El concepto de probabilidad es utilizado en la vida diaria y a pesar de que es una parte tan com´n y natural de nuestra experiencia, no existe una unifi- u caci´n de la interpretaci´n de tal concepto, las interpretaciones m´s utilizadas o o a son, la interpretaci´n cl´sica, la frecuentista y la subjetiva. La interpretaci´n o a o cl´sica se basa en decir que los resultados son igualmente verosimiles, la fre- a cuentista en la frecuencia relativa es decir que un proceso se repita un gran n´mero de veces. u A continuaci´n se abordar´ el enfoque subjetivo de la probabilidad y algunos o a de los aspectos de inferencia estad´ ıstica m´s utilizados, ahora estudiados des- a de la interpretaci´n subjetiva de la probabilidad. o 1.1. Probabilidad subjetiva La idea principal de la probabilidad subjetiva es dejar que la probabilidad de un evento refleje la creencia personal en la ocurrencia de ese evento. De acuerdo con la interpretaci´n subjetiva de la probabilidad, ´sta establece o e que la probabilidad que un estad´ ıstico asigna a cada uno de los posibles re- sultados de un proceso, representa su propio juicio sobre la verosimilitud de que se obtenga ese resultado. Este juicio estar´ basado en opiniones e informaci´n acerca del proceso. a o Adem´s, esta interpretaci´n subjetiva de la probabilidad puede ser forma- a o lizada. Si los juicios de un estad´ ıstico acerca de las verosimilitudes relativas a
  • 16. 6 Cap´ ıtulo 1. Conceptos bayesianos diversas combinaciones de resultados, satisfacen ciertas condiciones de con- sistencia, entonces puede demostrarse que sus probabilidades subjetivas para los diferentes sucesos posibles, pueden ser determinadas en forma unica. ´ 1.2. An´lisis bayesiano a En el an´lisis bayesiano, adem´s de especificar el modelo de los datos a a observados x = (x1 , ..., xn ), dado un vector de par´metros desconocidos θ, a usualmente en la forma de la funci´n de probabilidad o funci´n de densidad o o de probabilidad f (x|θ) se supone que θ es una cantidad aleatoria y que tiene una distribuci´n a priori π(θ). La inferencia concerniente a θ est´ basada en o a su distribuci´n a posteriori, dada por, el cociente de la distribuci´n conjunta o o h(x, θ) entre la distribuci´n marginal de X. o h(x, θ) h(x, θ) f (x|θ)π(θ) π(θ|x) = = = (1.1) m(x) h(x, θ)dθ f (x|θ)π(θ)dθ A la expresi´n anterior se le llama teorema de Bayes. N´tese la contribu- o o ci´n, tanto los datos experimentales (en la forma de la probabilidad f ) y la o opini´n a priori (en la forma de la distribuci´n a priori π) en la ecuaci´n o o o (1.1). Las inferencias se basan en π(θ|x) en lugar de f (x|θ); es decir, en la distribuci´n de probabilidad (del valor desconocido) del par´metro dados los o a datos observados, en vez de la distribuci´n de los datos dado el valor del o par´metro. a 1.3. Funci´n de verosimilitud o La funci´n de verosimilitud l(θ|x) expresa el proceso por el cual pueden o aparecer los datos x en t´rminos del par´metro desconocido θ. e a Definici´n 1.3.1 Sea una muestra aleatoria X1 , ..., Xn , de tama˜o n, se o n define y se obtiene la funci´n de verosimilitud (o conjunta) l(θ|x) como o n i=1 f (xi |θ).
  • 17. 1.3. Funci´n de verosimilitud o 7 En la inferencia cl´sica l(θ|x) representa el modelo estad´ a ıstico del proceso de generaci´n de datos. La estad´ o ıstica cl´sica suele considerar ese proceso como a un muestreo aleatorio sobre la poblaci´n de datos, y as´ l(θ|x) se interpreta o ı como una probabilidad frecuentista por tanto x es una variable aleatoria que se utiliza para realizar inferencia. Desde el punto de vista bayesiano l(θ|x) mide los grados de creencia del inves- tigador de que los datos tomen ciertos valores dada la informaci´n hipot´tica o e de que los par´metros tomen ciertos valores, adem´s de toda la informaci´n a a o a priori. El modelo estad´ ıstico no es entonces tanto una hip´tesis sobre los o procesos de generaci´n de datos, sino una afirmaci´n desde el punto de vista o o subjetivo del investigador acerca del proceso; afirmaci´n que se encuentra o condicionada a los valores de los par´metros desconocidos. Es m´s la funci´n a a o de verosimilitud l(θ|x) es una funci´n de θ y tan s´lo es un instrumento para o o pasar de la distribuci´n a priori a la distribuci´n a posteriori. o o 1.3.1. Principio de verosimilitud Un principio muy importante para el paradigma bayesiano es el de verosi- militud que establece en forma expl´ ıcita la idea natural de que s´lo las ob- o servaciones actuales x, deber´ ser relevantes para poder establecer conclu- ıan siones o tener alguna evidencia sobre θ. Este principio se basa en la funci´no de verosimilitud l(θ|x) y dice lo siguiente: Al hacer inferencia o tomar decisones sobre θ despu´s de que x se ha ob- e servado, toda la informaci´n experimental relevante se encuentra en la fun- o ci´n de verosimilitud para el x observado. Es m´s, dos funciones de verosimi- o a litud contienen la misma informaci´n sobre θ si una es directamente propor- o cional a la otra como funci´n de θ. o Algunos aspectos importantes del principio de verosimilitud son los siguien- tes: La correspondencia de informaci´n a partir de funciones de verosimili- o tud proporcionales se aplica s´lo cuando las dos funciones de verosimi- o litud son para el mismo par´metro. a El principio de verosimilitud se cumple s´ ı: ∀x l1 (θ|x) = αl2 (θ|x) ∀θ.
  • 18. 8 Cap´ ıtulo 1. Conceptos bayesianos Es decir, la raz´n de las verosimilitudes para los dos experimentos y o cada observaci´n de los datos es constante. o El principio de verosimilitud no dice que toda la informaci´n sobre θ o se encuentra en l(θ|x), sino que toda la informaci´n experimental es la o que se encuentra en l(θ|x). Para los m´todos bayesianos, la verosimilitud no es lo m´s importante, e a ya que en comparaci´n con los m´todos cl´sicos, en estos la funci´n de o e a o verosimilitud es el centro alrededor del cual gira todo tipo de inferencia. Para los m´todos bayesianos la funci´n de verosimilitud es tan solo un e o instrumento para pasar de la distribuci´n a priori π(θ) a la distribuci´n o o a posteriori π(θ|x). 1.4. Distribuci´n a priori o Al hacer inferencias sobre un par´metro, generalmente se cuenta con alg´n a u tipo de informaci´n (juicios, creencias) acerca de su valor, incluso antes de o observar los datos. La distribuci´n a priori π(θ) expresa lo que es conocido del par´metro des- o a conocido θ antes de observar alg´n dato. u 1.4.1. Determinaci´n subjetiva de la distribuci´n a priori o o Un elemento importante en las decisiones de muchos problemas es la informaci´n a priori que se tenga acerca del par´metro de inter´s θ. La in- o a e formaci´n que el estad´ o ıstico tiene sobre la verosimilitud de dichos sucesos debe ser cuantificada a trav´s de una medida de probabilidad sobre el espa- e cio param´trico Θ. e Si Θ es discreto, el problema se reduce a la determinaci´n de la probabilidad o subjetiva para cada elemento de Θ. Cuando Θ es continuo, el problema de construir π(θ) es m´s dif´ a ıcil. Histograma de aproximaci´n o Cuando Θ es un intervalo de la l´ ınea real, la aproximaci´n por histogramas o de π(θ) consiste en
  • 19. 1.4. Distribuci´n a priori o 9 1. Dividir Θ en subintervalos. 2. Determinar la probabilidad subjetiva para cada subintervalo. 3. Dibujar el histograma de probabilidad. 4. A partir de este histograma, se esboza una densidad π(θ). Atendiendo la cantidad de subintervalos, se obtendr´n desde histogramas a burdos (con pocos subintervalos) hasta histogramas muy detallados (gran cantidad de subintervalos). El tipo de histograma depender´ del tipo de pro- a blema, pero en cualquier caso se tienen los siguientes inconvenientes: - No existe ninguna regla que determine la cantidad de subintervalos que deben determinarse. - Ni tampoco alguna que diga que tama˜o deben de tener dichos subin- n tervalos. Existen dos dificultades para esta aproximaci´n, las funciones as´ obtenidas o ı son dif´ ıciles de trabajar y las funciones de densidad no tienen colas. Aproximaci´n por creencias relativas o La aproximaci´n por creencias relativas es muy usada cuando Θ es un o intervalo de la l´ ınea real, esto consiste simplemente en comparar las proba- bilidades intuitivas para varios puntos en Θ, y directamente esbozar la dis- tribuci´n a priori para esta determinaci´n. o o La implementaci´n desde el enfoque bayesiano depende del conocimiento pre- o vio o subjetivo que se le asigne a la distribuci´n de probabilidad, no solo a o las variables como x, sino tambi´n a los par´metros como θ. e a Hist´ricamente un obst´culo importante para el uso generalizado del o a paradigma bayesiano ha sido la determinaci´n de la forma apropiada de la o distribuci´n a priori π que es usualmente una ardua tarea. o T´ıpicamente, ´sta distribuci´n se especifica bas´ndose en la informaci´n e o a o acumulada de estudios pasados o de la opini´n subjetiva de los expertos en o el ´rea. Con el fin de racionalizar el proceso de elecci´n de la distribuci´n a a o o
  • 20. 10 Cap´ ıtulo 1. Conceptos bayesianos priori, as´ como simplificar la carga computacional subsecuente, los experi- ı mentos solo limitan a menudo esta elecci´n a restringir π a algunas familias o de distribuciones familiares. Una alternativa simple, disponible en algunos casos, es dotar a la dis- tribuci´n a priori con poco contenido informativo, de modo que los datos del o presente estudio ser´ la fuerza dominante en la determinaci´n de la distribu- a o ci´n a posteriori. o 1.4.2. Distribuci´n a priori conjugada o Supongamos que θ es univariado. Quiz´s la m´s simple aproximaci´n a a o para especificar π(θ) es primero limitar las consideraciones a una colecci´n o manejable (a lo mas numerable) de posibles valores considerados de θ y sub- secuentemente asignar probabilidades de masa a estos valores de tal forma que su suma sea 1, su relativa contribuci´n reflejan al experimentador sus o creencias a priori tan cercanas como sea posible. Si θ es un valor discreto, tal aproximaci´n puede ser muy natural. Si θ o es continuo, debemos asignar a las masas un intervalo en la l´ ınea real, en lugar de un solo punto, resultando un histograma a priori para θ. Tal his- tograma (necesariamente sobre una regi´n acotada) parece ser inapropiado, o especialmente en lo concerniente a una probabilidad continua f (x|θ), pero puede de hecho ser m´s apropiada si la integral requiere el c´lculo num´rico a a e de la distribuci´n a posteriori. o Adem´s, el histograma a priori puede tener tantos subintervalos como sea a posible as´ como tambi´n la precisi´n de la opini´n a priori lo permita. Es de ı e o o vital importancia, sin embargo, que el rango del histograma sea suficiente- mente grande, ya que como puede verse en (1.1), el soporte de la distribuci´n o a posteriori ser´ necesariamente un subconjunto del soporte de la distribu- a ci´n a priori. o Alternativamente, podemos simplemente asumir que la distribuci´n a priori o para θ pertenece a una familia param´trica de distribuciones π(θ). e Al elegir a la distribuci´n a priori en una familia de distribuciones es- o pec´ ıficas π(θ), algunas elecciones pueden ser convenientemente m´s calcula- a bles unas que otras. En particular puede ser posible seleccionar un miembro de una familia la cual es conjugada para la funci´n de verosimilitud l(θ|x), o
  • 21. 1.4. Distribuci´n a priori o 11 que es, una que conduce a una distribuci´n a posteriori π(θ|x) que pertenece o a la misma familia de distribuciones de la distribuci´n a priori. o Definici´n 1.4.1 Sea la clase F de funciones de densidad f (x|θ), una clase o ρ de distribuciones a priori se dice que es una familia conjugada para F si π(θ|x) est´ en la clase de ρ, para toda f ∈ F y π ∈ ρ. a Usualmente para una clase de densidades F , una familia conjugada puede ser determinada examinando la funci´n de verosimilitud l(θ|x). Entonces la o familia conjugada puede ser escogida como la clase de distribuciones con la misma estructura funcional. A esta clase de familia conjugada se le conoce como distribuci´n a priori conjugada natural. o Ejemplo 1.4.1 Supongamos que X es el n´mero de mujeres embarazadas u que llegan a un hospital para tener a sus bebes durante un mes dado. Supon- gamos adem´s que la tasa de llegada de las mujeres embarazadas tiene la a forma de una distribuci´n de probabilidad de Poisson. o Se tiene Xi ∼ P oi(θ). exp{−θ}θxi f (xi |θ) = , xi ! con funci´n de verosimilitud o exp{−nθ}θnx l(θ|x) = . xi ! Para realizar el an´lisis bayesiano requerimos de una distribuci´n a priori a o para θ, teniendo como soporte la l´ ınea real, una elecci´n natural para la dis- o tribuci´n a priori la da la distribuci´n gamma, l(x|θ) ∝ θ(nx−1)+1 exp{−nθ}, o o es decir una posible familia de distribuciones para π(θ) es la de la distribuci´n o gamma. β α θα−1 exp{−βθ} π(θ) = , θ, α, β > 0, Γ(α) o θ ∼ G(α, β), la distribuci´n gamma tiene media αβ y varianza αβ 2 . o
  • 22. 12 Cap´ ıtulo 1. Conceptos bayesianos 1.4.3. Distribuci´n a priori no informativa o En ciertos problemas, el conocimiento inicial sobre el verdadero valor del par´metro θ puede ser muy d´bil, o vago, ´sto ha llevado a generar un tipo a e e de distribuciones a priori llamada distribuciones a priori no informativas, las cuales reflejan un estado de ignorancia inicial. Una distribuci´n sobre θ se dice que es no informativa si no contiene infor- o maci´n sobre θ, es decir, no establece si unos valores de θ son m´s favorables o a que otros. Por ejemplo, si se establecen dos hip´tesis simples sobre el valor de θ y asig- o namos una probabilidad 1/2 a cada una de ellas, se tiene una situaci´n noo informativa. M´todo de Jeffreys. e Esta t´cnica consiste en buscar funciones a priori no informativas invarian- e tes, es decir, si existe ignorancia sobre θ, esto implica cierta ignorancia acerca de φ = h(θ), con la que deber´ verificarse la siguiente condici´n de invarian- ıa o za. Si la a priori no informativa sobre θ es π(θ), la a priori no informativa −1 sobre φ debe ser π(h−1 (φ))| dh dφ(φ) |. Jeffreys propuso solucionar esto, definiendo la a priori como la ra´ cuadrada ız de la informaci´n esperada de Fisher. o Definici´n 1.4.2 Si θ ∈ R, se define la informaci´n esperada de Fisher o o como ∂2 I(θ) = −Eθ log f (x|θ) , ∂θ2 en donde Eθ : el valor esperado de la variable aleatoria que es funci´n de x. o f (x|θ): funci´n de densidad de x (que depende de θ). o Jeffrey propone que se elija como funci´n a priori no informativa la de- o terminada por la siguiente ecuaci´n, o π(θ) ∝ |I(θ)|1/2 .
  • 23. 1.4. Distribuci´n a priori o 13 Definici´n 1.4.3 Si θ ∈ Rn , se define la matriz de informaci´n de Fisher o o como aquella matriz n × n cuyas componentes son: ∂2 Iij (θ) = −Eθ log f (x|θ) . ∂θi ∂θj Jeffrey propone que se elija como funci´n a priori no informativa la de- o terminada por la siguiente expresi´n: o π(θ) ∝ [detI(θ)]1/2 . Ejemplo 1.4.2 Considere un experimento el cual consiste de la observaci´n o de un ensayo Bernoulli. f (x|θ) = θx (1 − θ)1−x , x = 0, 1, 0 ≤ θ ≤ 1, 1 ∂2 I(θ) = − f (x|θ) log f (x|θ), x=0 ∂θ2 se tiene que ∂2 ∂2 log f (x|θ) = log θx (1 − θ)1−x ∂θ2 ∂θ2 ∂ = [xθ−1 − (1 − x)(1 − θ)−1 ] ∂θ x (1 − x) = − 2− , θ (1 − θ)2 luego entonces, ∂2 x (1 − x) E log θx (1 − θ)1−x = E − − ∂θ2 θ 2 (1 − θ)2 1 x (1 − x) = θx (1 − θ)1−x − − x=0 θ2 (1 − θ)2 = −θ (1 − θ)−1 , −1 I(θ) = −(−θ−1 (1 − θ)−1 ) = θ−1 (1 − θ)−1 .
  • 24. 14 Cap´ ıtulo 1. Conceptos bayesianos As´ la distribuci´n a priori obtenida mediante el m´todo de Jeffrey es: ı, o e π(θ) ∝ θ−1/2 (1 − θ)−1/2 , que es el kernel de una densidad beta, por tanto Γ(1) 1 1 π(θ) = θ 2 −1 (1 − θ) 2 −1 = Beta(1/2, 1/2). Γ(1/2)Γ(1/2) Ejemplo 1.4.3 Una densidad de localizaci´n-escala es una densidad de la forma o σ −1 f ((x − θ)/σ) con θ ∈ R, σ > 0, los par´metros θ y σ son conocidos, llamados par´metros de localizaci´n y a a o escala respectivamente. El par´metro de localizaci´n se usa para desplazar una distribuci´n hacia un a o o lado u otro. El par´metro de escala define cu´n dispersa se encuentra la distribuci´n(en el a a o caso de la distribuci´n normal, el par´metro de escala es la desviaci´n t´ o a o ıpica). La distribuci´n normal es una densidad de localizaci´n-escala, con los par´me- o o a tros σ y θ. Una muestra aleatoria se dice que tiene una densidad de localizaci´n-o escala si las densidades de cada una de las variables aleatorias es de loca- lizaci´n-escala. o Ya que la ditribuci´n normal pertenece a este tipo de densidades, se desea o encontrar la distribuci´n a priori de η = (θ, σ). o Se sabe que una distribuci´n normal tiene la forma siguiente, o 2 1 1 x−θ f (x|θ) = √ exp − , 2πσ 2 σ
  • 25. 1.5. Distribuci´n a posteriori o 15 el par´metro η = (θ, σ), tiene la matriz de informaci´n de Fisher, a o ∂2 ∂2 ∂θ2 ln f (x|θ) ln f (x|θ) I(η) = −Eη ∂2 ∂θ∂σ ∂2 ∂θ∂σ ln f (x|θ) ∂σ 2 ln f (x|θ)  2 2  ∂2 ∂2 ∂θ2 − (X−θ) 2σ 2 ∂θ∂σ − (X−θ) 2σ 2 = −Eη  2 2  ∂2 ∂2 ∂θ∂σ − (X−θ) 2σ 2 ∂σ 2 − (X−θ) 2σ 2 2(θ−X) − σ12 σ3 = −Eη 2(θ−X) 3(X−θ)2 σ3 − σ4 1 σ2 0 = 3 . 0 σ2 De (1.4) se tiene que la distribuci´n a priori para η es, o 1/2 1 3 1 π(η) = π(θ, σ) = · ∝ . (1.2) σ2 σ2 σ2 1.5. Distribuci´n a posteriori o La informaci´n a posteriori de θ dado x , con θ ∈ Θ, est´ dada por la o a expresi´n π(x|θ) y expresa lo que es conocido de θ despu´s de observar los o e datos de x. N´tese que por la ley multiplicativa de la probabilidad, θ y x tienen la siguien- o te funci´n de densidad(subjetiva) conjunta, o h(x, θ) = π(θ)l(θ|x), en donde: π(θ): densidad a priori de θ. l(θ|x): funci´n de verosimilitud, o y x tiene funci´n de densidad marginal dada por: o m(x) = l(θ|x)π(θ)dθ. Θ
  • 26. 16 Cap´ ıtulo 1. Conceptos bayesianos Si la funcion marginal m(x) = 0, h(x, θ) π(θ|x) = , m(x) o sustituyendo π(θ)l(θ|x) π(θ|x) = . l(θ|x)π(θ)dθ Que es la misma que la ecuaci´n (1.1), es decir, el teorema de Bayes. o Ahora, dada una muestra de n observaciones independientes, se puede obtener l(θ|x) y proceder evaluando en la ecuaci´n (1.1). Pero evaluar esta o expresi´n puede ser simplificada, utilizando un estad´ o ıstico suficiente para θ con funci´n de densidad g(S(x)|θ), y esto se enuncia en el lema siguiente. o Lema 1.5.1 Sea S(x) un estad´stico suficiente para θ (es decir, l(θ|x) = ı h(x)g(S(x)|θ)), m(s) = 0 la densidad marginal para S(x) = s, entonces se cumple que: π(θ|x) = π(θ|s) g(s|θ)π(θ) = . m(s) Demostraci´n. o l(θ|x)π(θ) π(θ|x) = l(x|θ)π(θ)dθ h(x)g(S(x)|θ)π(θ) = h(x)g(S(x)|θ)π(θ)dθ g(s|θ)π(θ) = = π(θ|s). m(s) Se observa que la ecuaci´n (1.1) se puede expresar de la manera m´s corta o a conveniente.
  • 27. 1.5. Distribuci´n a posteriori o 17 π(θ|x) ∝ l(x|θ)π(θ). (1.3) En otras palabras la distribuci´n a posteriori es proporcional a la verosimili- o tud por la a priori, es decir, que la probabilidad es multiplicada por una con- stante (o una funci´n de x), sin alterar a la a posteriori, pues en la ecuaci´n o o (1.1) el denominador no depende de θ. Ejemplo 1.5.1 Obtenga la a posteriori para el ejemplo (1.4.2). Para el ejemplo (1.3.2) se conoce π(θ). Si r = n xi , entonces la a posteriori es i=1 π(θ|x) ∝ l(θ|x)π(θ) ∝ θr−1/2 (1 − θ)n−r−1/2 . De lo anterior se nota, que π(θ|x) tiene una distribuci´n beta, pues ha- o ciendo 1 α = r + 2, β = n − r + 1. 2 Se tiene que: Γ(α + β) α−1 π(θ|x) = θ (1 − θ)β−1 . Γ(α)Γ(β) Ejemplo 1.5.2 Obtenga la a posteriori para el ejemplo (1.4.1). Se tiene que θ ∼ G(α, β), as´ la a posteriori utilizando el teorema de Bayes ı (1.1) es, π(θ|x) ∝ l(θ|x)π(θ) ∝ (exp{−nθ}θnx )(θα−1 exp{−βθ}) ∝ θnx+α−1 exp{−θ(n + β)}. Por lo tanto π(θ|x) = G(nx + α − 1, n + β).
  • 28. 18 Cap´ ıtulo 1. Conceptos bayesianos 1.6. Inferencia bayesiana Los problemas concernientes a la inferencia de θ pueden ser resueltos f´cilmente utilizando an´lisis bayesiano. Dado que la distribuci´n a poste- a a o riori contiene toda la informaci´n disponible acerca del par´metro, muchas o a inferencias concernientes a θ pueden consistir unicamente de las caracter´ ´ ısti- cas de esta distribuci´n. o 1.6.1. Estimaci´n o Estimaci´n puntual o Para estimar θ, se pueden aplicar numerosas t´cnicas de la estad´ e ıstica cl´sica a la distribuci´n a posteriori. La t´cnica m´s conocida es estimaci´n a o e a o por m´xima verosimilitud, en la cual se elige como estimador de θ a θ que es a el valor que maximiza a la funci´n de verosimilitud l(θ|x). o An´logamente la estimaci´n bayesiana por m´xima verosimilitud se define a o a de la manera siguiente. Definici´n 1.6.1 La estimaci´n de m´xima verosimilitud generalizada de θ o o a es la moda m´s grande θ de π(θ|x). En otras palabras el valor de θ, θ que a maximiza a π(θ|x), considerada como funci´n de θ. o Ejemplo 1.6.1 Para la siguiente funci´n de verosimilitud, calcular el estimador m´ximo o a verosimil de θ, l(θ|x) = exp{−(x − θ)}I(θ,∞) (x), y la distribuci´n a priori es una Cauchy o 1 π(θ) = (1 + θ2 )−1 . π Luego se tiene que la distribuci´n a posteriori es o exp{−(x − θ)}I(θ,∞) (x) π(θ|x) = . m(x)(1 + θ2 )π
  • 29. 1.6. Inferencia bayesiana 19 ˆ Para encontrar el θ, se tienen dos posiblidades, la primera es que, si θ > x, entonces I(θ,∞) = 0, luego π(θ|x) = 0. La siguiente es que θ ≤ x, entonces I(θ,∞) = 1 y para esto se tiene que: exp{−(x − θ)} π(θ|x) = . m(x)(1 + θ2 )π Para este θ, calculamos la derivada con respecto a ´l, e d d exp{−(x − θ)} π(θ|x) = dθ dθ m(x)(1 + θ2 )π exp{−x} d exp{θ} = m(x)π dθ (1 + θ2 ) exp{−x} = [(1 + θ2 )−1 exp{θ} − 2θ exp{θ}(1 + θ2 )−2 ] m(x)π exp{−x} exp{θ}(1 + θ2 ) 2θ exp{θ} = − m(x)π (1 + θ2 )2 (1 + θ2 )2 exp{−x} exp{θ}(1 − 2θ + θ2 ) = m(x)π (1 + θ2 )2 exp{−x} exp{θ} (θ − 1)2 = . m(x)π (1 + θ2 )2 Ya que la derivada es siempre positiva π(θ|x) se decrementa para θ ≤ x, as´ se ı tiene que π(θ|x) se maximiza en θ ˆ = x. Otro estimador bayesiano com´n de u θ es la media de la a posteriori π(θ|x). 1.6.2. Error de estimaci´n. o Cuando se hace una estimaci´n, es usualmente necesario indicar la pre- o cisi´n de la estimaci´n. La medida bayesiana que se utiliza para medir la o o precisi´n de una estimaci´n (en una dimensi´n) es la varianza a posteriori de o o o la estimaci´n . o Definici´n 1.6.2 Si θ es un par´metro de valor real con distribuci´n a pos- o a o teriori π(θ|x), y δ es el estimador de θ, entonces la varianza a posteriori de δ es Vδπ (x) = E π(θ|x) [(θ − δ)2 ].
  • 30. 20 Cap´ ıtulo 1. Conceptos bayesianos o o ˆ N´tese en la definici´n anterior, que al tener el estimador θ de θ, en este caso δ, solo se necesita sustituir a δ en la definici´n de la varianza para obte- o ner la varianza a posteriori. Cuando δ es la media a posteriori, µπ (x) = E π(θ|x) [θ], entonces V π (x) = Vµ π(x) ser´ llamada varianza a posteriori (y es en efecto π a la varianza de θ para la distribuci´n π(θ|x)). o La desviaci´n est´ndar a posteriori es V π (x). Generalmente se utiliza o a a la desviaci´n est´ndar a posteriori Vδπ (x) del estimador δ , como el error o a est´ndar de la estimaci´n δ. a o Para simplificar c´lculos que ser´n utilizados m´s adelante, se puede repre- a a a sentar a la varianza a posteriori con la f´rmula siguiente: o Vδπ (x) = E π(θ|x) [(θ − δ)2 ] = E[(θ − µπ (x) + µπ (x) − δ)2 ] = E[(θ − µπ (x))2 ] + E[2(θ − µπ (x))(µπ (x) − δ)] + E[(µπ (x) − δ)2 ] = V π (x) + 2(µπ (x) − δ)(E[θ] − µπ (x)) + (µπ − δ)2 = V π (x) + (µπ − δ)2 . As´ entonces ı, Vδπ (x) = V π (x) + (µπ − δ)2 . (1.4) 1.6.3. Estimaci´n multivariada o La estimaci´n bayesiana de un vector θ = (θ1 , ..., θn ) es la estimaci´n de o o ˆ ˆ ˆ m´xima verosimilitud generalizada (moda a posteriori) θ = (θ1 , ..., θn ). Sin a embargo, por cuestiones de c´lculo y porque la unicidad y existencia no se a garantizan en el caso multivariado, es m´s conveniente utilizar la media a a posteriori µπ (x) = (µπ (x), µπ (x), . . . , µπ (x))t = E π(θ|x) [θ], 1 2 n como el estimador bayesiano, y la precisi´n puede ser descrita por la matriz o de covarianza a posteriori. V π (x) = E π(θ|x) [(θ − µπ (x))(θ − µπ (x))t ].
  • 31. 1.6. Inferencia bayesiana 21 a o i ˆ El error est´ndar de la estimaci´n µπ (x) de θi ser´ π π ıa Vii (x), en donde Vii (x) π es el (i, i) elemento de V (x). An´logamente a la ecuaci´n (1.7) se tiene que, a o el estimador δ de θ, es: Vδπ (x) = E π(θ|x) [(θ − δ)(θ − δ)t ] = V π (x) + (µπ (x) − δ)(µπ (x) − δ)t . N´tese que la media a posteriori minimiza Vδπ (x). o 1.6.4. Conjuntos cre´ ıbles El an´logo bayesiano de un intervalo de confianza (IC), suele hacer refe- a rencia a un conjunto cre´ ıble. Definici´n 1.6.3 Un 100 × (1 − α) % conjunto cre´ para θ, es un subcon- o ıble junto C de Θ tal que:   θ∈C π(θ|x) caso discreto 1 − α ≤ P (C|x) =  C π(θ|x)dθ caso continuo. Ya que la distribuci´n a posteriori es actualmente una distribuci´n de proba- o o bilidad en Θ, se puede decir subjetivamente que la probabilidad de θ est´ en a C. Esta es la diferencia con los procedimientos de la estad´ ıstica cl´sica los a cuales s´lo se interpretan como la probabilidad de que la variable aleatoria o X sea tal que el conjunto cre´ C(X) contenga a θ. ıble Al escoger un conjuto cre´ ıble para θ, de lo que se trata es siempre de minimizar el tama˜o del intervalo. Para realizar esto, se deben incluir en el n conjunto, solo aquellos puntos con la densidad a posteriori m´s grande, es a decir, los m´s probables valores para θ. a Definici´n 1.6.4 El conjunto cre´ de m´xima densidad a posteriori (HPD) o ıble a al 100 × (1 − α) %, es el subconjunto C en Θ de la forma C = {θ ∈ Θ : π(θ|x) ≥ k(α)}, en donde k(α) es la mayor constante tal que: P (C|x) ≥ 1 − α.
  • 32. 22 Cap´ ıtulo 1. Conceptos bayesianos Ejemplo 1.6.2 Sup´ngase que X = (X1 , ..., Xn ) es una muesta aleatoria de una distribuci´n o o Bernoulli con par´metro θ. Sup´ngase adem´s que 16 consumidores han sido a o a seleccionados por una cadena de comida r´pida para comparar dos tipos de a hamburguesas de carne molida en base al sabor, en la cual una hamburguesa es m´s cara que la otra. Desp´es de someterlos a la prueba, los consumidores a u dan sus puntos de vista de estos dos tipos de hamburguesa. El resultado es que 13 de los 16 consumidores prefieren la hamburguesa m´s cara. a Sup´ngase que θ es la probabilidad de que un consumidor prefiera la ham- o burguesa m´s cara. a 1 si el consumidor i prefiere la hamburguesa m´s cara a Yi = . 0 en otro caso Como las desiciones de los consumidores son independientes y θ es constante sobre los consumidores, esto forma una secuencia de pruebas Bernoulli. Se define X = Yi , se tiene entonces que X|θ ∼ Binomial(16, θ), entonces la funci´n de densidad de X es, o 16 f (x|θ) = θx (1 − θ)16−x . X Luego realizando los calculos pertinentes se llega a que π(θ|x) = Beta(α + x, β − x + 16). Utilizando el software ANESBA, se calcula el HPD al 95 % y se obtiene el intervalo (0.6867,0.9387), que quiere decir que la probabilidad de que el estimador de θ este en ese intervalo es de 0.95. En la figura (1.1) se puede ver la distribuci´n a posteriori del consumo o de hamburguesas, y en efecto se ve que el estimador se encuentra dentro del intervalo mencionado anteriormente. Diferencia entre los conjuntos cre´ ıbles y los intervalos de confianza Bayesianamente un conjunto cre´ ıble C al (1 − α)100 % significa que, la probabilidad de que θ est´ en C dados los datos observados es al menos (1−α). e En otras palabras, un conjunto cre´ da la certeza de que dada la muestra ıble
  • 33. 1.6. Inferencia bayesiana 23 4 3 Densidad a posteriori 2 1 0 0.0 0.2 0.4 0.6 0.8 1.0 θ Figura 1.1: Gr´fica de la distribuci´n a posteriori derivada del consumo de hamburguesas. a o aleatoria tal conjunto C contenga a θ con al menos una probabilidad de (1 − α). Cl´sicamente un intervalo de confianza al (1 − α)100 % significa que, si se a pudiera calcular C para una gran cantidad de conjuntos de muestras aleato- rias, cerca del (1 − α)100 % de ellos cubrir´ el valor real de θ. ıan Es decir, si se generan 100 conjuntos de muestras aleatorias, y se calcula el intervalo de confianza para cada caso (no necesariamente iguales para cada caso), al menos (1 − α)100 cubrir´ a θ, sin embargo, la desventaja principal ıan que tienen los intervalos de confianza cl´sicos es que no siempre se pueden a generar tantas muestras aleatorias. 1.6.5. Contraste de hip´tesis o Una hip´tesis estad´ o ıstica consiste en una afirmaci´n acerca de un par´metro. o a Lo que se desea saber al formular una hip´tesis es saber si es verdadera o o falsa. Usualmente, la hip´tesis de la que se pretende averiguar si es verdadera o o falsa, se denomina hip´tesis nula, esta se contrasta con la afirmaci´n con- o o traria a ella llamada hip´tesis alternativa. En la estad´ o ıstica cl´sica para el a contraste de hip´tesis se tienen, la hip´tesis nula H0 : θ ∈ Θ0 y la hip´tesis o o o alternativa H1 : θ ∈ Θ1 . El procedimiento de contraste se realiza en t´rminos e de las probabilidades de error tipo I y error tipo II , estas probabilidades de error representan la posibilidad de rechazar la hip´tesis nula dado que es ver- o
  • 34. 24 Cap´ ıtulo 1. Conceptos bayesianos dadera o de no rechazar la hip´tesis nula dado que es falsa, respectivamente. o Bayesianamente, la tarea de decidir entre H0 y H1 es m´s simple. Pues a solamente se calculan las probabilidades a posteriori α0 = P (Θ0 |x) y α1 = P (Θ1 |x) y se decide entre H0 y H1 . La ventaja es que α0 y α1 son las probabilidades reales de las hip´tesis de acuerdo a los datos observados y las o opiniones a priori. Se denotar´ como π0 y π1 a las probabilidades a priori de Θ0 y Θ1 respecti- a vamente. π0 Definici´n 1.6.5 Se llamara raz´n a priori de H0 contra H1 al cociente o o π1 . An´logamente, raz´n a posteriori de H0 contra H1 al cociente α0 . a o α1 Si la raz´n a priori es cercana a la unidad significa que se considera que o H0 y H1 tienen inicialmente (casi) la misma probabilidad de ocurrir. Si este cociente de probabilidades es grande significa que se considera que H0 es m´s probable que H1 y si el cociente es peque˜o (< 1) es que inicialmente se a n considera que H0 es menos probable que H1 . Definici´n 1.6.6 La cantidad o α0 /α1 α 0 π1 B= = , π0 /π1 α 1 π0 es llamada factor de Bayes en favor de Θ0 . El factor de Bayes se interpreta como la raz´n para H0 con respecto a H1 o est´ dada por los datos. Esto se puede ver f´cilmente cuando se tienen hip´tesis a a o simples, Θ0 = {θ0 } y Θ1 = {θ1 }, as´ se tiene ı π0 f (x|θ0 ) π1 f (x|θ1 ) α0 = , α1 = , π0 f (x|θ0 ) + π1 f (x|θ1 ) π0 f (x|θ0 ) + π1 f (x|θ1 ) α0 π0 f (x|θ0 ) = , α1 π1 f (x|θ1 ) α0 π1 f (x|θ0 ) B= = . α1 π0 f (x|θ1 ) En otras palabras, B es la raz´n de probabilidad de H0 contra H1 . o
  • 35. 1.6. Inferencia bayesiana 25 Adem´s, n´tese que el factor de Bayes proporciona una medida de la a o forma en que los datos aumentan o disminuyen las razones de probabilidades de H0 respecto de H1 . As´ si B > 1 quiere decir que H0 es ahora relativamente ı, m´s probable que H1 y si B < 1 ha aumentado la probabilidad relativa de a H1 . Contraste de una cola o unilateral Este sucede cuando Θ ⊆ R y Θ0 es totalmente un lado de Θ1 , es decir. H0 : θ ≤ θ0 H1 : θ > θ 0 , o el otro caso H0 : θ ≥ θ0 H1 : θ < θ 0 . Lo interesante de este tipo de contraste es que el uso del valor −p del enfoque cl´sico tiene una justificaci´n bayesiana. a o Ejemplo 1.6.3 Sup´ngase que X ∼ N (θ, σ 2 ) y θ tiene una a priori no informativa π(θ) = 1, o entonces 1 (θ − x)2 π(θ|x) = √ exp − 2πσ 2σ 2 El contraste a realizar es el siguiente: H0 : θ ≤ θ0 H1 : θ > θ 0 , luego, α0 = P (θ ≤ θ0 |x) = Φ((θ0 − x)/σ). Cl´sicamente el valor − p es la probabilidad, cuando θ = θ0 . Aqu´ el valor − p a ı es, valor − p = P (X ≥ x) = 1 − Φ((x − θ0 )/σ), ya que la distribuci´n normal es sim´trica, se tiene que el valor − p es el o e mismo que α0 .
  • 36. 26 Cap´ ıtulo 1. Conceptos bayesianos Contraste de hip´tesis nula puntual o El contraste de hip´tesis nula puntual se refiere al siguiente contraste o H0 : θ = θ 0 H1 : θ = θ 0 que es interesante porque a diferencia del contraste cl´sico, contiene nuevas a caracter´ ısticas pero principalmente porque las respuestas en el enfoque baye- siano difieren radicalmente de las que da el enfoque cl´sico. a Casi nunca se da el caso en que θ = θ0 exactamente. Es m´s razonable a tener a la hip´tesis nula como θ ∈ Θ0 = (θ0 − b, θ0 + b), en donde b > 0 o es alguna constante elegida de tal forma que para cada θ ∈ Θ0 puede ser considerada indistinguible de θ0 . Si b llega a ser muy grande, ya no es recomendable utilizar el contraste por hip´tesis nula puntual, porque no da buenos resultados. Dado que se o debe hacer el contraste H0 : θ ∈ (θ0 − b, θ0 + b), se necesita saber cuan- do es apropiado aproximar H0 por H0 : θ = θ0 . Desde la perspectiva del an´lisis bayesiano, la unica respuesta a esta pregunta es, la aproximaci´n a ´ o es razonable si las probabilidades a posteriori de H0 son casi iguales en las dos situaciones. Una condici´n fuerte cuando ´ste sea el caso es que la fun- o e ci´n de distribuci´n conjunta de probabilidad (verosimilitud) observada sea o o aproximadamente constante en (θ0 − b, θ0 + b). Para llevar a cabo el contraste bayesiano para una hip´tesis nula puntual o H0 : θ = θ0 , no se utiliza una densidad a priori continua, ya que en cualquiera de estos casos θ0 dara una probabilidad a priori cero. Se debe utilizar una distribuci´n inicial mixta que asigne probabilidad π0 al punto θ0 y distribuya o el resto, 1 − π0 en los valores θ = θ0 es decir la densidad π1 g1 (θ), con una densidad propia g1 , en donde π1 = 1 − π0 . Si X1 , ..., Xn es una muestra aleatoria simple de la variable aleatoria X, la densidad marginal de X = (X1 , ..., Xn ) es: m(x) = π0 f (x|θ0 ) + (1 − π0 )m1 (x), donde m1 (x) = θ=θ0 f (x|θ)g1 (θ)dθ es la densidad bajo H1 . Entonces la prob-
  • 37. 1.6. Inferencia bayesiana 27 abilidad a posteriori de θ = θ0 es: α0 = P (θ0 |x) f (x|θ0 )π0 = m(x) f (x|θ0 )π0 = f (x|θ0 )π0 + (1 − π0 )m1 (x) f (x|θ0 )π0 = , f (x|θ0 )π0 + π1 m1 (x) luego α0 P (θ0 |x) = α1 1 − π(θ0 |x) P (θ0 |x) = f (x|θ0 )π0 +π1 m1 (x)−f (x|θ0 )π0 f (x|θ0 )π0 +π1 m1 (x) f (x|θ0 )π0 = . π1 m1 (x) Entonces el factor de Bayes de H0 contra H1 es, α0 π1 B = α1 π0 π0 f (x|θ)π1 = , π1 m1 (x)π0 f (x|θ0 ) B= . m1 (x) 1.6.6. Inferencia predictiva Los problemas predictivos en estad´ ıstica son aquellos en los cuales las cantidades desconocidas de inter´s son las futuras variables aleatorias. e o ıpica de este tipo es cuando la variable aleatoria Z, tiene una Una situaci´n t´ densidad g(z|θ) (θ desconocida), y se quiere predecir un valor de Z cuando existen datos , x, derivados de una densidad h(x|θ). Por ejemplo, x pueden ser los datos de un estudio de regresi´n, y se desea predecir una futura respuesta o
  • 38. 28 Cap´ ıtulo 1. Conceptos bayesianos de la variable aleatoria Z, en la regresi´n. o La idea es predecir a la variable aletoria Z ∼ g(z|θ) basado en la observaci´n o de X ∼ h(x|θ). Ahora, se supone que X y Z son independientes y g es una densidad (si no fueran independientes, ser´ necesario cambiar g(z|θ) por g(z|θ, x)). La idea ıa de la predicci´n bayesiana es que, ya que π(θ|x) es la distribuci´n a posteriori o o de θ, entonces g(z|θ)π(θ|x) es la distribuci´n conjunta de Z y θ dado X, y o al integrar sobre θ se obtenie la distribuci´n a posteriori de Z dado X. o Definici´n 1.6.7 La densidad predictiva de Z dado X = x, cuando la o distribuci´n a priori para θ es π, est´ definida por o a P (z|x) = g(z|θ)π(θ|x)dθ. Θ Ejemplo 1.6.4 Consideremos el siguiente modelo de regresi´n lineal. o Z = θY + ε, donde ε ∼ N (0, σ 2 ) con σ 2 conocido, y sup´ngase que se tiene un conjunto o de datos disponibles ((z1 , y1 ), ..., (zn , yn )). Un estad´ıstico suficiente para θ, es el estimador por m´ ınimos cuadrados X,en donde n i=1 Zi yi X= n 2 . i=1 yi Como Zi es normal y X es combinaci´n lineal de normales, entonces X ten- o dr´ una distribuci´n normal. a o X ∼ N (θ, σ 2 /Sy), en donde: Sy = n yi . i=1 2 Si se utiliza una a priori no informativa π(θ) = 1 para θ, la distribuci´n a o 2 posteriori, π(θ|x) ∼ N (x, σ /Sy).
  • 39. 1.6. Inferencia bayesiana 29 Ahora se obtiene la probabilidad de Z dado X: ∞ 1 1 1 P (z|x) = √ exp − 2 (z − θy)2 √ × −∞ 2πσ 2σ 2πσ/ Sy 1 exp − 2 (θ − x)2 dθ 2σ /Sy ∞ Sy 1 = exp − [(z − θy)2 + Sy (θ − x)]2 dθ. 2πσ 2 −∞ 2σ 2 Desarrollando separadamente [(z − θy)2 + Sy (θ − x)]2 , se tiene: [(z − θy)2 + Sy (θ − x)]2 = z 2 + Sz x2 + θ2 y 2 + Sy θ2 − 2Sy xθ + Sy x2 = z 2 + Sy x2 + θ2 (y 2 + Sy ) − 2θ(yz + Sy x) 2 2 z 2 + Sy x2 (yz + Sy x)2 yz + Sy = (y + Sy ) − + θ− 2 . y 2 + Sy (y 2 + Sy )2 y + Sy Luego sustituyendo nuevamente la expresi´n anterior en p(z|x), o √ Sy (y 2 + Sy ) z 2 + Sy x2 (yz + Sy x)2 P (z|x) = exp − − × 2πσ 2 2σ 2 y 2 + Sy (y 2 + Sy )2 ∞ 2 1 yz + Sy exp − 2 2 θ− 2 dθ −∞ 2σ /(y + Sy ) y + Sy √ Sy (y 2 + Sy ) z 2 + Sy x2 (yz + Sy x)2 σ = exp − − 2π 2πσ 2 2σ 2 y 2 + Sy (y 2 + Sy )2 y2+ Sy   1  1  2 = √ exp (z − xy) . 2 2πσ y +Sy  2σ 2 ( y2 +Sy )  Sy Sy Finalmente se tiene: σ 2 (y 2 + Sy ) P (z|x) = N xy, . Sy
  • 40. 30 Cap´ ıtulo 1. Conceptos bayesianos
  • 41. 31 Cap´ ıtulo 2 Conceptos astron´micos. o 2.1. Sistemas de coordenadas. La rotaci´n diaria de la Tierra junto con su movimiento alrededor del Sol o y la precesi´n sobre su eje de rotaci´n, aunado al movimiento relativo de las o o estrellas, planetas y otros objetos, dan lugar al constante cambio de posici´n o aparente de los objetos celestes. Se puede imaginar que todos los objetos est´n localizados en la esfera celeste. a Para localizar la posici´n de un objeto en ´sta esfera celeste es necesario crear o e un sistema de coordenadas, el cual consta de tres componentes b´sicas; un a gran c´ ırculo, la elecci´n de una direcci´n positiva del eje de simetr´ del o o ıa c´ ırculo y un punto de referencia sobre este c´ ırculo. Definici´n 2.1.1 Gran c´ o ırculo es la curva resultante de la intersecci´n de o una esfera con un plano que pasa por el centro de dicha esfera. Se necesita un punto por encima del gran c´ ırculo, que es el que nos va a dar la referencia de Norte y Sur. Y un punto de referencia en el per´ ımetro del gran c´rculo, apartir del cual se tomaran las medidas. ı Un ejemplo de esto es el sistema de coordenadas terrestre, con el ecuador como gran c´ırculo, el polo Norte como el punto encima del c´ırculo y finalmente el punto en el que el meridiano de Greenwich que corta al ecuador terrestre como punto de referencia sobre el c´ ırculo. Cabe destacar que los sistemas de coordenadas que se utilizan en la As- tronom´ son sistemas de coordenadas en dos dimensiones, y no en tres di- ıa
  • 42. 32 Cap´ ıtulo 2. Conceptos astron´micos. o mensiones como se piensa que deber´ ser, la raz´n es que no se tiene idea ıa o de la medida de profundidad de los objetos celestes. El sistema mas simple de coordenadas que se puede concebir se basa en el horizonte local del observador. El sistema de coordenadas altitud-acimut est´ basado en la medida del ´ngulo acimut a lo largo del horizonte y el a a ´ngulo de altitud por encima del horizonte. a Cenit es el punto justo arriba del observador. Vertical son llamados los gran c´ırculos que pasan por el cenit. Definici´n 2.1.2 La altura h es la medida del ´ngulo, desde el horizonte o a hasta la vertical que pasa a trav´s del objeto, se mide en el rango de [−90◦ , +90◦ ], e es positiva si el objeto se encuentra por arriba del ecuador celeste y negativa si se encuentra por debajo. Definici´n 2.1.3 La distancia cenital z es el ´ngulo medido del cenit al o a ◦ objeto, y cumple que z + h = 90 (complemento de la altura). Definici´n 2.1.4 El acimut A es la medida del ´ngulo a lo largo del hori- o a zonte hacia el este desde el norte en el gran c´ ırculo, utilizado para la medida de altitud. En la Figura 2.1, se puede ver como se ubican estas medidas en la esfera celeste. Cenit Estrella Oeste z O Norte Sur h A Horizonte Este Figura 2.1: Sistema de coordenadas altitud-acimut.
  • 43. 2.1. Sistemas de coordenadas. 33 Sin embargo el sistema de coordenadas altitud-acimut es dif´ de utilizar ıcil en la pr´ctica, porque las coordenadas dependen de la ubicaci´n del obser- a o vador. Dos personas en dos lugares distintos mediran coordenadas diferentes para el mismo objeto. Para la definici´n de un sistema m´s apropiado se o a necesita definir el ecuador celeste y la ecl´ ıptica. Definici´n 2.1.5 El ecuador celeste es un gran c´ o ırculo en la esfera celeste en el mismo plano que el ecuador de la Tierra y por tanto perpendicular al eje de rotaci´n de la Tierra. En otras palabras, es la intersecci´n entre el o o ecuador terrestre en la esfera celeste. Definici´n 2.1.6 La Ecl´ o ıptica es la l´ ınea curva por donde transcurre el Sol alrededor de la Tierra, en su movimiento aparente visto desde la Tierra. Est´ formada por la intersecci´n del plano de la ´rbita terrestre con la esfera a o o celeste. Como resultado de la inclinaci´n del eje de rotaci´n de la Tierra, la ecl´ o o ıptica ◦ est´ inclinada 23.5 con respecto al ecuador celeste. a Los dos puntos de la esfera celeste en los que se corta la ecl´ ıptica con el ecuador celeste son denominados equinoccios. En este caso el ecuador celeste ser´ tomado como un gran c´ a ırculo, el punto por encima del ecuador celeste que se utiliza en este sistema de coordenadas, es llamado polo norte celeste y es la intersecci´n entre el eje de rotaci´n de la Tierra y la esfera celeste. o o Finalmente, el punto de referencia sobre el c´ırculo ser´ el equinoccio vernal. a Definici´n 2.1.7 La declinaci´n δ es equivalente a la altitud y es medida o o en grados de norte a sur a partir del ecuador celeste. Definici´n 2.1.8 La ascenci´n recta α es an´loga al acimut y es medida o o a en direcci´n este a lo largo del ecuador celeste, desde el equinoccio vernal (γ) o hasta su intersecci´n con el c´rculo horario del objeto. o ı La ascenci´n recta se mide en horas, minutos y segundos, 24 horas de ascen- o si´n recta son equivalentes a 360◦ , o 1 hora = 15◦ . o Ya que el sistema de coordenadas ecuatoriales se basa en el ecuador celeste y el equinoccio vernal, cambios en la latitud y longitud del observador no afectan los valores de la ascenci´n recta y la declinaci´n. Los valores de α o o
  • 44. 34 Cap´ ıtulo 2. Conceptos astron´micos. o Polo norte celeste Estrella Tierra δ Ecuador celeste α γ ecliptica Figura 2.2: Sistema de coordenadas ecuatoriales. α, δ, γ son la ascenci´n recta, declinaci´n y posici´n del equinoccio vernal respectivamente. o o o y δ no son afectados similarmente por el movimiento de la tierra alrededor del sol. En la Figura 2.2, se muestra el sistema de coordenadas ecuatoriales descrito. A pesar de las referencias del sistema de coordenadas ecuatorial con el ecuador celeste y su intersecci´n con la ecl´ o ıptica (equinoccio vernal), existe un movimiento llamado precesi´n, el cual hace que el equinoccio vernal no o suceda en el mismo lugar cada a˜o, y por lo tanto la ascenci´n recta y la n o declinaci´n del objeto cambien un poco. o Definici´n 2.1.9 Precesi´n es el lento tambaleo del eje de rotaci´n de la o o o Tierra, debido a la forma no esf´rica de ´sta y a su interacci´n gravitacional e e o con el Sol y la Luna. El peri´do de precesi´n de la Tierra es de 25 770 a˜os y causa que la o o n proyecci´n del polo norte celeste sobre la esfera celeste describa un peque˜o o n c´ ırculo (Ve´se [6]). Ya que la precesi´n altera la posici´n del equinoccio vernal a o o a lo largo de la ecl´ptica, es necesario referirse a una ´poca espec´ ı e ıfica (refe- rencia) para definir la ascenci´n recta y la declinaci´n de un objeto celeste. o o El valor actual de α y δ, se pueden calcular bas´ndose en la cantidad de a tiempo transcurrido a partir de la ´poca de referencia. e
  • 45. 2.2. Determinaci´n de las ecuaciones. o 35 La ´poca utilizada comunmente en la actualidad por los cat´logos astron´mi- e a o cos de estrellas, galaxias y otros fen´menos celestes refiere a la posici´n de o o un objeto al medio d´ en Greenwich, Inglaterra el 1 de enero del 2000. ıa El calendario utilizado comunmente en la mayor´ de los pa´ ıa ıses es el calendario Gregoriano, sin embargo los astr´nomos no se preocupan por los o a˜os bisiestos como en el calendario Gregoriano, a ellos m´s bien lo que les n a interesa es el n´mero de d´ (o segundos) entre eventos. Ellos normalmente u ıas cuentan los eventos a partir de tiempo 0 que fue el 1 de enero de 4713 A.C. como lo especifica el calendario Gregoriano , y JD 0.0 para el calendario Juliano. La fecha de referencia 1 de enero del 2000 (J2000.0) es JD 2451545.0, y para referise a las 6 pm del d´ 1 de enero del 2000 lo que se hace es que se ıa suma la fraccion del d´ entonces esta fecha se designa como JD 2451545.25. ıa El a˜o Juliano consta de 365.25 d´ (Ve´se [6]). n ıas a 2.2. Determinaci´n de las ecuaciones. o Las estrellas tienen un movimiento propio, a trav´s de la b´veda celeste e o que se puede describir generalmente como un movimiento con una aceleraci´n o constante. Cuando un objeto se encuentra en movimiento, con una aceleraci´n cons- o tante, es importante determinar su posici´n x(t) al inst´nte t, la cual est´ da- o a a da por las ecuaciones de la cinem´tica. a 1 x(t) = x0 + v0 t + at2 , (2.1) 2 donde: v0 : velocidad del objeto al tiempo t = 0. x0 : la posici´n del objeto al tiempo t = 0, o a: aceleraci´n. o El movimiento de las estrellas en la b´veda celeste refelaja un cambio de o sus coordenadas ecuatoriales. El Sol, la Luna y los planetas manifiestan un movimiento complejo y relativamente r´pido en el cielo. Las estrellas tambi´n a e se mueven con respecto de las dem´s, aunque su velocidad actual puede ser a muy grande, su movimiento relativo aparente es muy dif´ de medir por la ıcil grandes distancias a las que se encuentran.
  • 46. 36 Cap´ ıtulo 2. Conceptos astron´micos. o Consid´rese la velocidad de una estrella relativa a un observador (Figura e 2.3). Con θ el ´ngulo de cambio en el movimiento, D distancia a la estrella a suponiendo que es constante y r distancia que se mueve la estrella. estrella r v vθ vr estrella D θ Figura 2.3: Movimiento propio. El vector velocidad se puede descomponer en componentes mutuamente perpendiculares, una a lo largo de la l´ınea de visi´n del observador y la otra o perpendicular. La componente a lo largo de la l´ ınea de visi´n es la velocidad o radial, vr de la estrella y la segunda componente que es la de nuestro inter´se es la velocidad transversal, vθ de la estrella, a lo largo de la esfera celeste. Esta velocidad transversal aparece como un cambio angular lento en el sis- tema de coordenas, conocido como movimiento propio. En un intervalo de tiempo dt la estrella se mueve en direcci´n perpendicular o a la l´ ınea de visi´n del observador una distancia o dr = Ddθ. Si la distancia del observador a la estrella es D, entonces el cambio angular dθ en su posici´n a lo largo de la esfera celeste es o , que se obtiene al derivar dt la distancia recorrida por la estrella con respecto al tiempo. dr d(Dθ) dθ = =D , dt dt dt en donde dθ = µ : movimiento propio de la estrella. dt
  • 47. 2.2. Determinaci´n de las ecuaciones. o 37 Al encontrar la segunda derivada de la distancia recorrida por la estrella con respecto al tiempo, se tiene que dr2 d2 (Dθ) d2 θ = = D 2. dt2 dt2 dt As´ como se esta suponiendo una aceleraci´n constante, de acuerdo a la ı o ecuaci´n (2.1), o dθ 1 d2 θ 2 r = r0 + D t+D t, dt 2 dt2 dθ 1 d2 θ 2 Dθ = Dθ0 + D t + D t, dt 2 dt2 dθ 1 d2 θ 2 θ = θ0 + t+ t. (2.2) dt 2 dt2 Ahora aplicando, la ecuaci´n (2.2) se tienen las ecuaciones de posici´n o o para la ascenci´n recta (α) y la declinaci´n (δ), respectivamente. o o 1 α(t) = α0 + µα t + aα t2 , (2.3) 2 1 δ(t) = δ0 + µδ t + aδ t2 , (2.4) 2 en donde: α0 : posici´n en α al tiempo 0, en este caso para el a˜o 2000 (J2000), o n δ0 : posici´n en δ al tiempo 0, J2000, o µα : movimiento propio en α, µδ : movimiento propio en δ, aα : aceleraci´n en α, o aδ : aceleraci´n en δ. o Sin embargo, tomando en cuenta que dadas las ascenciones rectas α1 y α2 de dos estrellas la diferencia es ∆α = (α1 − α2 ) cos δ, entonces la ecuaci´n o (2.3) queda de la siguiente forma, 1 α(t) = α0 + (µα cos δ)t + (aα cos δ)t2 . (2.5) 2