SlideShare una empresa de Scribd logo
1 de 15
Presentación #2                                                             Integrantes del grupo:
MATH 5400 Probabilidad                                                      Wadi Adames Román
Dr. Balbino García                                                          Julia Crespo Rodríguez
24 de octubre de 2009                                                       Joane De Jesús Dátiz


        Resumen del Capítulo 10: Movimiento Browniano y Procesos Estacionarios
                            Libro: “Introduction to Probability Models”
                                         Autor: Sheldon M. Ross




                                  MOVIMIENTO BROWNIANO


        Los procesos de Movimiento Browniano, a veces llamados procesos de Wiener, son de
los más importantes procesos estocásticos en la teoría de probabilidad aplicada. Su origen se
encuentra en la Física pero su nombre se debe a Robert Brown, botánico del siglo XIX que lo
descubrió.   Dicho movimiento es el que exhibe una partícula pequeña que se encuentra
totalmente inmersa en un líquido o gas. La primera explicación del fenómeno la dio Albert
Einstein en el año 1905. El mostró que el Movimiento Browniano se podría explicar asumiendo
que la partícula era continuamente sujeta al bombardeo de moléculas que se encuentran en su
entorno. Sin embargo la primera definición concisa la presentó Wiener en el 1918.
        Empecemos considerando una caminata simétrica al azar en la cual, en cada unidad de
tiempo es igualmente probable que se de un paso hacia la izquierda o hacia la derecha. Esto es
una cadena de Markov con
                                            Pi,i+1= ½ = Pi,i-1, i = 0, + 1,….
Ahora supongamos que aceleramos este proceso dando pasos cada vez más cortos en intervalos
de tiempo más corto. Si tomamos el límite de la manera correcta obtenemos el Movimiento
Browniano.
        Si X (t ) denota la posición en el tiempo t cuando
                                 X (t ) = ∆x ( X 1 + ... + X [ t / ∆t ] )

                     + 1       si el i − ésimo paso de tamaño ∆x es a la derecha
donde           Xi = 
                     − 1                     si el i − ésimo paso es a la ixquierda
y   [ t / ∆t ]   es el entero mayor que es menor o igual a t / ∆t y donde las X i son independientes

                                        1
con P{ X i = 1} = P{ X i = −1} =          .
                                        2
                                           [ ]
Como E [ X i ] = 0 y Var ( X i ) = E X 12 = 1 obtenemos que

                                                         E [ X (t )] = 0

                                                                       t 
                                                Var ( X (t )) = (∆x) 2  
                                                                        ∆t 
Ahora pasaremos a definir formalmente el movimiento Browniano.


Definición         Un proceso estocástico { X (t ), t ≥ 0} se dice que es un movimiento Browniano si
                  cumple las siguientes condiciones:
          1.        X(0) = 0
          2.        { X (t ),   t ≥ 0} tiene incrementos estacionarios e independientes.

          3.        Para cada t > 0, X(t) está normalmente distribuida con media 0 y varianza σ 2t.


La interpretación del Movimiento Browniano como el limite de caminatas al azar sugiere que
X(t) debería ser una función continua de t. Como X(t) es normal con media 0 y varianza t, su
función densidad está dada por
                                                                 1        2
                                                    f t ( x) =       e − x 2t
                                                                 2πt

La función densidad conjunta de X (t1 ),... X (t n )              para t1 < ... < t n es

                                                  1  x2 ( x − x )2
                                                                                   ( xn − xn−1 ) 2  
                                                                                                      
                                              exp−  + 1      2      1
                                                                           ++                      
                                                  2  t1
                                                             t 2 − t1                t n − t n−1  
                                                                                                    
                          f ( x1 ,..., xn ) =
                                                   (2π ) [ t1 (t 2 − t1 )  (t n − t n−1 )]
                                                          n/ 2                              1/ 2




A partir de esta función de densidad, se puede calcular cualquier probabilidad deseada.
Supongamos que se requiere una distribución condicional de X(s) dada por X(t) = B donde s < t.
La densidad condicional está dada por
f s ( x) f t −s ( B − x)
                                     f s t ( x B) =
                                                               ft ( B)

                                                                {
                                                  = K1 exp − x 2 / 2 s − ( B − x) 2 / 2(t − s )           }
                                                                  1      1  Bx 
                                                  = K 2 exp− x 2  +
                                                                   2 s 2(t − s )  + t − s 
                                                                                  
                                                                                         
                                                            ( x − Bs / t ) 2 
                                                  = K 3 exp−                 
                                                            2 s (t − s ) / t 
donde K1, K2 y K3 no dependen de x. Por lo tanto,

                                       E [ X ( s) X (t ) = B ] = B
                                                                s
                                                                t

                                   Var [ X ( s ) X (t ) = B ] = (t − s )
                                                               s
                                                               t




  “HITTING TIMES”, VARIABLE MÁXIMA, Y EL PROBLEMA DE LA RUINA DEL
                                              JUGADOR


       Sea Ta el primer momento en que el proceso del Movimiento Browniano golpea a.
Cuando a > 0 calcularemos P{Ta < t} considerando P{X(t) > a} y considerando cuando Ta < t ó Ta
> t. Entonces,
                 P{ X (t ) ≥ a} = P{ X (t ) ≥ a Ta ≤ t}P{Ta ≤ t} + P{ X (t ) ≥ a Ta > t}P{Ta > t}

Ahora, si Ta < t entonces el proceso golpea a en algún punto en [0,t] y por simetría es
igualmente probable que esté por encima de a o por debajo de a en el tiempo t. Por tanto,
                                                                        1
                                        P{ X (t ) ≥ a Ta ≤ t} =
                                                                        2
Como P{ X (t ) ≥ a T > t}P{T > t} = 0 entonces,
                    a       a


                                                                    2           ∞
                                                                            ∫
                                                                                          2
                           P{Ta ≤ t} = 2 P{ X (t ) ≥ a} =                           e−x       / 2t
                                                                                                     dx
                                                                    2πt     a


                                                                     2          ∞
                                                                            ∫
                                                                                                 2
                                                               =                       e − y / 2 dy
                                                                     2π         a/ t
a                               -a
donde a > 0. Para a < 0, la distribución de T es, por simetría, la misma que en T . Por tanto,


obtenemos que

                                                   2        ∞
                                                        ∫
                                                                       2
                                   P{Ta ≤ t} =                     e − y / 2 dy
                                                   2π       a/ t




                     VARIACIONES EN EL MOVIMIENTO BROWNIANO


Movimiento Browniano con coeficiente de difusión


   Se dice que {X(t), t > 0} es un proceso de Movimiento Browniano con coeficiente de
difusión d y parámetro de varianza y2, si
       (i)     X(0) = 0
       (ii)    {X(t), t > 0} tiene incremento estacionario e independiente
       (iii)   X(t) está normalmente distribuido con media t y varianza t 2.


Una definición equivalente es establecer que {B(t), t > 0} sea un Movimiento Browniano
estándar y definir
                                           X (t ) = σB (t ) + µt


Movimiento Browniano Geométrico


       Si {Y(t), t > 0} es un proceso de Movimiento Browniano con coeficiente de difusión   y
parámetro de varianza p2 entonces el proceso {X(t), t > 0} definido por X(t) = eY(t) se conoce
como Movimiento Browniano Geométrico.
       Para s < t consideremos E [ X (t ) X (u ),0 ≤ u ≤ s ] . Entonces
[                                ]          [
                     E [ X (t ) X (u ),0 ≤ u ≤ s ] = E eY ( t ) Y (u ),0 ≤ u ≤ s = X ( s ) E eY ( t )−Y ( s )   ]
Ahora, la función generadora de momentos de una variable aleatoria normal W está dada por

                                                [ ]
                                            E e aW = e aE [W ]+a
                                                                         2
                                                                             Var (W ) / 2



Ya que Y(t) – Y(s) es normal con media (t – s) y varianza (t – s)( 2, si a = 1 tenemos que

                                            [               ]
                                          E eY ( t )−Y ( s ) = e µ ( t −s )+( t −s )σ
                                                                                        2
                                                                                            /2




De esta forma se obtiene que

                                E [ X (t ) X (u ),0 ≤ u ≤ s ] = X ( s)e ( t −s )( µ +σ
                                                                                                 2
                                                                                                     / 2)




                                   VALORACIÓN DE OPCIONES
                                         (“Pricing Stock Options”)




Un ejemplo de valoración de opciones


       En situaciones en las que el dinero va a ser recibido o pagado en periodos de tiempo
distintos, uno toma en cuenta el tiempo de valor del dinero. Esto es, darle a la cantidad v un
tiempo t en el futuro no es peor que dar v inmediatamente. La razón para esto es que si v es dado
a uno inmediatamente, luego esto puede ser prestado con interés y sería peor que si v al tiempo t.
Para tomar esto en cuenta, supongamos que el valor de tiempo 0, también llamado valor
presente, de la cantidad v al ser ganado en el tiempo t es ve − at . La cantidad α también es
conocida como el factor de descuento. En términos de economía, la suposición de la función de
descuento e − at es equivalente a la suposición de que uno puede ganar interés a una razón
compuesta continua de 100α por ciento por unidad de tiempo.


El Teorema del Arbitraje
Considere un experimento cuyo conjunto de posibles resultados es S = {1,2,...m} .
Suponga que hay n pagas disponibles. Si la cantidad x es apostada sobre la paga i, entonces el

retorno xri ( j ) es devengado si el resultado del experimento es j. En otras palabras ri (⋅) es la
función de retorno para la unidad apostada sobre la paga i. La cantidad apostada sobre una paga

puede ser positiva, negativa o cero. Un esquema de apuesta es un vector x = ( x1 ,..., x n ) con la

interpretación de que x1 es apostado sobre el activo 1, x 2 sobre el activo 2 y x n sobre el activo n.
Si el resultado del experimento es j, entonces el retorno del esquema de apuesta de x es:
                                                              n
                                                      x = ∑ xi ri ( j )
                                                             i =1


       El siguiente teorema establece que existe la probabilidad del vector p = ( p1 ,.... pm ) en el
conjunto de posibles resultados del experimento en el que cada uno de los activos tiene un
retorno esperado igual a 0, o hay un esquema de apuesta que garantiza ganar la apuesta.


Teorema: Exactamente una sola de las siguientes proposiciones es verdadera:
               1. Existe un vector de probabilidad p = (p1,….,pm) para el cual
                                               m

                                               ∑ p r ( j ) = 0 , para toda
                                               j =1
                                                       j i                   i = 1,…,m

               2. Existe un esquema de apuestas x= ( x1 ,..., xn ) para el cual
                                   n

                                 ∑ x r ( j ) > 0 , para toda i=1,…,n
                                  i =1
                                         i i



       En otras palabras si X es el resultado del experimento el teorema nos dice que existe un
vector de probabilidad p para x tal que:
                                 E p [ri ( X )] = 0 , para toda i=1,…,n

o hay un esquema de apuestas que asegura que se gana la apuesta.


Fórmula de Valoración de Opciones Black-Scholes
Asumamos que el precio actual de una reserva es X(0)= x0 , y sea X(t) su precio en el
tiempo t. Nos interesa la reserva en el intervalo de tiempo de 0 a T. Asumamos que el factor de

descuento es α y por lo tanto el valor presente del precio de la reserva es e − at X (t ) .
        Podemos pensar en el cambio del precio de la reserva en el tiempo como nuestro
experimento. Por lo tanto el resultado del experimento sería la función X(t), donde 0 ≤ t ≤ T .
Además, supongamos que podemos adquirir cualquiera de las N diferentes opciones en el tiempo

0. La opción i que cuesta ci por cada parte, nos da la opción de adquirir partes de la reserva en el

tiempo ti para el precio fijo de K i por cada parte, donde i=1,…, N.

        Vamos a asumir que queremos determinar los valores de ci para los cuales no existe una
estrategia de apuesta que nos asegure ganar. Si generalizamos el Teorema del Arbitraje, notamos
que no habrá forma segura de ganar si y solo si existe una medida de probabilidad sobre el
conjunto de resultados mediante la cual todos los activos tengan un retorno esperado igual a 0.
Sea P una medida de probabilidad sobre el conjunto de los resultados y consideremos el activo
de observar la reserva durante un tiempo s para entonces adquirir (o vender) una parte con la
intención de venderla (o adquirirla) en el tiempo t, donde 0 ≤ s < t ≤ T . El valor presente del
activo para la reserva es:
                               EP [e −αt X (t ) | X (u ),0 ≤ u ≤ s ] = e −αs X ( s)


        Supongamos que,
                                                 X (t ) = x0 eY ( t )

donde {Y (t ), t ≤ 0} es un proceso de movimiento Browniano con coeficiente de difusión µ y

parámetro de varianza σ 2 . Por lo que,
                                                                                       2
                              E[ X (t ) X (u ),0 ≤ u ≤ s ] = X ( s )e ( t −s )( µ +σ       / 2)



Si escogemos µ y σ 2 de forma que,
                                                 µ +σ 2 / 2 =α
entonces las ecuaciones anteriores se satisfacen.
Se deduce de lo anterior que si ponemos un precio a una opción para comprar una
porción del inventario en el tiempo t para un precio arreglado K, entonces
                                                    c = EP [e −εt ( X (t ) − K ) + ]
donde c es la opción para comprar una porción del inventario. Sin embargo ningún arbitraje es

posible. Como X (t ) = x0 e , donde Y(t) es normal con media µt y varianza tσ 2 , obtenemos
                           Y (t )



que
                                        ∞                                        1
                           ceαt = ∫
                                                                                                        2
                                                                                                            / 2 tσ 2
                                                       ( x0 e y − K )                    e −( y −µt )                  dy
                                    log( K / x0 )
                                                                                2πtσ 2
Haciendo el cambio de variable w = ( y − µt )(σt 1/ 2 ) obtenemos,
                                             1            ∞                                  1              ∞
                                                      ∫                                             ∫
                                                                            2                                          2
                       ceαt = x0 e µt                         eσw t e −w / 2 dw − K                             e −w / 2 dw
                                             2π        a                                     2π         a


donde,
                                                               log( K / x0 ) − µt
                                                      a=
                                                                     σ t
Ahora,
                                  1             ∞
                                            ∫
                                                                    2                2
                                                    eσw t e −w / 2 dw = e tσ / 2φ (σ t − a )
                                  2π        a


donde φ es la función estándar de distribución normal.


         Utilizando
                                                              µ +σ 2 / 2 =α
para la ecuación
                                                                2
                                 ceαt = x0 e µt +σ               t/2
                                                                        φ (σ t − a ) − Kφ (−a )
y dado que b = −a , podemos escribir lo anterior como:
                                            c = x0φ (σ t + b) − Ke −αtφ (b)

donde
                                                      αt − σ 2t / 2 − log( K / x0 )
                                            b=
                                                                  σ t
La fórmula anterior depende del precio inicial del inventario x0 , la opción de tiempo t , la

opción de precio K , el factor de descuento α y el valor σ 2 , donde para cualquier valor de σ 2
no hay arbitraje posible. Sin embargo esta no es la única ecuación para la que esto es posible.
Supongamos que { X (t ),0 ≤ t ≤ T } es un proceso estocástico cualquiera que satisface s < t ,

                               E[e −αt X (t ) X (u ),0 ≤ u ≤ s] = e −αs X ( s )

Dado que
                                         c = E[e −αt ( X (t ) − K ) + ]
se comprueba que ningún arbitraje es posible.


       Otro ejemplo de un proceso estocástico en el que no hay arbitraje posible es el siguiente.
Supongamos que tenemos una sucesión de variables aleatorias independientes que tienen en
común la media µ y supongamos que este es un proceso independiente de {N (t ), t ≥ 0} , el cual
es un proceso de Poisson con razón λ . Dado que utilizando la propiedad de la identidad,
tenemos que,
                                                        N (s)      N (t )
                                          X (t ) = x0 ∏ Yi        ∏Y             j
                                                         i =1   j = N ( s ) +1


y asumiendo el incremento independiente de un proceso de Poisson, tenemos que para s < t ,
                                                                        N (t ) 
                             E [ X (t ) X (u ),0 ≤ u ≤ s ] = X ( s ) E  ∏ Y j 
                                                                        j = N ( s )+1 
Condicionando la cantidad de eventos entre s y t obtenemos que,
                                            N (t ) 
                                         E  ∏ Y j  = e −λ ( t − s )(1− µ )
                                            j = N ( s )+1 
Por lo tanto si seleccionamos λ y µ tales que
                                               λ (1 − µ ) = −α ,
las ecuaciones anteriores se satisfacen.




                                            “WHITE NOISE”
Sea { X (t ), t ≥ 0} un proceso de movimiento Browniano y f una función que tiene una

                                                                        b
derivada continua en la región [a, b]. El integral                  ∫a
                                                                            f (t )dX (t ) se define como:

                                                           n
                                                                f (ti −1)[ X (ti )− X (ti −1)]
                           b
                       ∫a
                               f (t )dX (t ) ≡     lim    ∑
                                                   n → ∞ i =1
                                                                            max(t i −ti −1 ) →0


donde a = t 0 < t1 < ... < t n = b es una partición de la región [a, b]. Usando la identidad
  n                                                                                   n
 ∑     f (ti −1)[ X (ti ) − X (ti −1)] =               f (b) X (b) − f (a ) X (a ) − ∑ X (ti )[ f           (ti ) − f (ti −1)]
i =1                                                                                i =1

vemos que:
                                   b                                                              b
                               ∫
                               a
                                       f (t )dX (t ) = f (b) X (b) − f (a ) X (a ) − ∫ X (t )df (t )
                                                                                                  a




         Utilizando el lado derecho de la ecuación anterior obtenemos, asumiendo el intercambio
de expectación y del límite, que:

                                                       E  ∫ f (t )dX (t ) = 0
                                                            b

                                                         a
                                                                         
                                                                          
Además,
                             n                                       n
                        Var  ∑ f (t i −1 )[ X (t i ) − X (t i −1 )]  = ∑ f 2 (t i −1 )(t i − t i −1 )
                             t =1                                    i =1
donde la igualdad se debe a los incrementos independientes del movimiento Browniano.
Tomando los limites de lo anterior tenemos que,

                                                Var  ∫ f (t )dX (t ) = ∫ f 2 (t )dt
                                                       b                  b

                                                    a
                                                                     a
                                                                     




                                                PROCESOS GAUSSIANOS


         Un proceso estocástico                     X (t ), t ≥ 0 es llamado Proceso Gaussiano o Normal, si

X (t1 ),..., X (t n ) es una distribución normal multivariable para toda t1 ,..., t n . Si X (t1 ),..., X (t n ) es
un Proceso de Movimiento Browniano entonces, X (t1 ), X (t 2 ),..., X (t n ) puede ser expresado

como     una     combinación         linear     de     variables        independientes        normales        aleatorias

X (t1 ), X (t 2 ) − X (t1 ), X (t3 ) − X (t 2 ),..., X (t n ) − X (t n−1 ) por lo que el Movimiento Browniano es un
Proceso Gaussiano.
        Una distribución normal multivariable es determinada completamente por el valor de la
media marginal y el valor de la covarianza siguiendo un movimiento Browniano estándar que

puede ser definido como un Proceso Gaussiano con E [ X (t )] = 0 y s ≤ t donde,
        Cov( X ( s ), X (t )) = Cov( X ( s), X ( s) + X (t ) − X ( s)
                             = Cov ( X ( s ), X ( s) + Cov( X ( s), X (t ) − X ( s)) = Cov ( X ( s ), X ( s )) = s

considerando que Var ( X ( s )) = s .

        Sea { X (t ), t ≥ 0} un proceso de movimiento Browniano estándar y consideremos los

valores del proceso entre 0 y 1 condicional en X (1) = 0 . Observemos un proceso estocástico

condicional { X (t ),0 ≤ t ≤ 1 X (1) = 0} . Como la distribución condicional es multivariable normal
se sigue que este proceso condicional, conocido como un puente Browniano, es a su vez un
proceso Gaussiano. Podemos calcular la función de varianza de la siguiente manera:
                            E [ X ( s) X (1) = 0] = 0 para s < 1 obteniendo para s < t < 1

                     Cov[( X ( s ), X (t )) X (1) = 0] = E[ X ( s ) X (t ) X (1) = 0] = s(1 − t )

        Un puente Browniano puede ser definido como un proceso Gaussiano con valor de media
0 y función de covarianza s (1 − t ), s ≤ t . Si { X (t ), t ≥ 0} es un Movimiento Browniano, entonces

el proceso {Z (t ), t ≥ 0} definido por
                                                           t
                                                 Z (t ) = ∫ X ( s)ds
                                                           0

es llamado Movimiento Browniano Integrado.




       PROCESOS ESTACIONARIOS Y PROCESOS ESTACIONARIOS DÉBILES

                           (“Stationary and Weakly Stationary Processes”)
Un proceso estocástico { X (t ), t ≥ 0} es un proceso estacionario si para toda n, s, t ,..., t n

el vector aleatorio X (t1 ),..., X (t n )     y     X (t1 + s ),..., X (t n + s)      tiene la misma distribución
conjunta. En otras palabras, un proceso es estacionario si en la búsqueda de cualquier punto s
como el origen, el proceso tiene las mismas leyes de probabilidad.                       Dos ejemplos de procesos
estacionarios son:
        (i)       Una cadena de Markov ergódica de tiempo continuo { X (t ), t ≥ 0} cuando

                  P{ X (0) = j} = Pj , j ≥ 0 donde {Pj , p ≥ 0} son los límites de probabilidad.

        (ii)      { X (t ), t ≥ 0}   cuando X (t ) = N (t + L) − N (t ), t ≥ 0 donde L > 0 es una

                  constante fija y N (t ), t ≥ 0} es un proceso de Poisson con razón λ.
        Algunos de los ejemplos en los cuales se ven reflejados los procesos estacionarios son:
        (i)       “The Random Telegraph Signal Process”
                  Con una media         E[ X (t )] = E[ X 0 (−1) N ( t ) = 0

                  y una función de covarianza Cov[ X (t ), X (t + s)] = E[ X (t ) X (t + s )] = e −2λs
        (ii)      Proceso de Ornstein – Uhlenbeck
        (iii)     Sea { X (t ), t ≥ 0} un proceso de movimiento Browniano estándar y definido para

                  α >0 ,         V (t ) = e −αt / 2 X (eαt ) con una media         E[V (t )] = 0   y una función de

                  covarianza Cov[V (t ),V (t + s )] = e −αs / 2 . A {V(t), t > 0} se le conoce como Proceso
                  de Ornstein – Uhlenbeck.


        La condición para que un proceso sea estacionario es bastante estricta y se define el
proceso { X (t ), t ≥ 0} como un proceso estacionario de segundo orden o un proceso estacionario

débil si      E[ X (t )] = c y Cov[ X (t ), X (t + s)] , lo cual no depende del tiempo t. Un proceso
estacionario es de segundo orden si los primeros dos momentos de X(t) son el mismo para toda t

y la covarianza entre X(s) y X(t) dependen solamente de                   t − s . Para dicho proceso tenemos,

R ( s) = Cov[ X (t ), X (t + s)] .   La distribución finita dimensional de un proceso Gaussiano es
determinada por su media y varianza si está dado que el proceso Gaussiano estacionario de
segundo orden es estacionario.
Por otro lado, se encuentran los procesos estacionarios de segundo orden no

estacionarios. Un ejemplo de estos es el Proceso Auto-regresivo. Sea Z 0 , Z1 ,...,            una variable

aleatoria incorrelativa con E[ Z n ] = 0, n ≥ 0 y

                                                      σ 2 /(1 − λ2 ) n = 0
                                        Var ( Z n ) = 
                                                           σ 2 n ≥1

 donde λ2 < 1       . Se define
                                             X 0 = Z0 ,
                                             X n = λX n−1 + Z n , n ≥ 1


El proceso { X n , n ≥ 0}      es llamado un proceso auto-regresivo de primer orden. Este indica que
el estado en el tiempo n (esto es Xn) es un múltiplo constante del estado de tiempo n - 1 más
un error aleatorio llamado Zn .




          ANÁLISIS ARMÓNICO DE PROCESOS ESTACIONARIOS DÉBILES
                 (“Harmonic Analysis of Weakly Stationary Processes”)


        Sean   { X (t ),−∞ < t < ∞}     y {Y (t ),−∞ < t < ∞} procesos estocásticos tales que
                                                             ∞
                                                   Y (t ) = ∫ X (t − s )h( s) ds .
                                                            −∞

Al { X (t )} se le conoce como el proceso de entrada y a {Y (t )} como el proceso de salida. La
función h se llama la función de respuesta a impulsos. Esta ecuación es un tipo de filtro lineal
invariante, donde la palabra filtro se debe a que podemos pensar que el proceso de entrada {X(t)}
está pasando a través de algún medio y luego es filtrado para así resultar en el proceso de salida

{Y(t)}. Es un filtro lineal ya que si los procesos de entrada { X 1 (t )} , { X 2 (t )} resultan en los

procesos de salida {Y1 (t )} , {Y2 (t )} entonces el proceso de entrada { aX 1 (t ) + bX 2 (t )} resulta en el

proceso de salida       { aY1 (t ) + bY2 (t )} .    Por último, es de tiempo invariante pues el proceso
{ X (t + τ )} ,   donde τ es una constante, resulta en el proceso {Y (t + τ )} , i.e. si atrasamos (o

adelantamos) el proceso de entrada un tiempo τ, entonces el proceso de salida se atrasa (o

adelanta) un tiempo τ.

         Supongamos que { X (t ),−∞ < t < ∞} es un proceso estacionario débil donde E[ X (t )] = 0

y con una función de covarianza R X ( s ) = Cov [ X (t ), X (t + s )] . Queremos ahora determinar el

valor esperado y la covarianza correspondientes al proceso de salida {Y (t ),−∞ < t < ∞} . Ahora,

            ∞
como    ∫−∞
                h( s ) ds < ∞ y como se puede demostrar que existe alguna M < ∞ lo suficientemente

grande tal que E X (t ) < M , entonces

                        E[Y (t )] = E  ∫ X (t − s )h( s )ds  = ∫ E [ X (t − s)]h( s )ds = 0 .
                                         ∞                        ∞

                                       −∞
                                                             −∞
                                                             
De manera análoga, se sigue que
        RY (t 2 − t1 ) = Cov [Y (t1 ), Y (t 2 )] = ∫∫ R X (t 2 − s 2 − t1 + s1 )h( s1 )h( s 2 ) ds1 ds 2       (*)

Nótese que esto significa que Cov [Y (t1 ), Y (t 2 )] depende de t1 y t2 solo a través de t2 – t1. Por lo

tanto {Y (t )} es un proceso estacionario débil.

         Ahora, esta última ecuación para RY (t 2 − t1 ) es mejor expresarla en términos de
transformadas de Fourier para RX y RY. Sean
                                                  ~
                                                  R X ( w) = ∫ e −iws R X ( s) ds ,


                                                   ~
                                                  R Y ( w) = ∫ e −iws RY ( s )ds

y
                                                       ~
                                                       h( w) = ∫ e −iws h( s )ds
                                                                                                           ~
las transformadas de Fourier de RX, RY y h respectivamente. La función R X ( w) se conoce

como la densidad espectral de poder del proceso { X (t )} . De (*) se obtiene que
                                              ~              ~        ~      ~
                                              R Y ( w) = R X ( w) h( w) h(− w) .

Ahora mediante la fórmula e ix = cos x + i sin x y e −ix = cos x − i sin x se tiene que
[ ∫ h(s) cos(ws) ds ] + [ ∫ h(s) sin(ws) ds ]
      ~    ~                                                                                                  ~       2
                                              2                        2                                2

                                                                               ∫ h ( s )e
                                                                                            −iws
      h( w) h(− w) =                                                       =                       ds       = h( w)       .

Por lo tanto
                                          ~         ~       ~      2

                                          R Y ( w) = R X ( w) h( w) .




                                              BIBLIOGRAFÍA


Ross, Sheldon M. (2000). Introduction to Probability Models. Seventh Edition. Academic Press.
Págs. 549 - 584.

Más contenido relacionado

La actualidad más candente (20)

1. integración por sustitución
1. integración por sustitución1. integración por sustitución
1. integración por sustitución
 
Cap8
Cap8Cap8
Cap8
 
Transformada fourier almira
Transformada fourier almiraTransformada fourier almira
Transformada fourier almira
 
N2
N2N2
N2
 
Problemas tema1 sy_c
Problemas tema1 sy_cProblemas tema1 sy_c
Problemas tema1 sy_c
 
Metodos numericos
Metodos numericosMetodos numericos
Metodos numericos
 
señales y sistemas
señales y sistemas señales y sistemas
señales y sistemas
 
Metodo de integración POR PARTES.
Metodo de integración POR PARTES.Metodo de integración POR PARTES.
Metodo de integración POR PARTES.
 
Ejercicios resueltos 2011
Ejercicios resueltos 2011Ejercicios resueltos 2011
Ejercicios resueltos 2011
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
4 la derivada por formulas
4 la derivada por formulas4 la derivada por formulas
4 la derivada por formulas
 
Apuntes y ejercicios Señales y sistemas (Borrador)
Apuntes y ejercicios Señales y sistemas (Borrador)Apuntes y ejercicios Señales y sistemas (Borrador)
Apuntes y ejercicios Señales y sistemas (Borrador)
 
Trigonometria resolvidos
Trigonometria resolvidosTrigonometria resolvidos
Trigonometria resolvidos
 
Formulario de derivación
Formulario de derivaciónFormulario de derivación
Formulario de derivación
 
Lineal prac2
Lineal prac2Lineal prac2
Lineal prac2
 
Matematica 1
Matematica 1Matematica 1
Matematica 1
 
Cap 7 mas 180-204
Cap 7 mas  180-204Cap 7 mas  180-204
Cap 7 mas 180-204
 
Tareaswmmae 2 14-soluc
Tareaswmmae 2 14-solucTareaswmmae 2 14-soluc
Tareaswmmae 2 14-soluc
 
Cap 7 mas 180-204
Cap 7 mas  180-204Cap 7 mas  180-204
Cap 7 mas 180-204
 
4 extremos
4 extremos4 extremos
4 extremos
 

Similar a Presentacion Mov Browniano úLtima EdicióN De Julia

Trabajo fourier
Trabajo fourierTrabajo fourier
Trabajo fouriersadamssh
 
Tema5 Características Generales de las Ondas
Tema5 Características Generales de las OndasTema5 Características Generales de las Ondas
Tema5 Características Generales de las Ondasrafarrc
 
ecuacion de_difusion_esquema_de_crank_nicholson
ecuacion de_difusion_esquema_de_crank_nicholsonecuacion de_difusion_esquema_de_crank_nicholson
ecuacion de_difusion_esquema_de_crank_nicholsonricardo palma
 
Ondas mecanicas
Ondas mecanicasOndas mecanicas
Ondas mecanicasaleexrodz
 
Ejercicios propuestos
Ejercicios propuestosEjercicios propuestos
Ejercicios propuestoscangbarros
 
Ed oexamsolene09
Ed oexamsolene09Ed oexamsolene09
Ed oexamsolene09lmaguilar
 
Aplicaciones de las ed de segundo orden
Aplicaciones de las ed de segundo ordenAplicaciones de las ed de segundo orden
Aplicaciones de las ed de segundo ordensheep242
 
Biomatemática: practicas 1 y 2
Biomatemática: practicas 1 y 2Biomatemática: practicas 1 y 2
Biomatemática: practicas 1 y 2Jami14
 
Derivadas e integrales
Derivadas e integralesDerivadas e integrales
Derivadas e integralesIUTOMS
 
Guia 02 mat ii
Guia 02 mat iiGuia 02 mat ii
Guia 02 mat iijaoch2010
 
Serie de Fourier
Serie de FourierSerie de Fourier
Serie de Fouriercarlosv33
 
Metodos de runge_kutta
Metodos de runge_kuttaMetodos de runge_kutta
Metodos de runge_kuttaAndres Milquez
 
Actividad Aprentic
Actividad AprenticActividad Aprentic
Actividad Aprenticdani_toledo
 
Ejercicios resueltos de derivadas
Ejercicios resueltos de derivadasEjercicios resueltos de derivadas
Ejercicios resueltos de derivadasHrpariL
 

Similar a Presentacion Mov Browniano úLtima EdicióN De Julia (20)

Trabajo fourier
Trabajo fourierTrabajo fourier
Trabajo fourier
 
Ecuaciones
EcuacionesEcuaciones
Ecuaciones
 
Tema5 Características Generales de las Ondas
Tema5 Características Generales de las OndasTema5 Características Generales de las Ondas
Tema5 Características Generales de las Ondas
 
ecuacion de_difusion_esquema_de_crank_nicholson
ecuacion de_difusion_esquema_de_crank_nicholsonecuacion de_difusion_esquema_de_crank_nicholson
ecuacion de_difusion_esquema_de_crank_nicholson
 
Apunte usm resolución ed os
Apunte usm    resolución ed osApunte usm    resolución ed os
Apunte usm resolución ed os
 
Ondas mecanicas
Ondas mecanicasOndas mecanicas
Ondas mecanicas
 
Ejercicios propuestos
Ejercicios propuestosEjercicios propuestos
Ejercicios propuestos
 
Taller1
Taller1Taller1
Taller1
 
Guia sustitucion
Guia sustitucionGuia sustitucion
Guia sustitucion
 
Tema7b ud3
Tema7b ud3Tema7b ud3
Tema7b ud3
 
Ed oexamsolene09
Ed oexamsolene09Ed oexamsolene09
Ed oexamsolene09
 
Aplicaciones de las ed de segundo orden
Aplicaciones de las ed de segundo ordenAplicaciones de las ed de segundo orden
Aplicaciones de las ed de segundo orden
 
Biomatemática: practicas 1 y 2
Biomatemática: practicas 1 y 2Biomatemática: practicas 1 y 2
Biomatemática: practicas 1 y 2
 
Derivadas e integrales
Derivadas e integralesDerivadas e integrales
Derivadas e integrales
 
Guia 02 mat ii
Guia 02 mat iiGuia 02 mat ii
Guia 02 mat ii
 
Serie de Fourier
Serie de FourierSerie de Fourier
Serie de Fourier
 
Metodos de runge_kutta
Metodos de runge_kuttaMetodos de runge_kutta
Metodos de runge_kutta
 
Ecparciales
EcparcialesEcparciales
Ecparciales
 
Actividad Aprentic
Actividad AprenticActividad Aprentic
Actividad Aprentic
 
Ejercicios resueltos de derivadas
Ejercicios resueltos de derivadasEjercicios resueltos de derivadas
Ejercicios resueltos de derivadas
 

Último

trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdfIsabellaMontaomurill
 
El uso delas tic en la vida cotidiana MFEL
El uso delas tic en la vida cotidiana MFELEl uso delas tic en la vida cotidiana MFEL
El uso delas tic en la vida cotidiana MFELmaryfer27m
 
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfPARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfSergioMendoza354770
 
dokumen.tips_36274588-sistema-heui-eui.ppt
dokumen.tips_36274588-sistema-heui-eui.pptdokumen.tips_36274588-sistema-heui-eui.ppt
dokumen.tips_36274588-sistema-heui-eui.pptMiguelAtencio10
 
FloresMorales_Montserrath_M1S3AI6 (1).pptx
FloresMorales_Montserrath_M1S3AI6 (1).pptxFloresMorales_Montserrath_M1S3AI6 (1).pptx
FloresMorales_Montserrath_M1S3AI6 (1).pptx241522327
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafiosFundación YOD YOD
 
Presentación inteligencia artificial en la actualidad
Presentación inteligencia artificial en la actualidadPresentación inteligencia artificial en la actualidad
Presentación inteligencia artificial en la actualidadMiguelAngelVillanuev48
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024GiovanniJavierHidalg
 
R1600G CAT Variables de cargadores en mina
R1600G CAT Variables de cargadores en minaR1600G CAT Variables de cargadores en mina
R1600G CAT Variables de cargadores en minaarkananubis
 
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptxMedidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptxaylincamaho
 
GonzalezGonzalez_Karina_M1S3AI6... .pptx
GonzalezGonzalez_Karina_M1S3AI6... .pptxGonzalezGonzalez_Karina_M1S3AI6... .pptx
GonzalezGonzalez_Karina_M1S3AI6... .pptx241523733
 
definicion segun autores de matemáticas educativa
definicion segun autores de matemáticas  educativadefinicion segun autores de matemáticas  educativa
definicion segun autores de matemáticas educativaAdrianaMartnez618894
 
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...FacuMeza2
 
tics en la vida cotidiana prepa en linea modulo 1.pptx
tics en la vida cotidiana prepa en linea modulo 1.pptxtics en la vida cotidiana prepa en linea modulo 1.pptx
tics en la vida cotidiana prepa en linea modulo 1.pptxazmysanros90
 
El uso de las TIC's en la vida cotidiana.
El uso de las TIC's en la vida cotidiana.El uso de las TIC's en la vida cotidiana.
El uso de las TIC's en la vida cotidiana.241514949
 
Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA
Actividad integradora 6    CREAR UN RECURSO MULTIMEDIAActividad integradora 6    CREAR UN RECURSO MULTIMEDIA
Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA241531640
 
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptxCrear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptxNombre Apellidos
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxpabonheidy28
 
Mapa-conceptual-del-Origen-del-Universo-3.pptx
Mapa-conceptual-del-Origen-del-Universo-3.pptxMapa-conceptual-del-Origen-del-Universo-3.pptx
Mapa-conceptual-del-Origen-del-Universo-3.pptxMidwarHenryLOZAFLORE
 
El uso de las tic en la vida ,lo importante que son
El uso de las tic en la vida ,lo importante  que sonEl uso de las tic en la vida ,lo importante  que son
El uso de las tic en la vida ,lo importante que son241514984
 

Último (20)

trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdf
 
El uso delas tic en la vida cotidiana MFEL
El uso delas tic en la vida cotidiana MFELEl uso delas tic en la vida cotidiana MFEL
El uso delas tic en la vida cotidiana MFEL
 
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdfPARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
PARTES DE UN OSCILOSCOPIO ANALOGICO .pdf
 
dokumen.tips_36274588-sistema-heui-eui.ppt
dokumen.tips_36274588-sistema-heui-eui.pptdokumen.tips_36274588-sistema-heui-eui.ppt
dokumen.tips_36274588-sistema-heui-eui.ppt
 
FloresMorales_Montserrath_M1S3AI6 (1).pptx
FloresMorales_Montserrath_M1S3AI6 (1).pptxFloresMorales_Montserrath_M1S3AI6 (1).pptx
FloresMorales_Montserrath_M1S3AI6 (1).pptx
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafios
 
Presentación inteligencia artificial en la actualidad
Presentación inteligencia artificial en la actualidadPresentación inteligencia artificial en la actualidad
Presentación inteligencia artificial en la actualidad
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024
 
R1600G CAT Variables de cargadores en mina
R1600G CAT Variables de cargadores en minaR1600G CAT Variables de cargadores en mina
R1600G CAT Variables de cargadores en mina
 
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptxMedidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
 
GonzalezGonzalez_Karina_M1S3AI6... .pptx
GonzalezGonzalez_Karina_M1S3AI6... .pptxGonzalezGonzalez_Karina_M1S3AI6... .pptx
GonzalezGonzalez_Karina_M1S3AI6... .pptx
 
definicion segun autores de matemáticas educativa
definicion segun autores de matemáticas  educativadefinicion segun autores de matemáticas  educativa
definicion segun autores de matemáticas educativa
 
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
ATAJOS DE WINDOWS. Los diferentes atajos para utilizar en windows y ser más e...
 
tics en la vida cotidiana prepa en linea modulo 1.pptx
tics en la vida cotidiana prepa en linea modulo 1.pptxtics en la vida cotidiana prepa en linea modulo 1.pptx
tics en la vida cotidiana prepa en linea modulo 1.pptx
 
El uso de las TIC's en la vida cotidiana.
El uso de las TIC's en la vida cotidiana.El uso de las TIC's en la vida cotidiana.
El uso de las TIC's en la vida cotidiana.
 
Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA
Actividad integradora 6    CREAR UN RECURSO MULTIMEDIAActividad integradora 6    CREAR UN RECURSO MULTIMEDIA
Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA
 
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptxCrear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
Crear un recurso multimedia. Maricela_Ponce_DomingoM1S3AI6-1.pptx
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docx
 
Mapa-conceptual-del-Origen-del-Universo-3.pptx
Mapa-conceptual-del-Origen-del-Universo-3.pptxMapa-conceptual-del-Origen-del-Universo-3.pptx
Mapa-conceptual-del-Origen-del-Universo-3.pptx
 
El uso de las tic en la vida ,lo importante que son
El uso de las tic en la vida ,lo importante  que sonEl uso de las tic en la vida ,lo importante  que son
El uso de las tic en la vida ,lo importante que son
 

Presentacion Mov Browniano úLtima EdicióN De Julia

  • 1. Presentación #2 Integrantes del grupo: MATH 5400 Probabilidad Wadi Adames Román Dr. Balbino García Julia Crespo Rodríguez 24 de octubre de 2009 Joane De Jesús Dátiz Resumen del Capítulo 10: Movimiento Browniano y Procesos Estacionarios Libro: “Introduction to Probability Models” Autor: Sheldon M. Ross MOVIMIENTO BROWNIANO Los procesos de Movimiento Browniano, a veces llamados procesos de Wiener, son de los más importantes procesos estocásticos en la teoría de probabilidad aplicada. Su origen se encuentra en la Física pero su nombre se debe a Robert Brown, botánico del siglo XIX que lo descubrió. Dicho movimiento es el que exhibe una partícula pequeña que se encuentra totalmente inmersa en un líquido o gas. La primera explicación del fenómeno la dio Albert Einstein en el año 1905. El mostró que el Movimiento Browniano se podría explicar asumiendo que la partícula era continuamente sujeta al bombardeo de moléculas que se encuentran en su entorno. Sin embargo la primera definición concisa la presentó Wiener en el 1918. Empecemos considerando una caminata simétrica al azar en la cual, en cada unidad de tiempo es igualmente probable que se de un paso hacia la izquierda o hacia la derecha. Esto es una cadena de Markov con Pi,i+1= ½ = Pi,i-1, i = 0, + 1,…. Ahora supongamos que aceleramos este proceso dando pasos cada vez más cortos en intervalos de tiempo más corto. Si tomamos el límite de la manera correcta obtenemos el Movimiento Browniano. Si X (t ) denota la posición en el tiempo t cuando X (t ) = ∆x ( X 1 + ... + X [ t / ∆t ] ) + 1 si el i − ésimo paso de tamaño ∆x es a la derecha donde Xi =  − 1 si el i − ésimo paso es a la ixquierda
  • 2. y [ t / ∆t ] es el entero mayor que es menor o igual a t / ∆t y donde las X i son independientes 1 con P{ X i = 1} = P{ X i = −1} = . 2 [ ] Como E [ X i ] = 0 y Var ( X i ) = E X 12 = 1 obtenemos que E [ X (t )] = 0 t  Var ( X (t )) = (∆x) 2    ∆t  Ahora pasaremos a definir formalmente el movimiento Browniano. Definición Un proceso estocástico { X (t ), t ≥ 0} se dice que es un movimiento Browniano si cumple las siguientes condiciones: 1. X(0) = 0 2. { X (t ), t ≥ 0} tiene incrementos estacionarios e independientes. 3. Para cada t > 0, X(t) está normalmente distribuida con media 0 y varianza σ 2t. La interpretación del Movimiento Browniano como el limite de caminatas al azar sugiere que X(t) debería ser una función continua de t. Como X(t) es normal con media 0 y varianza t, su función densidad está dada por 1 2 f t ( x) = e − x 2t 2πt La función densidad conjunta de X (t1 ),... X (t n ) para t1 < ... < t n es  1  x2 ( x − x )2  ( xn − xn−1 ) 2    exp−  + 1 2 1 ++   2  t1   t 2 − t1 t n − t n−1    f ( x1 ,..., xn ) = (2π ) [ t1 (t 2 − t1 )  (t n − t n−1 )] n/ 2 1/ 2 A partir de esta función de densidad, se puede calcular cualquier probabilidad deseada. Supongamos que se requiere una distribución condicional de X(s) dada por X(t) = B donde s < t. La densidad condicional está dada por
  • 3. f s ( x) f t −s ( B − x) f s t ( x B) = ft ( B) { = K1 exp − x 2 / 2 s − ( B − x) 2 / 2(t − s ) }   1 1  Bx  = K 2 exp− x 2  +  2 s 2(t − s )  + t − s        ( x − Bs / t ) 2  = K 3 exp−   2 s (t − s ) / t  donde K1, K2 y K3 no dependen de x. Por lo tanto, E [ X ( s) X (t ) = B ] = B s t Var [ X ( s ) X (t ) = B ] = (t − s ) s t “HITTING TIMES”, VARIABLE MÁXIMA, Y EL PROBLEMA DE LA RUINA DEL JUGADOR Sea Ta el primer momento en que el proceso del Movimiento Browniano golpea a. Cuando a > 0 calcularemos P{Ta < t} considerando P{X(t) > a} y considerando cuando Ta < t ó Ta > t. Entonces, P{ X (t ) ≥ a} = P{ X (t ) ≥ a Ta ≤ t}P{Ta ≤ t} + P{ X (t ) ≥ a Ta > t}P{Ta > t} Ahora, si Ta < t entonces el proceso golpea a en algún punto en [0,t] y por simetría es igualmente probable que esté por encima de a o por debajo de a en el tiempo t. Por tanto, 1 P{ X (t ) ≥ a Ta ≤ t} = 2 Como P{ X (t ) ≥ a T > t}P{T > t} = 0 entonces, a a 2 ∞ ∫ 2 P{Ta ≤ t} = 2 P{ X (t ) ≥ a} = e−x / 2t dx 2πt a 2 ∞ ∫ 2 = e − y / 2 dy 2π a/ t
  • 4. a -a donde a > 0. Para a < 0, la distribución de T es, por simetría, la misma que en T . Por tanto, obtenemos que 2 ∞ ∫ 2 P{Ta ≤ t} = e − y / 2 dy 2π a/ t VARIACIONES EN EL MOVIMIENTO BROWNIANO Movimiento Browniano con coeficiente de difusión Se dice que {X(t), t > 0} es un proceso de Movimiento Browniano con coeficiente de difusión d y parámetro de varianza y2, si (i) X(0) = 0 (ii) {X(t), t > 0} tiene incremento estacionario e independiente (iii) X(t) está normalmente distribuido con media t y varianza t 2. Una definición equivalente es establecer que {B(t), t > 0} sea un Movimiento Browniano estándar y definir X (t ) = σB (t ) + µt Movimiento Browniano Geométrico Si {Y(t), t > 0} es un proceso de Movimiento Browniano con coeficiente de difusión y parámetro de varianza p2 entonces el proceso {X(t), t > 0} definido por X(t) = eY(t) se conoce como Movimiento Browniano Geométrico. Para s < t consideremos E [ X (t ) X (u ),0 ≤ u ≤ s ] . Entonces
  • 5. [ ] [ E [ X (t ) X (u ),0 ≤ u ≤ s ] = E eY ( t ) Y (u ),0 ≤ u ≤ s = X ( s ) E eY ( t )−Y ( s ) ] Ahora, la función generadora de momentos de una variable aleatoria normal W está dada por [ ] E e aW = e aE [W ]+a 2 Var (W ) / 2 Ya que Y(t) – Y(s) es normal con media (t – s) y varianza (t – s)( 2, si a = 1 tenemos que [ ] E eY ( t )−Y ( s ) = e µ ( t −s )+( t −s )σ 2 /2 De esta forma se obtiene que E [ X (t ) X (u ),0 ≤ u ≤ s ] = X ( s)e ( t −s )( µ +σ 2 / 2) VALORACIÓN DE OPCIONES (“Pricing Stock Options”) Un ejemplo de valoración de opciones En situaciones en las que el dinero va a ser recibido o pagado en periodos de tiempo distintos, uno toma en cuenta el tiempo de valor del dinero. Esto es, darle a la cantidad v un tiempo t en el futuro no es peor que dar v inmediatamente. La razón para esto es que si v es dado a uno inmediatamente, luego esto puede ser prestado con interés y sería peor que si v al tiempo t. Para tomar esto en cuenta, supongamos que el valor de tiempo 0, también llamado valor presente, de la cantidad v al ser ganado en el tiempo t es ve − at . La cantidad α también es conocida como el factor de descuento. En términos de economía, la suposición de la función de descuento e − at es equivalente a la suposición de que uno puede ganar interés a una razón compuesta continua de 100α por ciento por unidad de tiempo. El Teorema del Arbitraje
  • 6. Considere un experimento cuyo conjunto de posibles resultados es S = {1,2,...m} . Suponga que hay n pagas disponibles. Si la cantidad x es apostada sobre la paga i, entonces el retorno xri ( j ) es devengado si el resultado del experimento es j. En otras palabras ri (⋅) es la función de retorno para la unidad apostada sobre la paga i. La cantidad apostada sobre una paga puede ser positiva, negativa o cero. Un esquema de apuesta es un vector x = ( x1 ,..., x n ) con la interpretación de que x1 es apostado sobre el activo 1, x 2 sobre el activo 2 y x n sobre el activo n. Si el resultado del experimento es j, entonces el retorno del esquema de apuesta de x es: n x = ∑ xi ri ( j ) i =1 El siguiente teorema establece que existe la probabilidad del vector p = ( p1 ,.... pm ) en el conjunto de posibles resultados del experimento en el que cada uno de los activos tiene un retorno esperado igual a 0, o hay un esquema de apuesta que garantiza ganar la apuesta. Teorema: Exactamente una sola de las siguientes proposiciones es verdadera: 1. Existe un vector de probabilidad p = (p1,….,pm) para el cual m ∑ p r ( j ) = 0 , para toda j =1 j i i = 1,…,m 2. Existe un esquema de apuestas x= ( x1 ,..., xn ) para el cual n ∑ x r ( j ) > 0 , para toda i=1,…,n i =1 i i En otras palabras si X es el resultado del experimento el teorema nos dice que existe un vector de probabilidad p para x tal que: E p [ri ( X )] = 0 , para toda i=1,…,n o hay un esquema de apuestas que asegura que se gana la apuesta. Fórmula de Valoración de Opciones Black-Scholes
  • 7. Asumamos que el precio actual de una reserva es X(0)= x0 , y sea X(t) su precio en el tiempo t. Nos interesa la reserva en el intervalo de tiempo de 0 a T. Asumamos que el factor de descuento es α y por lo tanto el valor presente del precio de la reserva es e − at X (t ) . Podemos pensar en el cambio del precio de la reserva en el tiempo como nuestro experimento. Por lo tanto el resultado del experimento sería la función X(t), donde 0 ≤ t ≤ T . Además, supongamos que podemos adquirir cualquiera de las N diferentes opciones en el tiempo 0. La opción i que cuesta ci por cada parte, nos da la opción de adquirir partes de la reserva en el tiempo ti para el precio fijo de K i por cada parte, donde i=1,…, N. Vamos a asumir que queremos determinar los valores de ci para los cuales no existe una estrategia de apuesta que nos asegure ganar. Si generalizamos el Teorema del Arbitraje, notamos que no habrá forma segura de ganar si y solo si existe una medida de probabilidad sobre el conjunto de resultados mediante la cual todos los activos tengan un retorno esperado igual a 0. Sea P una medida de probabilidad sobre el conjunto de los resultados y consideremos el activo de observar la reserva durante un tiempo s para entonces adquirir (o vender) una parte con la intención de venderla (o adquirirla) en el tiempo t, donde 0 ≤ s < t ≤ T . El valor presente del activo para la reserva es: EP [e −αt X (t ) | X (u ),0 ≤ u ≤ s ] = e −αs X ( s) Supongamos que, X (t ) = x0 eY ( t ) donde {Y (t ), t ≤ 0} es un proceso de movimiento Browniano con coeficiente de difusión µ y parámetro de varianza σ 2 . Por lo que, 2 E[ X (t ) X (u ),0 ≤ u ≤ s ] = X ( s )e ( t −s )( µ +σ / 2) Si escogemos µ y σ 2 de forma que, µ +σ 2 / 2 =α entonces las ecuaciones anteriores se satisfacen.
  • 8. Se deduce de lo anterior que si ponemos un precio a una opción para comprar una porción del inventario en el tiempo t para un precio arreglado K, entonces c = EP [e −εt ( X (t ) − K ) + ] donde c es la opción para comprar una porción del inventario. Sin embargo ningún arbitraje es posible. Como X (t ) = x0 e , donde Y(t) es normal con media µt y varianza tσ 2 , obtenemos Y (t ) que ∞ 1 ceαt = ∫ 2 / 2 tσ 2 ( x0 e y − K ) e −( y −µt ) dy log( K / x0 ) 2πtσ 2 Haciendo el cambio de variable w = ( y − µt )(σt 1/ 2 ) obtenemos, 1 ∞ 1 ∞ ∫ ∫ 2 2 ceαt = x0 e µt eσw t e −w / 2 dw − K e −w / 2 dw 2π a 2π a donde, log( K / x0 ) − µt a= σ t Ahora, 1 ∞ ∫ 2 2 eσw t e −w / 2 dw = e tσ / 2φ (σ t − a ) 2π a donde φ es la función estándar de distribución normal. Utilizando µ +σ 2 / 2 =α para la ecuación 2 ceαt = x0 e µt +σ t/2 φ (σ t − a ) − Kφ (−a ) y dado que b = −a , podemos escribir lo anterior como: c = x0φ (σ t + b) − Ke −αtφ (b) donde αt − σ 2t / 2 − log( K / x0 ) b= σ t
  • 9. La fórmula anterior depende del precio inicial del inventario x0 , la opción de tiempo t , la opción de precio K , el factor de descuento α y el valor σ 2 , donde para cualquier valor de σ 2 no hay arbitraje posible. Sin embargo esta no es la única ecuación para la que esto es posible. Supongamos que { X (t ),0 ≤ t ≤ T } es un proceso estocástico cualquiera que satisface s < t , E[e −αt X (t ) X (u ),0 ≤ u ≤ s] = e −αs X ( s ) Dado que c = E[e −αt ( X (t ) − K ) + ] se comprueba que ningún arbitraje es posible. Otro ejemplo de un proceso estocástico en el que no hay arbitraje posible es el siguiente. Supongamos que tenemos una sucesión de variables aleatorias independientes que tienen en común la media µ y supongamos que este es un proceso independiente de {N (t ), t ≥ 0} , el cual es un proceso de Poisson con razón λ . Dado que utilizando la propiedad de la identidad, tenemos que, N (s) N (t ) X (t ) = x0 ∏ Yi ∏Y j i =1 j = N ( s ) +1 y asumiendo el incremento independiente de un proceso de Poisson, tenemos que para s < t ,  N (t )  E [ X (t ) X (u ),0 ≤ u ≤ s ] = X ( s ) E  ∏ Y j   j = N ( s )+1  Condicionando la cantidad de eventos entre s y t obtenemos que,  N (t )  E  ∏ Y j  = e −λ ( t − s )(1− µ )  j = N ( s )+1  Por lo tanto si seleccionamos λ y µ tales que λ (1 − µ ) = −α , las ecuaciones anteriores se satisfacen. “WHITE NOISE”
  • 10. Sea { X (t ), t ≥ 0} un proceso de movimiento Browniano y f una función que tiene una b derivada continua en la región [a, b]. El integral ∫a f (t )dX (t ) se define como: n f (ti −1)[ X (ti )− X (ti −1)] b ∫a f (t )dX (t ) ≡ lim ∑ n → ∞ i =1 max(t i −ti −1 ) →0 donde a = t 0 < t1 < ... < t n = b es una partición de la región [a, b]. Usando la identidad n n ∑ f (ti −1)[ X (ti ) − X (ti −1)] = f (b) X (b) − f (a ) X (a ) − ∑ X (ti )[ f (ti ) − f (ti −1)] i =1 i =1 vemos que: b b ∫ a f (t )dX (t ) = f (b) X (b) − f (a ) X (a ) − ∫ X (t )df (t ) a Utilizando el lado derecho de la ecuación anterior obtenemos, asumiendo el intercambio de expectación y del límite, que: E  ∫ f (t )dX (t ) = 0 b a    Además,  n  n Var  ∑ f (t i −1 )[ X (t i ) − X (t i −1 )]  = ∑ f 2 (t i −1 )(t i − t i −1 )  t =1  i =1 donde la igualdad se debe a los incrementos independientes del movimiento Browniano. Tomando los limites de lo anterior tenemos que, Var  ∫ f (t )dX (t ) = ∫ f 2 (t )dt b b a   a  PROCESOS GAUSSIANOS Un proceso estocástico X (t ), t ≥ 0 es llamado Proceso Gaussiano o Normal, si X (t1 ),..., X (t n ) es una distribución normal multivariable para toda t1 ,..., t n . Si X (t1 ),..., X (t n ) es
  • 11. un Proceso de Movimiento Browniano entonces, X (t1 ), X (t 2 ),..., X (t n ) puede ser expresado como una combinación linear de variables independientes normales aleatorias X (t1 ), X (t 2 ) − X (t1 ), X (t3 ) − X (t 2 ),..., X (t n ) − X (t n−1 ) por lo que el Movimiento Browniano es un Proceso Gaussiano. Una distribución normal multivariable es determinada completamente por el valor de la media marginal y el valor de la covarianza siguiendo un movimiento Browniano estándar que puede ser definido como un Proceso Gaussiano con E [ X (t )] = 0 y s ≤ t donde, Cov( X ( s ), X (t )) = Cov( X ( s), X ( s) + X (t ) − X ( s) = Cov ( X ( s ), X ( s) + Cov( X ( s), X (t ) − X ( s)) = Cov ( X ( s ), X ( s )) = s considerando que Var ( X ( s )) = s . Sea { X (t ), t ≥ 0} un proceso de movimiento Browniano estándar y consideremos los valores del proceso entre 0 y 1 condicional en X (1) = 0 . Observemos un proceso estocástico condicional { X (t ),0 ≤ t ≤ 1 X (1) = 0} . Como la distribución condicional es multivariable normal se sigue que este proceso condicional, conocido como un puente Browniano, es a su vez un proceso Gaussiano. Podemos calcular la función de varianza de la siguiente manera: E [ X ( s) X (1) = 0] = 0 para s < 1 obteniendo para s < t < 1 Cov[( X ( s ), X (t )) X (1) = 0] = E[ X ( s ) X (t ) X (1) = 0] = s(1 − t ) Un puente Browniano puede ser definido como un proceso Gaussiano con valor de media 0 y función de covarianza s (1 − t ), s ≤ t . Si { X (t ), t ≥ 0} es un Movimiento Browniano, entonces el proceso {Z (t ), t ≥ 0} definido por t Z (t ) = ∫ X ( s)ds 0 es llamado Movimiento Browniano Integrado. PROCESOS ESTACIONARIOS Y PROCESOS ESTACIONARIOS DÉBILES (“Stationary and Weakly Stationary Processes”)
  • 12. Un proceso estocástico { X (t ), t ≥ 0} es un proceso estacionario si para toda n, s, t ,..., t n el vector aleatorio X (t1 ),..., X (t n ) y X (t1 + s ),..., X (t n + s) tiene la misma distribución conjunta. En otras palabras, un proceso es estacionario si en la búsqueda de cualquier punto s como el origen, el proceso tiene las mismas leyes de probabilidad. Dos ejemplos de procesos estacionarios son: (i) Una cadena de Markov ergódica de tiempo continuo { X (t ), t ≥ 0} cuando P{ X (0) = j} = Pj , j ≥ 0 donde {Pj , p ≥ 0} son los límites de probabilidad. (ii) { X (t ), t ≥ 0} cuando X (t ) = N (t + L) − N (t ), t ≥ 0 donde L > 0 es una constante fija y N (t ), t ≥ 0} es un proceso de Poisson con razón λ. Algunos de los ejemplos en los cuales se ven reflejados los procesos estacionarios son: (i) “The Random Telegraph Signal Process” Con una media E[ X (t )] = E[ X 0 (−1) N ( t ) = 0 y una función de covarianza Cov[ X (t ), X (t + s)] = E[ X (t ) X (t + s )] = e −2λs (ii) Proceso de Ornstein – Uhlenbeck (iii) Sea { X (t ), t ≥ 0} un proceso de movimiento Browniano estándar y definido para α >0 , V (t ) = e −αt / 2 X (eαt ) con una media E[V (t )] = 0 y una función de covarianza Cov[V (t ),V (t + s )] = e −αs / 2 . A {V(t), t > 0} se le conoce como Proceso de Ornstein – Uhlenbeck. La condición para que un proceso sea estacionario es bastante estricta y se define el proceso { X (t ), t ≥ 0} como un proceso estacionario de segundo orden o un proceso estacionario débil si E[ X (t )] = c y Cov[ X (t ), X (t + s)] , lo cual no depende del tiempo t. Un proceso estacionario es de segundo orden si los primeros dos momentos de X(t) son el mismo para toda t y la covarianza entre X(s) y X(t) dependen solamente de t − s . Para dicho proceso tenemos, R ( s) = Cov[ X (t ), X (t + s)] . La distribución finita dimensional de un proceso Gaussiano es determinada por su media y varianza si está dado que el proceso Gaussiano estacionario de segundo orden es estacionario.
  • 13. Por otro lado, se encuentran los procesos estacionarios de segundo orden no estacionarios. Un ejemplo de estos es el Proceso Auto-regresivo. Sea Z 0 , Z1 ,..., una variable aleatoria incorrelativa con E[ Z n ] = 0, n ≥ 0 y σ 2 /(1 − λ2 ) n = 0 Var ( Z n ) =   σ 2 n ≥1 donde λ2 < 1 . Se define X 0 = Z0 , X n = λX n−1 + Z n , n ≥ 1 El proceso { X n , n ≥ 0} es llamado un proceso auto-regresivo de primer orden. Este indica que el estado en el tiempo n (esto es Xn) es un múltiplo constante del estado de tiempo n - 1 más un error aleatorio llamado Zn . ANÁLISIS ARMÓNICO DE PROCESOS ESTACIONARIOS DÉBILES (“Harmonic Analysis of Weakly Stationary Processes”) Sean { X (t ),−∞ < t < ∞} y {Y (t ),−∞ < t < ∞} procesos estocásticos tales que ∞ Y (t ) = ∫ X (t − s )h( s) ds . −∞ Al { X (t )} se le conoce como el proceso de entrada y a {Y (t )} como el proceso de salida. La función h se llama la función de respuesta a impulsos. Esta ecuación es un tipo de filtro lineal invariante, donde la palabra filtro se debe a que podemos pensar que el proceso de entrada {X(t)} está pasando a través de algún medio y luego es filtrado para así resultar en el proceso de salida {Y(t)}. Es un filtro lineal ya que si los procesos de entrada { X 1 (t )} , { X 2 (t )} resultan en los procesos de salida {Y1 (t )} , {Y2 (t )} entonces el proceso de entrada { aX 1 (t ) + bX 2 (t )} resulta en el proceso de salida { aY1 (t ) + bY2 (t )} . Por último, es de tiempo invariante pues el proceso
  • 14. { X (t + τ )} , donde τ es una constante, resulta en el proceso {Y (t + τ )} , i.e. si atrasamos (o adelantamos) el proceso de entrada un tiempo τ, entonces el proceso de salida se atrasa (o adelanta) un tiempo τ. Supongamos que { X (t ),−∞ < t < ∞} es un proceso estacionario débil donde E[ X (t )] = 0 y con una función de covarianza R X ( s ) = Cov [ X (t ), X (t + s )] . Queremos ahora determinar el valor esperado y la covarianza correspondientes al proceso de salida {Y (t ),−∞ < t < ∞} . Ahora, ∞ como ∫−∞ h( s ) ds < ∞ y como se puede demostrar que existe alguna M < ∞ lo suficientemente grande tal que E X (t ) < M , entonces E[Y (t )] = E  ∫ X (t − s )h( s )ds  = ∫ E [ X (t − s)]h( s )ds = 0 . ∞ ∞  −∞   −∞  De manera análoga, se sigue que RY (t 2 − t1 ) = Cov [Y (t1 ), Y (t 2 )] = ∫∫ R X (t 2 − s 2 − t1 + s1 )h( s1 )h( s 2 ) ds1 ds 2 (*) Nótese que esto significa que Cov [Y (t1 ), Y (t 2 )] depende de t1 y t2 solo a través de t2 – t1. Por lo tanto {Y (t )} es un proceso estacionario débil. Ahora, esta última ecuación para RY (t 2 − t1 ) es mejor expresarla en términos de transformadas de Fourier para RX y RY. Sean ~ R X ( w) = ∫ e −iws R X ( s) ds , ~ R Y ( w) = ∫ e −iws RY ( s )ds y ~ h( w) = ∫ e −iws h( s )ds ~ las transformadas de Fourier de RX, RY y h respectivamente. La función R X ( w) se conoce como la densidad espectral de poder del proceso { X (t )} . De (*) se obtiene que ~ ~ ~ ~ R Y ( w) = R X ( w) h( w) h(− w) . Ahora mediante la fórmula e ix = cos x + i sin x y e −ix = cos x − i sin x se tiene que
  • 15. [ ∫ h(s) cos(ws) ds ] + [ ∫ h(s) sin(ws) ds ] ~ ~ ~ 2 2 2 2 ∫ h ( s )e −iws h( w) h(− w) = = ds = h( w) . Por lo tanto ~ ~ ~ 2 R Y ( w) = R X ( w) h( w) . BIBLIOGRAFÍA Ross, Sheldon M. (2000). Introduction to Probability Models. Seventh Edition. Academic Press. Págs. 549 - 584.