C´lculo estoc´stico
 a           a
    David Nualart
Universitat de Barcelona




           1
1     Probabilidades y procesos estoc´sticos
                                     a
1.1    Conceptos b´sicos del c´lculo de probabilidades
                  a           a
Recordemos en primer lugar algunas definiciones generales del c´lculo de
                                                                  a
probabilidades.
   Un espacio de probabilidad es una terna (Ω, F, P ) formada por:

(i) Un conjunto Ω que representa el conjunto de los posibles resultados de
     una cierta experiencia aleatoria.

(ii) Una familia F de subconjuntos de Ω que tiene estructura de σ-´lgebra:
                                                                  a
      a) ∅ ∈ F
      b) Si A ∈ F, su complementario Ac tambi´n pertenece a F
                                             e
      c) A1 , A2 , . . . ∈ F =⇒ ∪∞ Ai ∈ F
                                 i=1

(iii) Una aplicaci´n P : F → [0, 1] que cumple:
                  o
      a) P (∅) = 0, P (Ω) = 1
      b) Si A1 , A2 , . . . ∈ F son conjuntos disjuntos dos a dos (es decir, Ai ∩
      Aj = ∅ si i = j), entonces
                                               ∞
                             P (∪∞ Ai ) =
                                 i=1           i=1   P (Ai )

   Los elementos de la σ-´lgebra F se denominan sucesos y la aplicaci´n P se
                         a                                           o
denomina una probabilidad, de forma que tenemos la siguiente interpretaci´n
                                                                         o
de este modelo:

             P (F )=“probabilidad de que el suceso F se realice”

Si P (F ) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi
seguramente.
    Las propiedades a) y b) permiten deducir algunas reglas b´sicas del
                                                                a
c´lculo de probabilidades:
 a

                 P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅
                     P (Ac ) = 1 − P (A)
                         A ⊂ B =⇒ P (A) ≤ P (B).

                                       2
Ejemplo 1 Lanzamos un dado.
               Ω = {1, 2, 3, 4, 5, 6}
               F = P(Ω) (F contiene todos los subconjuntos de Ω)
                    1
       P ({ω i }) =   , para i = 1, . . . , 6
                    6

Ejemplo 2 Elegimos un n´mero al azar en el intervalo [0, 2]. Ω = [0, 2], F es
                            u
la σ-´lgebra de Borel (generada por los intervalos de [0, 2]). La probabilidad
     a
de cualquier intervalo [a, b] ⊂ [0, 2] ser´
                                          a
                                             b−a
                              P ([a, b]) =       .
                                              2

    Se dice que un espacio de probabilidad (Ω, F, P ) es completo si dado un
suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la
σ-´lgebra F. Un espacio de probabilidad siempre se puede completar substi-
  a
tuyendo la σ-´lgebra F por una σ-´lgebra mayor formada por los conjuntos
              a                    a
de la forma F ∪ A, donde F ∈ F y A es un subconjunto de un conjunto de
F de probabilidad cero.
   Si U es una familia de subconjuntos de Ω, la m´s peque˜a σ-´lgebra que
                                                 a       n    a
contiene a U es, por definici´n,
                            o
                 σ(U) = ∩ {G, G es una σ-´lgebra, U ⊂ G} ,
                                         a
y se denomina la σ-´lgebra generada por U. Por ejemplo, la σ-´lgebra gen-
                    a                                          a
                                                             n
erada por los conjuntos abiertos (o por los rect´ngulos) de R se denomina
                                                a
                          n
la σ-´lgebra de Borel de R y la representaremos por BRn .
     a

Ejemplo 3 Consideremos una partici´n finita P = {A1 , . . . , An } de Ω. La σ-
                                   o
´lgebra generada por P est´ formada por todas las uniones de los elementos
a                           a
de la partici´n (2n en total).
             o

   Una variable aleatoria es una aplicaci´n
                                         o
                                       X
                                  Ω −→ R
                                 ω → X(ω)
que es F-medible, es decir, X −1 (B) ∈ F , para todo conjunto B de la σ-
´lgebra de Borel de R.
a

                                       3
• Una variable aleatoria determina una σ-´lgebra {X −1 (B), B ∈ BR } ⊂
                                             a
      F que se denomina la σ-´lgebra generada por X.
                              a

    • Una variable aleatoria determina una probabilidad en la σ-´lgebra de
                                                                a
      Borel BR definida por PX = P ◦ X −1 , es decir,

                       PX (B) = P (X −1 (B)) = P ({ω : X(ω) ∈ B})

       La probabilidad PX se denomina la ley o distribuci´n de la variable X.
                                                         o

    Diremos que una variable aleatoria X tiene densidad de probabilidad fX
si fX (x) es una funci´n positiva, medible respecto de la σ-´lgebra de Borel
                      o                                     a
y tal que
                                                      b
                            P (a < X < b) =               fX (x)dx,
                                                  a
para todo a < b.
    Las variables discretas (que toman un conjunto finito o numerable de
valores distintos xk ) no tienen densidad y su ley est´ determinada por la
                                                      a
funci´n de probabilidad :
     o
                               pk = P (X = xk ).

Ejemplo 4 Una variable aleatoria tiene ley normal N (m, σ 2 ) si
                                                              b
                                              1                        (x−m)2
                      P (a < X < b) = √                           e−     2σ 2   dx
                                          2πσ 2           a

para todo par de n´meros reales a < b.
                  u

Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si

                                          n k
                            P (X = k) =     p (1 − p)n−k ,
                                          k
para k = 0, 1, . . . , n.

    La distribuci´n de una variable aleatoria X puede caracterizarse mediante
                 o
su funci´n de distribuci´n definida como la probabilidad acumulada:
        o               o

                        FX (x) = P (X ≤ x) = PX ((−∞, x])


                                          4
• La funci´n FX : R →[0, 1] es creciente, continua por la derecha y con
              o
     l´
      ımites iguales a cero en −∞ y 1 en +∞.

   • Si la variable X tiene densidad fX , entonces,
                                                 x
                                    FX (x) =         fX (y)dy,
                                                −∞

      y si la densidad es continua, FX (x) = fX (x).

    La esperanza matem´tica de una variable aleatoria X se define como la
                              a
integral de X respecto de la probabilidad P , considerada como una medida
en el espacio (Ω, F). En particular, si X es una variable elemental que toma
los valores α1 , . . . , αn en los conjuntos A1 , . . . , An , su esperanza valdr´
                                                                                 a
                                           n
                             E(X) =             αi P (Ai ).
                                          i=1

El c´lculo de la esperanza de una variable aleatoria se efectua integrando la
    a
funci´n x respecto de la ley de probabilidad de la variable. Es decir, si X es
     o
una variable que tiene esperanza (o sea E(|X|) < ∞) se tiene
                                                        ∞
                   E(X) =           X(ω)dP (ω) =              xdPX (x).
                                Ω                      −∞

M´s generalmente, si g : R → R es una funci´n medible respecto de la σ-
  a                                            o
´lgebra de Borel y E(|g(X)|) < ∞, entonces la esperanza de la variable g(X)
a
se puede calcular integrando la funci´n g respecto de la ley de la variable X:
                                     o
                                                          ∞
              E(g(X)) =         g(X(ω))dP (ω) =                g(x)dPX (x).
                            Ω                           −∞

              ∞
La integral −∞ g(x)dPX (x) se calcula utilizando la densidad o funci´n de
                                                                    o
probabilidad de la variable X:

    ∞                       ∞
                            −∞
                                g(x)fX (x)dx, fX (x) es la densidad de X
        g(x)dPX (x) =
   −∞                       k g(xk )P (X = xk ),  X variable discreta




                                           5
Ejemplo 6 Si X es una variable aleatoria con ley normal N (0, σ 2 ) y λ es un
n´mero real,
 u
                                                      ∞
                                      1                             x2
              E(exp (λX)) = √                                eλx e− 2σ2 dx
                                    2πσ 2           −∞
                                                                ∞
                                     1              σ 2 λ2               (x−σ 2 λ)2
                             = √                e      2            e−      2σ 2      dx
                                    2πσ 2                     −∞
                                   σ 2 λ2
                             = e      2     .


   La varianza de una variable aleatoria X se define por

           σ 2 = Var(X) = E((X − E(X))2 ) = E(X 2 ) − [E(X)]2 .
             X

La varianza nos mide el grado de dispersi´n de los valores de la variable
                                           o
respecto de su esperanza. Por ejemplo, si X es una variable con ley normal
N (m, σ 2 ) se tiene
                                                                            X −m
     P (m − 1.96σ ≤ X ≤ m + 1.96σ) = P (−1.96 ≤                                  ≤ 1.96)
                                                                              σ
                     = Φ(1.96) − Φ(−1.96) = 0.95,

donde Φ es la funci´n de distribuci´n de la ley N (0, 1). Es decir, la probabil-
                   o               o
idad de que la variable X tome valores en el intervalo [m − 1.96σ, m + 1.96σ]
es igual a 0.95.

   Diremos que X = (X1 , . . . , Xn ) es un vector aleatorio n-dimensional si
sus componentes son variables aleatorias.
   La esperanza de un vector aleatorio n-dimensional X ser´ el vector
                                                              a

                        E(X) = (E(X1 ), . . . , E(Xn ))

   La matriz de covarianzas de un vector aleatorio n-dimensional X es, por
definici´n, la matriz ΓX = (cov(Xi , Xj ))1≤i,j≤n , donde
       o

               cov(Xi , Xj ) = E [(Xi − E(Xi )) (Xj − E(Xj ))] .

Es decir, los elementos de la diagonal de esta matriz son las varianzas de las
variables Xj y fuera de la diagonal encontramos las covarianzas entre dos
variables Xi y Xj .

                                            6
Como en el caso de variables aleatorias se introduce la ley o distribuci´n
                                                                            o
de un vector aleatorio n-dimensional X como la probabilidad definida en la
σ-´lgebra de Borel BRn por
  a

                        PX (B) = P (X −1 (B)) = P (X ∈ B).

   Diremos que un vector aleatorio n-dimensional X tiene una ley normal
N = (m, Γ), donde m ∈ Rn , y Γ es una matriz sim´trica y definida positiva,
                                                e
si

           P (ai ≤ Xi ≤ bi , i = 1, . . . , n)
             bn          b1                              Pn
                                             n       1                             −1
       =          ···         (2π det Γ)− 2 e− 2          i,j=1 (xi −mi )(xj −mj )Γij         dx1 · · · dxn .
            an          a1

En tal caso, se tiene, m = E(X) y Γ = ΓX .
   Si la matrix Γ es una matriz diagonal
                                                                   
                                  σ2 · · ·
                                    1                           0
                               . ..                             . 
                           Γ= .   .     .                       . 
                                                                 .
                                                 0       ···    σ2n

entonces la densidad del vector X ser´ el producto de n densidades normales
                                     a
unidimensionales:
                                                 n                             (x−mi )2
                                                               1           −
                                                                                 2σ 2
                   fX (x1 , . . . , xn ) =                             e            i     .
                                                 i=1           2πσ 2
                                                                   i

    Existen tambi´n leyes normales degeneradas, en las que la matriz Γ es
                  e
singular. En este caso, no existe la densidad de probabilidad, y la ley de X
queda determinada por su funci´n caracter´
                                o           ıstica:
                                                 1
                             E eit X = exp it m − t Γt ,
                                                 2

donde t ∈ Rn . En esta f´rmula t es un vector l´
                        o                      ınea (matriz 1 × n) y t es un
vector columna (matriz n × 1).

   Si X es un vector normal n-dimensional con ley N (m, Γ) y A es una
matriz m × n, entonces AX es un vector normal m-dimensional con ley
N (Am, AΓA ).

                                                     7
Diremos que una variable tiene media de orden p ≥ 1 si E(|X|p ) < ∞.
En tal caso, se define el momento de orden p de la variable aleatoria X como

                                       mp = E(X p ).

El conjunto de las variables que tienen media de orden p se representa por
Lp (Ω, F, P ).
    Sea X una variable aleatoria con funci´n caracter´
                                          o          ıstica
                                     ϕX (t) = E(eitX ).
Los momentos de la variable aleatoria puede calcularse a partir de las derivadas
de la funci´n caracter´
           o          ıstica en el origen
                                           1 (n)
                                    mn =     ϕ (t)|t=0 .
                                           in X

   Recordemos algunas desigualdades importantes en el c´lculo de probabil-
                                                       a
idades:

   • Desigualdad de Tchebychev: Si λ > 0
                                                    1
                                    P (|X| > λ) ≤      E(|X|p ).
                                                    λp
   • Desigualdad de Schwartz:
                                E(XY ) ≤         E(X 2 )E(Y 2 ).

   • Desigualdad de H¨lder:
                     o
                                                      1            1
                            E(XY ) ≤ [E(|X|p )] p [E(|Y |q )] q ,
                        1       1
     donde p, q > 1 y   p
                            +   q
                                    = 1.
   • Desigualdad de Jensen: Si ϕ : R → R es una funci´n convexa tal que las
                                                     o
     variables X y ϕ(X) tienen esperanza, entonces,
                                     ϕ(E(X)) ≤ E(ϕ(X)).
     En particular si ϕ(x) = |x|p , con p ≥ 1, tendremos
                                      |E(X)|p ≤ E(|X|p ).

                                             8
Recordemos los diferentes modos de convergencia de una sucesi´n de vari-
                                                                o
ables aleatorias Xn , n = 1, 2, 3, . . .:
                                     c.s.
Convergencia casi segura: Xn −→ X, si

                                  lim Xn (ω) = X(ω),
                               n→∞

     para todo ω ∈ N , donde P (N ) = 0.
                 /
                                                P
Convergencia en probabilidad: Xn −→ X, si

                             lim P (|Xn − X| > ε) = 0,
                            n→∞

     para todo ε > 0.
                                                           Lp
Convergencia en media de orden p ≥ 1: Xn −→ X, si

                              lim E(|Xn − X|p ) = 0.
                              n→∞


                              L
Convergencia en ley: Xn −→ X, si

                               lim FXn (x) = FX (x),
                               n→∞

     para todo punto x de continuidad de la funci´n de distribuci´n FX .
                                                 o               o


   • La convergencia en media de orden p implica la convergencia en prob-
     abilidad ya que, debido a la desigualdad de Tchebychev tendremos
                                                    1
                        P (|Xn − X| > ε) ≤           p
                                                       E(|Xn − X|p ).
                                                    ε

   • La convergencia casi segura implica la convergencia en probabilidad
     (esto es m´s dif´ de demostrar).
               a     ıcil

   • La convergencia casi segura implica la convergencia en media de orden
     p ≥ 1, si las variables aleatorias Xn est´n acotadas por una variable
                                              a
     aleatoria integrable Y (teorema de convergencia dominada):

                              |Xn | ≤ Y, E(Y ) < ∞.

                                            9
La convergencia en ley es diferente de los otros tipos de convergencia, ya
que lo que nos interesa es la ley de las variables y no sus valores particulares.

   Un concepto fundamental en probabilidades es el de independencia. Dos
sucesos A, B ∈ F se dicen independientes si

                              P (A ∩ B) = P (A)P (B).

   Si tenemos una colecci´n finita o infinita de sucesos {Ai , i ∈ I}, diremos
                           o
que los sucesos de la colecci´n son independientes si
                             o

                     P (Ai1 ∩ · · · ∩ Aik ) = P (Ai1 ) · · · P (Aik )

para todo conjunto finito de ´  ındices {i1 , . . . , ik } ⊂ I.
    Una colecci´n de conjuntos de sucesos {Gi , i ∈ I} diremos que es indepen-
                o
diente si cualquier colecci´n de sucesos {Ai , i ∈ I} tal que Ai ∈ Gi para todo
                           o
i ∈ I, es independiente.
    Una colecci´n de variables aleatorias {Xi , i ∈ I} se dice que es indepen-
                o
diente si la colecci´n de σ-´lgebras Xi−1 (BRn ), i ∈ I lo es. Esto significa
                    o        a
que

       P (Xi1 ∈ Bi1 , . . . , Xik ∈ Bik ) = P (Xi1 ∈ Bi1 ) · · · P (Xik ∈ Bik ),

para todo conjunto finito de ´  ındices {i1 , . . . , ik } ⊂ I, donde los Bj son con-
juntos de Borel.
    Si dos variables aleatorias reales X, Y son independientes y tienen esper-
anza finita, entonces el producto XY tiene esperanza finita y se cumple la
relaci´n
      o
                             E(XY ) = E(X)E(Y ) .
   M´s generalmente, si las variables X1 , . . . , Xn son independientes,
    a

               E [g1 (X1 ) · · · gn (Xn )] = E [g1 (X1 )] · · · E [gn (Xn )] ,

donde las gi son funciones medibles tales que E [|gi (Xi )|] < ∞.

   Las componentes de un vector aleatorio son independientes s´ y solo s´ su
                                                               ı        ı
densidad o funci´n de probabilidad es igual al producto de las densidades o
                o
funciones de probabilidad de cada componente.


                                             10
1.2     Procesos estoc´sticos
                      a
Un proceso estoc´stico ´s una familia de variables aleatorias reales {Xt , t ≥ 0}
                a      e
definidas en un espacio de probabilidad (Ω, F, P ).
   El conjunto de par´metros [0, ∞) representa el tiempo y en algunos casos
                      a
supondremos que es un intervalo acotado [0, T ], o el conjunto los n´meros
                                                                         u
naturales (procesos a tiempo discreto).
   Per cada ω ∈ Ω, la aplicaci´n
                               o

                                     t −→ Xt (ω)

se dnomina una trayectoria del proceso estoc´stico.a
    Si fijamos un conjunto finito de instantes {0 ≤ t1 < · · · < tn } tendremos
un vector aleatorio
                         (Xt1 , . . . , Xtn ) : Ω −→ Rn .
Las distribuciones de probabilidad Pt1 ,...,tn = P ◦ (Xt1 , . . . , Xtn )−1 se denom-
inan las distribuciones en dimensi´n finita del proceso.
                                  o
   El siguiente teorema debido a Kolmogorov asegura la existencia de un
proceso estoc´stico asociado a una familia de distribuciones en dimensi´n
               a                                                                   o
finita que satisfagan una condici´n de compatibilidad.
                                o

Teorema 1 Consideremos una familia de probabilidades

                       {Pt1 ,...,tn , 0 ≤ t1 < · · · < tn , n ≥ 1}

tales que:

   1. Pt1 ,...,tn es una probabilidad en Rn

   2. (Condici´n de compatibilidad): Si {0 ≤ s1 < · · · < sm } ⊂ {0 ≤ t1 <
                  o
      · · · < tn }, entonces

                                 Pt1 ,...,tn ◦ π −1 = Ps1 ,...,sm

      donde π : Rn → Rm es la proyecci´n natural asociada a los dos con-
                                      o
      juntos de ´
                ındices.

   Entonces, existe un proceso estoc´stico {Xt , t ≥ 0} que tiene la familia
                                         a
{Pt1 ,...,tn } como distribuciones en dimensi´n finita.
                                             o


                                           11
La media y la autocovarianza de un proceso estoc´stico se definen como
                                                    a
sigue:

                 mX (t) = E(Xt )
                ΓX (s, t) = Cov(Xs , Xt )
                          = E((Xs − mX (s))(Xt − mX (t)).

La varianza del proceso X se define por

                        σ 2 (t) = ΓX (t, t) = Var(Xt ).
                          X



Ejemplo 7 Consideremos el proceso estoc´stico
                                       a

                            Xt = A cos(ϕ + λt),

donde A y ϕ son variables aleatorias independientes tales que E(A2 ) < ∞ y
ϕ tiene ley uniforme en [0, 2π]. En este caso,

                      mX (t) = 0
                                 1
                     ΓX (s, t) =   E(A2 ) cos λ(t − s).
                                 2


    Se dice que un proceso estoc´stico {Xt , t ≥ 0} es gaussiano o normal si
                                 a
sus distribuciones en dimensi´n finita son leyes normales multidimensionales.
                              o
    Observamos que en el caso de un proceso gaussiano, la media mX (t) y
la autocovarianza ΓX (s, t) determinan las distribuciones en dimensi´n finita
                                                                    o
del proceso.
    La media mX (t) y la varianza σ 2 (t) nos permiten conocer donde se
                                       X
concentran los valores de la variable Xt as´ como su grado de dispersi´n,
                                              ı                          o
para cada instante t fijo. Por ejemplo, en el caso de un proceso gaussiano,

            P (mX (t) − 2σ X (t) ≤ Xt ≤ mX (t) + 2σ X (t))   0.95.


    Notemos que la probabilidad de que las trayectorias del proceso est´n e
comprendidas entre las curvas mX (t) − 2σ X (t) y mX (t) − 2σ X (t) es mucho
m´s dif´ de calcular.
  a    ıcil


                                      12
Ejemplo 8 Consideremos un proceso gaussiano {Xt , t ∈ [0, 1]} tal que las
variables aleatorias Xt son independientes y con ley N (0, σ 2 ). La media y
autocovarianza de este proceso son

                            mX (t) = 0
                                              1 si s = t
                          ΓX (s, t) =
                                              0 si s = t


   Se dice que un proceso estoc´stico {Xt , t ≥ 0} es una versi´n de otro
                                  a                            o
proceso {Xt , t ≥ 0} si para cada t ≥ 0

                                  P {Xt = Xt } = 1.

Se dice tambi´n que ambos procesos son equivalentes. Dos procesos equiva-
              e
lentes puede tener trayectorias diferentes (v´ase el Ejercicio 1.6).
                                             e

   Diremos que el proceso {Xt , t ≥ 0} es continuo en probabilidad si para
todo ε > 0 y todo t ≥ 0

                            lim P (|Xt − Xs | > ε) = 0.
                            s→t

   Consideremos un proceso estoc´stico {Xt , t ≥ 0} tal que E (|Xt |p ) < ∞,
                                  a
para todo t ≥ 0, donde p ≥ 1. Diremos que el proceso {Xt , t ≥ 0} es continuo
en media de orden p si

                             lim E (|Xt − Xs |p ) = 0.
                             s→t

La continuidad en media de orden p implica la continuidad en probabilidad.
Sin embargo, la continuidad en media de orden p no implica necesariamente
la continuidad de las trayectorias.

Ejemplo 9 El proceso de Poisson {Nt , t ≥ 0} es un proceso estoc´stico car-
                                                                a
acterizado por la ssiguientes propiedades:

i) Nt = 0,

ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn −Ntn−1 , . . . , Nt2 −
      Nt1 , son variables aleatorias independientes,

                                         13
iii) Si s < t, el incremento Nt − Ns tiene una ley de Poisson de par´metro
                                                                    a
      λ(t − s), es decir

                                                                   [λ(t − s)]k
                          P (Nt − Ns = k) = e−λ(t−s)                           ,
                                                                        k!
     k = 0, 1, 2, . . .

    Se puede construir un proceso de Poisson de la forma siguiente. Consid-
eremos una sucesi´n {Yn , n ≥ 1} de variables aleatorias independientes y con
                 o
ley geom´trica de par´metro λ. Es decir, para todo x ≥ 0,
         e           a

                                  P (Yn ≥ x) = e−λx .

Pongamos T0 = 0 y para n ≥ 1,

                                  T n = Y1 + · · · + Yn .

Entonces, el proceso Nt definido por

                              Nt = n si Tn ≤ t < Tn+1

es un proceso de Poisson de par´metro λ.
                                 a
    Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de
amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada
par de saltos son variables aleatorias independientes con leyes exponenciales
de par´metro λ. Por tanto, las trayectorias no son continuas, aunque si que
       a
los son en media cuadr´tica:
                        a
                                          ∞
                              2                    −λ(t−s) k
                                                               2
                                                                   [λ(t − s)]k
               E (Nt − Ns )         =          e
                                         k=1
                                                                      k!
                                                                           s→t
                                    = λ(t − s) + [λ(t − s)]2 −→ 0.


    Acotaciones adecuadas de los momentos de los incrementos del proceso,
permiten deducir la continuidad de las trayectorias. Este es el contenido del
siguiente criterio de continuidad, debido a Kolmogorov.




                                            14
Proposici´n 2 (Criterio de continuidad) Supongamos que un proceso es-
           o
toc´stico {Xt , t ≥ 0} cumple la condici´n siguiente:
   a                                    o

                          E (|Xt − Xs |p ) ≤ cT |t − s|α                         (1)

para todo 0 ≤ s < t ≤ T , donde a > 1 y p > 0. Entonces existe una versi´n
                                                                        o
del proceso estoc´stico Xt que tiene trayectorias continuas.
                 a


Ejemplo 10 El proceso de Poisson no cumple la condici´n (1).
                                                     o

    La condici´n (1) nos permide adem´s tener informaci´n sobre la regu-
              o                          a                 o
laridad de las trayectorias. En efecto, fijemos un intervalo de tiempo [0, T ].
Entonces, para cada ε > 0 existe una variable aleatoria Gε,T tal que, con
probabilidad uno,
                                                           α
                     |Xt (ω) − Xs (ω)| ≤ Gε,T (ω)|t − s| p −ε ,                  (2)

para todo s, t ∈ [0, T ]. Adem´s, E(Gp ) < ∞ para todo p ≥ 1.
                              a      ε,T


1.3    Movimiento browniano
En 1828 el bot´nico ingl´s Robert Brown observ´ que los granos de polen en
                a         e                       o
suspensi´n se mov´ de forma irregular. Posteriormente se descubri´ que
         o          ıan                                                   o
este fen´meno es debido a los choques aleatorios de las part´
        o                                                       ıculas de polen
con las mol´culas del l´
            e            ıquido. En los a˜os 20 Norbert Wiener present´ un
                                          n                                o
modelo matem´tico para este movimiento basado en la teor´ de los procesos
                a                                            ıa
estoc´sticos. La posici´n de una part´
     a                  o             ıcula en cada instante t ≥ 0 es un vector
variable aleatorio 3-dimensional Bt .
    En el caso unidimensional la definici´n del movimiento browniano como
                                          o
proceso estoc´stico es la siguiente:
              a

Definici´n 3 Un proceso estoc´stico {Bt , t ≥ 0} es un movimiento browni-
         o                     a
ano si se cumplen las condiciones siguientes:

   i) B0 = 0

  ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn −Btn−1 , . . . , Bt2 −
      Bt1 , son variables aleatorias independientes


                                        15
iii) Si s < t, el incremento Bt − Bs tiene una ley normal N (0, t − s)
  iv) Las trayectorias del proceso son funciones continuas.

Observaciones
1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un
    vector aleatorio (Bt1 , . . . , Btn ) es normal ya que este vector es una trans-
    formaci´n lineal del vector Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 que tiene
            o
    ley normal ya que tiene las componentes independientes y normales.
2) La media y la autocovarianza del movimiento browniano se calculan facil-
     mente:
                E(Bt ) = 0
              E(Bs Bt ) = E(Bs (Bt − Bs + Bs ))
                                                2
                        = E(Bs (Bt − Bs )) + E(Bs ) = s = min(s, t)
      si s ≤ t. Puede comprobarse f´cilmente que si un proceso gaussiano
                                      a
      tiene media cero y funci´n de autocovarianza ΓX (s, t) = min(s, t), en-
                              o
      tonces cumple las condiciones i), ii) y iii) de la Definici´n anterior.
                                                                o
3) Puede demostrarse que existe un proceso estoc´stico que cumple las
                                                    a
     condiciones anteriores. Para ello, se parte de sus distribuciones en
     dimensi´n finita, que son leyes normales N (0, Γ) donde Γ es la la ma-
             o
     triz                                     
                                t1 t1 · · · t1
                              t1 t2 · · · t2 
                                              
                              . . ..        . .
                              . .
                                 . .      . . 
                                             .
                                t1 t2 · · · tn
      El teorema de extensi´n de Kolmogorov permite construir un proceso
                             o
      estoc´stico fijadas las distribuciones en dimensi´n finita, siempre que
            a                                          o
      sean compatibles, lo que aqu´ es cierto. Finalmente hay que demostrar
                                    ı
      que se pueden modificar las variables Bt conjuntos de probabilidad
      cero de forma que las trayectorias sean continuas. Para ello se aplica el
      criterio de continuidad de Kolmogorov. Como los incrementos Bt − Bs
      tienen ley normal N (0, t − s), para todo n´mero entero k tendremos
                                                 u
                                                (2k)!
                           E (Bt − Bs )2k =           (t − s)k .                (3)
                                                2k k!

                                        16
Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una
     versi´n continua, ya que
          o

                           E (Bt − Bs )4 = 3(t − s)2 .

4) En la definici´n de movimiento bronwiano, se supone que el espacio de
                o
     probabilidad (Ω, F, P ) es arbitrario. Sin embargo, mediante la apli-
     caci´n
         o

                              Ω → C ([0, ∞), R)
                              ω → B· (ω)

     podemos suponer que el espacio de probabilidad es el conjunto de
     las funciones continuas C ([0, ∞), R) con la σ-´lgebra de Borel (gen-
                                                    a
     erada por los conjuntos abiertos relativos a la estructura de espacio
     m´trico separable y completo) y con una probabilidad igual a la ley del
       e
     movimiento browniano: P ◦ B −1 . En tal caso las variables aleatorias
     son las evaluaciones ω(t) y este espacio de probabilidad se denomina
     espacio can´nico.
                o


Regularidad de las trayectorias
    Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo
p = 2k y utilizando (3), tendremos α = k. Por lo tanto, para todo ε > 0
existe una variable aleatoria Gε,T tal que
                                                   1
                        |Bt − Bs | ≤ Gε,T |t − s| 2 −ε ,                  (4)

para cada s, t ∈ [0, T ]. Es decir, las trayectorias del movimiento Browniano
son H¨lder continuas de orden 1 − ε para todo ε > 0. Intuitivamente, esto
      o                           2
significa que
                                                      1
                          ∆Bt = Bt+∆t − Bt (∆t) 2 .
En media esta aproximaci´n es exacta: E (∆Bt )2 = ∆t.
                        o


Variaci´n cuadr´tica del movimiento browniano
         o        a
    Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisi´n π de
                                                                      o
este intervalo
                         0 = t0 < t1 < · · · < tn = t.

                                      17
La norma de la subdivisi´n π se define como |π| = maxk ∆tk , donde ∆tk =
                        o
tk − tk−1 . Pongamos ∆Bk = Btk − Btk−1 . Entonces, si tj = jt tendremos
                                                           n

                                  n                                 1
                                                              t     2
                                      |∆Bk |         n                  −→ ∞,
                              k=1
                                                              n

mientras que
                                       n
                                                                   t
                                            (∆Bk )2            n     = t.                             (5)
                                      k=1
                                                                   n
Esas propiedades pueden formularse de manera rigurosa como sigue:
    En primer lugar, puede demostrarse que las sumas de los cuadrados de
los incrementos convergen en media cuadr´tica hacia la longitud del intervalo
                                        a
de tiempo considerado:
                                                              
               n                      2                            n                          2

     E                   2
                    (∆Bk ) − t             = E                                2
                                                                         (∆Bk ) − ∆tk             
              k=1                                                 k=1
                                                      n
                                                                                        2
                                             =                E         (∆Bk )2 − ∆tk
                                                     k=1
                                                      n
                                             =                 4 (∆tk )2 − 2 (∆tk )2 + (∆tk )2
                                                     k=1
                                                       n
                                                                                    |π|→0
                                             = 3                  (∆tk )2 ≤ 3t|π| −→ 0.
                                                         k=1

   Por otra parte, la variaci´n total de las trayectorias del movimiento brow-
                             o
niano, definida como
                                                          n
                                       V = sup                 |∆Bk |
                                                 π
                                                         k=1
es infinita con probabilidad uno. En efecto, utilizando la continuidad de las
trayectorias del movimiento browniano, tendremos
         n                                        n
                      2                                                                     |π|→0
              (∆Bk ) ≤ sup |∆Bk |                        |∆Bk |          ≤ V sup |∆Bk | −→ 0          (6)
                              k                                                k
        k=1                                      k=1

                                                 n
si V < ∞, lo cual contradice que                 k=1      (∆Bk )2 converja en media cuadr´tica
                                                                                         a
hacia t cuando |π| → 0.

                                                      18
Propiedad de autosimilitud
  Para todo n´mero real a > 0, el proceso
             u

                             a−1/2 Bat , t ≥ 0

es un movimiento browniano. En efecto, este proceso es normal, con media
cero y funci´n de autocovarianza igual a min(s, t).
            o


Procesos relacionados con el movimiento browniano

1.- El puente browniano: Consideremos el proceso

                                Xt = Bt − tB1 ,

     t ∈ [0, 1]. Se trata de un proceso normal centrado con funci´n de
                                                                 o
     autocovarianza
                          E(Xt Xs ) = min(s, t) − st,
     que verifica X0 = 0, X1 = 0.

2.- El movimiento browniano con deriva: Consideremos el proceso

                               Xt = σBt + µt,

     t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Se trata de un proceso
     normal con media y funci´n de autocovarianza
                             o

                            E(Xt ) = µt,
                           ΓX (s, t) = σ 2 min(s, t)

3.- Movimiento browniano geom´trico: Es el proceso estoc´stico propuesto
                                e                         a
     por Black, Scholes y Merton como modelo para la curva de precios de
     los activos financieros. Su definici´n es la siguiente
                                       o

                                   Xt = eσBt +µt ,

     t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Es decir, se trata de la
     exponencial de un movimiento browniano con deriva lineal.


                                     19
Simulaci´n del movimiento browniano
          o
    El movimiento browniano puede considerarse como el l´         ımite de los paseos
aleatorios. Fijemos un intervalo de tiempo [0, T ]. Consideremos n variables
aleatorias ξ 1 , . . . , ξ n independientes, id´nticamente distribuidas, centradas y
                                               e
de varianza T . Formemos las sumas parciales
                 n

                         Rk = ξ 1 + · · · + ξ k , k = 1, . . . , n.
El Teorema Central del L´mite nos dice que cuando n tiende a infinito, la
                           ı
sucesi´n Rn converge en ley hacia la ley N (0, T ).
      o
    Consideremos ahora el proceso estoc´stico continuo Sn (t) construido por
                                          a
interpolaci´n lineal a partir de los valores
           o
                                    kT
                             Sn (      ) = Rk k = 0, . . . , n.
                                     n

Es decir, colocamos las sumas parciales R1 , R2 , . . . en los instantes T , 2T , 3T , . . .
                                                                         n n       n
.
   Se verifica una versi´n funcional del Teorema Central del L´
                        o                                           ımite, conocida
con el nombre de Principio de Invariancia de Donsker, que nos dice que la
sucesi´n de procesos estoc´sticos Sn (t) convege en ley hacia el movimiento
      o                    a
browniano en [0, T ].


   Tambi´n puede hacerse una simulaci´n de las trayectorias brownianas
         e                              o
mediante series de Fourier con coeficientes aleatorios. La representaci´n de
                                                                      o
Paley-Wiener del movimiento browniano es
                                           ∞
                          t   2                      sin(nt/2)
                Bt = Z 0 √ + √                  Zn             , t ∈ [0, 2π],
                          2π   π          n=1
                                                         n

donde las Zn , n = 0, 1, . . . son variables aleatorias independientes y con
ley N (0, 1). La serie converge uniformemente en [0, 2π], para cada ω, casi
seguramente.
    Para utilizar esta f´rmula en la simulaci´n de las trayectorias brownianas
                        o                    o
debemos elegir el n´mero M de funciones trigonom´tricas y el n´mero N de
                     u                               e             u
puntos de discretizaci´n de las funciones:
                        o
                                                M
                             tj  2                        sin(ntj /2)
                         Z0 √ + √                    Zn               ,
                              2π  π            n=1
                                                              n

                                               20
2πj
donde tj =    N
                 ,   j = 0, 1, . . . , N .


1.4    Esperanza condicionada
La probabilidad condicionada de un suceso A por un suceso B (suponiendo
P (B) > 0) se define como

                                                   P (A∩B)
                                      P (A|B) =      P (B)
                                                           .

Vemos que A y B son independientes s´ y solo si P (A|B) = P (A). La
                                        ı
probabilidad condicionada P (A|B) representa la probabilidad del suceso A
suponiendo que sabemos que B ha ocurrido. La aplicaci´n
                                                      o

                                         A −→ P (A|B)

define una nueva probabilidad en la σ-´lgebra F que se concentra en el con-
                                       a
junto B. Se puede calcular entonces la esperanza condicionada por B de una
variable aleatoria integrable X:
                                                1
                                 E(X|B) =           E(X1B ),
                                              P (B)
donde 1B representa la funci´n indicatriz del suceso B definida por
                            o

                                              1 si ω ∈ B
                                 1B (ω) =
                                              0 si ω ∈ B
                                                     /

    Un concepto m´s complicado es el condicionamiento por una σ-´lgebra
                   a                                             a
de sucesos. Consideremos una σ-`lgebra B ⊂ F y una variable aleatoria
                                  a
integrable X.
    Una variable aleatoria Z se denomina la esperanza condicionada de la
variable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dos
propiedades siguientes:

   • Z es medible respecto de B.

   • Para todo suceso A ∈ B

                                        E (Z1A ) = E (X1A ) .

                                              21
Puede demostrarse que la esperanza condicionada existe y es unica casi se-
                                                                  ´
guramente, de manera que si Z fuese otra variable con las mismas propiedades,
entonces Z = Z, P -casi seguramente.
   En el caso particular en que la σ-´lgebra B est´ generada per una partici´n
                                     a            a                         o
finita {B1 , ..., Bm }, entonces E(X|B) es una variable aleatoria elemental que
en cada conjunto Bj toma el valor constante E(X|Bj ), es decir,
                                    m
                                         E X1Bj
                       E(X|B) =                   1Bj .
                                   j=1
                                          P (Bj )

   Reglas para el c´lculo de esperanzas condicionadas:
                   a

Regla 1 La esperanza condicionada es lineal:

                      E(aX + bY |B) = aE(X|B) + bE(Y |B)

Regla 2 La variable y su esperanza condicionada tienen la misma esperanza:

                               E (E(X|B)) = E(X)

     Esta propiedad es una consecuencia inmediata de la definici´n, tomando
                                                               o
     A = Ω.
Regla 3 Si la variable aleatoria X y la σ-´lgebra B son independientes,
                                          a
    entonces E(X|B) = E(X).
     En efecto, para todo suceso A ∈ B tendremos
                     E (X1A ) = E (X)E(1A ) = E(E(X)1A ).

Regla 4 Si X es B-medible, entonces E(X|B) = X.
Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces
                             E(ZX|B) = ZE(X|B).
     Es decir, las variables aleatorias B-medibles se comportan como con-
     stantes y pueden sacarse fuera de la esperanza condicionada.
Regla 6 Si C ⊂ B, entonces

                    E (E(X|B)|C) = E (E(X|C)|B) = E(X|C)


                                        22
Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es B-
    medible y X es independiente de B. Consideremos una funci´n h(x, z)
                                                             o
    tal que h(X, Z) es integrable. Entonces, se tiene

                              E (h(X, Z)|B) = E (h(X, z)) |z=Z

      Es decir, primero calculamos la esperanza E (h(X, z)) para un valor
      arbitrario z de la variable Z y luego substituimos z por Z.


   La esperanza condicionada tiene propiedades similares a la esperanza or-
dinaria. Por ejempo se cumple la siguiente propiedad de monoton´ ıa:

                           X ≤ Y ⇒ E(X|B) ≤ E(Y |B),

que implica la desigualdad |E(X|B) | ≤ E(|X| |B). Tambi´n se cumple la
                                                           e
desigualdad de Jensen: Si ϕ es una funci´n convexa tal que E(|ϕ(X)|) < ∞,
                                        o
entonces
                        ϕ (E(X|B)) ≤ E(ϕ(X)|B).                        (7)
    En particular, si tomamos ϕ(x) = |x|p con p ≥ 1, se obtiene

                                |E(X|B)|p ≤ E(|X|p |B),

por lo tanto, tomando esperanzas, deducimos que si E(|X|p ) < ∞, entonces,
E(|E(X|B)|p ) < ∞, y

                               E(|E(X|B)|p ) ≤ E(|X|p ).

    Si la σ-´lgebra B est´ generada por las variables aleatorias Y1 , . . . , Ym ,
            a                  a
entonces, la esperanza condicionada se representa por E(X|Y1 , . . . , Ym ) y
es una cierta funci´n g(Y1 , . . . , Ym ) de estas variables. En particular, si las
                        o
variables X, Y1 , . . . , Ym tienen una ley conjunta con densidad f (x, y1 , . . . , ym ),
entonces, la esperanza condicionada se puede calcular como la esperanza de
la densidad condicionada:
                                                  f (x, y1 , . . . , ym )
               f (x|y1 , . . . , ym ) =   +∞                                          ,
                                          −∞
                                               f (x, y1 , . . . , ym )dy1 · · · dym

es decir,
                                                +∞
                  E(X|Y1 , . . . , Ym ) =            xf (x|Y1 , . . . , Ym )dx.
                                               −∞


                                               23
En el caso en que la σ-´lgebra B est´ generada por un conjunto infinito
                             a            e
de variables aleatorias {Yj }, escribiremos tambi´n
                                                 e
                           E(X|B) = E(X| {Yj }),
pero el c´lculo no se puede efectuar mediante una f´rmula como la anterior
         a                                          o
y necesitaremos utilizar las reglas que hemos introducido antes.

Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt , t ≥
0}. Para cada instante t, definimos la σ-´lgebra Ft generada por las variables
                                        a
aleatorias {Bs , s ≤ t}. La σ-´lgebra Ft contiene la historia del movimiento
                              a
browniano hasta el instante t. Esto quiere decir que:
i) Los sucesos F de Ft ser´n conocidos (se sabr´ si han ocurrido o no) en el
                          a                    a
     instante t.
ii) El valor de una variable aleatoria X(ω) medible respecto de la σ-´lgebra
                                                                     a
      Ft ser´ una funci´n de la trayectoria del movimiento browniano
            a          o
                                {Bs (ω), s ∈ [0, t]} .

   Observemos que Fs ⊂ Ft si s ≤ t, es decir, la familia de σ-´lgebras
                                                                     a
{Ft , t ≥ 0} es creciente. Diremos que {Ft , t ≥ 0} es una filtraci´n en el es-
                                                                  o
pacio de probabilidad (Ω, F, P ).
   Queremos calcular
                        E(Bt |Fs ) = E(Bt |Br , r ≤ s).
   • Si s ≥ t, la variable Bt es Fs -medible, y por la Regla 4 obtenemos
     E(Bt |Fs ) = Bt .
   • Si s < t, por la propiedad de linealidad (Regla 1):
                   E(Bt |Fs ) = E(Bt − Bs + Bs |Fs )
                              = E(Bt − Bs |Fs ) + E( Bs |Fs ).
     Como Bt − Bs es independiente de Fs , la Regla 3 nos da
                       E(Bt − Bs |Fs ) = E(Bt − Bs ) = 0,
     y, por lo tanto, obtenemos
                                  E(Bt |Fs ) = Bs .                       (8)

                                      24
El conjunto de las variables aleatorias Z que son medibles respecto de una
σ-´lgebra B y que son de cuadrado integrable (E(Z 2 ) < ∞), lo representare-
  a
mos por L2 (Ω, B, P ). Puede demostrarse que L2 (Ω, F, P ) es un espacio de
Hilbert con el producto escalar

                               Z, Y = E(ZY ),

y que L2 (Ω, B, P ) es un subespacio cerrado de L2 (Ω, F, P ).
   En este contexto, si X es una variable tal que E(X 2 ) < ∞, la esperanza
condicionada E(X|B) es la variable del espacio L2 (Ω, B, P ) m´s pr´xima a
                                                               a    o
X en media cuadr´tica:
                    a

               E (X − E(X|B))2 =           min        E (X − Z)2 .        (9)
                                      Z∈L2 (Ω,B,P )


Es decir, E(X|B) es la proyecci´n de X en el subespacio L2 (Ω, B, P ).
                                o
    Desde el punto de vista de la teor´ de la estimaci´n, la esperanza condi-
                                      ıa              o
cionada E(X|B) es el mejor predictor de la variable X a partir de la σ-´lgebra
                                                                       a
B (estimador ´ptimo).
              o
    Demostraci´n de (9): Sea X una variable tal que E(X 2 ) < ∞. La
                 o
desigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B)
tambi´n es de cuadrado integrable ya que
     e

                  E (E(X|B))2 ≤ E E(X 2 |B) = E(X 2 ).

La regla 5 nos permite demostrar que la diferencia X − E(X|B) es ortogonal a
L2 (Ω, B, P ). En efecto, si Z es una variable de L2 (Ω, B, P ) tendremos

           E [(X − E(X|B))Z] = E(XZ) − E(E(X|B)Z)
                             = E(XZ) − E(E(XZ|B)) = 0.

Finalmente, esta ortogonalidad implica que

        E (X − Y )2 = E (X − E(X|B))2 + E (E(X|B) − Z)2 ,

de lo que se deduce (9).


   Ejercicios


                                      25
1.1 Supongamos que {Hi , i ∈ I} es una familia de σ-´lgebras en un conjunto
                                                    a
     Ω. Demostrar que
                               H = ∩{Hi , i ∈ I}
     es tambi´n una σ-´lgebra.
             e        a
1.2 Supongamos que X es una variable aleatoria real tal que

                             M = E[exp(k|X|)] < ∞

     para un cierto k > 0. Probar que P (|X| > λ) ≤ M e−kλ , para todo
     λ ≥ 0.
1.3 Sea (Ω, F, P ) un espacio de probabilidad y consideremos una sucesi´n
                                                                       o
     de sucesos A1 , A2 , . . . tales que
                                  ∞
                                        P (Ak ) < ∞.
                                  k=1

     Demostrar el lema de Borel-Cantelli:

                              P (∩∞ ∪∞ Ak ) = 0,
                                  m=1 k=m

     es decir, la probabilidad que ocurran infinitos sucesos de la sucesi´n es
                                                                        o
     nula.
1.4 Sea Z una variable aleatoria con ley N (0, σ 2 ). A partir de la f´rmula
                                                                      o
                                               1   2 2
                                 E(eλZ ) = e 2 λ    σ
                                                         ,

     y desarrollando en serie de potencias la funci´n exponencial deducir
                                                   o
     que para todo k ≥ 1
                                          (2k)! 2k
                               E(Z 2k ) =        σ ,
                                           2k k!
                             E(Z 2k−1 ) = 0.

1.5 Sea Z una variable aleatoria con ley de Poisson de par´metro λ. Com-
                                                          a
     probar que la funci´n caracter´
                        o          ıstica de Z vale

                            ϕZ (t) = exp λ eit − 1           .

     Como aplicaci´n calcular E(Z 2 ), Var(Z) y E(Z 3 ).
                  o

                                        26
1.6 Sea (Ω, F, P ) = ([0, ∞), B[0,∞) , µ), donde µ es una probabilidad en [0, ∞)
     con funci´n de distribuci´n continua. Consideremos en este espacio de
               o               o
     probabilidad los procesos estoc´sticos
                                        a

                                            1 si t = ω
                            Xt (ω) =
                                            0 si t = ω
                            Yt (ω) = 0.

      Comprobar que estos procesos tienen las mismas distribuciones en di-
      mensi´n finita, pero las trayectorias del proceso X son todas discontin-
           o
      uas.

1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 ≥ 0. De-
     mostrar que el proceso

                              Bt = Bt0 +t − Bt0 , t ≥ 0

      es tambi´n un movimiento browniano.
              e

1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular

                                    P (|Bt | < ρ)

      donde ρ > 0.

1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una
     matriz U cuadrada de dimensi´n n, ortogonal (es decir, U U = I).
                                 o
     Demostrar que el proceso
                               Bt = U Bt
      es tambi´n un movimiento browniano.
              e

1.10 Calcular la media y la autocovarianza del movimiento browniano geom´trico.
                                                                        e
     Es un proceso gaussiano?




                                       27
2     Integraci´n estoc´stica
               o       a
Supongamos que {Bt , t ≥ 0} es un movimiento browniano definido en un es-
pacio de probabilidad (Ω, F, P ). Consideremos la familia creciente {Ft , t ≥ 0}
de σ-´lgebras generadas por este proceso. Supondremos adem´s que Ft con-
     a                                                          a
tiene los conjuntos de probabilidad cero. Esto significa que Ft es la m´   ınima
σ-´lgebra que contiene los conjuntos de la forma
   a

                                {Bs ∈ A} ∪ N

donde s ∈ [0, t], A pertenece a la σ-´lgebra de Borel BR , y N es un conjunto
                                     a
de probabilidad cero.
    Diremos que un proceso estoc´stico {ut , u ≥ 0} es adaptado (a la familia
                                   a
de σ-´lgebras Ft ) si para cada t la variable aleatoria ut es Ft -medible.
     a
    La inclusi´n de los sucesos de probabilidad cero en cada σ-´lgebra Ft
               o                                                     a
tiene las siguientes consecuencias interesantes:

a) Toda versi´n de un proceso adaptado es tambi´n adaptado.
             o                                 e

b) La familia de σ-´lgebras es continua por la derecha, es decir, para todo
                   a
     t≥0
                                 ∩s>t Fs = Ft .

    Demostraci´n de b): Consideremos las σ -´lgebras F t = σ{Br − Bt , r ≥
                  o                                a
s}. Si B ∈ ∩s>t Fs , la σ -´lgebra generada por B y por Ft , es independiente de
                           a
     1
  t+ n
F      para todo n. Por tanto, σ(B, Ft ) ser´ independiente de F t , y tendemos
                                            a

                      E(1B |Ft ) = E(1B |Ft ∨ F t ) = 1B ,

de lo que se deduce 1B ∈ Ft .
   La σ-´lgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto
         a
implica que las variables aleatorias F0 -medibles ser´n constantes, casi segu-
                                                     a
ramente.

    Nuestro objetivo es la definici´n de integrales estoc´sticas de la forma
                                  o                     a
                                     T
                                    0
                                         ut dBt .

    Una posibilidad consiste en utilizar la definici´n de integral de Riemann
                                                   o
Stieltjes:

                                         28
Consideremos una partici´n del intervalo [0, T ]:
                           o
                   τ n : 0 = t0 < t1 < · · · < tn−1 < tn = T
as´ como una partici´n intermedia:
  ı                 o
                   σn :        ti ≤ si leqti+1 , i = 0, . . . , n − 1.
Dadas dos funciones f y g en el intervalo [0, T ], la integral de Riemann
           T
Stieltjes 0 f dg se define como el l´
                                   ımite
                                         n
                                   lim         f (si−1 )∆gi
                                  n→∞
                                         i=1
                      n→∞
cuando supi (ti − ti−1 ) −→ 0, suponiendo que este l´ımite existe y es indepen-
diente de la sucesi´n de particiones τ n y de sus particiones intermedias σ n ,
                    o
con la notaci´n ∆gi = g(ti ) − g(ti−1 ).
             o
                                                   T
    Se sabe que la integral de Riemann Stieltjes 0 f dg existe si la funci´n f
                                                                           o
es continua y la funci´n g tiene variaci´n total acotada, es decir:
                        o                o

                                  sup          |∆gi | < ∞.
                                    τ
                                         i

    Como las trayectorias del movimiento browniano tienen variaci´n total
                                                                    o
infinita (v´ase (6)) no podemos utilizar este criterio para asegurar que la
           e
                                T
integral de Riemann-Stieltjes 0 ut (ω)dBt (ω) existe para cada ω, si u es un
proceso arbitrario con trayectorias continuas.
    Obsevemos, si embargo, que si las trayectorias del proceso u son difer-
enciables con derivadas acotadas, entonces, la integral de Riemann Stielt-
     T
jes 0 ut (ω)dBt (ω) existe y puede calcularse mediante una integraci´n por
                                                                      o
partes:
                           T                            T
                          0
                               ut dBt = uT BT −        0
                                                            ut Bt dt.
                                                                         T
   En este apartado presentaremos una construcci´n de la integral 0 ut dBt
                                                  o
mediante un procedimiento global de tipo probabil´  ıstico. En primer lugar
definiremos la clase de procesos que integraremos:
   Designaremos por L2 el conjunto de los procesos estoc´sticos
                       a,T                                  a
                                  u = {ut , t ∈ [0, T ]}
tales que:

                                               29
a) Para cada t ∈ [0, T ], la aplicaci´n (s, ω) −→ us (ω) definida en [0, t] × Ω
                                     o
     es medible respecto de la σ-´lgebra producto B[0,t] × Ft .
                                   a
         T
b) E    0
             u2 dt < ∞.
              t


    Un proceso que verifica la condici´n a) se dice que es progresivamente
                                         o
medible. En general, que un proceso estoc´stico u sea medible significa que la
                                           a
funci´n de dos variables (s, ω) −→ us (ω) es medible en la σ-´lgebra producto
       o                                                        a
B[0,T ] ×F . La propiedad a) require la medibilidad de la restricci´n del proceso
                                                                   o
u a cada conjunto [0, t] × Ω. Esta propiedad implica que el proceso u sea
adaptado, ya que si una funci´n es medible en un espacio producto, al fijar
                                o
una coordenada resulta medible como funci´n de la segunda coordenada. Por
                                             o
otra parte, la propiedad a) es esencial para garantizar que variables aleatorias
            t
del tipo 0 us ds sean Ft -medibles.
    La condici´n b) significa que el momento de segundo orden es integrable
                o
en [0, T ], ya que, el teorema de Fubini nos permite escribir
                                        T                        T
                          E                 u2 dt
                                             t          =            E u2 dt.
                                                                        t
                                    0                        0

La propiedad b) nos dice que el proceso u como funci´n de las dos variables
                                                     o
                             2
(t, ω) pertenece al espacio L ([0, T ] × Ω).
                                           T
     Definiremos la integral estoc´stica 0 ut dBt para procesos u de la clase
                                  a
L2 como el l´
  a,T          ımite en L2 (Ω) de la integral de procesos elementales. Por
definici´n un proceso u de L2 es elemental si se puede expresar de la forma
        o                    a,T

                                               n
                                   ut =             φj 1(tj−1 ,tj ] (t),        (10)
                                              j=1


donde 0 = t0 < t1 < · · · < tn = T y las φj son variables aleatorias de
cuadrado integrable Ftj−1 -medibles.
   Si u es un proceso elemental de la forma (10) se define la integral es-
toc´stica de u respecto del movimiento browniano B como
   a
                              T                     n
                                  ut dBt =              φj Btj − Btj−1 .        (11)
                          0                     j=1




                                                        30
La integral estoc´stica definida en el espacio E de los procesos elementales
                     a
tiene las siguiente propiedad de isometria:

                                                            2
                                        T                                       T
                                E      0
                                            ut dBt               =E            0
                                                                                    u2 dt
                                                                                     t                           (12)


   Demostraci´n de la isometr´ Pongamos ∆Bj = Btj −Btj−1 . Entonces
             o               ıa:

                                                                       0           si i = j
                   E φi φj ∆Bi ∆Bj =
                                                          E     φ2
                                                                 j    (tj − tj−1 ) si i = j

ya que si i < j las variables aleatorias φi φj ∆Bi y ∆Bj son independientes y si
i = j las variables aleatorias φ2 y (∆Bi )2 son independientes. Por lo tanto se
                                 i
obtiene
               T            2          n                                                n
       E           ut dBt       =             E φi φj ∆Bi ∆Bj =                              E φ2 (ti − ti−1 )
                                                                                                i
           0                          i,j=1                                            i=1
                                                      T
                                = E                       u2 dt .
                                                           t
                                                  0



   La extensi´n de la integral estoc´stica a todos los procesos de la clase
             o                       a
L2
 a,Tse basa en el siguiente resultado de aproximaci´n:
                                                   o

Lema 4 Si u es un proceso de la clase L2 existe una sucesi´n de procesos
                                       a,T                o
             (n)
elementales u tales que
                                                      T                    2
                                                                     (n)
                                lim E                     ut − ut              dt    = 0.                        (13)
                                n→∞               0

   Demostraci´n: La demostraci´n de este resultado la haremos en dos etapas:
             o                o

  1. Supongamos que el proceso u es continuo en media cuadr´tica. En tal caso,
                                                           a
       podemos tomar la sucesi´n aproximadora
                              o
                                                           n
                                            (n)
                                        ut        =             utj−1 1(tj−1 ,tj ] (t),
                                                          j=1




                                                            31
siendo tj = jT . La continuidad en media cuadr´tica del proceso u nos
                   n
                                                   a
     garantiza que
                           T                         2                                T                              2
                                               (n)                                                             (n)
              E                ut − ut                   dt           =                   E        ut − ut               dt
                       0                                                          0
                                                                      ≤ T                 sup       E |ut − us |2
                                                                                   |t−s|≤T /n

     converge hacia cero cuando n tiende a infinito.

  2. Supongamos que u es un proceso arbitrario de la clase L2 . En tal caso,
                                                                 a,T
     existe una sucesi´n de procesos v , pertenecientes a la clase L2 , continuos
                      o               (n)
                                                                     a,T
     en media cuadr´tica y tales que
                   a
                                                             T                            2
                                                                                  (n)
                                   lim E                             ut − v t                 dt   = 0.                       (14)
                                n→∞                      0

     En efecto, definimos
                                           t                                  t                         t
                   (n)
                  vt       =n                   us ds = n                         us ds −                   us− 1 ds ,
                                          1                                                                    n
                                       t− n                               0                         0

     con la convenci´n u(s) = 0 si s < 0. Estos procesos son continuos en media
                    o
     cuadr´tica (tambi´n tienen trayectorias continuas), y pertenecen a la clase
           a           e
     L2 , debido a la propiedad a). Adem´s se cumple (14) ya que para cada
       a,T                                 a
     (t, ω) tenemos
                                       T
                                                                                          2        n→∞
                                               u(t, ω) − v (n) (t, ω) dt −→ 0
                                   0
     (v´ase Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia
       e
     dominada en el espacio producto [0, T ] × Ω ya que
                                   T                                                  T
                                                                 2
                                           v (n) (t, ω) dt ≤                              |u(t, ω)|2 dt.
                               0                                                  0




Definici´n 5 Si u es un proceso de la clase L2 , la integral estoc´stica se
        o                                   a,T                  a
define como el l´mite en L2 (Ω)
               ı
                                    T                                         T
                                                                                      (n)
                                           ut dBt = lim                           ut dBt ,                                    (15)
                                0                             n→∞         0

donde u(n) es una sucesi´n de procesos elementales tales que cumplen (13).
                        o

                                                                 32
Que el l´
            ımite (15) existe es debido a que la sucesi´n de variables aleato-
                                                       o
      T (n)                                   2
rias 0 ut dBt es de Cauchy en el espacio L (Ω), debido a la propiedad de
isometr´ (12):
       ıa
          T                              T                    2                               T                                        2
               (n)                            (m)                                                             (n)            (m)
E             ut dBt −                       ut dBt                     = E                           ut − ut                              dt
      0                              0                                                    0
                                                                                                  T                                2
                                                                                                               (n)
                                                                        ≤ 2E                              ut − ut                      dt
                                                                                              0
                                                                                                      T                                    2
                                                                                                                              (m)                   n,m→∞
                                                                                +2E                             ut − ut                        dt    →      0.
                                                                                                  0

Tambi´n puede demostrarse que el l´
      e                              ımite (15) no depende de la sucesi´n u(n)
                                                                       o
siempre que esta sucesi´n cumpla (13).
                       o
   La integral estoc´stica tiene las siguientes propiedades importantes:
                    a

1.- Isometr´
           ıa:
                                                         T                  2                             T
                                         E                   ut dBt              =E                           u2 dt .
                                                                                                               t
                                                     0                                                0


2.- Media cero:
                                                                        T
                                                         E                  ut dBt            = 0.
                                                                    0

3.- Linealidad:
                                 T                                                   T                                   T
                                     (aut + bvt ) dBt = a                                ut dBt + b                          vt dBt .
                             0                                                   0                                   0

                                                     T
4.- Localidad: Se cumple                            0
                                                         ut dBt = 0 casi seguramente, en el conjunto
                      T
      G=             0
                          u2 dt = 0 .
                           t


    La propiedad de localidad es una consecuencia de que en el conjunto G
la sucesi´n aproximadora
         o
                                               n                   (j−1)T
                                                                      n
                       (n,m,N )
                      ut                 =          m                            us ds 1( (j−1)T , jT ] (t)
                                                                  (j−1)T     1               n      n
                                              j=1                    n
                                                                            −m


se anula.

                                                                        33
Ejemplo 12
                                        T
                                                    1 2 1
                                            Bt dBt = BT − T.
                                    0               2    2
  Como el proceso Bt es continuo en media cuadr´tica podemos tomar como
                                               a
sucesi´n aproximadora
      o
                                                n
                                   (n)
                               ut           =         Btj−1 1(tj−1 ,tj ] (t),
                                                j=1

                jT
donde tj =       n
                   ,   y tendremos

           T                        n
               Bt dBt =      lim            Btj−1 Btj − Btj−1
       0                     n→∞
                                   j=1
                                                                                n
                           1       2     2     1                                        2
                         =    lim Btj − Btj−1 − lim      Btj − Btj−1
                           2 n→∞               2 n→∞ j=1
                             1 2 1
                         =    B − T.                                                        (16)
                             2 T 2
Si xt es una funci´n derivable, las reglas del c´lculo diferencial e integral nos
                  o                               a
dicen que
                       T            T
                                                 1 2
                         xt dxt =     xt xt dt =    x − x2 .
                     0            0              2 T      0

Observemos que en el caso del movimiento browniano nos aparece un t´rmino
                                                                   e
                    1
adicional igual a − 2 T .


                                                                                    T
Ejemplo 13 Consideremos una funci´n determinista g tal que 0 g(s)2 ds <
                                     o
                                          T
∞. En este caso, la integral estoc´stica 0 gs dBs es una variable aleatoria
                                  a
con ley normal
                                                          T
                                         N (0,                g(s)2 ds).
                                                      0




                                                          34
2.1    Integrales estoc´sticas indefinidas
                       a
Consideremos un proceso u de la clase L2 . El proceso u1[0,t] tambi´n
                                           a,T                     e
             2
pertenece a La,T , y por lo tanto, podemos definir su integral:
                                  t                               T
                                      us dBs :=                       us 1[0,t] (s)dBs .
                              0                               0

De esta forma hemos construido un nuevo proceso estoc´stico
                                                     a
                                               t
                                                   us dBs , 0 ≤ t ≤ T
                                           0

que es la integral indefinida del proceso u respecto de B. En este apartado
estudiaremos las propiedades de las integrales indefinidas. En primer lugar,
debido a la linealidad de la integral estoc´stica, tenemos la propiedad de
                                           a
aditividad siguiente:
                          b                               c                            c
                              us dBs +                        us dBs =                     us dBs ,
                      a                               b                            a

si a ≤ b ≤ c.
    Si a < b y A es un suceso de la σ-´lgebra Fa entonces,
                                      a
                                      b                                       b
                                          1A us dBs = 1A                          us dBs .
                                  a                                       a

En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable
acotada y Fa -medible.
   Una propiedad importante de las integrales indefinidas es la propiedad de
martingala.

Definici´n 6 Un proceso estoc´stico {Mt , t ≥ 0} diremos que es una martin-
         o                      a
gala respecto de una familia creciente de σ-´lgebras {Mt , t ≥ 0}, contenidas
                                            a
en F, si se cumplen las propiedades siguientes:

(i) Mt es medible respecto de Mt , para todo t ≥ 0.

(ii) E(|Mt |) < ∞ para todo t ≥ 0.

(iii) E(Mt |Ms ) = Ms , si s ≤ t.

                                                              35
La propiedad (iii) puede expresarse de forma equivalente como sigue
                           E(Mt − Ms |Ms ) = 0
y ello significa que la esperanza condicionada de los incrementos de una mar-
tingala es cero. Las martingalas se introduden para modelizar las ganancias
de un jugador que juega una partida equitativa en un juego de azar. En he-
cho de que la ganancia esperada tenga valor medio cero representa el car´cter
                                                                        a
equitativo del juego.
    De forma an´loga se puede introducir el concepto de martingala para un
                 a
proceso {Mt , 0 ≤ t ≤ T } respecto de una familia creciente de σ-´lgebras
                                                                     a
{Mt , 0 ≤ t ≤ T }. En tal caso, la propiedad de martingala nos dice que
                             Mt = E(MT |Mt ).
Fij´monos en que la variable terminal MT determina la martingala ya que
   e
las variables Mt se obtinenen tomando la esperanza condicionada de MT
respecto de la familia creciente de σ-´lgebras.
                                      a
    Como consecuencia de la propiedad de martingala tendremos que la es-
peranza de una martingala es consante:
                             E(Mt ) = E(M0 ).



Ejemplo 14 Si Bt es un movimiento browniano y Ft es la filtraci´n generada
                                                              o
por Bt , entonces, los procesos:
                                Bt
                                 2
                                Bt − t
                                           a2 t
                                exp(aBt −       )
                                            2
son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido
                            2
demostrada en (8). Para Bt − t, la propiedad de martingala se deduce del
siguiente c´lculo de esperanzas condicionadas, si s < t
           a
        E(Bt |Fs ) = E((Bt − Bs + Bs )2 |Fs )
           2

                   = E((Bt − Bs )2 |Fs ) + 2E((Bt − Bs ) Bs |Fs )
                            2
                     +E(Bs |Fs )
                   = E (Bt − Bs )2 + 2Bs E((Bt − Bs ) |Fs ) + Bs 2

                              2
                   = t − s + Bs .

                                     36
a2 t
Finalmente, para el proceso exp(aBt −                    2
                                                             )    tendremos
                            a2 t                                            a2 t
                 E(eaBt −    2     |Fs ) = eaBs E(ea(Bt −Bs )−               2     |Fs )
                                                                           2
                                                              a(Bt −Bs )− a2 t
                                         = eaBs E(e                                )
                                                        a2 (t−s)    2                  a2 s
                                                                 − a2 t
                                         = eaBs e           2              = eaBs −     2     .



   Las martingalas con trayectorias continuas cumplen la desigualdad fun-
damental siguiente debida a Doob:

Desigualdad de Doob: Supongamos que {Mt , 0 ≤ t ≤ T } es una martin-
gala con trayectorias continuas. Entonces, para todo p ≥ 1 y todo λ > 0 se
cumple
                                            1
                    P sup |Mt | > λ ≤ p E(|MT |p ).
                        0≤t≤T              λ
    Obsevamos que se trata de una generalizaci´n de la desigualdad de Tcheby-
                                               o
chev. Como consecuencia de la desigualdad de Doob puede demostrarse que
las integrales estoc´sticas indefinidas tienen trayectorias continuas.
                    a

Proposici´n 7 Supongamos que u es un proceso de la clase L2 . Entonces,
            o                                                   a,T
                         t
la integral estoc´stica 0 us dBs tiene una versi´n con trayectorias continuas.
                 a                              o

      Demostraci´n: Consideremos una sucesi´n de procesos elementales u(n) tal
                o                          o
que
                                             T                    2
                                                            (n)
                        lim E                    ut − ut              dt   = 0.
                        n→∞              0
Pongamos
                                                        t
                                     I(t) =                 us dBs ,
                                                    0
                                                        t
                                    In (t) =                u(n) dBs .
                                                             s
                                                    0

El proceso In tiene trayectorias continuas y es una martingala respecto de la familia
creciente de σ -´lgebras Ft . En efecto, si s < t y φj es el valor del proceso
                a


                                                  37
estoc´stico u(n) cada el intevalo (tj−1 , tj ] tendremos
     a
                                                                       

         E (In (t) − In (s)|Fs ) = E                          φj ∆Bj |Fs 
                                               s≤tj−1 ≤tj ≤t

                                =                     E E φj ∆Bj |Ftj−1 |Fs
                                     s≤tj−1 ≤tj ≤t

                                =                     E φj E ∆Bj |Ftj−1 |Fs = 0.
                                     s≤tj−1 ≤tj ≤t


Por consiguiente, la diferencia In − Im ser´ una martingala, y la desigualdad de
                                           a
Doob con p = 2 nos permite escribir

                                             1
 P       sup |In (t) − Im (t)| > λ         ≤    E |In (T ) − Im (T )|2
         0≤t≤T                               λ2
                                                      T
                                             1             (n)    (m)
                                                                       2           n,m→∞
                                           =   2E        ut − ut         dt         −→ 0.
                                             λ      0

Podemos elegir una sucesi´n creciente de n´meros naturales nk , k = 1, 2, . . . tal
                         o                u
que
                    P    sup |Ink+1 (t) − Ink (t)| > 2−k              ≤ 2−k .
                        0≤t≤T

Los sucesos Ak := sup0≤t≤T |Ink+1 (t) − Ink (t)| > 2−k                   tienen probabilidades
que forman una serie convergence, es decir,
                                     ∞
                                           P (Ak ) < ∞.
                                     k=1

El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un n´mero u
infinito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidad
cero tal que para todo ω ∈ N podemos encontrar un ´
                           /                             ındice k1 (ω) tal que si k ≥
k1 (ω)
                         sup |Ink+1 (t, ω) − Ink (t, ω)| ≤ 2−k .
                        0≤t≤T

Por lo tanto, si ω ∈ N , la sucesi´n Ink (t, ω) es uniformemente convergente en
                       /             o
[0, T ] hacia una funci´n continua Jt (ω). Por otra parte, sabemos que para cada
                         o
                                                         t
t ∈ [0, T ], Ink (t) converge en media cuadr´tica hacia 0 us dBs . Por consiguiente,
                                            a


                                                 38
t
Jt (ω) =   0
                us dBs casi seguramente, para todo t ∈ [0, T ], y ello nos dice que la
integral indefinida tiene una versi´n con trayectorias continuas.
                                  o
                                                     t
   La integral indefinida Mt = 0 us dBs es una martingala respecto de la
familia de σ-´lgebras Ft y se cumple la desigualdad siguiente, para todo
             a
λ > 0,
                                                T
                                       1
                 P sup |Mt | > λ ≤ 2 E            u2 dt .
                                                   t                 (17)
                     0≤t≤T            λ       0
                                                                      t
En efecto, la propiedad de martingala de 0 us dBs de deduce de la propiedad
                                             t (n)
de martingala de las integrales indefinidas 0 us dBs que hemos obtenido en
la demostraci´n anterior. La desigualdad (17) se deduce de la desigualdad
              o
de Doob y de la propiedad de isometr´ de la integral estoc´stica.
                                       ıa                   a
                           t
    La martingala Mt = 0 us dBs tiene trayectorias continuas, pero son ir-
regulares como las del movimiento browniano. En particular, las trayectorias
de las integrales indefinidas tienen variaci´n cuadr´tica finita como nos dice
                                           o       a
la propiedad siguiente:

Proposici´n 8 (Variaci´n cuadr´tica ) Sea u un proceso de la clase L2 .
          o           o       a                                     a,T
Entonces,
                              n                                 2
                                       tj                                              t
                                                                    L1 (Ω)
                                             us dBs                   −→                   u2 ds
                                                                                            s
                           j=1        tj−1                                         0

                                                               jt
cuando n tiende a infinito, donde tj =                          n
                                                                  .

   Demostraci´n: Observemos en primer lugar que si el proceso u es elemen-
             o
tal, el resultado es una consecuencia de la propiedad de variaci´n cuadr´tica del
                                                                o       a
movimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valor
constante φ aparecer´ una contribuci´n del tipo
                      a              o
                                                                 n→∞
                         φ2                      (∆Bj )2 −→ φ2 (b − a) .
                              a≤tj−1 ≤tj ≤b


Supongamos que u es un proceso arbitrario de la clase L2 . Existe una sucesi´n
                                                       a,T                  o
 (k)
u de procesos elementales tal que
                                                 T                        2
                                                                    (k)
                              lim E                      ut − ut              dt           = 0.
                           k→∞               0




                                                          39
Utilizando la notaci´n
                    o
                                                          n                                        2
                                                                      tj
                                           Vn (u) =                         us dBs
                                                          j=1        tj−1


tendremos
                              t
      E    Vn (u) −               u2 ds
                                   s                 ≤ E             Vn (u) − Vn (u(k) )
                          0
                                                                                                           t
                                                                                                                              2
                                                              +E            Vn (u(k) ) −                           u(k)
                                                                                                                    s             ds
                                                                                                       0
                                                                                        t                                 t
                                                                                                  2
                                                              +E                             u(k)
                                                                                              s        ds −                   u2 ds
                                                                                                                               s           .
                                                                                    0                                0

 El primer sumando puede acotarse como sigue, utilizando la desigualdad de
Schwartz y la isometr´ de la integral estoc´stica:
                     ıa                    a

                E    Vn (u) − Vn (u(k) )
                     n                     tj                                                tj
           = E                                    us + u(k) dBs
                                                        s                                          us − u(k) dBs
                                                                                                         s
                     j=1                  tj−1                                              tj−1
                                                                                            1/2
          ≤      E Vn (u + u(k) ) E Vn (u − u(k) )
                              t                                                 t                                             1/2
                                                      2                                                 2
           =     E                    us +       u(k)
                                                  s       ds E                          us −       u(k)
                                                                                                    s          ds                     .
                          0                                                 0

Observemos que la acotaci´n obtenida no depende de n y converge hacia cero
                           o
cuando k tiende a infinito. Por tanto, fijado ε > 0 existe un k0 tal que
                                      t                                                                        t
                                                                                                                                  2
      E        Vn (u) −                   u2 ds
                                           s          ≤ε+E                      Vn (u ) −    (k)
                                                                                                                    u(k)
                                                                                                                     s                ds
                                  0                                                                        0

para todo k ≥ k0 y para todo n. Finalmente basta tomar el l´
                                                           ımite n → ∞.


2.2       Tiempos de paro
Un tiempo de paro relativo a una familia creciente de σ-´lgebras {Ft , t ≥ 0}
                                                        a
es una variable aleatoria
                             τ : Ω −→ [0, ∞]

                                                                40
tal que para todo t ≥ 0, {τ ≤ t} ∈ Ft . Es decir, podemos decidir si nos
paramos o no antes de un instante t a partir de la informaci´n contenida en
                                                            o
Ft .


Ejemplo 15 El tiempo de llegada de un proceso continuo y adaptado {Xt , t ≥ 0}
a un nivel a definido como

                          τ a := inf{t > 0 : Xt = a}

es un tiempo de paro. En efecto,

          {τ a ≤ t} =   sup Xs ≥ a           =           sup          Xs ≥ a   ∈ Ft .
                        0≤s≤t                      0≤s≤t,s∈       Q


    M´s generalmente, el tiempo de llegada de un proceso n-dimensional con-
      a
tinuo y adaptado {Xt , t ≥ 0} a un conjunto de Borel U de Rn es un tiempo
de paro siempre que la familia de σ-´lgebras {Ft , t ≥ 0} sea continua por la
                                     a
derecha.
    Podemos asociar a todo tiempo de paro τ la σ-´lgebra Fτ formada por
                                                     a
los conjuntos G tales que

                                   G ∩ {τ ≤ t} ∈ Ft                                     (18)

para todo t ≥ 0.
   Los tiempos de paro satisfacen las dos propiedades siguientes:

   • Si {Mt , t ∈ [0, T ]} es una martingala continua y y τ es un tiempo de
     paro acotado por T , entonces

                                      E(MT |Fτ ) = Mτ .                                 (19)

   • Si u es un proceso de la clase L2 y τ es un tiempo de paro acotado por
                                      a,T
     T , el proceso u1[0,τ ] tambi´n pertenece a L2 y se verifica la relaci´n
                                  e               a,T                     o
     siguiente:
                               T                              τ
                                   ut 1[0,τ ] (t)dBt =            ut dBt .              (20)
                           0                              0


                                            41
Demostraci´n de (20): La demostraci´n se har´ en dos etapas:
             o                        o        a

  1. Supongamos primero que el proceso u es de la forma ut = F 1(a,b] (t),
     donde 0 ≤ a < b ≤ T y F ∈ L2 (Ω, Fa , P ). Los tiempos de paro
               n
     τ n = 2 ti 1Ai , donde ti = 2n , Ai = (i−1)T ≤ τ < 2n forman una
              i=1 n   n         n
                                     iT
                                           n       2n
                                                               iT

     sucesi´n decreciente que converge hacia τ . Para cada n tendremos
           o
                               τn
                                    ut dBt = F (Bb∧τ n − Ba∧τ n )
                           0
                   T                             2n              T
                       ut 1[0,τ n ] (t)dBt =           1Ai
                                                         n
                                                                     1(a∧ti ,b∧ti ] (t)F dBt
                                                                          n     n
               0                                 i=1         0
                                                 2n
                                            =         1Ai F (Bb∧ti − Ba∧ti )
                                                        n        n       n
                                                i=1
                                            = F (Bb∧τ n − Ba∧τ n ).

     Tomando el l´ımite cuando n tiende a infinito se deduce la igualdad en el
     caso de un proceso elemental.

  2. En el caso general, basta con aproximar el proceso u por procesos elemen-
     tales. La convergencia del miembro de la derecha de (20) se deduce de la
     desigualdad maximal de Doob.

    La siguiente aplicaci´n de los tiempos de parada permite el c´lculo de la
                         o                                       a
ley del instante de llegada del movimiento browniano a un cierto nivel.


Ejemplo 16 Sea Bt un movimiento browniano y Ft la filtraci´n generada
                                                         o
por Bt . Consideremos el tiempo de paro

                                    τ a = inf{t ≥ 0 : Bt = a},
                                                                          λ2 t
donde a > 0. Consideremos la martingala Mt = eλBt −                        2     que cumple

                                      E(Mt ) = E(M0 ) = 1.

La propiedad (19) nos permite obtener

                                         E(Mτ a ∧N ) = 1,

                                                42
para todo N ≥ 1. Observemos que

                                               λ2 (τ a ∧ N )
               Mτ a ∧N = exp λBτ a ∧N −                                 ≤ eaλ .
                                                     2

Por otra parte,

                      limN →∞ Mτ a ∧N = Mτ a si τ a < ∞
                        limN →∞ Mτ a ∧N = 0 si τ a = ∞

y el teorema de convergencia dominada implica

                             E 1{τ a <∞} Mτ a = 1,

es decir
                                              λ2 τ a
                      E 1{τ a <∞} exp −                   = e−λa .
                                               2
Haciendo λ ↓ 0 obtenemos

                                  P (τ a < ∞ ) = 1,

y, por consiguiente
                                    λ2 τ a
                         E    exp −                    = e−λa .
                                     2
                             λ2
Con el cambio de variable    2
                                  = α, tendremos
                                                        √
                          E ( exp (−ατ a )) = e−         2αa
                                                               .                  (21)

A partir de esta expresi´n puede calcularse la densidad de probabildad de la
                        o
variable τ a :
                                          t      2
                                            ae−a /2s
                         P (τ a ≤ t ) =      √       ds.
                                        0      2πs3
Por otra parte, la esperanza de τ a puede obtenerse calculando la derivada en
α = 0 de la expresi´n (21):
                    o
                                                          √
                                               ae−            2αa
                        E ( τ a exp (−ατ a )) = √                   ,
                                                          2α
y haciendo α ↓ 0 se obtiene E(τ a ) = +∞.

                                         43
2.3     Extensiones de la integral estoc´stica
                                        a
                                       T
 La integral estoc´stica de Itˆ 0 us dBs puede definirse para clases de pro-
                   a          o
cesos mas amplias que L2 .a,T
    A) En primer lugar, podemos substituir la familia creciente de σ-´lgebras
                                                                     a
Ft por una familia mayor Ht tal que el movimiento browniano Bt sea una
martingala respecto de Ht . En efecto, en todas las demostraciones anteriores
solo se ha utilizado la propiedad
                                   E(Bt − Bs |Fs ) = 0.
                                                                                    (n)
    Como ejemplo de esta situaci´n, consideremos el caso en que Ft es
                                  o
la familia creciente de σ-´lgebras generadas por un movimiento browniano
                          a
n-dimensional Bt . Cada componente Bk (t) es una martingala respecto de
  (n)         (n)
Ft , pero Ft no es la familia de σ-´lgebras generada por Bk (t). De esta
                                      a
forma, con la extensi´n indicada antes, se pueden definir integrales como
                      o
                               T
                                   B2 (s)dB1 (s),
                           0
                               T
                                        2        2
                                   sin(B1 (s) + B1 (s))dB2 (s).
                           0

                                                                               T
  B) La segunda extensi´n consiste en substituir la propiedad E
                        o                                                     0
                                                                                   u2 dt <
                                                                                    t
∞ por la hip´tesis m´s d´bil siguiente:
            o       a e
          T
b’) P    0
              u2 dt < ∞ = 1.
               t

   La clase de procesos que cumplen las propiedades a) y b’) la designaremos
por La,T . Extenderemos la integral estoc´stica a la clase La,T mediante un
                                         a
argumento de localizaci´n.
                        o
   Consideremos un proceso estoc´stico u de La,T . Para cada n ≥ 1 defini-
                                  a
mos el tiempo de paro
                                                            t
                       τ n = inf t ≥ 0 :                        u2 ds = n ,
                                                                 s                   (22)
                                                        0
                                           T
donde suponemos que τ n = T si 0 u2 ds < n. De esta forma tendremos una
                                     s
sucesi´n creciente de tiempos de paro tal que τ n ↑ T . Adem´s,
      o                                                     a
                                                    t
                          t < τ n ⇐⇒                    u2 ds < n.
                                                         s
                                                0

                                               44
Los procesos
                                                (n)
                                               ut     = ut 1[0,τ n ] (t)
                                                                 2
                                                 T        (n)
pertenecen a L2 ya que E
              a,T                               0
                                                       us            ds                 ≤ n. Para cada n ≤ m, en el
conjunto {t ≤ τ n } se cumple
                                       t                                t
                                           u(n) dBs =
                                            s                               u(m) dBs
                                                                             s
                                   0                                0

ya que las trayectorias en el intervalo [0, t] de los procesos u(n) y u(m) coinciden
en este conjunto. Por consiguiente, existir´ un proceso continuo y adaptado
                                                a
                         t
que denotaremos por 0 us dBs tal que
                                           t                                t
                                                (n)
                                               us dBs       =                   us dBs
                                       0                                0

si t ≤ τ n .
    La integral estoc´stica de procesos de la clase La,T satisface las propiedades
                     a
de linealidad y continuidad de trayectorias de la integral indefinida. En cam-
bio, la integral de procesos de la clase La,T puede no tener esperanza ni
varianza finitas.

Proposici´n 9 Consideremos un proceso u ∈ La,T . Para todo K, δ > 0 se
          o
cumple la desigualdad siguiente:
                           T                                                        T
                                                                                                          δ
                   P           us dBs ≥ K               ≤P                              u2 ds ≥ δ +
                                                                                         s                   .
                       0                                                        0                         K2

   Demostraci´n: Consideremos el tiempos de paro definido por
             o
                                                                        t
                               τ n = inf t ≥ 0 :                            u2 ds = δ ,
                                                                             s
                                                                    0

                                        T
con la convenci´n τ n = T si
               o                       0
                                               u2 ds < δ .Tendemos
                                                s

               T                                                T
     P             us dBs ≥ K              ≤ P                      u2 ds ≥ δ
                                                                     s
           0                                                0
                                                                        T                             T
                                                     +P                     us dBs ≥ K,                   u2 ds < δ ,
                                                                                                           s
                                                                    0                             0


                                                            45
por otra parte
            T                     T                                               T
  P             us dBs ≥ K,           u2 ds
                                       s        <δ             = P                    us dBs ≥ K, τ = T
        0                     0                                               0
                                                                                  τ
                                                               = P                    us dBs ≥ K, τ = T
                                                                              0
                                                                                              τ            2
                                                                 1
                                                               ≤    E                             us dBs
                                                                 K2                       0
                                                                                          τ
                                                                       1                                       δ
                                                               =          E                   u2 ds
                                                                                               s           ≤      .
                                                                       K2             0                        K2

   Como consecuencia de la proposici´n anterior, si u(n) es una sucesi´n
                                     o                                o
de procesos de la clase La,T que converge hacia un proceso u ∈ La,T en
probabilidad:
                                          T
                                                               2         P
                                               u(n) − us
                                                s                  ds → 0
                                      0
entonces,
                                      T                            T
                                           (n)             P
                                          us dBs →                     us dBs .
                                  0                            0


2.4    F´rmula de Itˆ
        o           o
La f´rmula de Itˆ es la versi´n estoc´stica de la cl´sica regla de la cadena en
    o             o           o      a              a
el c´lculo diferencial ordinario.
    a
    Consideremos el ejemplo
                                          t
                                                      1 2 1
                                              Bs dBs = Bt − t,
                                      0               2    2
que podemos escribir en la forma
                                                      t
                                       2
                                      Bt =                2Bs dBs + t.
                                                  0

Podemos comprobar que la igualdad es cierta tomando esperanzas y uti-
                                                                  2
lizando la propiedad de media nula de la integral estoc´stica: E(Bt ) = t. En
                                                       a
notaci´n diferencial podemos escribir
      o
                                        2
                                      dBt = 2Bt dBt + dt.

                                                          46
2
   Vemos que el proceso estoc´stico Bt es la suma de una integral estoc´stica
                               a                                       a
y de una funci´n diferenciable. M´s generalmente cualquier funci´n f (Bt ),
               o                    a                              o
donde f es dos veces continuamente diferenciable, puede expresarse como
una suma de una integral estoc´stica y de un proceso con trayectorias difer-
                                 a
enciables. Esto nos lleva a introducir la noci´n de proceso de Itˆ que ser´
                                               o                  o         a
una suma de una integral estoc´stica m´s una integral ordinaria. La clase
                                  a      a
de los procesos de Itˆ ser´ invariante por transformaciones funcionales reg-
                     o    a
ulares. Designaremos por L1 la clase de los procesos v que satisfacen las
                             a,T
propiedades a) y
            T
 b”) P     0
                |vt | dt < ∞ = 1.
Definici´n 10 Un proceso de Itˆ Xt ser´ un proceso estoc´stico de la forma
       o                     o       a                 a
                                             t                   t
                          Xt = X0 +              us dBs +            vs ds,            (23)
                                         0                   0

donde u pertenece a la clase La,T y v pertenece a la clase L1 .
                                                            a,T

   En notaci´n diferencial escribiremos
            o
                                dXt = ut dBt + vt dt.
Teorema 11 (F´rmula de Itˆ) Supongamos que X es un proceso de Itˆ
                  o              o                                              o
de la forma (23). Sea f (t, x) una funci´n dos veces derivable respecto de la
                                          o
variable x y una vez respecto de la variable t, con todas las derivadas parciales
continuas (diremos que f es de clase C 1,2 ). Entonces el proceso Yt = f (t, Xt )
es tambi´n un proceso de Itˆ con la representaci´n
         e                   o                      o
                                    t                   t
                                     ∂f                   ∂f
          Yt     = f (0, X0 ) +          (s, Xs )ds +        (s, Xs )us dBs
                                  0 ∂t                0 ∂x
                         t
                           ∂f                 1 t ∂ 2f
                   +          (s, Xs )vs ds +         2
                                                         (s, Xs )u2 ds.
                                                                  s
                       0 ∂x                   2 0 ∂x
1.- En notaci´n diferencial la f´rmula de Itˆ puede escribirse de la forma
             o                  o           o
                          ∂f              ∂f               1 ∂ 2f
          df (t, Xt ) =      (t, Xt )dt +    (t, Xt )dXt +        (s, Xs ) (dXt )2 ,
                          ∂t              ∂x               2 ∂x2
      donde (dXt )2 se calcula mediante la convenci´n
                                                   o
                                        ×             dBt   dt
                                        dBt           dt    0
                                        dt            0     0

                                                 47
2.- El proceso Yt es un proceso de Itˆ con la representaci´n
                                     o                    o
                                                            t                       t
                                  Yt = Y0 +                     us dBs +                vs ds,
                                                        0                       0

      donde
                  Y0 = f (0, X0 ),
                       ∂f
                  ut =     (t, Xt )ut ,
                       ∂x
                       ∂f               ∂f              1 ∂ 2f
                  vt =     (t, Xt ) +      (t, Xt )vt +        (t, Xt )u2 .
                                                                        t
                       ∂t               ∂x              2 ∂x2
3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es pre-
     cisamente el movimiento browniano Bt , y la f´rmula de Itˆ adopta la
                                                  o           o
     expresi´n m´s simple siguiente
            o    a
                                                        t                                        t
                                                            ∂f                                       ∂f
              f (t, Bt ) = f (0, 0) +                          (s, Bs )dBs +                            (s, Bs )ds
                                                    0       ∂x                               0       ∂t
                                             t
                                    1            ∂ 2f
                                  +                   (s, Bs )ds.
                                    2    0       ∂x2

4.- En el caso particular en que la funci´n f no depende del tiempo se obtiene
                                         o
     la f´rmula
         o
                              t                                        t                                     t
                                                                                                     1
      f (Xt ) = f (0) +           f (Xs )us dBs +                          f (Xs )vs ds +                        f (Xs )u2 ds.
                                                                                                                         s
                          0                                        0                                 2   0



   La f´rmula de Itˆ se deduce del desarrollo de Taylor hasta el orden dos.
       o            o
Indicaremos seguidamente, de forma heur´  ıstica, las ideas principales que con-
ducen a la f´rmula de Itˆ. Supongamos v = 0. Fijemos un instante de tiempo
            o           o
t > 0.
   Consideremos los instantes tj = jt . La f´rmula de Taylor hasta el segundo
                                   n
                                            o
orden nos da
                                    n
        f (Xt ) − f (0) =                f (Xtj ) − f (Xtj−1 )
                                   j=1
                                    n                                           n
                                                         1
                          =              f (Xtj−1 )∆Xj +                                 f (X j ) (∆Xj )2 ,               (24)
                                   j=
                                                         2                     j=1


                                                        48
donde ∆Xj = Xtj − Xtj−1 y X j es un valor comprendido entre Xtj−1 y Xtj .
    El primer sumando de la expresi´n anterior converge en probabilidad
                                       o
        t
hacia 0 f (Xs )us dBs , mientras que el segundo sumando converge en proba-
              1 t
bilidad hacia 2 0 f (Xs )u2 ds.
                           s

   Veamos algunos ejemplos de aplicaci´n de la f´mula de Itˆ.
                                      o         o          o


Ejemplo 17 Si f (x) = x2 y Xt = Bt , tendremos
                                               t
                             2
                            Bt = 2                 Bs dBs + t,
                                           0

ya que f (x) = 2x y f (x) = 2.


Ejemplo 18 Si f (x) = x3 y Xt = Bt , tendremos
                                     t                             t
                        3                 2
                       Bt = 3            Bs dBs + 3                    Bs ds,
                                 0                             0

ya que f (x) = 3x2 y f (x) = 6x. M´s generalmente, si n ≥ 2 es un n´mero
                                  a                                u
natural,
                          t
                 n           n−1     n(n − 1) t n−2
                Bt = n      Bs dBs +             Bs ds.
                        0               2     0




                                a2                                              a2
Ejemplo 19 Si f (t, x) = eax− 2 t , Xt = Bt , y Yt = eaBt − 2 t , tendremos
                                                        t
                             Yt = 1 + a                     Ys dBs
                                                    0

ya que
                            ∂f    1 ∂ 2f
                                +        = 0.                         (25)
                            ∂t    2 ∂x2
Este importante ejemplo nos permite deducir las observaciones siguientes:

1.- Si una funci´n f (t, x) satisface la igualdad (25), entonces, el proceso
                 o
      estoc´stico f (t, Bt ) ser´ una integral estoc´stica indefinida (m´s un
           a                    a                   a                  a

                                               49
t´rmino constante), y por lo tanto, ser´ una martingala, suponiendo
      e                                     a
     que f satisface la propiedad:
                                         t                             2
                                                     ∂f
                               E                        (s, Bs )           ds < ∞
                                     0               ∂x

2.- La soluci´n de la ecuaci´n diferencial estoc´stica
             o              o                   a

                                                     dYt = aYt dBt

     no es Yt = eaBt , como en el caso del c´lculo diferencial ordinario, sino
                                            a
                  2
           aBt − a t
     Yt = e       2 .




   Como consecuencia de la f´rmula de Itˆ, podemos deducir la siguiente
                              o            o
f´rmula de integraci´n por partes:
 o                  o
   Supongamos que f (t) es una funci´n continuamente diferenciable en [0, T ].
                                    o
En tal caso tendremos
                           t                                           t
                               fs dBs = f (t)Bt −                          Bs fs ds.
                       0                                           0

En efecto, aplicando la f´rmula de Itˆ a la funci´n f (t)x se obtiene
                         o           o           o
                                                 t                     t
                      f (t)Bt =                      fs dBs +              Bs fs ds.
                                             0                     0



   Veamos seguidamente la versi´n multidimensional de la f´rmula de Itˆ.
                                   o                          o        o
                             1   2      m
Supongamos que Bt = (Bt , Bt , . . . , Bt ) es un movimiento browniano m-
dimensional, es decir, las componentes son movimientos brownianos inde-
pendientes. Consideremos un proceso de Itˆ n-dimensional de la forma
                                            o
                          t                  t           t 1
          Xt1 = X0 + 0 u11 dBs + · · · + 0 u1m dBs + 0 vs ds
         
                     1
                               s
                                   1
                                                 s
                                                    m
            .
            .                                                    .
          .
          n                t n1               t nm        t n
                     n              1                m
            Xt = X0 + 0 us dBs + · · · + 0 us dBs + 0 vs ds
   En notaci´n diferencial y vectorial podemos escribir
            o

                                   dXt = ut dBt + vt dt,

                                                       50
donde Xt , vt , son procesos n-dimensionales, y ut es un proceso con valores
en el conjunto de las matrices n × m. Supondremos que las componentes de
u pertenecen a La,T y las de v pertenecen a L1 .a,T
    Entonces, si f : [0, ∞) × Rn → Rp es una funci´n de clase C 1,2 , el proceso
                                                     o
Yt = f (t, Xt ) es tambi´n un proceso de Itˆ con la representaci´n (en notaci´n
                        e                  o                    o             o
diferencial)
                                                    n
                              ∂fk                         ∂fk
                dYtk   =          (t, Xt )dt +                (t, Xt )dXti
                              ∂t                    i=1
                                                          ∂xi
                                    n       2
                               1        ∂ fk
                           +                   (t, Xt )dXti dXtj .
                               2 i,j=1 ∂xi ∂xj

El producto de los diferenciales dXti dXtj se calcula aplicando las reglas sigu-
ientes:
                          i   j                 0 si i = j
                        dBt dBt =
                                                dt si i = j
                              i
                           dBt dt = 0
                            (dt)2 = 0.
De esta forma se obtiene
                                    m
                  dXti dXtj   =           uik ujk
                                           t t      dt = (ut ut )ij dt.
                                    k=1


2.5    Integrales estoc´sticas de Stratonovich
                       a
En las sumas de Riemann-Stieltjes que elegimos para definir la integral es-
            t
toc´stica 0 us dBs de un proceso continuo u, se toman siempre los valores
   a
del proceso u en el punto tj−1 de cada intervalo [tj−1 , tj ] . De esta forma la
integral estoc´stica tiene media cero y su varianza puede calcularse a partir
              a
de la propiedad de isometr´ Tambi´n, la integral indefinida es una mar-
                            ıa.        e
tingala. El inconveniente de esta elecci´n consiste en que en la regla de la
                                         o
cadena nos aparece un t´rmino correctivo.
                         e
                                  T
    La integral de Stratonovich 0 us ◦ dBs se define como el l´    ımite en prob-
abilidad de la sucesi´n
                     o
                               n
                                    1
                                      (ut + uti )∆Bi ,
                              i=1
                                    2 i−1

                                            51
iT
suponiendo ti =         n
                          .   Supongamos que el proceso u es un proceso de Itˆ de la
                                                                             o
forma                                                            t                               t
                                      ut = u0 +                      αs dBs +                        β s ds.                            (26)
                                                             0                               0
Utilizando la descomposici´n
                          o
        1
          (ut + uti )(Bti − Bti−1 ) = uti−1 (Bti − Bti−1 )
        2 i−1
                                        1
                                      + (uti − uti−1 )(Bti − Bti−1 ),
                                        2
se obtiene la siguiente f´rmula que relaciona las integrales de Itˆ y de Stratonovich:
                         o                                        o
                                  T                                  t                                    t
                                                                                  1
                                      us ◦ dBs =                         us dBs +                             αs ds.                    (27)
                              0                                  0                2                   0

En efecto, las sumas de Riemann-Stieltjes
                                        n
                                                 (uti − uti−1 )(Bti − Bti−1 )
                                       i=1

convergen hacia la integral
                 t                           t                                   t                                         t
                                                                      2
                     dus dBs =                   αs (dBs ) +                         β s dsdBs =                               αs ds.
             0                           0                                   0                                         0

    Puede comprobarse que la integral estoc´stica de Stratonovich sigue las
                                             a
reglas del c´lculo diferencial ordinario. Es decir, si u es un proceso de la
            a
forma (26) y
                                                        t                                    t
                      Xt = X0 +                             us ◦ dBs +                           vs ds
                                                    0                                    0
                                                        t                            t
                                                                                                     1
                              = X0 +                        us dBs +                             vs + αs ds,
                                                    0                         0                      2
entonces,
                                            1
                     df (Xt ) = f (Xt )dXt + f (Xt )(dXt )2
                                            2
                                                                    1
                                      = f (Xt )ut dBt + f (Xt ) vt + αt dt
                                                                    2
                                          1
                                        + f (Xt )u2 dt.
                                                    t                                                                                   (28)
                                          2

                                                                     52
Por otra parte,
                                              1
             f (Xt )ut dBt = f (Xt )ut ◦ dBt − d [f (Xt )ut ] dBt .
                                              2
En el c´lculo de d [f (Xt )ut ] dBt hemos de tener en cuenta solo los diferen-
        a
ciales estoc´sticos de d [f (Xt )ut ] que son
            a

                           f (Xt )αt dBt + f (Xt )u2 dBt .
                                                   t

Por consiguiente, se obtiene
                                                         1
        f (Xt )ut dBt = f (Xt )ut ◦ dBt −                  f (Xt )αt + f (Xt )u2 dt
                                                                               t
                                                         2
y substituyendo esta expresi´n en (28) obtenemos
                            o

                   df (Xt ) = f (Xt )ut ◦ dBt + f (Xt )vt dt
                            = f (Xt ) ◦ dXt .

2.6    Tiempo local
Consideremos la funci´n siguiente para cada ε > 0
                     o
                                              |x|          si |x| ≥ ε
                     gε (x) =            1          x2                        .
                                         2
                                             ε+     ε
                                                           si |x| < ε

La derivada de esta funci´n vale
                         o
                                             sign(x) si |x| ≥ ε
                      gε (x) =                  x               .
                                                ε
                                                     si |x| < ε
La segunda derivada existe excepto si x =                   ε y vale
                                               0 si |x| ≥ ε
                           gε (x) =            1            .
                                               ε
                                                 si |x| < ε

Siempre que una funci´n sea de clase C 2 excepto en un n´mero finito de
                       o                                  u
puntos y la segunda derivada est´ acotada se verifica todav´ la f´rmula de
                                e                         ıa    o
Itˆ. Por ello, tendremos
  o
                                    t                               t
                          ε                                1
             gε (Bt ) =     +           gε (Bs )dBs +                   1(−ε,ε) (Bs )ds.
                          2     0                          2ε   0

                                                   53
Cuando ε tiende a cero, gε (Bt ) converge en media cuadr´tica hacia |Bt |. Por
                                                           a
                                  2
otra parte, gε (Bs ) converge en L ([0, t] × Ω) hacia sign(Bs ). En efecto,
                               t
                                                                             2
                   E               |sign(Bs ) − gε (Bs )| ds
                           0
                                        t                                     2
                                                                             Bs
             ≤ 2E                            (sign(Bs ))2 +                     1(−ε,ε) (Bs )ds
                                    0                                        ε2
                                        t
             ≤ 4E                           1(−ε,ε) (Bs )ds
                                    0
                           t                                                              t
                                                                       ε↓0
             = 4               P (|Bs | < ε)ds −→ 4                                           P (|Bs | = 0)ds = 0.
                       0                                                              0

Denotaremos por Lt (0) el l´
                           ımite en media cuadr´tica de
                                               a
                       t
              1                                                       1
                           1(−ε,ε) (Bs )ds =                             |{s ∈ [0, t] : |Bs | < ε}|.
              2ε   0                                                  2ε
De esta forma obtenemos la f´rmula de Itˆ para el valor absoluto del movimiento
                            o           o
browniano, conocida como f´rmula de Tanaka:
                            o
                                                          t
                                   |Bt | =                    sign(Bs )dBs + Lt (0).
                                                      0

Observaciones:

   • M´s generalmente, para todo x se tiene
      a
                                                                  t
                           |Bt − x| =                                 sign(Bs − x)dBs + Lt (x).
                                                              0


   • El proceso {Lt (x), t ≥ 0, x ∈ R} se denomina el tiempo local del movimiento
     browniano. Para cada t ≥ 0, Lt (x) es la densidad de la medida de ocu-
     paci´n, es decir,
         o
                                                  b                               t
                                                      Lt (x)dx =                      1[a,b] (Bs )ds.
                                              a                               0

     Puede demostrarse que existe una versi´n del tiempo local que es con-
                                           o
     tinua en las dos variables (t, x).

                                                                       54
• En el caso de una funci´n diferenciable b(t), se tiene
                            o

                             d|b(t)| = sign(b(s))b (s)ds,

      y la densidad de la medida de ocupaci´n en [0, t] vale
                                           o
                                                                1
                             Lt (x) =                               .
                                                              b (s)
                                           s∈[0,t]:b(s)=x


2.7    Representaci´n integral de martingalas
                   o
Consideremos un proceso u de la clase L2 . Sabemos que la integral in-
                                       a,T
definida                            t
                                  Xt =         us dBs
                                           0
es una martingala respecto de la filtraci´n Ft . En este apartado demostraremos
                                        o
que todas las martingalas de cuadrado integrable respecto de esta filtraci´no
son de este tipo.
    Veamos un resultado preliminar.

Lema 12 El conjunto de variables que son combinaciones lineales de expo-
nenciales de la forma
                                  T                      T
                                                 1
                      exp             hs dBs −               h2 ds ,
                                                              s                       (29)
                              0                  2   0

                                                                T
donde h es una funci´n determinista tal que
                    o                                          0
                                                                    h2 ds < ∞, es denso en
                                                                     s
L2 (Ω, FT , P ).

    Demostraci´n: Sea Y una variable de L2 (Ω, FT , P ) ortogonal a todas las
                 o
exponenciales de la forma (29). Queremos demostrar que Y = 0. Fijados m
instantes 0 ≤ t1 < · · · tm ≤ T y m n´meros reales λ1 , . . . , λm sabemos que
                                     u

                         E Y eλ1 Bt1 +···+λm Btm = 0.

Esto implica que la medida

                       ν(A) = E (Y 1A (Bt1 , . . . , Btm ))


                                          55
tiene una transformada de Laplace id´nticamente nula. Por lo tanto,
                                    e

                                                 E(Y 1G ) = 0

para todo suceso G de la σ -´lgebra generada por las variables Bt1 , . . . , Btm . Por
                            a
un argumento de clases mon´tonas, esto ser´ cierto para todo G de la σ -´lgebra
                            o              a                                  a
FT , y por lo tanto, Y = 0.

Teorema 13 (Teorema de representaci´n de Itˆ) Consideremos una vari-
                                         o        o
                        2
able aleatoria F de L (Ω, FT , P ). Entonces existe un unico proceso es-
                                                       ´
toc´stico u de la clase L2 tal que
   a                      a,T

                                                                           T
                                     F = E(F ) +                               us dBs .
                                                                       0

     Demostraci´n: Supongamos primero que la variable F es de la forma
               o
                                             T                                      T
                                                                       1
                               exp               hs dBs −                               h2 ds ,
                                                                                         s
                                         0                             2        0

                                                                                T
donde h es una funci´n determinista tal que
                    o                                                          0
                                                                                    h2 ds < ∞. Definimos
                                                                                     s

                                                     t                                      t
                                                                               1
                              Yt = exp                   hs dBs −                               h2 ds .
                                                                                                 s
                                                 0                             2        0

                                                                                                           t
Por la f´rmula de Itˆ aplicada a la funci´n f (x) = ex y al proceso Xt =
        o           o                    o                                                                0
                                                                                                               hs dBs −
1    t
2   0
         h2 ds,
          s       obtenemos

                                       1         1
                    dYt = Yt h(t)dBt − h2 (t)dt + Yt (h(t)dBt )2
                                       2         2
                        = Yt h(t)dBt ,

es decir,
                                                               t
                                     Yt = 1 +                      Ys h(s)dBs .
                                                           0
Por lo tanto,
                                                                       T
                                 F = YT = 1 +                              Ys h(s)dBs
                                                                   0



                                                           56
y se cumple la representaci´n buscada porque E(F ) = 1,
                           o
                    T                                           T
          E             Ys2 h2 (s)ds            =                   E Ys2 h2 (s)ds
                0                                           0
                                                                                    T                               T
                                                ≤ exp                                   h2 ds
                                                                                         s                              h2 ds < ∞
                                                                                                                         s
                                                                                0                               0

ya que
                                                                    t                                           t
               E Yt2           = E exp 2                                hs dBs −                                    h2 ds
                                                                                                                     s
                                                                0                                           0
                                                        t
                               = exp                        h2 ds .
                                                             s
                                                    0

    Por linealidad, la representaci´n se cumplir´ en el caso en que F sea una com-
                                   o            a
binaci´n lineal de exponenciales del tipo (29). En el caso general, el Lema 12 nos
      o
permite aproximar una variable arbitraria F de L2 (Ω, FT , P ) por una sucesi´n Fn
                                                                             o
de combinaciones lineales de exponenciales de la forma (29). Tendremos, entonces,
                                                                            T
                               Fn = E(Fn ) +                                    u(n) dBs .
                                                                                 s
                                                                        0

Por la propiedad de isometr´ de la integral estoc´stica
                           ıa                    a

                                                                                                T                                   2
   E (Fn − Fm )2          = E           E(Fn − Fm ) +                                                   u(n) − u(m) dBs
                                                                                                         s      s
                                                                                            0
                                                                                                        T                               2
                          = (E(Fn − Fm ))2 + E                                                              u(n) − u(m) dBs
                                                                                                             s      s
                                                                                                    0
                                            T
                                                                                        2
                          ≥ E                   u(n) − u(m)
                                                 s      s                                   ds .
                                        0

La sucesi´n Fn es de Cauchy en L2 (Ω, FT , P ). Por lo tanto,
         o
                                                                            n,m→∞
                                 E (Fn − Fm )2                                  −→ 0

y, en consecuencia,
                                    T
                                                                        2                   n,m→∞
                           E            u(n) − u(m)
                                         s      s                           ds                  −→ 0.
                                0


                                                            57
Esto nos dice que la sucesi´n u(n) es de Cauchy en L2 ([0, T ] × Ω). Por lo tanto
                           o
ser´ convergente hacia un proceso u de L2 ([0, T ] × Ω). Por otra parte, puede
   a
comprobarse que u pertenece a la clase L2 , teniendo en cuenta que una sucesi´n
                                         a,T                                   o
            (n)
parcial de u (t, ω) converge casi por todo (t, ω) hacia u(t, ω). Aplicando de
nuevo la propiedad de isometr´ y teniendo en cuenta que E(Fn ) converge hacia
                              ıa,
E(F ), se obtiene
                                                                                      T
                F =             lim Fn = lim                     E(Fn ) +                 u(n) dBs
                                                                                           s
                                n→∞                    n→∞                        0
                                                       T
                        = E(F ) +                          us dBs .
                                                   0

   Finalmente, la unicidad sale tambi´n de la propiedad de isometr´ Supong-
                                     e                            ıa:
          (1)    (2)                        2
amos que u y u fuesen dos procesos de La,T tales que

                                               T                                              T
               F = E(F ) +                         u(1) dBs = E(F ) +
                                                    s                                             u(2) dBs .
                                                                                                   s
                                           0                                              0

Entonces
                            T                                    2                    T
                                                                                                                     2
        0=E                     u(1)
                                 s     −   u(2)
                                            s              dBs        =E                      u(1) − u(2)
                                                                                               s      s                  ds
                        0                                                         0

                  (1)                   (2)
y, por lo tanto, us (t, ω) = us (t, ω) casi por todo (t, ω).

Teorema 14 (Teorema de representaci´n de martingalas) Supongamos
                                            o
que {Mt , t ∈ [0, T ]} es una martingala respecto de la filtraci´n Ft , tal que
                                                               o
      2
E(MT ) < ∞ . Entonces existe un unico proceso estoc´stico u de la claseL2
                                   ´                  a                     a,T
tal que
                                                                          t
                                       Mt = E(M0 ) +                          us dBs
                                                                      0

para todo t ∈ [0, T ].

   Demostraci´n: Aplicando el teorema de representaci´n de Itˆ a F = MT
                o                                    o       o
obtenemos que existe un unico proceso u ∈ L2 tal que
                        ´                  T

                                                       T                                              T
              MT = E(MT ) +                                us dBs = E(M0 ) +                              us dBs .
                                                   0                                              0


                                                              58
Supongamos que 0 ≤ t ≤ T . Tendremos
                                                        T
              Mt = E[MT |Ft ] = E(M0 ) + E[                 us dBs |Ft ]
                                                    0
                                     t
                   = E(M0 ) +            us dBs .
                                 0




2.8    Teorema de Girsanov
El teorema de Girsanov nos dice que el movimiento browniano con deriva
Bt + λt puede verse como un movimiento browniano sin deriva, cambiando
la probabilidad. Analizaremos primero como funcionan los cambios de prob-
abilidad mediante densidades.
    Si en un espacio de probabilidad (Ω, F, P ) consideramos una variable
aleatoria L ≥ 0 de esperanza uno, entonces,

                             Q(A) = E (1A L)

define una nueva probabilidad. Que la esperanza de L sea igual a 1 nos
garantiza que
                          Q(Ω) = E(L) = 1.
Se dice que L es la densidad de Q respecto de P y se escribe formalmente
                                 dQ
                                    = L.
                                 dP
La esperanza de una variable aleatoria X en el espacio de probabilidad
(Ω, F, Q) se calcula de la forma siguiente

                            EQ (X) = E(XL).

La probabilidad Q es absolutamente continua respecto de P , lo que significa
que
                        P (A) = 0 =⇒ Q(A) = 0.



                                         59
Si la variable L es estrictamente positiva, entonces las probabilidades P y
Q son equivalentes (o sea, mutuamente absolutamente continuas), lo que
significa
                          P (A) = 0 ⇐⇒ Q(A) = 0.
   Veamos seguidamente un ejemplo simple de cambio de probabilidades que
representa una versi´n sencilla del teorema de Girsanov:
                    o


Ejemplo 20 Sea X una variable aleatoria con ley normal N (m, σ 2 ). Existe
una probabilidad Q respecto de la cual la variable X tenga ley N (0, σ 2 )?
   Consideremos la variable
                                           m      m2
                                  L = e− σ2 X+ 2σ2 .

Es f´cil comprobar que tiene esperanza uno E(L) = 1. Por otra parte, en
     a
el espacio de probabilidad (Ω, F, Q) la variable X tiene por funci´n carac-
                                                                  o
ter´
   ıstica:
                                                   ∞
                                          1                 (x−m)2          2
                                                                   − mx + m 2 +itx
        EQ (eitX ) = E(eitX L) = √                     e−     2σ 2   σ2   2σ         dx
                                          2πσ 2   −∞
                                    ∞
                           1               x2                  σ 2 t2
                    = √                 e− 2σ2 +itx dx = e−      2      ,
                          2πσ 2   −∞

es decir, X tiene una ley N (0, σ 2 ).

   Veremos que en el caso del movimiento browniano se obtiene un resultado
similar. Teniendo en cuenta que el movimiento browniano es el l´   ımite de
paseos aleatorios, analizaremos primero el problema de la eliminaci´n de la
                                                                    o
deriva en un paseo aleatorio:
   Consideremos una succesi´n {Xn , n ≥ 1} de variables aleatorias indepen-
                              o
dientes tales que

                               +1, con probabilidad 1/2
                     Xn =                               .
                               −1, con probabilidad 1/2

Pongamos S0 = 0, y Sn = X1 + · · · + Xn + na, donde a > 0. La succesi´n Sn
                                                                       o
representa un paseo aleatorio con deriva igual a a, y no es una martingala ya
que
                          E(Sn |Fn−1 ) = Sn−1 + a,

                                          60
donde Fn es la σ-´lgebra generada por X1 , ..., Xn si n ≥ 1, y F0 = {∅, Ω}.
                  a
Podemos cambiar la asignaci´n de probabilidades de manera que Sn sea una
                           o
martingala. Si suponemos que

                          P (Xn = +1) = p,
                          P (Xn = −1) = 1 − p,

necesitaremos que E(a + Xn ) = 0, es decir,
                                     1−a
                                p=       ,
                                      2
suponiendo que a < 1.
    Multipliquemos√ valores de la constante a por ∆t y los valores de las
                   los
variables Xn por σ ∆t. O sea supondremos que


                             S0 = 0,
                           ∆Sn = a∆t + σXn ,
                                     √   1
                          P (Xn = ± ∆t) = .
                                         2
En tal caso el valor de la probabilidad p respecto de la cual las Sn forman
una martingala es
                           √         1     a√
                P (Xn =    ∆t) = p =   −      ∆t,
                                     2    2σ
                           √               1    a√
                P (Xn   = − ∆t) = 1 − p =    +     ∆t.
                                           2   2σ
Podemos escribir
                             √      1              a
                    P (Xn = ± ∆t) =           1−     Xn .
                                    2              σ
Si consideramos un camino de longitud N formado por los sucesivos valores
que toman las variables Xn , la probabilidad P de este camino seria 2−N ,
mientras que la probabilidad Q seria 2−N N 1 − σ Xn . Es decir, pode-
                                            n=1
                                                   a

mos escribir
                                     N
                      Q(camino)               a
                                 =       1 − Xn .
                      P (camino) n=1         σ

                                     61
Observamos que la probabilidad Q est´ bien definida si
                                    a
                                               σ     2
                                    ∆t <                 ,
                                               a
lo cual es cierto siempre que ∆t sea suficientement peque˜o.n
    Supongamos ahora que las variables aleatorias Sn se observan en instantes
que distan ∆t. Si ∆t tiende a cero y N tiende a infinito de manera que
N ∆t = t, entonces, Sn converge hacia un movimiento browniano con deriva
at + σBt .
    Por otra parte, el cociente entre las probabilidades Q y P converge hacia
un t´rmino exponencial:
     e
                                N
              Q(camino)                        a
                         =            1−         Xn
              P (camino)       n=1
                                               σ
                                       N
                                                                    a
                           = exp               log 1 −                Xn
                                       n=1
                                                                    σ
                                        N
                                                     a     a2 2
                               exp                  − Xn − 2 Xn
                                       n=1
                                                     σ    2σ
                                                   N
                                           a                          a2
                           = exp −                       Xn −             t .
                                           σ       n=1
                                                                     2σ 2

Es decir, en el l´
                 ımite se obtiene
                     Q(camino)         a     a2
                                = exp − Bt − 2 t .
                     P (camino)        σ    2σ

   Sea{Bt , t ∈ [0, T ]} un movimiento browniano. Fijemos un n´mero real λ.
                                                              u
Consideremos la martingala

                                                             λ2
                           Lt = exp −λBt −                   2
                                                                t   .           (30)

Observemos que el proceso estoc´stico {Lt , t ∈ [0, T ]} es una martingala pos-
                                a
itiva de esperanza uno que satisface la ecuaci´n diferencial estoc´stica
                                              o                    a
                                               t
                            Lt = 1 −               λLs dBs .
                                           0

                                       62
La variable LT es una densidad de probabilidad en el espacio (Ω, FT , P ) que
define una probabilidad Q dada por

                               Q(A) = E (1A LT ) ,

para todo A ∈ FT .
    La propiedad de martingala del proceso Lt implica que en el espacio
(Ω, Ft , P ), la probabilidad Q tiene densidad igual a Lt . En efecto, si A
pertenece a la σ-´lgebra Ft se tiene
                   a

                   Q(A) = E (1A LT ) = E (E (1A LT |Ft ))
                        = E (1A E (LT |Ft ))
                        = E (1A Lt ) .

Teorema 15 (Teorema de Girsanov) En el espacio de probabilidad (Ω, FT , Q)
el proceso estoc´stico
                a
                        Wt = Bt + λt,
es un movimiento browniano.

   Antes de demostrar este teorema probaremos un resultado t´cnico:
                                                            e

Lema 16 Supongamos que X es una variable aleatoria real y G es una σ-
´lgebra tales que
a
                                     u2 σ 2
                     E eiuX |G = e− 2 .
Entonces, la variable X es independiente de la σ-´lgebra G y tiene una ley
                                                 a
              2
normal N (0, σ ).

   Demostraci´n: Para todo suceso A ∈ G se cumplir´
             o                                    a
                                                         u2 σ 2
                          E 1A eiuX = P (A)e−              2      .

Por lo tanto, eligiendo A = Ω obtenemos la funci´n caracter´
                                                       o           ıstica de X , y en
consecuencia, X tiene una ley N (0, σ 2 ). Por otra parte, fijado un suceso A ∈ G ,
la funci´n caracter´
        o           ıstica de la variable X respecto de la probabilidad condicionada
por A ser´ tambi´n
          a       e
                                                u2 σ 2
                               EA eiuX = e−       2       .



                                         63
Es decir, la ley de X condicionada por A es tambi´n una ley normal N (0, σ 2 ).
                                                 e
Por consiguiente, tendremos

                            PA (X ≤ x) = Φ(x/σ) ,

y
             P ((X ≤ x) ∩ A) = P (A)Φ(x/σ) = P (A)P (X ≤ x),                                     (31)
donde Φ representa la funci´n de distribuci´n de la ley N (0, 1). La igualdad (31)
                           o               o
nos da la independencia entre la variable X y la σ -´lgebra G .
                                                    a

   Demostraci´n del teorema de Girsanov: Ser´ suficiente con demostrar
                   o                                     a
que, en el espacio de probabilidad (Ω, FT , Q), para todo s < t ≤ T el incremento
Wt − Ws es independiente de Fs y tiene ley normal N (0, t − s).
    Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen de la
f´rmula siguiente, para todo s < t, A ∈ Fs , u ∈ R,
 o
                                                                  u2
                       EQ 1A eiu(Wt −Ws ) = Q(A)e−                 2
                                                                     (t−s)
                                                                             .                   (32)

Para demostrar la f´rmula (32) ponemos
                   o

    EQ 1A eiu(Wt −Ws )    = E 1A eiu(Wt −Ws ) Lt
                                                                                 λ2
                          = E 1A eiu(Bt −Bs )+iuλ(t−s)−λ(Bt −Bs )−                2
                                                                                    (t−s)
                                                                                            Ls
                                                                                   λ2
                          = E(1A Ls )E e(iu−λ)(Bt −Bs ) eiuλ(t−s)−                  2
                                                                                      (t−s)

                                       (iu−λ)2                   2
                                               (t−s)+iuλ(t−s)− λ (t−s)
                          = Q(A)e         2                     2

                                        u2
                          = Q(A)e−       2
                                           (t−s)
                                                      .


    El teorema de Girsanov admite la siguiente generalizaci´n:
                                                           o

Teorema 17 Sea {θt , t ∈ [0, T ]} un proceso adaptado y tal que cumple la
denominada condici´n de Novikov:
                  o
                                            T
                                   1
                          E exp                 θ2 dt
                                                 t            < ∞.                               (33)
                                   2    0

Entonces, el proceso
                                                      t
                              W t = Bt +                  θs ds
                                                  0

                                         64
es un movimiento browniano respecto de la probabilidad Q definida por

                            Q(A) = E (1A LT ) ,

donde                                 t                          t
                                                         1
                   Lt = exp −             θs dBs −                   θ2 ds .
                                                                      s
                                  0                      2   0

   Observemos que de nuevo Lt es satisface la ecuaci´n diferencial estoc´stica
                                                    o                   a
                                                t
                           Lt = 1 −                 θs Ls dBs .
                                            0

Para que el proceso Lt sea una martingala y tengamos E(Lt ) = 1, necesitamos
que θs Ls pertenezca a la clase L2 . La condici´n (33) sirve para asegurar
                                 a,T             o
esta propiedad.


    Como aplicaci´n del teorema de Girsanov deduciremos la ley del instante
                   o
de llegada del movimiento browniano con deriva a un nivel a.
    Sea {Bt , t ≥ 0} un movimiento browniano. Fijado un valor λ, definimos
la martingala Lt como en (30). Sea Q la probabilidad en ∪t≥0 Ft tal que para
todo t ≥ 0
                                dQ
                                    |F = Lt .
                                dP t
Por el teorema de Girsanov, para todo T > 0, en el espacio de probabili-
dad (Ω, FT , Q) el proceso Bt + λt := Bt es un movimiento browniano en el
intervalo de tiempo [0, T ]. Es decir, en este espacio Bt es un movimiento
browniano con deriva −λt. Sea

                          τ a = inf{t ≥ 0, Bt = a},

donde a = 0. Para cada t ≥ 0 el suceso {τ a ≤ t} pertenece a la σ-´lgebra
                                                                  a
Fτ a ∧t ya que para todo s ≥ 0

             {τ a ≤ t} ∩ {τ a ∧ t ≤ s} = {τ a ≤ t} ∩ {τ a ≤ s}
                  = {τ a ≤ t ∧ s} ∈ Fs∧t ⊂ Fs .




                                           65
Por consiguiente, utilizando la propiedad de martingala respecto de los tiem-
pos de paro obtenemos

          Q{τ a ≤ t} = E 1{τ a ≤t} Lt = E 1{τ a ≤t} E(Lt |Fτ a ∧t )
                = E 1{τ a ≤t} Lτ a ∧t = E 1{τ a ≤t} Lτ a
                                                     1   2
                 = E 1{τ a ≤t} e−λa− 2 λ                     τa

                          t
                                    1   2
                 =            e−λa− 2 λ s f (s)ds,
                      0

donde f es la densidad de la variable τ a . Sabemos que
                                                     |a|                   a2
                                  f (s) = √                           e− 2s .
                                                     2πs3
Por lo tanto, respecto de Q la variable aleatoria τ a tiene una densidad igual
a
                            |a| − (a+λs)2
                          √      e 2s , s > 0.
                            2πs3
Haciendo, t ↑ ∞ obtenemos
                                                                  1    2
                Q{τ a < ∞} = e−λa E e− 2 λ                                 τa
                                                                                = e−λa−|λa| .

Si λ = 0 (movimiento browniano sin deriva), la probabilidad de llegar alguna
vez a un nivel dado es igual a uno. Si −λa > 0 (la deriva −λ y el nivel a
tienen el mismo signo) esta probabilidad es tambi´n igual a uno. Si −λa < 0
                                                    e
(la deriva −λ y el nivel a tienen signo distinto) la probabilidad vale e−2λa .



   Ejercicios

2.1 Consideremos una funci´n f tal que
                          o
                                                T
                                                    f (s)2 ds < ∞.
                                            0

     Definimos la sucesi´n de funciones continuas
                       o
                                                              t
                                     fn (t) =                          f (s)ds,
                                                                1
                                                             t− n


                                                    66
con la convenci´n f (s) = 0 si s < 0. Demostrar que se cumple
                    o
                              T
                                                                n→∞
                                  (f (s) − fn (s))2 ds −→ 0 −→ 0.
                          0

     Indicaci´n: Sabemos que para cada ε > 0 podemos encontrar una
             o
     funci´n continua g tal que
          o
                                       T
                                           (f (s) − g(s))2 ds < ε.
                                   0


2.2 Consideremos un proceso estoc´stico M = {Mt , t ≥ 0} que es una mar-
                                   a
     tingala respecto de una filtraci´n {Mt , t ≥ 0}. Demostrar que el pro-
                                    o
     ceso M tambi´n es una martingala respecto de la filtraci´n natural
                    e                                          o
       M
     Ft = σ (Ms , 0 ≤ s ≤ t) ⊂ Mt .

2.2 Consideremos una martingala M = {Mt , t ≥ 0} respecto de una fil-
     traci´n {Mt , t ≥ 0} tal que E(Mt2 ) < ∞ para todo t ≥ 0. Demostrar
          o
     que si s < t

                    E((Mt − Ms )2 |Ms ) = E(Mt2 − Ms |Ms ).
                                                   2



2.3 Demostrar que si τ es un tiempo de paro, Fτ definida en (18) es una σ-
     ´lgebra y τ es Fτ -medible. Si X = {Xt , t ≥ 0} es un proceso adaptado
     a
     con trayectorias continuas, y τ es finito, demostrar que la variable Xτ
     es Fτ -medible.

2.4 Sea Y una variable aleatoria integrable y {Mt , t ≥ 0} una familia cre-
     ciente de σ-´lgebras. Demostrar que
                 a

                                            Mt = E(Y |Mt )

     es una martingala.

2.5 Comprobar si los siguientes procesos estoc´sticos, definidos a partir de
                                              a




                                                67
un movimiento browniano Bt , son martingalas:
                               3
                         Xt = Bt − 3tBt
                                                           s
                         Xt = t2 Bt − 2                        sBs ds
                                                       0
                         Xt = et/2 cos Bt
                         Xt = et/2 sin Bt
                                                1
                         Xt = (Bt + t) exp(−Bt − t)
                                                2
                         Xt = B1 (t)B2 (t).

     En el ultimo caso, B1 y B2 son dos movimientos brownianos indepen-
           ´
     dientes.
2.6 Supongamos que Bt es un movimiento browniano n-dimensional y sea
     f : Rn → R una funci´n de clase C 2 . Utilizando la f´rmula de Itˆ
                          o                               o           o
     demostrar que
                                        t                                   t
                                                                   1
                f (Bt ) = f (0) +            f (Bs )ds +                        ∆f (Bs )ds.
                                    0                              2    0

2.7 Encontrar el proceso u que nos proporciona la representaci´n integral
                                                              o
                                                           T
                             F = E(F ) +                       us dBs
                                                       0

     en los ejemplos siguientes:

                                    F = BT
                                          2
                                    F = BT
                                    F = eBT
                                                   T
                                    F =                    Bt dt
                                                  0
                                                   3
                                    F =          BT
                                    F = sin BT
                    √
2.8 Sea p(t, x) = 1/ 1 − t exp(−x2 /2(1 − t)), para 0 ≤ t < 1 y x ∈ R, y
     p(1, x) = 0. Definimos Mt = p(t, Bt ), donde {Bt , 0 ≤ t ≤ 1} es un
     movimiento browniano.

                                            68
a) Demostrar que
                                                      t
                                                          ∂p
                              Mt = M0 +                      (s, Bs )dBs .
                                                  0       ∂x
                     ∂p                                    1
      b) Sea Ht =    ∂x
                        (t, Bt ). Probar      que         0
                                                                  Ht2 dt < ∞ casi seguramente,
                      1
           pero E    0
                        Ht2 dt = ∞.

2.9 Sean Yt y Xt procesos de Itˆ. Demostrar la siguiente f´rmula de inte-
                               o                          o
     graci´n por partes:
          o
                                      t                       t                  t
               Xt Yt = X0 Y0 +            Xs dYs +                Ys dXs +           dXs dYs .
                                  0                       0                  0


3    Ecuaciones diferenciales estoc´sticas
                                   a
Queremos resolver ecuaciones diferenciales del tipo

                       dXt = b(t, Xt )dt + σ(t, Xt )dBt .                                        (34)

   Los coeficientes b(t, x) y σ(t, x) se denominan, respectivamente, coefi-
ciente de deriva y coeficiente de difusi´n. Si el coeficiente de difusi´n se
                                        o                            o
anula, entonces, tendremos una ecuaci´n diferencial ordinaria:
                                      o
                                 dXt
                                     = b(t, Xt ),
                                  dt
que puede resolverse, si conocemos la condici´n inicial X0 . Por ejemplo, en
                                               o
el caso lineal b(t, x) = b(t)x, la soluci´n es
                                         o
                                                 Rt
                                                      b(s)ds
                             Xt = X0 + e         0                .

    Una ecuaci´n diferencial del tipo (34) se denomina una ecuaci´n diferen-
               o                                                     o
cial estoc´stica. La soluci´n ser´ un proceso estoc´stico {Xt , t ≥ 0} con
          a                o       a                   a
trayectorias continuas adaptado a la filtraci´n browniana. Los procesos
                                                o
soluci´n se denominan procesos de difusi´n.
      o                                    o
    Una interpretaci´n heur´
                     o      ıstica de la ecuaci´n diferencial (34) ser´ la sigu-
                                               o                       ıa
iente: El incremento ∆Xt = Xt+∆t − Xt se expresa como una suma de
b(t, Xt )∆t m´s un t´rmino que depende del incremento del movimiento brow-
             a      e
niano: σ(t, Xt )∆Bt y que se interpreta como una impulso aleatorio. Por

                                            69
tanto, el incremento ∆Xt tendr´ una ley normal de media b(t, Xt )∆t y vari-
                                 a
              2
anza σ(t, Xt ) ∆t.
    La formalizaci´n de estas ecuaciones se realiza transform´ndolas en ecua-
                   o                                         a
ciones integrales y utilizando integrales estoc´sticas:
                                               a
                                    t                            t
                 Xt = X0 +              b(s, Xs )ds +                σ(s, Xs )dBs .   (35)
                                0                            0

    El resultado fundamental sobre la existencia y unicidad de soluciones es
el siguiente:

Teorema 18 Fijemos un intervalo de tiempo [0, T ]. Supongamos que los
coeficientes de la ecuaci´n (34) verifican:
                        o

                       |b(t, x) − b(t, y)|             ≤    D1 |x − y|                (36)
                      |σ(t, x) − σ(t, y)|              ≤    D2 |x − y|                (37)
                                  |b(t, x)|            ≤    C1 (1 + |x|)              (38)
                                 |σ(t, x)|             ≤    C2 (1 + |x|),             (39)

para todo x, y ∈ R, t ∈ [0, T ]. Supongamos que Z es una variable aleatoria
independiente de la σ-´lgebra FT generada por el movimiento browniano en
                        a
                    2
[0, T ], tal que E(Z ) < ∞. Entonces, existe un unico proceso {Xt , t ∈ [0, T ]}
                                                ´
continuo, adaptado, soluci´n de (35) y tal que
                           o
                                            T
                            E                   |Xs |2 ds   < ∞.
                                        0

   Observaciones:

1.- Este resultado es cierto en dimensi´n superior, cuando Bt es un movimiento
                                       o
     browniano m-dimensional, la soluci´n Xt es un proceso estoc´stico n-
                                           o                         a
     dimensional, y los coeficientes son funciones b : [0, T ] × Rn → Rn ,
     σ : [0, T ] × Rn → Rn×m .

2.- La condici´n de crecimiento lineal (38,39) garantiza que la soluci´n no
              o                                                       o
     explota antes del tiempo final T . Por ejemplo, la ecuaci´n diferencial
                                                              o
     determinista
                              dXt
                                   = Xt2 , X0 = 1,
                               dt

                                                  70
tiene por unica soluci´n la funci´n
                ´           o          o
                                              1
                                Xt =             , 0 ≤ t < 1,
                                             1−t
      que diverge en el instante t = 1.

3.- La condici´n de Lipschitz (36,37) garantiza que no exista m´s de una
              o                                                  a
     soluci´n. Por ejemplo, la ecuaci´n diferencial determinista
           o                         o
                                dXt     2/3
                                    = 3Xt , X0 = 0,
                                 dt
      tiene infinitas soluciones ya que para cada a > 0, la funci´n
                                                                o

                                                 0    si t ≤ a
                             Xt =
                                             (t − a)3 si t > a

      es soluci´n. En este ejemplo la funci´n b(x) = 3x2/3 no cumple la
               o                             o
      condici´n de Lipschitz ya que la derivada de b no est´ acotada.
             o                                             a

4.- Si los coeficientes b(t, x) y σ(t, x) son diferenciables en la variable x, la
      condici´n de Lipschitz significa que las derivadas parciales ∂x y ∂σ est´n
             o                                                     ∂b
                                                                        ∂x
                                                                             a
      acotadas por las constantes D1 y D2 , respectivamente.

   Demostraci´n del Teorema 18: Consideremos el espacio L2 de los
             o                                           a,T
                                                                                      T
procesos adaptados a la filtraci´n FtZ = σ(Z) ∨ Ft y tales que E
                               o                                                     0
                                                                                          |Xs |2 ds <
∞. En este espacio introducimos la siguiente norma
                                         T                           1/2
                                             −λs        2
                        X =                  e     E   Xs   ds             ,
                                     0

                                           2     2
donde λ es una constante tal que λ > 2 (T D1 + D2 ).
   Definimos un operador en este espacio de la forma siguiente
                                     t                          t
               (LX)t = X0 +              b(s, Xs )ds +              σ(s, Xs )dBs .
                                 0                          0

Este operador est´ bien definido debido a la propiedad de crecimiento lineal (38,39)
                 a
de los coeficientes de la ecuaci´n.
                               o


                                                 71
La desigualdad de Schwartz y la isometr´ de la integral estoc´stica nos per-
                                          ıa                    a
miten escribir
                                                   t                                               2
                               2
         E |(LX)t − (LY )t |        ≤ 2E               (b(s, Xs ) − b(s, Ys )) ds
                                               0

                                                           t                                             2
                                       +2E                     (σ(s, Xs ) − σ(s, Xs )) dBs
                                                       0
                                                   t
                                    ≤ 2T E             (b(s, Xs ) − b(s, Ys ))2 ds
                                               0
                                                   t
                                       +2E             (σ(s, Xs ) − σ(s, Xs ))2 ds .
                                               0

Utilizando la propiedad de Lipschitz (36,37) se obtiene
                                                                                  t
            E |(LX)t − (LY )t |2 ≤ 2 T D1 + D2 E
                                        2    2
                                                                                      (Xs − Ys )2 ds .
                                                                              0

                        2     2
Pongamos C = 2 (T D1 + D2 ). Por consiguiente, multiplicando por el factor e−λt
e integrando en [0, T ] se obtiene
     T                                                     T                          t
         e−λt E |(LX)t − (LY )t |2 dt ≤ C                       e−λt E                    (Xs − Ys )2 ds dt
 0                                                     0                          0
                                                               T          T
                                         ≤     C                              e−λt dt E (Xs − Ys )2 ds
                                                           0          s
                                                            T
                                             C
                                         ≤                         e−λs E (Xs − Ys )2 ds.
                                             λ             0

Por lo tanto,
                                                       C
                                   LX − LY ≤             X −Y
                                                       λ
              C
y como        λ
                  < 1. Esto nos dice que el operador L es una contracci´n en el espacio
                                                                       o
L2 . El teorema del punto fijo nos asegura que este operador tiene un unico punto
 a,T                                                                 ´
fijo, lo que implica la unicidad y existencia de soluci´n de la ecuaci´n (35).
                                                      o              o




                                             72
3.1    Soluciones expl´
                      ıcitas de ecuaciones diferenciales es-
       toc´sticas
          a
La f´rmula de Itˆ permite resolver expl´
    o             o                     ıcitamente algunas ecuaciones difer-
enciales estoc´sticas. Veamos algunos ejemplos.
              a

A) Ecuaciones lineales. El movimiento browniano geom´trico
                                                    e
                                                   2
                                                      
                                               µ− σ t+σBt
                                Xt = X0 e          2



      satisface la ecuaci´n lineal
                         o

                              dXt = µXt dt + σXt dBt .

      M´s generalmente, la soluci´n de la ecuaci´n lineal homog´nea
       a                         o              o              e

                            dXt = b(t)Xt dt + σ(t)Xt dBt

      ser´
         a
                                  t                            t
                 Xt = X0 exp     0
                                      b(s) − 1 σ 2 (s) ds +
                                             2                0
                                                                   σ(s)dBs

B) El proceso de Ornstein-Uhlenbeck. Consideremos la ecuaci´n diferencial
                                                           o
    estoc´stica
          a

                           dXt = a (m − Xt ) dt + σdBt
                            X0 = x,

      donde a, σ  0 y m es un n´mero real. Como se trata de una ecuaci´n
                                  u                                     o
      lineal no homog´nea, utilizaremos el m´todo de variaci´n de las con-
                      e                      e              o
      stantes. La soluci´n de la ecuaci´n homog´nea
                        o              o       e

                                      dxt = −axt dt
                                       x0 = x

      es xt = xe−at . Entonces hacemos el cambio de variable Xt = Yt e−at , es
      decir, Yt = Xt eat . El proceso Yt satisface

                            dYt = aXt eat dt + eat dXt
                                = ameat dt + σeat dBt .

                                         73
Por tanto,
                                                                  t
                         Yt = x + m(eat − 1) + σ                      eas dBs ,
                                                              0
     lo que implica
                                                                         t as
                      Xt = m + (x − m)e−at + σe−at                      0
                                                                          e dBs

     El proceso estoc´stico Xt es gaussiano. La media y varianza de cada
                     a
     variable Xt pueden calcularse f´cilmente:
                                    a
                  E(Xt ) = m + (x − m)e−at ,
                                                        t                      2
                  V arXt = σ 2 e−2at E                      eas dBs
                                                    0
                                           t
                                                              σ2
                            = e−2at            e2as ds =         1 − e−2at .
                                       0                      2a
     La distribuci´n de Xt cuando t tiende a infinito converge hacia la ley
                  o
     normal
                                          σ2
                                    N (m, ).
                                          2a
     Esta ley se denomina la ley invariante o estacionaria. En el caso m = 0
     este proceso se denomina el proceso de Ornstein-Uhlenbeck.
C) Consideremos una ecuaci´n diferencial estoc´stica del tipo
                          o                   a
                      dXt = f (t, Xt )dt + c(t)Xt dBt , X0 = x,                             (40)
     donde f (t, x) y c(t) son funciones deterministas continuas, tales que f
     satisface las condiciones de crecimiento lineal y propiedad de Lipschitz
     en la variable x. Esta ecuaci´n se puede resolver siguiendo los pasos
                                    o
     siguientes:

     a) Se considera el “factor integrante”
                                          t                                t
                                                               1
                       Ft = exp −             c(s)dBs +                        c2 (s)ds ,
                                      0                        2       0

          tal que Ft−1es soluci´n de la ecuaci´n (40) si f = 0 y x = 1. El
                               o              o
          proceso Yt = Ft Xt cumple
                             dYt = Ft f (t, Ft−1 Yt )dt, Y0 = x.                            (41)

                                       74
b) La ecuaci´n (41) es una ecuaci´n diferencial determinista, parametrizada
                 o                    o
         por ω ∈ Ω, que podr´ resolverse mediante m´todos habituales.
                              a                         e

     Por ejemplo, supongamos que f (t, x) = f (t)x. En tal caso la ecuaci´n
                                                                         o
     (41) es
                              dYt = f (t)Yt dt,
     de lo que se deduce
                                                                     t
                                    Yt = x exp                           f (s)ds
                                                                 0

     y, por lo tanto,

                                     t                       t                     1    t 2
               Xt = x exp           0
                                         f (s)ds +          0
                                                                 c(s)dBs −         2   0
                                                                                         c (s)ds


D) Ecuaci´n diferencial estoc´stica lineal general. Consideremos la ecuaci´n
         o                   a                                            o

                 dXt = (a(t) + b(t)Xt ) dt + (c(t) + d(t)Xt ) dBt ,

     con condici´n inicial X0 = x, donde a, b, c y d son funciones continuas.
                o
     Utilizando el m´todo de variaci´n de las constantes propondremos una
                     e              o
     soluci´n de la forma
           o
                                    Xt = Ut Vt                           (42)
     donde
                             dUt = b(t)Ut dt + d(t)Ut dBt
     y
                                    dVt = α(t)dt + β(t)dBt ,
     con U0 = 1 y V0 = x. Por el apartado C sabemos que
                                t                       t                                  t
                                                                                   1
              Ut = exp              b(s)ds +                d(s)dBs −                          d2 (s)ds .
                            0                       0                              2   0

     Por otra parte, diferenciando la igualdad (42) obtenemos

                           a(t)           = Ut α(t) + β(t)d(t)Ut
                           c(t)           = Ut β(t)


                                               75
es decir
                               β(t)           = c(t) Ut−1
                               α(t)           = [a(t) − c(t)d(t)] Ut−1 .
     Finalmente,
                                 t                      −1                          t         −1
            Xt = Ut x +         0
                                     [a(s) − c(s)d(s)] Us ds +                     0
                                                                                        c(s) Us dBs




   La ecuaci´n diferencial estoc´stica de Itˆ
            o                   a           o
                                         t                              t
                Xt = X0 +                    b(s, Xs )ds +                  σ(s, Xs )dBs ,
                                     0                              0
puede transformarse en una ecuaci´n de Stratonovich, utilizando la f´rmula
                                  o                                 o
(27) que nos relaciona ambos tipos de integral. As´ se obtiene
                                                  ı,
                    t                             t                                         t
                                                      1
  Xt = X0 +             b(s, Xs )ds −                   (σσ ) (s, Xs )ds +                      σ(s, Xs ) ◦ dBs ,
                0                             0       2                                 0
ya que la expresi´n del proceso σ(s, Xs ) como proceso de Itˆ ser´
                 o                                          o    ıa
                                                            t
                                                                     1
            σ(t, Xt ) = σ(0, X0 ) +                             σ b − σ σ 2 (s, Xs )ds
                                                        0            2
                                         t
                               +             (σσ ) (s, Xs )dBs .
                                     0

    Yamada y Watanabe demostraron en 1971 que la condici´n de Lipschitz
                                                               o
pod´ debilitarse de la forma siguiente, en el caso de ecuaciones diferenciales
    ıa
estoc´sticas unidimensionales. Supongamos que los coeficientes b y σ no de-
      a
penden del tiempo, el coeficiente b es Lipschitz, pero el coeficiente σ satisface
la condici´n de H¨lder
          o       o
                              |σ(x) − σ(y)| ≤ D|x − y|α ,
donde α ≥ 1 . En tal caso existe una unica soluci´n de la ecuaci´n.
           2
                                     ´           o              o
   Por ejemplo, la ecuaci´n
                         o
                                             dXt = |Xt |r dBt
                                                 X0 = 0
tiene una soluci´n unica si r ≥ 1/2.
                o ´

                                                       76
3.2    Soluciones fuertes y soluciones d´biles
                                        e
La soluci´n Xt que hemos encontrado antes es una soluci´n fuerte porque es
         o                                             o
un proceso adaptado a la familia de σ-´lgebras
                                      a

                            FtZ = σ(Bs , s ≤ t, Z).

    Podemos plantear el problema de forma diferente. Nos dan los coeficientes
b(t, x) y σ(t, x) y nos piden que encontremos un par de procesos Xt , Bt en un
espacio de probabilidad (Ω, F, P ) tales que Bt es un movimiento browniano
relativo a una filtraci´n Ht y Xt satisface la ecuaci´n (34) en este espacio. Di-
                       o                             o
remos entonces que (Ω, F, P, Ht , Xt , Bt ) es una soluci´n d´bil de la ecuaci´n
                                                         o e                  o
(34).
    Pueden demostrarse los siguientes resultados:

   • Toda soluci´n fuerte es tambi´n una soluci´n d´bil.
                o                 e            o e

   • Una ecuaci´n con coeficientes b(t, x) y σ(t, x) se dice que tiene unicidad
                 o
     d´bil si dos soluciones d´biles tienen la misma ley (las mismas distribu-
      e                       e
     ciones en dimensi´n finita). Si los coeficientes satisfacen las condiciones
                        o
     del Teorema (18) entonces se satisface la unicidad d´bil.
                                                            e

   • La existencia de soluciones d´biles puede asegurarse suponiendo sola-
                                  e
     mente que los coeficientes b(t, x) y σ(t, x) son funciones continuas y
     acotadas.


   La ecuaci´n de Tanaka
            o

                        dXt = sign (Xt ) dBt , X0 = 0,

no tiene ninguna soluci´n fuerte pero tiene una soluci´n d´bil unica.
                       o                              o e ´


3.3    Aproximaciones num´ricas
                         e
Muchas ecuaciones diferenciales estoc´sticas no pueden resolverse expl´
                                     a                                ıcitamente.
Por ello es conveniente disponer de m´todos num´ricos que permiten la sim-
                                      e           e
ulaci´n de soluciones.
     o



                                      77
Consideremos la ecuaci´n diferencial estoc´stica con coeficientes indepen-
                         o                   a
dientes del tiempo
                       dXt = b(Xt )dt + σ(Xt )dBt ,                     (43)
con condici´n inicial X0 = x.
           o
   Fijemos un intervalo de tiempo [0, T ] y consideremos la subdivisi´n for-
                                                                     o
mada por los puntos
                               iT
                          tj =    , i = 0, 1, . . . , n.
                                n
La longitud de cada subintervalo ser´ δ n = T .
                                     a        n
   El m´todo de Euler consiste en el esquema recursivo siguiente:
        e
         X (n) (ti ) = X (n) (ti−1 ) + b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 ))∆Bi ,
                                                                                          (n)
i = 1, . . . , n, donde ∆Bi = Bti − Bti−1 . El valor inicial ser´ X0 = x.
                                                                 a
                                                                 (n)
En los puntos de cada intervalo (ti ti+1 ) el valor del proceso X se deduce
por interpolaci´n lineal. El proceso X (n) es una funci´n del movimiento
                  o                                         o
browniano y podemos medir el error comerido al aproximar X por X (n) :
                                                                 2
                                                           (n)
                                    en = E         XT − XT            .

Puede demostrarse que en es del orden δ 1/2 es decir,
                                        n

                                             en ≤ cδ 1/2
                                                     n

si n ≥ n0 .
    Para simular una soluci´n mediante el m´todo de Euler, basta con obtener
                             o                       e
valores de n variables aleatorias ξ 1 , . . . ., ξ n independientes con ley N (0, 1), y
                    √
substituir ∆Bi por δ n ξ i .
    El m´todo de Euler puede mejorarse mediante una correcci´n adicional.
         e                                                               o
Esto nos lleva a introducir el m´todo de Milstein.
                                 e
    El valor exacto del incremento entre dos puntos de la partici´n es    o
                                              ti                      ti
               X(ti ) = X(ti−1 ) +                  b(Xs )ds +              σ(Xs )dBs .         (44)
                                             ti−1                    ti−1

En el m´todo de Euler se basa en aproximar las integrales de la forma sigu-
       e
iente:
                               ti
                                    b(s)ds ≈ b(X (n) (ti−1 ))δ n ,
                           ti−1
                         ti
                                σ(s)dBs ≈ σ(X (n) (ti−1 ))∆Bi .
                        ti−1


                                                    78
En el m´todo de Milstein, aplicaremos la f´rmula de Itˆ a los procesos b(Xs ) y
        e                                 o           o
σ(Xs ) que aparecen en (44), con objeto de obtener una aproximaci´n mejor.
                                                                    o
De esta forma obtenemos

       X(ti ) − X(ti−1 )
             ti                                       s                                         s
                                                                      1
  =                     b(X (n) (ti−1 )) +                        bb + b σ 2 (Xr )dr +                (σb ) (Xr )dBr ds
            ti−1                                   ti−1               2                        ti−1
                   ti                                         s                                        s
                                  (n)                                    1
       +                    σ(X         (ti−1 )) +                   bσ + σ σ 2 (Xr )dr +                    (σσ ) (Xr )dBr dBs
                  ti−1                                    ti−1           2                            ti−1

  = b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 ))∆Bi + Ri .

El t´rmino dominante en el resto es la integral estoc´stica doble
    e                                                a
                                            ti            s
                                                                  (σσ ) (Xr )dBr dBs ,
                                           ti−1       ti−1

y puede demostrarse que las dem´s componentes del resto son de ´rdenes
                                  a                                o
inferiores y pueden despreciarse. La integral estoc´stica doble puede, a su
                                                   a
vez, aproximarse por
                                                                      ti     s
                               (σσ ) (X (n) (ti−1 ))                               dBr dBs .
                                                                     ti−1   ti−1

Las reglas del c´lculo estoc´stico nos permiten calcular la integral doble que
                a           a
nos queda:
       ti               s                                      ti
                            dBr dBs =                                Bs − Bti−1 dBs
      ti−1          ti−1                                      ti−1
                                                    1
                                                  =     2      2
                                                       Bti − Bti−1 − Bti−1                Bti − Bti−1 − δ 2
                                                                                                          n
                                                    2
                                                    1
                                                  =   (∆Bi )2 − δ 2 .
                                                                  n
                                                    2
En conclusi´n, el m´todo de Milstein consiste en el sistema recursivo siguiente
           o       e


            X (n) (ti ) = X (n) (ti−1 ) + b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 )) ∆Bi
                            1
                          + (σσ ) (X (n) (ti−1 )) (∆Bi )2 − δ 2 . n
                            2

                                                                     79
Puede demostarse que el error en es del orden δ n es decir,

                                   en ≤ cδ n

si n ≥ n0 .


3.4     Propiedad de Markov
Consideremos un proceso de difusi´n n-dimensional {Xt , t ≥ 0} que satisface
                                   o
una ecuaci´n diferencial estoc´stica del tipo
          o                   a

                      dXt = b(t, Xt )dt + σ(t, Xt )dBt ,                   (45)

donde B es un movimiento browniano m-dimensional y los coeficientes b y σ
son funciones que satisfacen las hip´tesis del Teorema (18).
                                    o
    Seguidamente demostraremos que los procesos de difusi´n satisfacen la
                                                             o
propiedad de Markov. Esta propiedad nos dice que el comportamiento futuro
del proceso, conociendo la informaci´n hasta el instante t solo depende del
                                      o
valor del proceso en el instante presente, Xt .

Definici´n 19 Diremos que un proceso estoc´stico n-dimensional {Xt , t ≥
        o                                    a
0} es un proceso de Markov si para todo s  t se tiene

                     E(f (Xt )|Xr , r ≤ s) = E(f Xt )|Xs ),

para toda funci´n medible y acotada f en Rn .
               o

    La ley de probabilidad de los procesos de Markov se caracteriza mediante
las denominadas probabilidades de transici´n:
                                            o

                      P (C, t, x, s) = P (Xt ∈ C|Xs = x),

donde 0 ≤ s  t, C ∈ BRn y x ∈ Rn . Es decir, P (·, t, x, s) es la ley de proba-
bilidad de la variable Xt condicionada por Xs = x. Si esta ley condicionada
tiene densidad, la designaremos por p(y, t, x, s). Por ejemplo, el movimiento
browniano real Bt es un proceso de Markov con probabilidades de transici´n    o
dadas por
                                        1           (x−y)2
                      p(y, t, x, s) =            e− 2(t−s) .
                                      2π(t − s)

                                      80
Designaremos por {Xts,x , t ≥ s} la soluci´n de la ecuaci´n diferencial es-
                                              o              o
                                                                          s,x
toc´stica (45) en el intervalo de tiempo [s, ∞) y con condici´n inicial Xs =
   a                                                         o
x. Si s = 0, escribiremos Xt0,x = Xtx .
    Puede demostrarse que existe una versi´n continua en los tres par´metros
                                            o                         a
del proceso estoc´stico
                  a

                            {Xts,x , 0 ≤ s ≤ t, x ∈ Rn } .

Por otra parte, para cada 0 ≤ s ≤ t se cumple la siguiente propiedad:
                                                        x
                                                     s,Xs
                                           Xtx = Xt                                          (46)

En efecto, Xtx para t ≥ s satisface la ecuaci´n diferencial estoc´stica
                                             o                   a
                                      t                         t
               Xtx = Xs +
                      x                         x
                                          b(u, Xu )du +                   x
                                                                    σ(u, Xu )dBu .
                                  s                         s

Por otra parte, Xts,y verifica
                                  t                             t
               Xts,y = y +                  s,y
                                      b(u, Xu )du +                       s,y
                                                                    σ(u, Xu )dBu
                              s                             s

                                                                                     s,X x
                         x
y substituyendo y por Xs obtenemos que los procesos Xtx y Xt s son solu-
                                                                          x
ciones de la misma ecuaci´n en el intervalo [s, ∞) con condici´n inicial Xs .
                           o                                  o
Por la unicidad de soluciones deben coincidir.

Teorema 20 (Propiedad de Markov de las difusiones) Sea f una funci´n      o
medible y acotada definida en Rn . Entonces, para cada 0 ≤ s  t tendremos

                       E [f (Xt )|Fs ] = E [f (Xts,x )] |x=Xs .

   Demostraci´n: Tenemos, utilizando (46) y la Regla 7 de la esperanza condi-
             o
cionada:

            E [f (Xt )|Fs ] = E f (Xts,Xs )|Fs = E [f (Xts,x )] |x=Xs ,
                     s,x
ya que el proceso {Xt , t ≥ s, x ∈ Rn } es independiente de Fs y la variable Xs
es medible respecto de Fs .
    Este teorema nos dice que los procesos de difusi´n tienen la propiedad de
                                                     o
Markov y sus probabilidades de transici´n son
                                       o

                           P (C, t, x, s) = P (Xts,x ∈ C).

                                                81
Si el proceso de difusi´n es homog´neo en el tiempo, la propiedad de Markov
                           o          e
se escribe
                                               x
                       E [f (Xt )|Fs ] = E f (Xt−s ) |x=Xs .



3.5    Generador de una difusi´n
                              o
Consideremos un proceso de difusi´n n-dimensional {Xt , t ≥ 0} que satisface
                                   o
una ecuaci´n diferencial estoc´stica del tipo
          o                   a

                       dXt = b(t, Xt )dt + σ(t, Xt )dBt .

donde B es un movimiento browniano m-dimensional. Supondremos que
los coeficientes b y σ satisfacen las hip´tesis del Teorema 18 y que X0 es
                                         o
constante.
    Podemos asociar a un proceso de difusi´n un operador diferencial de se-
                                            o
gundo orden. Dicho operador, que denotaremos por As , s ≥ 0, se denomina
el generador de la difusi´n, y se define por
                         o

                        n             ∂f             n                        ∂ f 2
                                                1
          As f (x) =    i=1 bi (s, x) ∂xi   +   2    i,j=1   (σσ )i,j (s, x) ∂xi ∂xj .   (47)

En esta expresi´n f es una funci´n en Rn dos veces derivable con derivadas
               o                o
                               1,2
parciales continuas (de clase C ). La matriz (σσ ) (s, x) es sim´trica y
                                                                  e
semidefinida positiva:
                                            n
                    (σσ )i,j (s, x) =           σ i,k (s, x)σ j,k (s, x).
                                        k=1

    La relaci´n entre el operador As y la difusi´n viene dada por la siguiente
               o                                    o
propiedad, consecuencia de la f´rmula de Itˆ: Si f (t, x) es una funci´n de
                                      o           o                     o
clase C 1,2 , entonces, f (t, Xt ) es un proceso de Itˆ con diferencial
                                                      o

                                   ∂f
              df (t, Xt ) =           (t, Xt ) + At f (t, Xt ) dt
                                   ∂t
                                    n   m
                                                ∂f                          j
                               +                    (t, Xt )σ i,j (t, Xt )dBt .
                                   i=1 j=1
                                                ∂xi



                                            82
Por consiguiente, si se cumple
                            t                               2
                                ∂f
                  E                 (s, Xs )σ i,j (s, Xs ) ds      ∞         (48)
                        0       ∂xi

para cada t  0 y cada i, j, el proceso
                                                t
                                                     ∂f
                 Mt = f (t, Xt ) −                      + As f   (s, Xs )ds   (49)
                                            0        ∂s

ser´ una martingala. Condiciones suficientes para (48) son:
   a
                                 ∂f
a) Las derivadas parciales       ∂xi
                                       est´n acotadas.
                                          a

b) Existen constantes ct , kt tales que para cada s ∈ [0, t]

                 ∂f          ∂f            ∂2f
                    (s, x) +     (s, x) +         (s, x) ≤ ct ekt |x| .
                 ∂s          ∂xi          ∂xi ∂xj

   En particular si f satisface la ecuaci´n
                                         o

                                       ∂f
                                       ∂t
                                            + At f = 0                        (50)

y se cumple a) o b), entonces f (t, Xt ) es una martingala.
    La propiedad de martingala de este proceso nos permite dar una inter-
pretaci´n probabilista de la soluci´n de una ecuaci´n parab´lica con condici´n
       o                           o               o        o               o
                                                                      n
terminal fijada: Si la funci´n f (t, x) satisface (50) en [0, T ] × R con la
                              o
condici´n terminal f (T, x) = g(x), entonces
       o

                                                 t,x
                                 f (t, x) = E(g(XT ))

casi por todo respecto de la ley de Xt . En efecto, la propiedad de martingala
del proceso f (t, Xt ) implica
                                                             t,x
       f (t, Xt ) = E(f (T, XT )|Xt ) = E(g(XT )|Xt ) = E(g(XT ))|x=Xt .

   Consideremos una funci´n q(x) continua y acotada inferiormente. En-
                          o
tonces, aplicando de nuevo la f´rmula de Itˆ puede demostrarse que, si la
                               o           o


                                                    83
funci´n f es de clase C 1,2 y cumple una de las condiciones a) o b) anteriores,
     o
el proceso
             Rt                                       t        Rs                      ∂f
   Mt = e−   0    q(Xs )ds
                             f (t, Xt ) −                 e−       0   q(Xr )dr
                                                                                          + As f − qf       (s, Xs )ds
                                                  0                                    ∂s
es una martingala. En efecto,
                                  Rt                  n        m
                              −        q(Xs )ds                         ∂f                           j
              dMt = e              0
                                                                           i
                                                                             (t, Xt )σ i,j (t, Xt )dBt .
                                                  i=1 j=1
                                                                        ∂x

   Si la funci´n f satisface la ecuaci´n
              o                       o
                                           ∂f
                                              + As f − qf = 0                                                       (51)
                                           ∂s
entonces,                                         Rt
                                            e−    0       q(Xs )ds
                                                                         f (t, Xt )                                 (52)
ser´ una martingala.
   a
    Supongamos que f (t, x) satisface (51) en [0, T ] × Rn con condici´n termi-
                                                                      o
nal f (T, x) = g(x). Entonces,
                                                               RT          t,x            t,x
                              f (t, x) = E e−                      t    q(Xs )ds
                                                                                       g(XT ) .

En efecto, la propiedad de martingala del proceso (52) implica
                                                            RT
                          f (t, Xt ) = E e−                    t       q(Xs )ds
                                                                                  f (T, XT )|Ft .

Finalmente, la propiedad de Markov nos permite escribir
                  RT                                                              RT      t,x
                                                                                                     t,x
       E e−       t    q(Xs )ds
                                  f (T, XT )|Ft = E e−                             t   q(Xs )ds
                                                                                                  g(XT ) |x=Xt .




   Tomando esperanzas en la ecuaci´n (49) se obtiene
                                  o
                                                                             t
                                                                                 ∂f
            E(f (t, Xt )) = f (0, X0 ) + E                                          + As f         (s, Xs )ds.
                                                                         0       ∂s
Esta es la denominada f´rmula de Dynkin que tiene una extensi´n a tiempos
                        o                                     o
de paro. Designaremos por C0 (R ) el conjunto de las funciones f en Rn con
                              2  n

dos derivadas parciales continuas y soporte compacto.

                                                                   84
Teorema 21 (F´rmula de Dynkin) Sea f ∈ C0 (Rn ) y consideremos un
                  o                                2

proceso de difusi´n {Xt , t ≥ 0} que satisface la ecuaci´n diferencial es-
                  o                                       o
toc´stica (45), con condici´n inicial constante. Entonces, si τ es un tiempo
   a                       o
de paro tal que E(τ )  ∞,
                                                                      τ
                   E [f (Xτ )] = f (X0 ) + E                              (As f ) (Xs )ds.
                                                                  0

   En particular si τ es el tiempo de salida de un conjunto acotado, la
condici´n E(τ )  ∞ siempre se cumple.
       o
   Demostraci´n: Utilizando la f´rmula de Itˆ es suficiente con ver que
                o                o          o
                   n       m                    τ
                                                    ∂f                       k
                               E                        (Xs )σ i,k (s, Xs )dBs = 0.
                   i=1 k=1                  0       ∂xi

Consideremos la sucesi´n de variables aleatorias, para cada i, k fijados,
                      o
                                            τ ∧N
                                                      ∂f                       k
                       ξN =                               (Xs )σ i,k (s, Xs )dBs .
                                        0             ∂xi
Esta sucesi´n converge casi seguramente hacia la variable
           o
                                            τ
                                                    ∂f                       k
                               ξ=                       (Xs )σ i,k (s, Xs )dBs .
                                        0           ∂xi
La propiedad (20) implica
                                        N
                                             ∂f                               k
              E [ξ N ] = E                       (Xs )σ i,k (s, Xs )1{s≤τ } dBs = 0.
                                    0        ∂xi
                                                                                             ∂f
Por otra parte, como la funci´n f tiene soporte compacto, el proceso
                             o                                                               ∂xi
                                                                                                 (Xs )σ i,k (s, Xs )
est´ acotado por una constante c y por consiguiente,
   a

                           N                                                    2
          2                     ∂f
  E (ξ N )    =E                    (Xs )σ i,k (s, Xs )1{s≤τ }                      ds ≤ N c2 E(τ )  ∞.
                       0        ∂xi

La acotaci´n uniforme de los momentos de orden 2 de las variables ξ N , y la
          o
convergencia casi segura de la sucesi´n ξ N hacia la variable ξ implican
                                     o

                                   E(ξ) = lim E(ξ N ) = 0.
                                                       N →∞


                                                           85
Como aplicaci´n consideremos el siguiente problema. Sea Bt un movimiento
                 o
browniano n-dimensional tal que B0 = a, y supongamos |a|  R. Cual es la
esperanza del tiempo de salida τ K de la bola de radio R :
                           K = {x ∈ Rn : |x|  R}.
Apliquemos la f´mula de Dynkin a X = B, τ = τ K ∧ N y sea f una funci´n
                o                                                    o
    2   n                     2        2
de C0 (R ) tal que f (x) = |x| para |x| ≤ R. Tendremos
                                                 τ
                                      1
                 E[f (Bτ )] = f (a) + E            ∆f (Bs )ds
                                      2        0
                            = |a|2 + nE [τ ] .
Por tanto,
                                            1
                         E [τ K ∧ N ] =       R2 − |a|2
                                            n
y haciendo N → ∞ obtenemos
                                        1
                           E [τ K ] =     R2 − |a|2 .
                                        n

3.6    Procesos de difusi´n y ecuaciones en derivadas par-
                         o
       ciales
Existe una relaci´n interesante entre procesos de difusi´n y ecuaciones en
                 o                                         o
derivadas parciales. En general, los procesos de difusi´n permiten dar in-
                                                          o
terpretaciones probabilistas de ecuaciones en derivadas parciales de segundo
orden.
    Consideremos el siguiente ejemplo sencillo. Si Bt es un movimiento brow-
niano, y f es una funci´n continua y con crecimiento polinomial, la funci´n
                       o                                                  o
                            u(t, x) = E(f (Bt + x))
satisface la ecuaci´n de la calor:
                   o
                                 ∂u   1 ∂ 2u
                                    =        ,                          (53)
                                 ∂t   2 ∂x2
con condici´n inicial u(0, x) = f (x). Esto es debido a que podemos escribir
           o
                                        ∞
                                                      1 − (x−y)2
                  E(f (Bt + x)) =           f (y) √       e 2t dy,
                                     −∞               2πt

                                         86
(x−y)2
               1
y la funci´n √2πt e− 2t para cada y fijo, satisface la ecuaci´n (53).
          o                                                  o
    La funci´n x → u(t, x) representa la distribuci´n de temperaturas en una
            o                                      o
barra de longitud infinita, suponiendo un perfil inicial de temperaturas dado
por la funci´n f (x).
            o
    Consideremos una difusi´n es homog´nea en el tiempo. En tal caso, el
                             o            e
generador A no depende del tiempo y vale:
                         n                      n
                                      ∂f   1                    ∂ 2f
              Af (x) =         bi (x)    +        (σσ )i,j (x)         .   (54)
                         i=1
                                      ∂xi 2 i,j=1              ∂xi ∂xj

La f´rmula de Dynkin, suponiendo X0 = x, nos dice que
    o
                                                t
                   E [f (Xtx )] = f (x) +      0
                                                            x
                                                    E [Af (Xs )] ds.       (55)

Consideremos la funci´n
                     o

                                u(t, x) = E [f (Xtx )].                    (56)

La f´rmula (55) nos dice que esta funci´n es diferenciable y satisface la sigu-
    o                                  o
iente ecuaci´n
            o
                            ∂u
                                = E [Af (Xtx )] .
                             ∂t
                    x
El t´rmino E [Af (Xt )] puede tambi´n expresarse en funci´n de u. Para ello
    e                               e                      o
necesitamos introducir el dominio del generador de la difusi´n:
                                                             o

Definici´n 22 El dominio DA del generador de la difusi´n {Xt } es el con-
         o                                                  o
junto de funciones f : Rn → R tales que el l´  ımite siguiente existe para todo
x ∈ Rn
                                    E [f (Xtx )] − f (x)
                      Af (x) = lim                       .                 (57)
                                t↓0          t

                o                        2
    La expresi´n (55) nos dice que C0 (Rn ) ⊂ DA y para toda funci´n f ∈
                                                                       o
C0 (Rn ),
 2
           el l´
               ımite (57) es igual a al valor Af dado por (54).
    El siguiente resultado nos dice que la funci´n u(t, x) definida en (56) sat-
                                                 o
isface una ecuaci´n en derivadas parciales, denominada ecuaci´n retr´grada
                  o                                               o     o
(bakward) de Kolmogorov. Esto nos proporciona una interpretaci´n proba-
                                                                     o
bilista de las ecuaciones en derivadas parciales de tipo parab´lico.
                                                                o

Teorema 23 Sea f ∈ C0 (Rn ).
                    2



                                          87
a) Definimos u(t, x) = E [f (Xtx )]. Entonces, u(t, ·) ∈ DA para cada t y
                                                         ∂u
                                                      = Au
                                                         ∂t                                     (58)
                                                u(0, x) = f (x)

b) Si w ∈ C 1,2 ([0, ∞) × Rn ) es una funci´n acotada que satisface la ecuaci´n
                                           o                                 o
                                        x
     (58), entonces w(t, x) = E [f (Xt )].

   Demostraci´n: a) Hemos de calcular el l´
             o                            ımite cuando r ↓ 0 de la expresi´n
                                                                          o
                                      x
                             E [u(t, Xr )] − u(t, x)
                                                     .
                                       r
Aplicando la propiedad de Markov obtenemos

                 E [u(t, Xr )] = E E [f (Xty )] |y=Xr
                          x
                                                    x

                                        x
                               = E f (Xt+r ) = u(t + r, x).

Finalmente, como t → u(t, x) es diferenciable
                   x
          E [u(t, Xr )] − u(t, x)  1                           ∂u
                                  = (u(t + r, x) − u(t, x)) −→    .
                    r              r                           ∂t
   b) Consideremos el proceso (n + 1)-dimensional

                                    Yt = (s − t, Xtx ).

La f´rmula de Itˆ aplicada a este proceso y a la funci´n w nos da
    o           o                                     o
                                                    t
                                                                   ∂w             x
            w(Yt ) = w(s, x) +                              Aw −         (s − r, Xr )dr
                                                0                  ∂r
                                t       n       m
                                                        ∂w           x          x    j
                        +                                   (s − r, Xr )σ i,j (Xr )dBr .
                            0       i=1 j=1
                                                        ∂xi

                                                                          ∂w
Teniendo encuenta que w satisface la ecuaci´n Aw =
                                           o                              ∂t
                                                                             ,   obtenemos

                                        t   n           m
                                                             ∂w           x          x    j
          w(Yt ) = w(s, x) +                                     (s − r, Xr )σ i,j (Xr )dBr .
                                    0       i=1 j=1
                                                             ∂xi



                                                        88
Ahora deseamos tomar esperanzas, pero como no hemos impuesto ninguna condici´n   o
de crecimiento sobre las derivadas parciales de la funci´n w no sabemos si la inte-
                                                        o
gral estoc´stica tiene esperanza cero. Por ello, debemos introducir un tiempo de
          a
paro, para un R  0, fijado, definido por

                            τ R = inf{t  0 : |Xtx | ≥ R}.
                            ∂w             x          x
Para r ≤ τ R , el proceso   ∂xi
                                (s   − r, Xr )σ i,j (Xr ) est´ acotado. Por tanto,
                                                             a

                               E [w(Yt∧τ R )] = w(s, x),
y haciendo R ↑ ∞, se obtiene

                                 E [w(Yt )] = w(s, x).
Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f (x), obtenemos

                                E [f (Xtx )] = w(s, x).



    Notemos por pt (x, y) la soluci´n fundamental de la ecuaci´n parab´lica
                                   o                            o        o
(58). Es decir, tal soluci´n se obtiene formalmente tomando como funci´n
                           o                                               o
f la delta δ y . Entonces, y −→ pt (x, y) es la densidad de probabilidad de la
variable aleatoria Xtx :

                   u(t, x) = E [f (Xtx )] =              f (y)pt (x, y)dy.
                                                    Rn
Esto nos dice tambi´n que p(y, t, x, s) = pt−s (x, y) ser´n las probabilidades
                    e                                    a
de tansici´n del proceso de Markov Xt .
          o


Ejemplo 21
   En el caso b = 0, σ = I, el proceso de difusi´n Xt es el movimiento
                                                  o
browniano Bt n-dimensional. Su generador ser´ el operador de Laplace:
                                            a
                                           1    n   ∂2
                                     ∆=    2    i=1 ∂x2 .
                                                      i


La ecuaci´n de Kolmogorov en este caso es precisamente la ecuacion de la
         o
calor:
                             ∂u    1
                                 = ∆f.
                             ∂t    2

                                               89
La soluci´n fundamental de esta ecuaci´n es la densidad gaussiana:
         o                            o

                                                             |x − y|2
                    pt (x, y) = (2πt)−n/2 exp −                              .
                                                                2t

  La f´rmula de Feynman-Kac es una generalizaci´n de la ecuaci´n de Kol-
      o                                         o             o
mogorov que hemos obtenido en el apartado anterior.

Teorema 24 Sean f ∈ C0 (Rn ) y q ∈ C(Rn ). Suponemos que la funci´n q
                           2
                                                                        o
est´ acotada inferiormente. Consideremos un proceso de difusi´n {Xt , t ≥ 0}
   a                                                         o
que satisface la ecuaci´n diferencial estoc´stica (45).
                       o                   a

a) Definimos
                                                      t
                     v(t, x) = E exp −                    q(Xs )ds f (Xtx ) .
                                                             x
                                                  0

      Entonces, u(t, ·) ∈ DA para cada t y
                                            ∂v
                                              = Av − qv
                                            ∂t                                                  (59)
                                           u(0, x) = f (x)

b) Si w ∈ C 1,2 ([0, ∞) × Rn ) es una funci´n acotada en cada [0, T ] × Rn que
                                           o
     satisface la ecuaci´n (59), entonces w(t, x) = v(t, x).
                         o

                                                                                      t
   Demostraci´n: a) Pongamos Yt = f (Xtx ), Zt = exp −
             o                                                                       0
                                                                                             x
                                                                                          q(Xs )ds .
Entonces
                                    dZt = −Zt q(Xtx )dt.
Por lo tanto,
                            d(Yt Zt ) = Yt dZt + Zt dYt ,
ya que dZt dYt = 0. Como Yt Zt es un proceso de Itˆ, la funci´n v(t, x) = E(Yt Zt )
                                                    o        o
es diferenciable respecto de la variable t. En efecto,
                                t                                  t
                                                x                                 x
        v(t, x) = f (x) −           E [Ys Zs q(Xs )] ds +              E [Zs Af (Xs )] ds,
                            0                                  0

ya que el t´rmino de integral estoc´stica tiene esperanza cero, teniendo en cuenta
           e                       a
que f tiene soporte compacto y q est´ acotada inferiormente. Por consiguiente,
                                       a



                                             90
Aplicando la propiedad de Markov obtenemos
                                                           t
         x
 E[v(t, Xr )]   = E[E[exp −                                    q(Xs )ds f (Xty )]|y=Xr ]
                                                                  y
                                                                                     x
                                                       0
                                                           t
                                                                  x           x
                = E[E[exp −                                    q(Xs+r )ds f (Xt+r )]|Fr ]
                                                       0
                                                   t
                                                          x           x
                = E[exp −                              q(Xs+r )ds f (Xt+r )]
                                               0
                                           r
                                                  x              x
                = E[exp                        q(Xs )ds Zt+r f (Xt+r )]
                                       0
                                                                                  r
                                                                                         x                  x
                = v(t + r, x) + E                                exp                  q(Xs )ds − 1 Zt+r f (Xt+r )
                                                                              0

Finalmente, como t → v(t, x) es diferenciable y
                           r
         1                        x                  x                                        r↓0
           E    exp            q(Xs )ds − 1 Zt+r f (Xt+r ) −→ q(x)v(t, x),
         r             0

obtenemos
                                x
                       E [v(t, Xr )] − v(t, x) r↓0 ∂v
                                               −→     + qv.
                                 r                 ∂t
   b) Consideremos los procesos

                                        Yt = (s − t, Xtx )
                                                                      t
                                                                             x
                                        Rt =                              q(Xs )ds.
                                                                  0

La f´rmula de Itˆ aplicada a estos procesos y a la funci´n φ(s, x, z) = e−z w(s, x)
    o           o                                       o
nos da
                                                           t
                                                                             ∂w
     e−Rt w(Yt ) = w(s, x) +                                    Aw −            − qw (s − r, Xr )e−Rr dr
                                                                                              x
                                                       0                     ∂r
                                   t   n               m
                                                               ∂w
                       +                                           (s − r, Xr )σ i,j (Xr )e−Rr dBr .
                                                                            x          x         j
                               0       i=1 j=1
                                                               ∂xi

                                                                                                ∂w
Teniendo encuenta que w satisface la ecuaci´n Aw + qw =
                                           o                                                    ∂t
                                                                                                   ,   obtenemos
                                                   t   n         m
      −Rt                                                                 ∂w
     e      w(Yt ) = w(s, x) +                                                (s − r, Xr )σ i,j (Xr )e−Rr dBr .
                                                                                       x          x         j
                                               0       i=1 j=1
                                                                          ∂xi

                                                                  91
Introduciendo, com antes, el tiempo de paro

                           τ R = inf{t  0 : |Xtx | ≥ R},
                                               ∂w
tendremos que para r ≤ τ R , el proceso        ∂xi
                                                            x
                                                   (s − r, Xr )σ i,j (Xr )e−Rr
                                                                       x
                                                                                 est´ acotado.
                                                                                    a
Por tanto,
                         E e−Rt∧τ R w(Yt∧τ R ) = w(s, x),
y haciendo R ↑ ∞, se obtiene

                             E e−Rt w(Yt ) = w(s, x).

Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f (x), obtenemos
                                     t
                  E exp −                q(Xs )ds f (Xtx ) = w(s, x).
                                            x
                                 0




   Ejercicios

3.1 Comprobar que los siguientes procesos satisfacen las ecuaciones diferen-
     ciales estoc´sticas indicadas:
                 a
                              Bt
      (i) El proceso Xt =     1+t
                                     cumple

                                                1           1
                              dXt = −              Xt dt +     dBt ,
                                               1+t         1+t
                               X0 = 0

      (ii) El proceso Xt = sin Bt , con B0 = a ∈ − π , π es soluci´n de
                                                   2 2
                                                                  o
                                      1
                               dXt = − Xt dt +             1 − Xt2 dBt ,
                                      2
           para t  T = inf{s  0 : Bs ∈ − π , π .
                                       /   2 2
      (iii) (X1 (t), X2 (t)) = (t, et Bt ) satisface
                                     dX1   1         0
                                         =    dt + X1 dBt
                                     dX2   X2      e

                                              92
(iv) (X1 (t), X2 (t)) = (cosh(Bt ), sinh(Bt )) satisface
                               dX1   1 X1      X2
                                   =      dt +    dBt .
                               dX2   2 X2      X1

      (v) Xt = (cos(Bt ), sin(Bt )) satisface
                                       1
                                  dXt = Xt dt + Xt dBt ,
                                       2
                           0 −1
            donde M =           . Las componentes del proceso Xt cumplen
                           1 0

                                    X1 (t)2 + X2 (t)2 = 1,
            y por lo tanto, Xt puede considerarse como un movimiento brow-
            niano en la circunferencia de radio 1.
      (vi) El proceso Xt = (x1/3 + 1 Bt )3 , x  0, cumple
                                   3

                                     1 1/3     2/3
                                dXt = Xt dt + Xt dBt .
                                     3
3.2 Consideremos un movimiento browniano n-dimensional Bt y fijemos con-
     stantes αi , i = 1, . . . , n. Resolver la ecuaci´n diferencial estoc´stica
                                                      o                   a
                                                 n
                           dXt = rXt dt + Xt          αk dBk (t).
                                                k=1


3.3 Resolverde las ecuaciones diferenciales estoc´sticas siguientes:
                                                 a
                       dXt = rdt + αXt dBt , X0 = x
                              1
                       dXt =     dt + αXt dBt , X0 = x  0
                             Xt
                       dXt = Xtγ dt + αXt dBt , X0 = x  0.
      Para que valores de las constantes α, γ hay explosi´n?
                                                         o
3.4 Resolver las ecuaciones diferenciales estoc´sticas siguientes:
                                               a

      (i)
                            dX1        1             1 0        dB1
                                =        dt +                       .
                            dX2        0             0 X1       dB2

                                        93
(ii)
                                 dX1 (t) = X2 (t)dt + αdB1 (t)
                                 dX2 (t) = X1 (t)dt + βdB2 (t)

3.5 La ecuaci´n diferencial estoc´stica no lineal
             o                   a

                   dXt = rXt (K − Xt )dt + βXt dBt , X0 = x  0

     es utiliza como modelo para el crecimiento de una poblaci´n de tama˜o
                                                              o         n
     Xt , en un medio aleatorio. La constante K  0 se denomina la capaci-
     dad del medio, la constante r ∈ R mide la calidad del medio y la con-
     stante β ∈ R es una medida del nivel de ruido del sistema. Comprobar
     que
                               exp rK − 1 β 2 t + βBt
                                           2
                  Xt =           t
                       x−1 + r 0 exp rK − 1 β 2 s + βBs ds
                                              2
     es la unica soluci´n.
           ´           o

3.6 Encontrar el generador de los siguientes procesos de difusi´n:
                                                               o

     a) dXt = µXt dt + σdBt , (proceso de Ornstein-Uhlenbeck) µ y r son
         constantes
     b) dXt = rXt dt + αXt dBt , (movimiento browniano geom´trico) α y r
                                                           e
         son constantes
     c) dXt = rdt + αXt dBt , α y r son constantes
                   dt
     d) dYt =               donde Xt es el proceso introducido en a)
                  dXt
            dX1          1             0
     e)            =           dt +             dBt
            dX2          X2           eX1
            dX1         1             1 0             dB1
     f)           =           dt +
            dX2         0             0 X1            dB2
     h) X(t) = (X1 , X2 , . . . .Xn ), siendo
                                                      n
                       dXk (t) = rk Xk dt + Xk            αkj dBj , 1 ≤ k ≤ n
                                                  j=1


3.7 Encontrar un proceso de difusi´n cuyo generador sea:
                                  o

                                        94
2
     a) Af (x) = f (x) + f (x), f ∈ C0 (R)
                   ∂f                          2
     b) Af (x) =   ∂t
                        + cx ∂f + 1 α2 x2 ∂ f , f ∈ C0 (R2 )
                             ∂x   2       ∂x2
                                                     2

                                                                                2
     c) Af (x1 , x2 ) = 2x2 ∂x1 + log(1 + x2 + x2 ) ∂x2 + 1 (1 + x2 ) ∂ f
                            ∂f
                                           1    2
                                                    ∂f
                                                          2       1 ∂x2             1
               ∂2f          1 ∂2f
          +x1 ∂x1 ∂x2   +   2 ∂x2
                                  ,   f∈   C0 (R2 )
                                            2
                                2


3.8 Demostrar que la soluci´n u(t, x) del problema con valor inicial
                           o

                       ∂u    1 2 2 ∂ 2u      ∂u
                           =   β x     2
                                         + αx , t  0, x ∈ R
                       ∂t    2      ∂x       ∂x
                                          2
                   u(0, x) = f (x), f ∈ C0 (R)

     puede expresarse como

                                                   1
                    u(t, x) = E f (x exp{βBt + (α − β 2 )t} .
                                                   2

4    Aplicaci´n del c´lculo estoc´stico a la cober-
             o       a           a
     tura y valoraci´n de derivados
                    o
Consideremos el modelo de Black y Scholes para la curva de precios de un
activo financiero. El precio St en un instante t viene dado por un movimiento
browniano geom´trico:
                e
                                                   σ2
                                 St = S0 eµt−       2
                                                      t+σBt
                                                              ,
donde S0 es el precio inicial, µ es una constante que representa la tendencia
a crecer (observemos que E(St ) = S0 eµt ), y σ se denomina la volatilidad.
Sabemos que St satisface una ecuaci´n diferencial estoc´stica lineal:
                                      o                  a

                               dSt = σSt dBt + µSt dt.

Este modelo tiene las propiedades siguientes:

a) Las trayectorias t → St son continuas.
                                                         St −Ss
b) Para todo s  t, el incremento relativo                 Ss
                                                                  es independient de la σ-
     ´lgebra generada por {Su , 0 ≤ u ≤ s}.
     a


                                             95
St
c) La ley del cociente     Ss
                                 es una distribuci´n lognormal con par´metros
                                                  o                   a
            σ2             2
       µ−   2
                 (t − s), σ (t − s).

    Fijemos un intervalo de tiempo [0, T ]. Una cartera de valores (o estrategia
de inversi´n) ser´ un proceso estoc´stico
          o      a                  a

                           φ = {(αt , β t ) , 0 ≤ t ≤ T }

tal que sus componentes son procesos progresivamente medibles y verifican
                                          T
                                              |αt | dt  ∞,
                                      0
                                      T
                                          (β t )2 dt  ∞.
                                  0

La componente αt representa el capital (activo financiero sin riesgo) al tipo
de inter´s r. La componente β t representa la cantidad de acciones de que
        e
disponemos. En esta situaci´n el valor de la cartera en cada instante t ser´
                           o                                               a

                                Vt (φ) = αt ert + β t St .

    Diremos que la cartera φt es autofinanciada si su valor es un proceso de
Itˆ con diferencial
  o
                         dVt (φ) = rαt ert dt + β t dSt .
Esto significa que el incremento del valor solo depende del incremento de los
precios.
   Se introducen los precios actualizados como
                                                              σ2
                 St = e−rt St = S0 exp (µ − r) t −               t + σBt .
                                                              2
El valor actualizado de una cartera ser´, por definici´n,
                                       a             o

                         Vt (φ) = e−rt Vt (φ) = αt + β t St .

Observemos que

                    dVt (φ) = −re−rt Vt (φ)dt + e−rt dVt (φ)
                                = −rβ t St dt + e−rt β t dSt
                                = β t dSt .

                                                 96
Se dice que un modelo es viable si existe una probabilidad equivalente
respecto de la cual los precios actualizados forman una martingala. Esta
condici´n es equivalente a que no haya arbitrajes (carteras autofinanciadas
        o
con valor inicial cero y tales que VT (φ) ≥ 0 y P (VT (φ)  0)  0). Tales
probabilidades se denominan probabilidades sin riesgo.
    El teorema de Girsanov nos dice que existe una probabilidad Q respecto
de la cual el proceso
                                         µ−r
                              Wt = Bt +       t
                                           σ
es una martingala. En funci´n del proceso Wt los precios se escriben
                             o

                                               σ2
                      St = S0 exp rt −            t + σWt ,
                                               2

y los precios actualizados ser´n martingala:
                              a

                                                    σ2
                   St = e−rt St = S0 exp −             t + σWt ,
                                                    2

es decir, Q ser´ una probabilidad sin riesgo.
               a
    El valor actualizado de una cartera autofinanciada φ valdr´
                                                             a
                                                    t
                         Vt (θ) = V0 (θ) +              β u dSu ,
                                                0

y ser´ una martingala respecto de Q si
     a
                                 T
                                     E(β 2 Su )du  ∞.
                                         u
                                            2
                                                                      (60)
                             0

Observemos que una tal cartera no puede ser un arbitraje ya que si su valor
inicial es nulo, entonces,

                         EQ VT (θ) = V0 (θ) = 0.

    Consideremos un contrato derivado sobre el activo financiero que permita
hacer un beneficio a su propietario dado por una variable aleatoria h ≥ 0,
FT -medible y de cuadrado integrable respecto de Q. El tiempo T ser´ laa
fecha de vencimiento del contrato.


                                          97
• En el caso de una opci´n de compra europea de vencimiento T y precio
                           o
     de ejercicio K, tendremos

                                   h = (ST − K)+ .

   • En el caso de una opci´n de venta europea de vencimiento T y precio
                            o
     de ejercicio K, tendremos

                                   h = (K − ST )+ .

    Diremos que una cartera autofinanciada φ que cunple (60) cubre el derivado
si VT (θ) = h, y se dice entonces que la variable h es replicable.
    El precio del derivado en cualquier instante t ≤ T se determina como el
valor de una cartera de cobertura, suponiendo que el beneficio h es replicable.
Vendr´ dado por la f´rmula
       a               o

                          Vt (θ) = EQ (e−r(T −t) h|Ft ),                (61)

que se deduce de la propiedad de martingala de Vt (θ) respecte de Q:

            EQ (e−rT h|Ft ) = EQ (VT (θ)|Ft ) = Vt (θ) = e−rt Vt (θ).
En particular,
                              V0 (θ) = EQ (e−rT h).
   Se dice que un modelo es completo si toda variable de cuadrado integrable
respecto de la probabilidad sin riesgo es replicable. El modelo de Black y
Scholes es completo, como consecuencia del teorema de representaci´n de
                                                                      o
martingalas:
   Consideremos la martingala de cuadrado integrable

                             Mt = EQ e−rT h|Ft .

Sabemos que existe un proceso estoc´stico Kt adaptado y de cuadrado inte-
                                    a
                T     2
grable, o sea, 0 EQ (Ks )ds  ∞, tal que
                                                t
                            Mt = M0 +               Ks dWs .
                                            0




                                       98
Definimos la cartera autofinanciada φt = (αt , β t ) por

                                         Kt
                               βt =            ,
                                        σ St
                                                   1
                               αt = Mt −             St .
                                                   σ
El valor actualizado de esta cartera ser´
                                        a

                             Vt (θ) = αt + β t St = Mt ,

y, por lo tanto, su valor final ser´
                                  a

                        VT (θ) = erT VT (θ) = erT MT = h.


    Consideremos el caso particular h = g(ST ). El valor del derivado en el
instante t ser´
              a

          Vt = EQ e−r(T −t) g(ST )|Ft
                                                             2 /2(T −t)
                = e−r(T −t) EQ g(St er(T −t) eσ(WT −Wt )−σ                )|Ft .

Por lo tanto,
                                  Vt = F (t, St ),                                 (62)
donde
                                                                2 /2(T −t)
           F (t, x) = e−r(T −t) EQ g(xer(T −t) eσ(WT −Wt )−σ                 ) .   (63)

   Bajo hip´tesis muy generales sobre g (por ejemplo si es continua y deriv-
            o
able a trozos)que incluyen, en particular, las funciones

                              g(x) = (x − K)+ ,
                              g(x) = (K − x)+ ,

la funci´n F (t, x) es derivable respecto de t y dos veces derivable respecto de
        o
x, con todas las derivadas parciales continuas. Supondremos que existe una
funci´n F (t, x) de este tipo tal que se cumple (62). Entonces, aplicando la
     o




                                         99
f´rmula de Itˆ a (62) se obtiene
 o           o
                                t                   t
                             ∂F                         ∂F
         Vt = V0 +               (u, Su )Su dWu +
                                    σ                 r    (u, Su )Su du
                       0     ∂x                   0     ∂x
                     t
                       ∂F                 1 t ∂2F
                +           (u, Su )du +          (u, Su ) σ 2 Su du
                                                                2
                   0   ∂t                 2 0 ∂x2
                         t
                             ∂F
              = V0 +       σ     (u, Su )Su dWu
                       0     ∂x
                           t
                  +            Ku du.
                       0
Por otro lado, sabemos que Vt es un proceso de Itˆ con representaci´n
                                                 o                 o
                                            t                          t
                      Vt = V0 +                 σHu Su dWu +               rVu du.
                                        0                          0
Comparando estas dos expresiones se deduce
                               ∂F
                        Ht =       (t, St ),
                               ∂x
                               ∂F              1 2 2 ∂ 2F
                 rF (t, St ) =     (t, St ) + σ St        (t, St )
                                ∂t             2     ∂x2
                                     ∂F
                               +rSt       (t, St ).
                                     ∂x
El soporte de la ley de probabilidad de la variable aleatoria St es [0, ∞). Per
tanto, estas igualdades nos dicen que F (t, x) satisface la ecuaci´n
                                                                   o
          ∂F             ∂F          1 ∂ 2F
             (t, x) + rx    (t, x) +        (t, x) σ 2 x2 = rF (t, x),                                (64)
          ∂t             ∂x          2 ∂x2
                                                 F (T, x) = g(x).
Por otra parte, la cartera recubridora ser´  a
                                ∂F
                        αt =       (t, St ),
                                ∂x
                        β t = e−rt (F (t, St ) − Ht St ) .

   La f´rmula (63) puede escribirse como
       o
                                                                                     2 /2(T −t)
          F (t, x) = e−r(T −t) EQ g(xer(T −t) eσ(WT −Wt )−σ                                       )
                                                 ∞                      √
                              1                                σ2                    2 /2
                      = e−rθ √                       g(xerθ−    2
                                                                  θ+σ    θy
                                                                              )e−y          dy,
                               2π               −∞


                                                     100
donde θ = T − t. En el caso particular de una opci´n de compra europea de
                                                   o
precio de ejercicio K y vencimiento T , g(x) = (x − K)+ , se obtiene
                              ∞                                √
                     1                   2 /2         σ2
                                                                               +
         F (t, x) = √              e−y          xe−    2
                                                         θ+σ    θy
                                                                     − Ke−rθ       dy
                      2π     −∞

                  =    xΦ(d+ ) − Ke−r(T −t) Φ(d− ),

donde
                                                      2
                             log K + r − σ2 (T − t)
                                 x

                      d−   =         √              ,
                                    σ T −t
                                                      2
                             log K + r + σ2 (T − t)
                                 x

                      d+   =         √
                                    σ T −t
Por tanto, el precio en el instante t ser´
                                         a

                                  Ct = F (t, St ).

   La composici´n de la cartera de cobertura ser´
               o                                a
                                  ∂F
                           Ht =      (t, St ) = Φ(d+ ).
                                  ∂x

References
[1] I. Karatzas and S. E. Schreve: Brownian Motion and Stochastic Calculus.
    Springer-Verlag 1991

[2] F. C. Klebaner: Introduction to Stochastic Calculus with Applications.

[3] T. Mikosh: Elementary Stochastic Calculus. World Scientific 2000.

[4] B. Øksendal: Stochastic Differential Equations. Springer-Verlag 1998

[5] D. Revuz and M. Yor: Continuous Martingales and Brownian motion.
    Springer-Verlag, 1994.




                                         101

Calculo estocastico

  • 1.
    C´lculo estoc´stico a a David Nualart Universitat de Barcelona 1
  • 2.
    1 Probabilidades y procesos estoc´sticos a 1.1 Conceptos b´sicos del c´lculo de probabilidades a a Recordemos en primer lugar algunas definiciones generales del c´lculo de a probabilidades. Un espacio de probabilidad es una terna (Ω, F, P ) formada por: (i) Un conjunto Ω que representa el conjunto de los posibles resultados de una cierta experiencia aleatoria. (ii) Una familia F de subconjuntos de Ω que tiene estructura de σ-´lgebra: a a) ∅ ∈ F b) Si A ∈ F, su complementario Ac tambi´n pertenece a F e c) A1 , A2 , . . . ∈ F =⇒ ∪∞ Ai ∈ F i=1 (iii) Una aplicaci´n P : F → [0, 1] que cumple: o a) P (∅) = 0, P (Ω) = 1 b) Si A1 , A2 , . . . ∈ F son conjuntos disjuntos dos a dos (es decir, Ai ∩ Aj = ∅ si i = j), entonces ∞ P (∪∞ Ai ) = i=1 i=1 P (Ai ) Los elementos de la σ-´lgebra F se denominan sucesos y la aplicaci´n P se a o denomina una probabilidad, de forma que tenemos la siguiente interpretaci´n o de este modelo: P (F )=“probabilidad de que el suceso F se realice” Si P (F ) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi seguramente. Las propiedades a) y b) permiten deducir algunas reglas b´sicas del a c´lculo de probabilidades: a P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅ P (Ac ) = 1 − P (A) A ⊂ B =⇒ P (A) ≤ P (B). 2
  • 3.
    Ejemplo 1 Lanzamosun dado. Ω = {1, 2, 3, 4, 5, 6} F = P(Ω) (F contiene todos los subconjuntos de Ω) 1 P ({ω i }) = , para i = 1, . . . , 6 6 Ejemplo 2 Elegimos un n´mero al azar en el intervalo [0, 2]. Ω = [0, 2], F es u la σ-´lgebra de Borel (generada por los intervalos de [0, 2]). La probabilidad a de cualquier intervalo [a, b] ⊂ [0, 2] ser´ a b−a P ([a, b]) = . 2 Se dice que un espacio de probabilidad (Ω, F, P ) es completo si dado un suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la σ-´lgebra F. Un espacio de probabilidad siempre se puede completar substi- a tuyendo la σ-´lgebra F por una σ-´lgebra mayor formada por los conjuntos a a de la forma F ∪ A, donde F ∈ F y A es un subconjunto de un conjunto de F de probabilidad cero. Si U es una familia de subconjuntos de Ω, la m´s peque˜a σ-´lgebra que a n a contiene a U es, por definici´n, o σ(U) = ∩ {G, G es una σ-´lgebra, U ⊂ G} , a y se denomina la σ-´lgebra generada por U. Por ejemplo, la σ-´lgebra gen- a a n erada por los conjuntos abiertos (o por los rect´ngulos) de R se denomina a n la σ-´lgebra de Borel de R y la representaremos por BRn . a Ejemplo 3 Consideremos una partici´n finita P = {A1 , . . . , An } de Ω. La σ- o ´lgebra generada por P est´ formada por todas las uniones de los elementos a a de la partici´n (2n en total). o Una variable aleatoria es una aplicaci´n o X Ω −→ R ω → X(ω) que es F-medible, es decir, X −1 (B) ∈ F , para todo conjunto B de la σ- ´lgebra de Borel de R. a 3
  • 4.
    • Una variablealeatoria determina una σ-´lgebra {X −1 (B), B ∈ BR } ⊂ a F que se denomina la σ-´lgebra generada por X. a • Una variable aleatoria determina una probabilidad en la σ-´lgebra de a Borel BR definida por PX = P ◦ X −1 , es decir, PX (B) = P (X −1 (B)) = P ({ω : X(ω) ∈ B}) La probabilidad PX se denomina la ley o distribuci´n de la variable X. o Diremos que una variable aleatoria X tiene densidad de probabilidad fX si fX (x) es una funci´n positiva, medible respecto de la σ-´lgebra de Borel o a y tal que b P (a < X < b) = fX (x)dx, a para todo a < b. Las variables discretas (que toman un conjunto finito o numerable de valores distintos xk ) no tienen densidad y su ley est´ determinada por la a funci´n de probabilidad : o pk = P (X = xk ). Ejemplo 4 Una variable aleatoria tiene ley normal N (m, σ 2 ) si b 1 (x−m)2 P (a < X < b) = √ e− 2σ 2 dx 2πσ 2 a para todo par de n´meros reales a < b. u Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si n k P (X = k) = p (1 − p)n−k , k para k = 0, 1, . . . , n. La distribuci´n de una variable aleatoria X puede caracterizarse mediante o su funci´n de distribuci´n definida como la probabilidad acumulada: o o FX (x) = P (X ≤ x) = PX ((−∞, x]) 4
  • 5.
    • La funci´nFX : R →[0, 1] es creciente, continua por la derecha y con o l´ ımites iguales a cero en −∞ y 1 en +∞. • Si la variable X tiene densidad fX , entonces, x FX (x) = fX (y)dy, −∞ y si la densidad es continua, FX (x) = fX (x). La esperanza matem´tica de una variable aleatoria X se define como la a integral de X respecto de la probabilidad P , considerada como una medida en el espacio (Ω, F). En particular, si X es una variable elemental que toma los valores α1 , . . . , αn en los conjuntos A1 , . . . , An , su esperanza valdr´ a n E(X) = αi P (Ai ). i=1 El c´lculo de la esperanza de una variable aleatoria se efectua integrando la a funci´n x respecto de la ley de probabilidad de la variable. Es decir, si X es o una variable que tiene esperanza (o sea E(|X|) < ∞) se tiene ∞ E(X) = X(ω)dP (ω) = xdPX (x). Ω −∞ M´s generalmente, si g : R → R es una funci´n medible respecto de la σ- a o ´lgebra de Borel y E(|g(X)|) < ∞, entonces la esperanza de la variable g(X) a se puede calcular integrando la funci´n g respecto de la ley de la variable X: o ∞ E(g(X)) = g(X(ω))dP (ω) = g(x)dPX (x). Ω −∞ ∞ La integral −∞ g(x)dPX (x) se calcula utilizando la densidad o funci´n de o probabilidad de la variable X: ∞ ∞ −∞ g(x)fX (x)dx, fX (x) es la densidad de X g(x)dPX (x) = −∞ k g(xk )P (X = xk ), X variable discreta 5
  • 6.
    Ejemplo 6 SiX es una variable aleatoria con ley normal N (0, σ 2 ) y λ es un n´mero real, u ∞ 1 x2 E(exp (λX)) = √ eλx e− 2σ2 dx 2πσ 2 −∞ ∞ 1 σ 2 λ2 (x−σ 2 λ)2 = √ e 2 e− 2σ 2 dx 2πσ 2 −∞ σ 2 λ2 = e 2 . La varianza de una variable aleatoria X se define por σ 2 = Var(X) = E((X − E(X))2 ) = E(X 2 ) − [E(X)]2 . X La varianza nos mide el grado de dispersi´n de los valores de la variable o respecto de su esperanza. Por ejemplo, si X es una variable con ley normal N (m, σ 2 ) se tiene X −m P (m − 1.96σ ≤ X ≤ m + 1.96σ) = P (−1.96 ≤ ≤ 1.96) σ = Φ(1.96) − Φ(−1.96) = 0.95, donde Φ es la funci´n de distribuci´n de la ley N (0, 1). Es decir, la probabil- o o idad de que la variable X tome valores en el intervalo [m − 1.96σ, m + 1.96σ] es igual a 0.95. Diremos que X = (X1 , . . . , Xn ) es un vector aleatorio n-dimensional si sus componentes son variables aleatorias. La esperanza de un vector aleatorio n-dimensional X ser´ el vector a E(X) = (E(X1 ), . . . , E(Xn )) La matriz de covarianzas de un vector aleatorio n-dimensional X es, por definici´n, la matriz ΓX = (cov(Xi , Xj ))1≤i,j≤n , donde o cov(Xi , Xj ) = E [(Xi − E(Xi )) (Xj − E(Xj ))] . Es decir, los elementos de la diagonal de esta matriz son las varianzas de las variables Xj y fuera de la diagonal encontramos las covarianzas entre dos variables Xi y Xj . 6
  • 7.
    Como en elcaso de variables aleatorias se introduce la ley o distribuci´n o de un vector aleatorio n-dimensional X como la probabilidad definida en la σ-´lgebra de Borel BRn por a PX (B) = P (X −1 (B)) = P (X ∈ B). Diremos que un vector aleatorio n-dimensional X tiene una ley normal N = (m, Γ), donde m ∈ Rn , y Γ es una matriz sim´trica y definida positiva, e si P (ai ≤ Xi ≤ bi , i = 1, . . . , n) bn b1 Pn n 1 −1 = ··· (2π det Γ)− 2 e− 2 i,j=1 (xi −mi )(xj −mj )Γij dx1 · · · dxn . an a1 En tal caso, se tiene, m = E(X) y Γ = ΓX . Si la matrix Γ es una matriz diagonal   σ2 · · · 1 0  . .. .  Γ= . . . .  . 0 ··· σ2n entonces la densidad del vector X ser´ el producto de n densidades normales a unidimensionales: n (x−mi )2 1 − 2σ 2 fX (x1 , . . . , xn ) = e i . i=1 2πσ 2 i Existen tambi´n leyes normales degeneradas, en las que la matriz Γ es e singular. En este caso, no existe la densidad de probabilidad, y la ley de X queda determinada por su funci´n caracter´ o ıstica: 1 E eit X = exp it m − t Γt , 2 donde t ∈ Rn . En esta f´rmula t es un vector l´ o ınea (matriz 1 × n) y t es un vector columna (matriz n × 1). Si X es un vector normal n-dimensional con ley N (m, Γ) y A es una matriz m × n, entonces AX es un vector normal m-dimensional con ley N (Am, AΓA ). 7
  • 8.
    Diremos que unavariable tiene media de orden p ≥ 1 si E(|X|p ) < ∞. En tal caso, se define el momento de orden p de la variable aleatoria X como mp = E(X p ). El conjunto de las variables que tienen media de orden p se representa por Lp (Ω, F, P ). Sea X una variable aleatoria con funci´n caracter´ o ıstica ϕX (t) = E(eitX ). Los momentos de la variable aleatoria puede calcularse a partir de las derivadas de la funci´n caracter´ o ıstica en el origen 1 (n) mn = ϕ (t)|t=0 . in X Recordemos algunas desigualdades importantes en el c´lculo de probabil- a idades: • Desigualdad de Tchebychev: Si λ > 0 1 P (|X| > λ) ≤ E(|X|p ). λp • Desigualdad de Schwartz: E(XY ) ≤ E(X 2 )E(Y 2 ). • Desigualdad de H¨lder: o 1 1 E(XY ) ≤ [E(|X|p )] p [E(|Y |q )] q , 1 1 donde p, q > 1 y p + q = 1. • Desigualdad de Jensen: Si ϕ : R → R es una funci´n convexa tal que las o variables X y ϕ(X) tienen esperanza, entonces, ϕ(E(X)) ≤ E(ϕ(X)). En particular si ϕ(x) = |x|p , con p ≥ 1, tendremos |E(X)|p ≤ E(|X|p ). 8
  • 9.
    Recordemos los diferentesmodos de convergencia de una sucesi´n de vari- o ables aleatorias Xn , n = 1, 2, 3, . . .: c.s. Convergencia casi segura: Xn −→ X, si lim Xn (ω) = X(ω), n→∞ para todo ω ∈ N , donde P (N ) = 0. / P Convergencia en probabilidad: Xn −→ X, si lim P (|Xn − X| > ε) = 0, n→∞ para todo ε > 0. Lp Convergencia en media de orden p ≥ 1: Xn −→ X, si lim E(|Xn − X|p ) = 0. n→∞ L Convergencia en ley: Xn −→ X, si lim FXn (x) = FX (x), n→∞ para todo punto x de continuidad de la funci´n de distribuci´n FX . o o • La convergencia en media de orden p implica la convergencia en prob- abilidad ya que, debido a la desigualdad de Tchebychev tendremos 1 P (|Xn − X| > ε) ≤ p E(|Xn − X|p ). ε • La convergencia casi segura implica la convergencia en probabilidad (esto es m´s dif´ de demostrar). a ıcil • La convergencia casi segura implica la convergencia en media de orden p ≥ 1, si las variables aleatorias Xn est´n acotadas por una variable a aleatoria integrable Y (teorema de convergencia dominada): |Xn | ≤ Y, E(Y ) < ∞. 9
  • 10.
    La convergencia enley es diferente de los otros tipos de convergencia, ya que lo que nos interesa es la ley de las variables y no sus valores particulares. Un concepto fundamental en probabilidades es el de independencia. Dos sucesos A, B ∈ F se dicen independientes si P (A ∩ B) = P (A)P (B). Si tenemos una colecci´n finita o infinita de sucesos {Ai , i ∈ I}, diremos o que los sucesos de la colecci´n son independientes si o P (Ai1 ∩ · · · ∩ Aik ) = P (Ai1 ) · · · P (Aik ) para todo conjunto finito de ´ ındices {i1 , . . . , ik } ⊂ I. Una colecci´n de conjuntos de sucesos {Gi , i ∈ I} diremos que es indepen- o diente si cualquier colecci´n de sucesos {Ai , i ∈ I} tal que Ai ∈ Gi para todo o i ∈ I, es independiente. Una colecci´n de variables aleatorias {Xi , i ∈ I} se dice que es indepen- o diente si la colecci´n de σ-´lgebras Xi−1 (BRn ), i ∈ I lo es. Esto significa o a que P (Xi1 ∈ Bi1 , . . . , Xik ∈ Bik ) = P (Xi1 ∈ Bi1 ) · · · P (Xik ∈ Bik ), para todo conjunto finito de ´ ındices {i1 , . . . , ik } ⊂ I, donde los Bj son con- juntos de Borel. Si dos variables aleatorias reales X, Y son independientes y tienen esper- anza finita, entonces el producto XY tiene esperanza finita y se cumple la relaci´n o E(XY ) = E(X)E(Y ) . M´s generalmente, si las variables X1 , . . . , Xn son independientes, a E [g1 (X1 ) · · · gn (Xn )] = E [g1 (X1 )] · · · E [gn (Xn )] , donde las gi son funciones medibles tales que E [|gi (Xi )|] < ∞. Las componentes de un vector aleatorio son independientes s´ y solo s´ su ı ı densidad o funci´n de probabilidad es igual al producto de las densidades o o funciones de probabilidad de cada componente. 10
  • 11.
    1.2 Procesos estoc´sticos a Un proceso estoc´stico ´s una familia de variables aleatorias reales {Xt , t ≥ 0} a e definidas en un espacio de probabilidad (Ω, F, P ). El conjunto de par´metros [0, ∞) representa el tiempo y en algunos casos a supondremos que es un intervalo acotado [0, T ], o el conjunto los n´meros u naturales (procesos a tiempo discreto). Per cada ω ∈ Ω, la aplicaci´n o t −→ Xt (ω) se dnomina una trayectoria del proceso estoc´stico.a Si fijamos un conjunto finito de instantes {0 ≤ t1 < · · · < tn } tendremos un vector aleatorio (Xt1 , . . . , Xtn ) : Ω −→ Rn . Las distribuciones de probabilidad Pt1 ,...,tn = P ◦ (Xt1 , . . . , Xtn )−1 se denom- inan las distribuciones en dimensi´n finita del proceso. o El siguiente teorema debido a Kolmogorov asegura la existencia de un proceso estoc´stico asociado a una familia de distribuciones en dimensi´n a o finita que satisfagan una condici´n de compatibilidad. o Teorema 1 Consideremos una familia de probabilidades {Pt1 ,...,tn , 0 ≤ t1 < · · · < tn , n ≥ 1} tales que: 1. Pt1 ,...,tn es una probabilidad en Rn 2. (Condici´n de compatibilidad): Si {0 ≤ s1 < · · · < sm } ⊂ {0 ≤ t1 < o · · · < tn }, entonces Pt1 ,...,tn ◦ π −1 = Ps1 ,...,sm donde π : Rn → Rm es la proyecci´n natural asociada a los dos con- o juntos de ´ ındices. Entonces, existe un proceso estoc´stico {Xt , t ≥ 0} que tiene la familia a {Pt1 ,...,tn } como distribuciones en dimensi´n finita. o 11
  • 12.
    La media yla autocovarianza de un proceso estoc´stico se definen como a sigue: mX (t) = E(Xt ) ΓX (s, t) = Cov(Xs , Xt ) = E((Xs − mX (s))(Xt − mX (t)). La varianza del proceso X se define por σ 2 (t) = ΓX (t, t) = Var(Xt ). X Ejemplo 7 Consideremos el proceso estoc´stico a Xt = A cos(ϕ + λt), donde A y ϕ son variables aleatorias independientes tales que E(A2 ) < ∞ y ϕ tiene ley uniforme en [0, 2π]. En este caso, mX (t) = 0 1 ΓX (s, t) = E(A2 ) cos λ(t − s). 2 Se dice que un proceso estoc´stico {Xt , t ≥ 0} es gaussiano o normal si a sus distribuciones en dimensi´n finita son leyes normales multidimensionales. o Observamos que en el caso de un proceso gaussiano, la media mX (t) y la autocovarianza ΓX (s, t) determinan las distribuciones en dimensi´n finita o del proceso. La media mX (t) y la varianza σ 2 (t) nos permiten conocer donde se X concentran los valores de la variable Xt as´ como su grado de dispersi´n, ı o para cada instante t fijo. Por ejemplo, en el caso de un proceso gaussiano, P (mX (t) − 2σ X (t) ≤ Xt ≤ mX (t) + 2σ X (t)) 0.95. Notemos que la probabilidad de que las trayectorias del proceso est´n e comprendidas entre las curvas mX (t) − 2σ X (t) y mX (t) − 2σ X (t) es mucho m´s dif´ de calcular. a ıcil 12
  • 13.
    Ejemplo 8 Consideremosun proceso gaussiano {Xt , t ∈ [0, 1]} tal que las variables aleatorias Xt son independientes y con ley N (0, σ 2 ). La media y autocovarianza de este proceso son mX (t) = 0 1 si s = t ΓX (s, t) = 0 si s = t Se dice que un proceso estoc´stico {Xt , t ≥ 0} es una versi´n de otro a o proceso {Xt , t ≥ 0} si para cada t ≥ 0 P {Xt = Xt } = 1. Se dice tambi´n que ambos procesos son equivalentes. Dos procesos equiva- e lentes puede tener trayectorias diferentes (v´ase el Ejercicio 1.6). e Diremos que el proceso {Xt , t ≥ 0} es continuo en probabilidad si para todo ε > 0 y todo t ≥ 0 lim P (|Xt − Xs | > ε) = 0. s→t Consideremos un proceso estoc´stico {Xt , t ≥ 0} tal que E (|Xt |p ) < ∞, a para todo t ≥ 0, donde p ≥ 1. Diremos que el proceso {Xt , t ≥ 0} es continuo en media de orden p si lim E (|Xt − Xs |p ) = 0. s→t La continuidad en media de orden p implica la continuidad en probabilidad. Sin embargo, la continuidad en media de orden p no implica necesariamente la continuidad de las trayectorias. Ejemplo 9 El proceso de Poisson {Nt , t ≥ 0} es un proceso estoc´stico car- a acterizado por la ssiguientes propiedades: i) Nt = 0, ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn −Ntn−1 , . . . , Nt2 − Nt1 , son variables aleatorias independientes, 13
  • 14.
    iii) Si s< t, el incremento Nt − Ns tiene una ley de Poisson de par´metro a λ(t − s), es decir [λ(t − s)]k P (Nt − Ns = k) = e−λ(t−s) , k! k = 0, 1, 2, . . . Se puede construir un proceso de Poisson de la forma siguiente. Consid- eremos una sucesi´n {Yn , n ≥ 1} de variables aleatorias independientes y con o ley geom´trica de par´metro λ. Es decir, para todo x ≥ 0, e a P (Yn ≥ x) = e−λx . Pongamos T0 = 0 y para n ≥ 1, T n = Y1 + · · · + Yn . Entonces, el proceso Nt definido por Nt = n si Tn ≤ t < Tn+1 es un proceso de Poisson de par´metro λ. a Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada par de saltos son variables aleatorias independientes con leyes exponenciales de par´metro λ. Por tanto, las trayectorias no son continuas, aunque si que a los son en media cuadr´tica: a ∞ 2 −λ(t−s) k 2 [λ(t − s)]k E (Nt − Ns ) = e k=1 k! s→t = λ(t − s) + [λ(t − s)]2 −→ 0. Acotaciones adecuadas de los momentos de los incrementos del proceso, permiten deducir la continuidad de las trayectorias. Este es el contenido del siguiente criterio de continuidad, debido a Kolmogorov. 14
  • 15.
    Proposici´n 2 (Criteriode continuidad) Supongamos que un proceso es- o toc´stico {Xt , t ≥ 0} cumple la condici´n siguiente: a o E (|Xt − Xs |p ) ≤ cT |t − s|α (1) para todo 0 ≤ s < t ≤ T , donde a > 1 y p > 0. Entonces existe una versi´n o del proceso estoc´stico Xt que tiene trayectorias continuas. a Ejemplo 10 El proceso de Poisson no cumple la condici´n (1). o La condici´n (1) nos permide adem´s tener informaci´n sobre la regu- o a o laridad de las trayectorias. En efecto, fijemos un intervalo de tiempo [0, T ]. Entonces, para cada ε > 0 existe una variable aleatoria Gε,T tal que, con probabilidad uno, α |Xt (ω) − Xs (ω)| ≤ Gε,T (ω)|t − s| p −ε , (2) para todo s, t ∈ [0, T ]. Adem´s, E(Gp ) < ∞ para todo p ≥ 1. a ε,T 1.3 Movimiento browniano En 1828 el bot´nico ingl´s Robert Brown observ´ que los granos de polen en a e o suspensi´n se mov´ de forma irregular. Posteriormente se descubri´ que o ıan o este fen´meno es debido a los choques aleatorios de las part´ o ıculas de polen con las mol´culas del l´ e ıquido. En los a˜os 20 Norbert Wiener present´ un n o modelo matem´tico para este movimiento basado en la teor´ de los procesos a ıa estoc´sticos. La posici´n de una part´ a o ıcula en cada instante t ≥ 0 es un vector variable aleatorio 3-dimensional Bt . En el caso unidimensional la definici´n del movimiento browniano como o proceso estoc´stico es la siguiente: a Definici´n 3 Un proceso estoc´stico {Bt , t ≥ 0} es un movimiento browni- o a ano si se cumplen las condiciones siguientes: i) B0 = 0 ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn −Btn−1 , . . . , Bt2 − Bt1 , son variables aleatorias independientes 15
  • 16.
    iii) Si s< t, el incremento Bt − Bs tiene una ley normal N (0, t − s) iv) Las trayectorias del proceso son funciones continuas. Observaciones 1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un vector aleatorio (Bt1 , . . . , Btn ) es normal ya que este vector es una trans- formaci´n lineal del vector Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 que tiene o ley normal ya que tiene las componentes independientes y normales. 2) La media y la autocovarianza del movimiento browniano se calculan facil- mente: E(Bt ) = 0 E(Bs Bt ) = E(Bs (Bt − Bs + Bs )) 2 = E(Bs (Bt − Bs )) + E(Bs ) = s = min(s, t) si s ≤ t. Puede comprobarse f´cilmente que si un proceso gaussiano a tiene media cero y funci´n de autocovarianza ΓX (s, t) = min(s, t), en- o tonces cumple las condiciones i), ii) y iii) de la Definici´n anterior. o 3) Puede demostrarse que existe un proceso estoc´stico que cumple las a condiciones anteriores. Para ello, se parte de sus distribuciones en dimensi´n finita, que son leyes normales N (0, Γ) donde Γ es la la ma- o triz   t1 t1 · · · t1  t1 t2 · · · t2     . . .. . .  . . . . . .  . t1 t2 · · · tn El teorema de extensi´n de Kolmogorov permite construir un proceso o estoc´stico fijadas las distribuciones en dimensi´n finita, siempre que a o sean compatibles, lo que aqu´ es cierto. Finalmente hay que demostrar ı que se pueden modificar las variables Bt conjuntos de probabilidad cero de forma que las trayectorias sean continuas. Para ello se aplica el criterio de continuidad de Kolmogorov. Como los incrementos Bt − Bs tienen ley normal N (0, t − s), para todo n´mero entero k tendremos u (2k)! E (Bt − Bs )2k = (t − s)k . (3) 2k k! 16
  • 17.
    Por lo tanto,elegiendo k = 2, ya podemos asegurar que existe una versi´n continua, ya que o E (Bt − Bs )4 = 3(t − s)2 . 4) En la definici´n de movimiento bronwiano, se supone que el espacio de o probabilidad (Ω, F, P ) es arbitrario. Sin embargo, mediante la apli- caci´n o Ω → C ([0, ∞), R) ω → B· (ω) podemos suponer que el espacio de probabilidad es el conjunto de las funciones continuas C ([0, ∞), R) con la σ-´lgebra de Borel (gen- a erada por los conjuntos abiertos relativos a la estructura de espacio m´trico separable y completo) y con una probabilidad igual a la ley del e movimiento browniano: P ◦ B −1 . En tal caso las variables aleatorias son las evaluaciones ω(t) y este espacio de probabilidad se denomina espacio can´nico. o Regularidad de las trayectorias Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo p = 2k y utilizando (3), tendremos α = k. Por lo tanto, para todo ε > 0 existe una variable aleatoria Gε,T tal que 1 |Bt − Bs | ≤ Gε,T |t − s| 2 −ε , (4) para cada s, t ∈ [0, T ]. Es decir, las trayectorias del movimiento Browniano son H¨lder continuas de orden 1 − ε para todo ε > 0. Intuitivamente, esto o 2 significa que 1 ∆Bt = Bt+∆t − Bt (∆t) 2 . En media esta aproximaci´n es exacta: E (∆Bt )2 = ∆t. o Variaci´n cuadr´tica del movimiento browniano o a Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisi´n π de o este intervalo 0 = t0 < t1 < · · · < tn = t. 17
  • 18.
    La norma dela subdivisi´n π se define como |π| = maxk ∆tk , donde ∆tk = o tk − tk−1 . Pongamos ∆Bk = Btk − Btk−1 . Entonces, si tj = jt tendremos n n 1 t 2 |∆Bk | n −→ ∞, k=1 n mientras que n t (∆Bk )2 n = t. (5) k=1 n Esas propiedades pueden formularse de manera rigurosa como sigue: En primer lugar, puede demostrarse que las sumas de los cuadrados de los incrementos convergen en media cuadr´tica hacia la longitud del intervalo a de tiempo considerado:     n 2 n 2 E 2 (∆Bk ) − t  = E 2 (∆Bk ) − ∆tk  k=1 k=1 n 2 = E (∆Bk )2 − ∆tk k=1 n = 4 (∆tk )2 − 2 (∆tk )2 + (∆tk )2 k=1 n |π|→0 = 3 (∆tk )2 ≤ 3t|π| −→ 0. k=1 Por otra parte, la variaci´n total de las trayectorias del movimiento brow- o niano, definida como n V = sup |∆Bk | π k=1 es infinita con probabilidad uno. En efecto, utilizando la continuidad de las trayectorias del movimiento browniano, tendremos n n 2 |π|→0 (∆Bk ) ≤ sup |∆Bk | |∆Bk | ≤ V sup |∆Bk | −→ 0 (6) k k k=1 k=1 n si V < ∞, lo cual contradice que k=1 (∆Bk )2 converja en media cuadr´tica a hacia t cuando |π| → 0. 18
  • 19.
    Propiedad de autosimilitud Para todo n´mero real a > 0, el proceso u a−1/2 Bat , t ≥ 0 es un movimiento browniano. En efecto, este proceso es normal, con media cero y funci´n de autocovarianza igual a min(s, t). o Procesos relacionados con el movimiento browniano 1.- El puente browniano: Consideremos el proceso Xt = Bt − tB1 , t ∈ [0, 1]. Se trata de un proceso normal centrado con funci´n de o autocovarianza E(Xt Xs ) = min(s, t) − st, que verifica X0 = 0, X1 = 0. 2.- El movimiento browniano con deriva: Consideremos el proceso Xt = σBt + µt, t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Se trata de un proceso normal con media y funci´n de autocovarianza o E(Xt ) = µt, ΓX (s, t) = σ 2 min(s, t) 3.- Movimiento browniano geom´trico: Es el proceso estoc´stico propuesto e a por Black, Scholes y Merton como modelo para la curva de precios de los activos financieros. Su definici´n es la siguiente o Xt = eσBt +µt , t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Es decir, se trata de la exponencial de un movimiento browniano con deriva lineal. 19
  • 20.
    Simulaci´n del movimientobrowniano o El movimiento browniano puede considerarse como el l´ ımite de los paseos aleatorios. Fijemos un intervalo de tiempo [0, T ]. Consideremos n variables aleatorias ξ 1 , . . . , ξ n independientes, id´nticamente distribuidas, centradas y e de varianza T . Formemos las sumas parciales n Rk = ξ 1 + · · · + ξ k , k = 1, . . . , n. El Teorema Central del L´mite nos dice que cuando n tiende a infinito, la ı sucesi´n Rn converge en ley hacia la ley N (0, T ). o Consideremos ahora el proceso estoc´stico continuo Sn (t) construido por a interpolaci´n lineal a partir de los valores o kT Sn ( ) = Rk k = 0, . . . , n. n Es decir, colocamos las sumas parciales R1 , R2 , . . . en los instantes T , 2T , 3T , . . . n n n . Se verifica una versi´n funcional del Teorema Central del L´ o ımite, conocida con el nombre de Principio de Invariancia de Donsker, que nos dice que la sucesi´n de procesos estoc´sticos Sn (t) convege en ley hacia el movimiento o a browniano en [0, T ]. Tambi´n puede hacerse una simulaci´n de las trayectorias brownianas e o mediante series de Fourier con coeficientes aleatorios. La representaci´n de o Paley-Wiener del movimiento browniano es ∞ t 2 sin(nt/2) Bt = Z 0 √ + √ Zn , t ∈ [0, 2π], 2π π n=1 n donde las Zn , n = 0, 1, . . . son variables aleatorias independientes y con ley N (0, 1). La serie converge uniformemente en [0, 2π], para cada ω, casi seguramente. Para utilizar esta f´rmula en la simulaci´n de las trayectorias brownianas o o debemos elegir el n´mero M de funciones trigonom´tricas y el n´mero N de u e u puntos de discretizaci´n de las funciones: o M tj 2 sin(ntj /2) Z0 √ + √ Zn , 2π π n=1 n 20
  • 21.
    2πj donde tj = N , j = 0, 1, . . . , N . 1.4 Esperanza condicionada La probabilidad condicionada de un suceso A por un suceso B (suponiendo P (B) > 0) se define como P (A∩B) P (A|B) = P (B) . Vemos que A y B son independientes s´ y solo si P (A|B) = P (A). La ı probabilidad condicionada P (A|B) representa la probabilidad del suceso A suponiendo que sabemos que B ha ocurrido. La aplicaci´n o A −→ P (A|B) define una nueva probabilidad en la σ-´lgebra F que se concentra en el con- a junto B. Se puede calcular entonces la esperanza condicionada por B de una variable aleatoria integrable X: 1 E(X|B) = E(X1B ), P (B) donde 1B representa la funci´n indicatriz del suceso B definida por o 1 si ω ∈ B 1B (ω) = 0 si ω ∈ B / Un concepto m´s complicado es el condicionamiento por una σ-´lgebra a a de sucesos. Consideremos una σ-`lgebra B ⊂ F y una variable aleatoria a integrable X. Una variable aleatoria Z se denomina la esperanza condicionada de la variable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dos propiedades siguientes: • Z es medible respecto de B. • Para todo suceso A ∈ B E (Z1A ) = E (X1A ) . 21
  • 22.
    Puede demostrarse quela esperanza condicionada existe y es unica casi se- ´ guramente, de manera que si Z fuese otra variable con las mismas propiedades, entonces Z = Z, P -casi seguramente. En el caso particular en que la σ-´lgebra B est´ generada per una partici´n a a o finita {B1 , ..., Bm }, entonces E(X|B) es una variable aleatoria elemental que en cada conjunto Bj toma el valor constante E(X|Bj ), es decir, m E X1Bj E(X|B) = 1Bj . j=1 P (Bj ) Reglas para el c´lculo de esperanzas condicionadas: a Regla 1 La esperanza condicionada es lineal: E(aX + bY |B) = aE(X|B) + bE(Y |B) Regla 2 La variable y su esperanza condicionada tienen la misma esperanza: E (E(X|B)) = E(X) Esta propiedad es una consecuencia inmediata de la definici´n, tomando o A = Ω. Regla 3 Si la variable aleatoria X y la σ-´lgebra B son independientes, a entonces E(X|B) = E(X). En efecto, para todo suceso A ∈ B tendremos E (X1A ) = E (X)E(1A ) = E(E(X)1A ). Regla 4 Si X es B-medible, entonces E(X|B) = X. Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces E(ZX|B) = ZE(X|B). Es decir, las variables aleatorias B-medibles se comportan como con- stantes y pueden sacarse fuera de la esperanza condicionada. Regla 6 Si C ⊂ B, entonces E (E(X|B)|C) = E (E(X|C)|B) = E(X|C) 22
  • 23.
    Regla 7 Consideremosdos variables aleatorias X y Z, tales que Z es B- medible y X es independiente de B. Consideremos una funci´n h(x, z) o tal que h(X, Z) es integrable. Entonces, se tiene E (h(X, Z)|B) = E (h(X, z)) |z=Z Es decir, primero calculamos la esperanza E (h(X, z)) para un valor arbitrario z de la variable Z y luego substituimos z por Z. La esperanza condicionada tiene propiedades similares a la esperanza or- dinaria. Por ejempo se cumple la siguiente propiedad de monoton´ ıa: X ≤ Y ⇒ E(X|B) ≤ E(Y |B), que implica la desigualdad |E(X|B) | ≤ E(|X| |B). Tambi´n se cumple la e desigualdad de Jensen: Si ϕ es una funci´n convexa tal que E(|ϕ(X)|) < ∞, o entonces ϕ (E(X|B)) ≤ E(ϕ(X)|B). (7) En particular, si tomamos ϕ(x) = |x|p con p ≥ 1, se obtiene |E(X|B)|p ≤ E(|X|p |B), por lo tanto, tomando esperanzas, deducimos que si E(|X|p ) < ∞, entonces, E(|E(X|B)|p ) < ∞, y E(|E(X|B)|p ) ≤ E(|X|p ). Si la σ-´lgebra B est´ generada por las variables aleatorias Y1 , . . . , Ym , a a entonces, la esperanza condicionada se representa por E(X|Y1 , . . . , Ym ) y es una cierta funci´n g(Y1 , . . . , Ym ) de estas variables. En particular, si las o variables X, Y1 , . . . , Ym tienen una ley conjunta con densidad f (x, y1 , . . . , ym ), entonces, la esperanza condicionada se puede calcular como la esperanza de la densidad condicionada: f (x, y1 , . . . , ym ) f (x|y1 , . . . , ym ) = +∞ , −∞ f (x, y1 , . . . , ym )dy1 · · · dym es decir, +∞ E(X|Y1 , . . . , Ym ) = xf (x|Y1 , . . . , Ym )dx. −∞ 23
  • 24.
    En el casoen que la σ-´lgebra B est´ generada por un conjunto infinito a e de variables aleatorias {Yj }, escribiremos tambi´n e E(X|B) = E(X| {Yj }), pero el c´lculo no se puede efectuar mediante una f´rmula como la anterior a o y necesitaremos utilizar las reglas que hemos introducido antes. Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt , t ≥ 0}. Para cada instante t, definimos la σ-´lgebra Ft generada por las variables a aleatorias {Bs , s ≤ t}. La σ-´lgebra Ft contiene la historia del movimiento a browniano hasta el instante t. Esto quiere decir que: i) Los sucesos F de Ft ser´n conocidos (se sabr´ si han ocurrido o no) en el a a instante t. ii) El valor de una variable aleatoria X(ω) medible respecto de la σ-´lgebra a Ft ser´ una funci´n de la trayectoria del movimiento browniano a o {Bs (ω), s ∈ [0, t]} . Observemos que Fs ⊂ Ft si s ≤ t, es decir, la familia de σ-´lgebras a {Ft , t ≥ 0} es creciente. Diremos que {Ft , t ≥ 0} es una filtraci´n en el es- o pacio de probabilidad (Ω, F, P ). Queremos calcular E(Bt |Fs ) = E(Bt |Br , r ≤ s). • Si s ≥ t, la variable Bt es Fs -medible, y por la Regla 4 obtenemos E(Bt |Fs ) = Bt . • Si s < t, por la propiedad de linealidad (Regla 1): E(Bt |Fs ) = E(Bt − Bs + Bs |Fs ) = E(Bt − Bs |Fs ) + E( Bs |Fs ). Como Bt − Bs es independiente de Fs , la Regla 3 nos da E(Bt − Bs |Fs ) = E(Bt − Bs ) = 0, y, por lo tanto, obtenemos E(Bt |Fs ) = Bs . (8) 24
  • 25.
    El conjunto delas variables aleatorias Z que son medibles respecto de una σ-´lgebra B y que son de cuadrado integrable (E(Z 2 ) < ∞), lo representare- a mos por L2 (Ω, B, P ). Puede demostrarse que L2 (Ω, F, P ) es un espacio de Hilbert con el producto escalar Z, Y = E(ZY ), y que L2 (Ω, B, P ) es un subespacio cerrado de L2 (Ω, F, P ). En este contexto, si X es una variable tal que E(X 2 ) < ∞, la esperanza condicionada E(X|B) es la variable del espacio L2 (Ω, B, P ) m´s pr´xima a a o X en media cuadr´tica: a E (X − E(X|B))2 = min E (X − Z)2 . (9) Z∈L2 (Ω,B,P ) Es decir, E(X|B) es la proyecci´n de X en el subespacio L2 (Ω, B, P ). o Desde el punto de vista de la teor´ de la estimaci´n, la esperanza condi- ıa o cionada E(X|B) es el mejor predictor de la variable X a partir de la σ-´lgebra a B (estimador ´ptimo). o Demostraci´n de (9): Sea X una variable tal que E(X 2 ) < ∞. La o desigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B) tambi´n es de cuadrado integrable ya que e E (E(X|B))2 ≤ E E(X 2 |B) = E(X 2 ). La regla 5 nos permite demostrar que la diferencia X − E(X|B) es ortogonal a L2 (Ω, B, P ). En efecto, si Z es una variable de L2 (Ω, B, P ) tendremos E [(X − E(X|B))Z] = E(XZ) − E(E(X|B)Z) = E(XZ) − E(E(XZ|B)) = 0. Finalmente, esta ortogonalidad implica que E (X − Y )2 = E (X − E(X|B))2 + E (E(X|B) − Z)2 , de lo que se deduce (9). Ejercicios 25
  • 26.
    1.1 Supongamos que{Hi , i ∈ I} es una familia de σ-´lgebras en un conjunto a Ω. Demostrar que H = ∩{Hi , i ∈ I} es tambi´n una σ-´lgebra. e a 1.2 Supongamos que X es una variable aleatoria real tal que M = E[exp(k|X|)] < ∞ para un cierto k > 0. Probar que P (|X| > λ) ≤ M e−kλ , para todo λ ≥ 0. 1.3 Sea (Ω, F, P ) un espacio de probabilidad y consideremos una sucesi´n o de sucesos A1 , A2 , . . . tales que ∞ P (Ak ) < ∞. k=1 Demostrar el lema de Borel-Cantelli: P (∩∞ ∪∞ Ak ) = 0, m=1 k=m es decir, la probabilidad que ocurran infinitos sucesos de la sucesi´n es o nula. 1.4 Sea Z una variable aleatoria con ley N (0, σ 2 ). A partir de la f´rmula o 1 2 2 E(eλZ ) = e 2 λ σ , y desarrollando en serie de potencias la funci´n exponencial deducir o que para todo k ≥ 1 (2k)! 2k E(Z 2k ) = σ , 2k k! E(Z 2k−1 ) = 0. 1.5 Sea Z una variable aleatoria con ley de Poisson de par´metro λ. Com- a probar que la funci´n caracter´ o ıstica de Z vale ϕZ (t) = exp λ eit − 1 . Como aplicaci´n calcular E(Z 2 ), Var(Z) y E(Z 3 ). o 26
  • 27.
    1.6 Sea (Ω,F, P ) = ([0, ∞), B[0,∞) , µ), donde µ es una probabilidad en [0, ∞) con funci´n de distribuci´n continua. Consideremos en este espacio de o o probabilidad los procesos estoc´sticos a 1 si t = ω Xt (ω) = 0 si t = ω Yt (ω) = 0. Comprobar que estos procesos tienen las mismas distribuciones en di- mensi´n finita, pero las trayectorias del proceso X son todas discontin- o uas. 1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 ≥ 0. De- mostrar que el proceso Bt = Bt0 +t − Bt0 , t ≥ 0 es tambi´n un movimiento browniano. e 1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular P (|Bt | < ρ) donde ρ > 0. 1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una matriz U cuadrada de dimensi´n n, ortogonal (es decir, U U = I). o Demostrar que el proceso Bt = U Bt es tambi´n un movimiento browniano. e 1.10 Calcular la media y la autocovarianza del movimiento browniano geom´trico. e Es un proceso gaussiano? 27
  • 28.
    2 Integraci´n estoc´stica o a Supongamos que {Bt , t ≥ 0} es un movimiento browniano definido en un es- pacio de probabilidad (Ω, F, P ). Consideremos la familia creciente {Ft , t ≥ 0} de σ-´lgebras generadas por este proceso. Supondremos adem´s que Ft con- a a tiene los conjuntos de probabilidad cero. Esto significa que Ft es la m´ ınima σ-´lgebra que contiene los conjuntos de la forma a {Bs ∈ A} ∪ N donde s ∈ [0, t], A pertenece a la σ-´lgebra de Borel BR , y N es un conjunto a de probabilidad cero. Diremos que un proceso estoc´stico {ut , u ≥ 0} es adaptado (a la familia a de σ-´lgebras Ft ) si para cada t la variable aleatoria ut es Ft -medible. a La inclusi´n de los sucesos de probabilidad cero en cada σ-´lgebra Ft o a tiene las siguientes consecuencias interesantes: a) Toda versi´n de un proceso adaptado es tambi´n adaptado. o e b) La familia de σ-´lgebras es continua por la derecha, es decir, para todo a t≥0 ∩s>t Fs = Ft . Demostraci´n de b): Consideremos las σ -´lgebras F t = σ{Br − Bt , r ≥ o a s}. Si B ∈ ∩s>t Fs , la σ -´lgebra generada por B y por Ft , es independiente de a 1 t+ n F para todo n. Por tanto, σ(B, Ft ) ser´ independiente de F t , y tendemos a E(1B |Ft ) = E(1B |Ft ∨ F t ) = 1B , de lo que se deduce 1B ∈ Ft . La σ-´lgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto a implica que las variables aleatorias F0 -medibles ser´n constantes, casi segu- a ramente. Nuestro objetivo es la definici´n de integrales estoc´sticas de la forma o a T 0 ut dBt . Una posibilidad consiste en utilizar la definici´n de integral de Riemann o Stieltjes: 28
  • 29.
    Consideremos una partici´ndel intervalo [0, T ]: o τ n : 0 = t0 < t1 < · · · < tn−1 < tn = T as´ como una partici´n intermedia: ı o σn : ti ≤ si leqti+1 , i = 0, . . . , n − 1. Dadas dos funciones f y g en el intervalo [0, T ], la integral de Riemann T Stieltjes 0 f dg se define como el l´ ımite n lim f (si−1 )∆gi n→∞ i=1 n→∞ cuando supi (ti − ti−1 ) −→ 0, suponiendo que este l´ımite existe y es indepen- diente de la sucesi´n de particiones τ n y de sus particiones intermedias σ n , o con la notaci´n ∆gi = g(ti ) − g(ti−1 ). o T Se sabe que la integral de Riemann Stieltjes 0 f dg existe si la funci´n f o es continua y la funci´n g tiene variaci´n total acotada, es decir: o o sup |∆gi | < ∞. τ i Como las trayectorias del movimiento browniano tienen variaci´n total o infinita (v´ase (6)) no podemos utilizar este criterio para asegurar que la e T integral de Riemann-Stieltjes 0 ut (ω)dBt (ω) existe para cada ω, si u es un proceso arbitrario con trayectorias continuas. Obsevemos, si embargo, que si las trayectorias del proceso u son difer- enciables con derivadas acotadas, entonces, la integral de Riemann Stielt- T jes 0 ut (ω)dBt (ω) existe y puede calcularse mediante una integraci´n por o partes: T T 0 ut dBt = uT BT − 0 ut Bt dt. T En este apartado presentaremos una construcci´n de la integral 0 ut dBt o mediante un procedimiento global de tipo probabil´ ıstico. En primer lugar definiremos la clase de procesos que integraremos: Designaremos por L2 el conjunto de los procesos estoc´sticos a,T a u = {ut , t ∈ [0, T ]} tales que: 29
  • 30.
    a) Para cadat ∈ [0, T ], la aplicaci´n (s, ω) −→ us (ω) definida en [0, t] × Ω o es medible respecto de la σ-´lgebra producto B[0,t] × Ft . a T b) E 0 u2 dt < ∞. t Un proceso que verifica la condici´n a) se dice que es progresivamente o medible. En general, que un proceso estoc´stico u sea medible significa que la a funci´n de dos variables (s, ω) −→ us (ω) es medible en la σ-´lgebra producto o a B[0,T ] ×F . La propiedad a) require la medibilidad de la restricci´n del proceso o u a cada conjunto [0, t] × Ω. Esta propiedad implica que el proceso u sea adaptado, ya que si una funci´n es medible en un espacio producto, al fijar o una coordenada resulta medible como funci´n de la segunda coordenada. Por o otra parte, la propiedad a) es esencial para garantizar que variables aleatorias t del tipo 0 us ds sean Ft -medibles. La condici´n b) significa que el momento de segundo orden es integrable o en [0, T ], ya que, el teorema de Fubini nos permite escribir T T E u2 dt t = E u2 dt. t 0 0 La propiedad b) nos dice que el proceso u como funci´n de las dos variables o 2 (t, ω) pertenece al espacio L ([0, T ] × Ω). T Definiremos la integral estoc´stica 0 ut dBt para procesos u de la clase a L2 como el l´ a,T ımite en L2 (Ω) de la integral de procesos elementales. Por definici´n un proceso u de L2 es elemental si se puede expresar de la forma o a,T n ut = φj 1(tj−1 ,tj ] (t), (10) j=1 donde 0 = t0 < t1 < · · · < tn = T y las φj son variables aleatorias de cuadrado integrable Ftj−1 -medibles. Si u es un proceso elemental de la forma (10) se define la integral es- toc´stica de u respecto del movimiento browniano B como a T n ut dBt = φj Btj − Btj−1 . (11) 0 j=1 30
  • 31.
    La integral estoc´sticadefinida en el espacio E de los procesos elementales a tiene las siguiente propiedad de isometria: 2 T T E 0 ut dBt =E 0 u2 dt t (12) Demostraci´n de la isometr´ Pongamos ∆Bj = Btj −Btj−1 . Entonces o ıa: 0 si i = j E φi φj ∆Bi ∆Bj = E φ2 j (tj − tj−1 ) si i = j ya que si i < j las variables aleatorias φi φj ∆Bi y ∆Bj son independientes y si i = j las variables aleatorias φ2 y (∆Bi )2 son independientes. Por lo tanto se i obtiene T 2 n n E ut dBt = E φi φj ∆Bi ∆Bj = E φ2 (ti − ti−1 ) i 0 i,j=1 i=1 T = E u2 dt . t 0 La extensi´n de la integral estoc´stica a todos los procesos de la clase o a L2 a,Tse basa en el siguiente resultado de aproximaci´n: o Lema 4 Si u es un proceso de la clase L2 existe una sucesi´n de procesos a,T o (n) elementales u tales que T 2 (n) lim E ut − ut dt = 0. (13) n→∞ 0 Demostraci´n: La demostraci´n de este resultado la haremos en dos etapas: o o 1. Supongamos que el proceso u es continuo en media cuadr´tica. En tal caso, a podemos tomar la sucesi´n aproximadora o n (n) ut = utj−1 1(tj−1 ,tj ] (t), j=1 31
  • 32.
    siendo tj =jT . La continuidad en media cuadr´tica del proceso u nos n a garantiza que T 2 T 2 (n) (n) E ut − ut dt = E ut − ut dt 0 0 ≤ T sup E |ut − us |2 |t−s|≤T /n converge hacia cero cuando n tiende a infinito. 2. Supongamos que u es un proceso arbitrario de la clase L2 . En tal caso, a,T existe una sucesi´n de procesos v , pertenecientes a la clase L2 , continuos o (n) a,T en media cuadr´tica y tales que a T 2 (n) lim E ut − v t dt = 0. (14) n→∞ 0 En efecto, definimos t t t (n) vt =n us ds = n us ds − us− 1 ds , 1 n t− n 0 0 con la convenci´n u(s) = 0 si s < 0. Estos procesos son continuos en media o cuadr´tica (tambi´n tienen trayectorias continuas), y pertenecen a la clase a e L2 , debido a la propiedad a). Adem´s se cumple (14) ya que para cada a,T a (t, ω) tenemos T 2 n→∞ u(t, ω) − v (n) (t, ω) dt −→ 0 0 (v´ase Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia e dominada en el espacio producto [0, T ] × Ω ya que T T 2 v (n) (t, ω) dt ≤ |u(t, ω)|2 dt. 0 0 Definici´n 5 Si u es un proceso de la clase L2 , la integral estoc´stica se o a,T a define como el l´mite en L2 (Ω) ı T T (n) ut dBt = lim ut dBt , (15) 0 n→∞ 0 donde u(n) es una sucesi´n de procesos elementales tales que cumplen (13). o 32
  • 33.
    Que el l´ ımite (15) existe es debido a que la sucesi´n de variables aleato- o T (n) 2 rias 0 ut dBt es de Cauchy en el espacio L (Ω), debido a la propiedad de isometr´ (12): ıa T T 2 T 2 (n) (m) (n) (m) E ut dBt − ut dBt = E ut − ut dt 0 0 0 T 2 (n) ≤ 2E ut − ut dt 0 T 2 (m) n,m→∞ +2E ut − ut dt → 0. 0 Tambi´n puede demostrarse que el l´ e ımite (15) no depende de la sucesi´n u(n) o siempre que esta sucesi´n cumpla (13). o La integral estoc´stica tiene las siguientes propiedades importantes: a 1.- Isometr´ ıa: T 2 T E ut dBt =E u2 dt . t 0 0 2.- Media cero: T E ut dBt = 0. 0 3.- Linealidad: T T T (aut + bvt ) dBt = a ut dBt + b vt dBt . 0 0 0 T 4.- Localidad: Se cumple 0 ut dBt = 0 casi seguramente, en el conjunto T G= 0 u2 dt = 0 . t La propiedad de localidad es una consecuencia de que en el conjunto G la sucesi´n aproximadora o n (j−1)T n (n,m,N ) ut = m us ds 1( (j−1)T , jT ] (t) (j−1)T 1 n n j=1 n −m se anula. 33
  • 34.
    Ejemplo 12 T 1 2 1 Bt dBt = BT − T. 0 2 2 Como el proceso Bt es continuo en media cuadr´tica podemos tomar como a sucesi´n aproximadora o n (n) ut = Btj−1 1(tj−1 ,tj ] (t), j=1 jT donde tj = n , y tendremos T n Bt dBt = lim Btj−1 Btj − Btj−1 0 n→∞ j=1 n 1 2 2 1 2 = lim Btj − Btj−1 − lim Btj − Btj−1 2 n→∞ 2 n→∞ j=1 1 2 1 = B − T. (16) 2 T 2 Si xt es una funci´n derivable, las reglas del c´lculo diferencial e integral nos o a dicen que T T 1 2 xt dxt = xt xt dt = x − x2 . 0 0 2 T 0 Observemos que en el caso del movimiento browniano nos aparece un t´rmino e 1 adicional igual a − 2 T . T Ejemplo 13 Consideremos una funci´n determinista g tal que 0 g(s)2 ds < o T ∞. En este caso, la integral estoc´stica 0 gs dBs es una variable aleatoria a con ley normal T N (0, g(s)2 ds). 0 34
  • 35.
    2.1 Integrales estoc´sticas indefinidas a Consideremos un proceso u de la clase L2 . El proceso u1[0,t] tambi´n a,T e 2 pertenece a La,T , y por lo tanto, podemos definir su integral: t T us dBs := us 1[0,t] (s)dBs . 0 0 De esta forma hemos construido un nuevo proceso estoc´stico a t us dBs , 0 ≤ t ≤ T 0 que es la integral indefinida del proceso u respecto de B. En este apartado estudiaremos las propiedades de las integrales indefinidas. En primer lugar, debido a la linealidad de la integral estoc´stica, tenemos la propiedad de a aditividad siguiente: b c c us dBs + us dBs = us dBs , a b a si a ≤ b ≤ c. Si a < b y A es un suceso de la σ-´lgebra Fa entonces, a b b 1A us dBs = 1A us dBs . a a En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable acotada y Fa -medible. Una propiedad importante de las integrales indefinidas es la propiedad de martingala. Definici´n 6 Un proceso estoc´stico {Mt , t ≥ 0} diremos que es una martin- o a gala respecto de una familia creciente de σ-´lgebras {Mt , t ≥ 0}, contenidas a en F, si se cumplen las propiedades siguientes: (i) Mt es medible respecto de Mt , para todo t ≥ 0. (ii) E(|Mt |) < ∞ para todo t ≥ 0. (iii) E(Mt |Ms ) = Ms , si s ≤ t. 35
  • 36.
    La propiedad (iii)puede expresarse de forma equivalente como sigue E(Mt − Ms |Ms ) = 0 y ello significa que la esperanza condicionada de los incrementos de una mar- tingala es cero. Las martingalas se introduden para modelizar las ganancias de un jugador que juega una partida equitativa en un juego de azar. En he- cho de que la ganancia esperada tenga valor medio cero representa el car´cter a equitativo del juego. De forma an´loga se puede introducir el concepto de martingala para un a proceso {Mt , 0 ≤ t ≤ T } respecto de una familia creciente de σ-´lgebras a {Mt , 0 ≤ t ≤ T }. En tal caso, la propiedad de martingala nos dice que Mt = E(MT |Mt ). Fij´monos en que la variable terminal MT determina la martingala ya que e las variables Mt se obtinenen tomando la esperanza condicionada de MT respecto de la familia creciente de σ-´lgebras. a Como consecuencia de la propiedad de martingala tendremos que la es- peranza de una martingala es consante: E(Mt ) = E(M0 ). Ejemplo 14 Si Bt es un movimiento browniano y Ft es la filtraci´n generada o por Bt , entonces, los procesos: Bt 2 Bt − t a2 t exp(aBt − ) 2 son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido 2 demostrada en (8). Para Bt − t, la propiedad de martingala se deduce del siguiente c´lculo de esperanzas condicionadas, si s < t a E(Bt |Fs ) = E((Bt − Bs + Bs )2 |Fs ) 2 = E((Bt − Bs )2 |Fs ) + 2E((Bt − Bs ) Bs |Fs ) 2 +E(Bs |Fs ) = E (Bt − Bs )2 + 2Bs E((Bt − Bs ) |Fs ) + Bs 2 2 = t − s + Bs . 36
  • 37.
    a2 t Finalmente, parael proceso exp(aBt − 2 ) tendremos a2 t a2 t E(eaBt − 2 |Fs ) = eaBs E(ea(Bt −Bs )− 2 |Fs ) 2 a(Bt −Bs )− a2 t = eaBs E(e ) a2 (t−s) 2 a2 s − a2 t = eaBs e 2 = eaBs − 2 . Las martingalas con trayectorias continuas cumplen la desigualdad fun- damental siguiente debida a Doob: Desigualdad de Doob: Supongamos que {Mt , 0 ≤ t ≤ T } es una martin- gala con trayectorias continuas. Entonces, para todo p ≥ 1 y todo λ > 0 se cumple 1 P sup |Mt | > λ ≤ p E(|MT |p ). 0≤t≤T λ Obsevamos que se trata de una generalizaci´n de la desigualdad de Tcheby- o chev. Como consecuencia de la desigualdad de Doob puede demostrarse que las integrales estoc´sticas indefinidas tienen trayectorias continuas. a Proposici´n 7 Supongamos que u es un proceso de la clase L2 . Entonces, o a,T t la integral estoc´stica 0 us dBs tiene una versi´n con trayectorias continuas. a o Demostraci´n: Consideremos una sucesi´n de procesos elementales u(n) tal o o que T 2 (n) lim E ut − ut dt = 0. n→∞ 0 Pongamos t I(t) = us dBs , 0 t In (t) = u(n) dBs . s 0 El proceso In tiene trayectorias continuas y es una martingala respecto de la familia creciente de σ -´lgebras Ft . En efecto, si s < t y φj es el valor del proceso a 37
  • 38.
    estoc´stico u(n) cadael intevalo (tj−1 , tj ] tendremos a   E (In (t) − In (s)|Fs ) = E  φj ∆Bj |Fs  s≤tj−1 ≤tj ≤t = E E φj ∆Bj |Ftj−1 |Fs s≤tj−1 ≤tj ≤t = E φj E ∆Bj |Ftj−1 |Fs = 0. s≤tj−1 ≤tj ≤t Por consiguiente, la diferencia In − Im ser´ una martingala, y la desigualdad de a Doob con p = 2 nos permite escribir 1 P sup |In (t) − Im (t)| > λ ≤ E |In (T ) − Im (T )|2 0≤t≤T λ2 T 1 (n) (m) 2 n,m→∞ = 2E ut − ut dt −→ 0. λ 0 Podemos elegir una sucesi´n creciente de n´meros naturales nk , k = 1, 2, . . . tal o u que P sup |Ink+1 (t) − Ink (t)| > 2−k ≤ 2−k . 0≤t≤T Los sucesos Ak := sup0≤t≤T |Ink+1 (t) − Ink (t)| > 2−k tienen probabilidades que forman una serie convergence, es decir, ∞ P (Ak ) < ∞. k=1 El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un n´mero u infinito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidad cero tal que para todo ω ∈ N podemos encontrar un ´ / ındice k1 (ω) tal que si k ≥ k1 (ω) sup |Ink+1 (t, ω) − Ink (t, ω)| ≤ 2−k . 0≤t≤T Por lo tanto, si ω ∈ N , la sucesi´n Ink (t, ω) es uniformemente convergente en / o [0, T ] hacia una funci´n continua Jt (ω). Por otra parte, sabemos que para cada o t t ∈ [0, T ], Ink (t) converge en media cuadr´tica hacia 0 us dBs . Por consiguiente, a 38
  • 39.
    t Jt (ω) = 0 us dBs casi seguramente, para todo t ∈ [0, T ], y ello nos dice que la integral indefinida tiene una versi´n con trayectorias continuas. o t La integral indefinida Mt = 0 us dBs es una martingala respecto de la familia de σ-´lgebras Ft y se cumple la desigualdad siguiente, para todo a λ > 0, T 1 P sup |Mt | > λ ≤ 2 E u2 dt . t (17) 0≤t≤T λ 0 t En efecto, la propiedad de martingala de 0 us dBs de deduce de la propiedad t (n) de martingala de las integrales indefinidas 0 us dBs que hemos obtenido en la demostraci´n anterior. La desigualdad (17) se deduce de la desigualdad o de Doob y de la propiedad de isometr´ de la integral estoc´stica. ıa a t La martingala Mt = 0 us dBs tiene trayectorias continuas, pero son ir- regulares como las del movimiento browniano. En particular, las trayectorias de las integrales indefinidas tienen variaci´n cuadr´tica finita como nos dice o a la propiedad siguiente: Proposici´n 8 (Variaci´n cuadr´tica ) Sea u un proceso de la clase L2 . o o a a,T Entonces, n 2 tj t L1 (Ω) us dBs −→ u2 ds s j=1 tj−1 0 jt cuando n tiende a infinito, donde tj = n . Demostraci´n: Observemos en primer lugar que si el proceso u es elemen- o tal, el resultado es una consecuencia de la propiedad de variaci´n cuadr´tica del o a movimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valor constante φ aparecer´ una contribuci´n del tipo a o n→∞ φ2 (∆Bj )2 −→ φ2 (b − a) . a≤tj−1 ≤tj ≤b Supongamos que u es un proceso arbitrario de la clase L2 . Existe una sucesi´n a,T o (k) u de procesos elementales tal que T 2 (k) lim E ut − ut dt = 0. k→∞ 0 39
  • 40.
    Utilizando la notaci´n o n 2 tj Vn (u) = us dBs j=1 tj−1 tendremos t E Vn (u) − u2 ds s ≤ E Vn (u) − Vn (u(k) ) 0 t 2 +E Vn (u(k) ) − u(k) s ds 0 t t 2 +E u(k) s ds − u2 ds s . 0 0 El primer sumando puede acotarse como sigue, utilizando la desigualdad de Schwartz y la isometr´ de la integral estoc´stica: ıa a E Vn (u) − Vn (u(k) ) n tj tj = E us + u(k) dBs s us − u(k) dBs s j=1 tj−1 tj−1 1/2 ≤ E Vn (u + u(k) ) E Vn (u − u(k) ) t t 1/2 2 2 = E us + u(k) s ds E us − u(k) s ds . 0 0 Observemos que la acotaci´n obtenida no depende de n y converge hacia cero o cuando k tiende a infinito. Por tanto, fijado ε > 0 existe un k0 tal que t t 2 E Vn (u) − u2 ds s ≤ε+E Vn (u ) − (k) u(k) s ds 0 0 para todo k ≥ k0 y para todo n. Finalmente basta tomar el l´ ımite n → ∞. 2.2 Tiempos de paro Un tiempo de paro relativo a una familia creciente de σ-´lgebras {Ft , t ≥ 0} a es una variable aleatoria τ : Ω −→ [0, ∞] 40
  • 41.
    tal que paratodo t ≥ 0, {τ ≤ t} ∈ Ft . Es decir, podemos decidir si nos paramos o no antes de un instante t a partir de la informaci´n contenida en o Ft . Ejemplo 15 El tiempo de llegada de un proceso continuo y adaptado {Xt , t ≥ 0} a un nivel a definido como τ a := inf{t > 0 : Xt = a} es un tiempo de paro. En efecto, {τ a ≤ t} = sup Xs ≥ a = sup Xs ≥ a ∈ Ft . 0≤s≤t 0≤s≤t,s∈ Q M´s generalmente, el tiempo de llegada de un proceso n-dimensional con- a tinuo y adaptado {Xt , t ≥ 0} a un conjunto de Borel U de Rn es un tiempo de paro siempre que la familia de σ-´lgebras {Ft , t ≥ 0} sea continua por la a derecha. Podemos asociar a todo tiempo de paro τ la σ-´lgebra Fτ formada por a los conjuntos G tales que G ∩ {τ ≤ t} ∈ Ft (18) para todo t ≥ 0. Los tiempos de paro satisfacen las dos propiedades siguientes: • Si {Mt , t ∈ [0, T ]} es una martingala continua y y τ es un tiempo de paro acotado por T , entonces E(MT |Fτ ) = Mτ . (19) • Si u es un proceso de la clase L2 y τ es un tiempo de paro acotado por a,T T , el proceso u1[0,τ ] tambi´n pertenece a L2 y se verifica la relaci´n e a,T o siguiente: T τ ut 1[0,τ ] (t)dBt = ut dBt . (20) 0 0 41
  • 42.
    Demostraci´n de (20):La demostraci´n se har´ en dos etapas: o o a 1. Supongamos primero que el proceso u es de la forma ut = F 1(a,b] (t), donde 0 ≤ a < b ≤ T y F ∈ L2 (Ω, Fa , P ). Los tiempos de paro n τ n = 2 ti 1Ai , donde ti = 2n , Ai = (i−1)T ≤ τ < 2n forman una i=1 n n n iT n 2n iT sucesi´n decreciente que converge hacia τ . Para cada n tendremos o τn ut dBt = F (Bb∧τ n − Ba∧τ n ) 0 T 2n T ut 1[0,τ n ] (t)dBt = 1Ai n 1(a∧ti ,b∧ti ] (t)F dBt n n 0 i=1 0 2n = 1Ai F (Bb∧ti − Ba∧ti ) n n n i=1 = F (Bb∧τ n − Ba∧τ n ). Tomando el l´ımite cuando n tiende a infinito se deduce la igualdad en el caso de un proceso elemental. 2. En el caso general, basta con aproximar el proceso u por procesos elemen- tales. La convergencia del miembro de la derecha de (20) se deduce de la desigualdad maximal de Doob. La siguiente aplicaci´n de los tiempos de parada permite el c´lculo de la o a ley del instante de llegada del movimiento browniano a un cierto nivel. Ejemplo 16 Sea Bt un movimiento browniano y Ft la filtraci´n generada o por Bt . Consideremos el tiempo de paro τ a = inf{t ≥ 0 : Bt = a}, λ2 t donde a > 0. Consideremos la martingala Mt = eλBt − 2 que cumple E(Mt ) = E(M0 ) = 1. La propiedad (19) nos permite obtener E(Mτ a ∧N ) = 1, 42
  • 43.
    para todo N≥ 1. Observemos que λ2 (τ a ∧ N ) Mτ a ∧N = exp λBτ a ∧N − ≤ eaλ . 2 Por otra parte, limN →∞ Mτ a ∧N = Mτ a si τ a < ∞ limN →∞ Mτ a ∧N = 0 si τ a = ∞ y el teorema de convergencia dominada implica E 1{τ a <∞} Mτ a = 1, es decir λ2 τ a E 1{τ a <∞} exp − = e−λa . 2 Haciendo λ ↓ 0 obtenemos P (τ a < ∞ ) = 1, y, por consiguiente λ2 τ a E exp − = e−λa . 2 λ2 Con el cambio de variable 2 = α, tendremos √ E ( exp (−ατ a )) = e− 2αa . (21) A partir de esta expresi´n puede calcularse la densidad de probabildad de la o variable τ a : t 2 ae−a /2s P (τ a ≤ t ) = √ ds. 0 2πs3 Por otra parte, la esperanza de τ a puede obtenerse calculando la derivada en α = 0 de la expresi´n (21): o √ ae− 2αa E ( τ a exp (−ατ a )) = √ , 2α y haciendo α ↓ 0 se obtiene E(τ a ) = +∞. 43
  • 44.
    2.3 Extensiones de la integral estoc´stica a T La integral estoc´stica de Itˆ 0 us dBs puede definirse para clases de pro- a o cesos mas amplias que L2 .a,T A) En primer lugar, podemos substituir la familia creciente de σ-´lgebras a Ft por una familia mayor Ht tal que el movimiento browniano Bt sea una martingala respecto de Ht . En efecto, en todas las demostraciones anteriores solo se ha utilizado la propiedad E(Bt − Bs |Fs ) = 0. (n) Como ejemplo de esta situaci´n, consideremos el caso en que Ft es o la familia creciente de σ-´lgebras generadas por un movimiento browniano a n-dimensional Bt . Cada componente Bk (t) es una martingala respecto de (n) (n) Ft , pero Ft no es la familia de σ-´lgebras generada por Bk (t). De esta a forma, con la extensi´n indicada antes, se pueden definir integrales como o T B2 (s)dB1 (s), 0 T 2 2 sin(B1 (s) + B1 (s))dB2 (s). 0 T B) La segunda extensi´n consiste en substituir la propiedad E o 0 u2 dt < t ∞ por la hip´tesis m´s d´bil siguiente: o a e T b’) P 0 u2 dt < ∞ = 1. t La clase de procesos que cumplen las propiedades a) y b’) la designaremos por La,T . Extenderemos la integral estoc´stica a la clase La,T mediante un a argumento de localizaci´n. o Consideremos un proceso estoc´stico u de La,T . Para cada n ≥ 1 defini- a mos el tiempo de paro t τ n = inf t ≥ 0 : u2 ds = n , s (22) 0 T donde suponemos que τ n = T si 0 u2 ds < n. De esta forma tendremos una s sucesi´n creciente de tiempos de paro tal que τ n ↑ T . Adem´s, o a t t < τ n ⇐⇒ u2 ds < n. s 0 44
  • 45.
    Los procesos (n) ut = ut 1[0,τ n ] (t) 2 T (n) pertenecen a L2 ya que E a,T 0 us ds ≤ n. Para cada n ≤ m, en el conjunto {t ≤ τ n } se cumple t t u(n) dBs = s u(m) dBs s 0 0 ya que las trayectorias en el intervalo [0, t] de los procesos u(n) y u(m) coinciden en este conjunto. Por consiguiente, existir´ un proceso continuo y adaptado a t que denotaremos por 0 us dBs tal que t t (n) us dBs = us dBs 0 0 si t ≤ τ n . La integral estoc´stica de procesos de la clase La,T satisface las propiedades a de linealidad y continuidad de trayectorias de la integral indefinida. En cam- bio, la integral de procesos de la clase La,T puede no tener esperanza ni varianza finitas. Proposici´n 9 Consideremos un proceso u ∈ La,T . Para todo K, δ > 0 se o cumple la desigualdad siguiente: T T δ P us dBs ≥ K ≤P u2 ds ≥ δ + s . 0 0 K2 Demostraci´n: Consideremos el tiempos de paro definido por o t τ n = inf t ≥ 0 : u2 ds = δ , s 0 T con la convenci´n τ n = T si o 0 u2 ds < δ .Tendemos s T T P us dBs ≥ K ≤ P u2 ds ≥ δ s 0 0 T T +P us dBs ≥ K, u2 ds < δ , s 0 0 45
  • 46.
    por otra parte T T T P us dBs ≥ K, u2 ds s <δ = P us dBs ≥ K, τ = T 0 0 0 τ = P us dBs ≥ K, τ = T 0 τ 2 1 ≤ E us dBs K2 0 τ 1 δ = E u2 ds s ≤ . K2 0 K2 Como consecuencia de la proposici´n anterior, si u(n) es una sucesi´n o o de procesos de la clase La,T que converge hacia un proceso u ∈ La,T en probabilidad: T 2 P u(n) − us s ds → 0 0 entonces, T T (n) P us dBs → us dBs . 0 0 2.4 F´rmula de Itˆ o o La f´rmula de Itˆ es la versi´n estoc´stica de la cl´sica regla de la cadena en o o o a a el c´lculo diferencial ordinario. a Consideremos el ejemplo t 1 2 1 Bs dBs = Bt − t, 0 2 2 que podemos escribir en la forma t 2 Bt = 2Bs dBs + t. 0 Podemos comprobar que la igualdad es cierta tomando esperanzas y uti- 2 lizando la propiedad de media nula de la integral estoc´stica: E(Bt ) = t. En a notaci´n diferencial podemos escribir o 2 dBt = 2Bt dBt + dt. 46
  • 47.
    2 Vemos que el proceso estoc´stico Bt es la suma de una integral estoc´stica a a y de una funci´n diferenciable. M´s generalmente cualquier funci´n f (Bt ), o a o donde f es dos veces continuamente diferenciable, puede expresarse como una suma de una integral estoc´stica y de un proceso con trayectorias difer- a enciables. Esto nos lleva a introducir la noci´n de proceso de Itˆ que ser´ o o a una suma de una integral estoc´stica m´s una integral ordinaria. La clase a a de los procesos de Itˆ ser´ invariante por transformaciones funcionales reg- o a ulares. Designaremos por L1 la clase de los procesos v que satisfacen las a,T propiedades a) y T b”) P 0 |vt | dt < ∞ = 1. Definici´n 10 Un proceso de Itˆ Xt ser´ un proceso estoc´stico de la forma o o a a t t Xt = X0 + us dBs + vs ds, (23) 0 0 donde u pertenece a la clase La,T y v pertenece a la clase L1 . a,T En notaci´n diferencial escribiremos o dXt = ut dBt + vt dt. Teorema 11 (F´rmula de Itˆ) Supongamos que X es un proceso de Itˆ o o o de la forma (23). Sea f (t, x) una funci´n dos veces derivable respecto de la o variable x y una vez respecto de la variable t, con todas las derivadas parciales continuas (diremos que f es de clase C 1,2 ). Entonces el proceso Yt = f (t, Xt ) es tambi´n un proceso de Itˆ con la representaci´n e o o t t ∂f ∂f Yt = f (0, X0 ) + (s, Xs )ds + (s, Xs )us dBs 0 ∂t 0 ∂x t ∂f 1 t ∂ 2f + (s, Xs )vs ds + 2 (s, Xs )u2 ds. s 0 ∂x 2 0 ∂x 1.- En notaci´n diferencial la f´rmula de Itˆ puede escribirse de la forma o o o ∂f ∂f 1 ∂ 2f df (t, Xt ) = (t, Xt )dt + (t, Xt )dXt + (s, Xs ) (dXt )2 , ∂t ∂x 2 ∂x2 donde (dXt )2 se calcula mediante la convenci´n o × dBt dt dBt dt 0 dt 0 0 47
  • 48.
    2.- El procesoYt es un proceso de Itˆ con la representaci´n o o t t Yt = Y0 + us dBs + vs ds, 0 0 donde Y0 = f (0, X0 ), ∂f ut = (t, Xt )ut , ∂x ∂f ∂f 1 ∂ 2f vt = (t, Xt ) + (t, Xt )vt + (t, Xt )u2 . t ∂t ∂x 2 ∂x2 3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es pre- cisamente el movimiento browniano Bt , y la f´rmula de Itˆ adopta la o o expresi´n m´s simple siguiente o a t t ∂f ∂f f (t, Bt ) = f (0, 0) + (s, Bs )dBs + (s, Bs )ds 0 ∂x 0 ∂t t 1 ∂ 2f + (s, Bs )ds. 2 0 ∂x2 4.- En el caso particular en que la funci´n f no depende del tiempo se obtiene o la f´rmula o t t t 1 f (Xt ) = f (0) + f (Xs )us dBs + f (Xs )vs ds + f (Xs )u2 ds. s 0 0 2 0 La f´rmula de Itˆ se deduce del desarrollo de Taylor hasta el orden dos. o o Indicaremos seguidamente, de forma heur´ ıstica, las ideas principales que con- ducen a la f´rmula de Itˆ. Supongamos v = 0. Fijemos un instante de tiempo o o t > 0. Consideremos los instantes tj = jt . La f´rmula de Taylor hasta el segundo n o orden nos da n f (Xt ) − f (0) = f (Xtj ) − f (Xtj−1 ) j=1 n n 1 = f (Xtj−1 )∆Xj + f (X j ) (∆Xj )2 , (24) j= 2 j=1 48
  • 49.
    donde ∆Xj =Xtj − Xtj−1 y X j es un valor comprendido entre Xtj−1 y Xtj . El primer sumando de la expresi´n anterior converge en probabilidad o t hacia 0 f (Xs )us dBs , mientras que el segundo sumando converge en proba- 1 t bilidad hacia 2 0 f (Xs )u2 ds. s Veamos algunos ejemplos de aplicaci´n de la f´mula de Itˆ. o o o Ejemplo 17 Si f (x) = x2 y Xt = Bt , tendremos t 2 Bt = 2 Bs dBs + t, 0 ya que f (x) = 2x y f (x) = 2. Ejemplo 18 Si f (x) = x3 y Xt = Bt , tendremos t t 3 2 Bt = 3 Bs dBs + 3 Bs ds, 0 0 ya que f (x) = 3x2 y f (x) = 6x. M´s generalmente, si n ≥ 2 es un n´mero a u natural, t n n−1 n(n − 1) t n−2 Bt = n Bs dBs + Bs ds. 0 2 0 a2 a2 Ejemplo 19 Si f (t, x) = eax− 2 t , Xt = Bt , y Yt = eaBt − 2 t , tendremos t Yt = 1 + a Ys dBs 0 ya que ∂f 1 ∂ 2f + = 0. (25) ∂t 2 ∂x2 Este importante ejemplo nos permite deducir las observaciones siguientes: 1.- Si una funci´n f (t, x) satisface la igualdad (25), entonces, el proceso o estoc´stico f (t, Bt ) ser´ una integral estoc´stica indefinida (m´s un a a a a 49
  • 50.
    t´rmino constante), ypor lo tanto, ser´ una martingala, suponiendo e a que f satisface la propiedad: t 2 ∂f E (s, Bs ) ds < ∞ 0 ∂x 2.- La soluci´n de la ecuaci´n diferencial estoc´stica o o a dYt = aYt dBt no es Yt = eaBt , como en el caso del c´lculo diferencial ordinario, sino a 2 aBt − a t Yt = e 2 . Como consecuencia de la f´rmula de Itˆ, podemos deducir la siguiente o o f´rmula de integraci´n por partes: o o Supongamos que f (t) es una funci´n continuamente diferenciable en [0, T ]. o En tal caso tendremos t t fs dBs = f (t)Bt − Bs fs ds. 0 0 En efecto, aplicando la f´rmula de Itˆ a la funci´n f (t)x se obtiene o o o t t f (t)Bt = fs dBs + Bs fs ds. 0 0 Veamos seguidamente la versi´n multidimensional de la f´rmula de Itˆ. o o o 1 2 m Supongamos que Bt = (Bt , Bt , . . . , Bt ) es un movimiento browniano m- dimensional, es decir, las componentes son movimientos brownianos inde- pendientes. Consideremos un proceso de Itˆ n-dimensional de la forma o  t t t 1  Xt1 = X0 + 0 u11 dBs + · · · + 0 u1m dBs + 0 vs ds  1 s 1 s m . . .  .  n t n1 t nm t n n 1 m Xt = X0 + 0 us dBs + · · · + 0 us dBs + 0 vs ds En notaci´n diferencial y vectorial podemos escribir o dXt = ut dBt + vt dt, 50
  • 51.
    donde Xt ,vt , son procesos n-dimensionales, y ut es un proceso con valores en el conjunto de las matrices n × m. Supondremos que las componentes de u pertenecen a La,T y las de v pertenecen a L1 .a,T Entonces, si f : [0, ∞) × Rn → Rp es una funci´n de clase C 1,2 , el proceso o Yt = f (t, Xt ) es tambi´n un proceso de Itˆ con la representaci´n (en notaci´n e o o o diferencial) n ∂fk ∂fk dYtk = (t, Xt )dt + (t, Xt )dXti ∂t i=1 ∂xi n 2 1 ∂ fk + (t, Xt )dXti dXtj . 2 i,j=1 ∂xi ∂xj El producto de los diferenciales dXti dXtj se calcula aplicando las reglas sigu- ientes: i j 0 si i = j dBt dBt = dt si i = j i dBt dt = 0 (dt)2 = 0. De esta forma se obtiene m dXti dXtj = uik ujk t t dt = (ut ut )ij dt. k=1 2.5 Integrales estoc´sticas de Stratonovich a En las sumas de Riemann-Stieltjes que elegimos para definir la integral es- t toc´stica 0 us dBs de un proceso continuo u, se toman siempre los valores a del proceso u en el punto tj−1 de cada intervalo [tj−1 , tj ] . De esta forma la integral estoc´stica tiene media cero y su varianza puede calcularse a partir a de la propiedad de isometr´ Tambi´n, la integral indefinida es una mar- ıa. e tingala. El inconveniente de esta elecci´n consiste en que en la regla de la o cadena nos aparece un t´rmino correctivo. e T La integral de Stratonovich 0 us ◦ dBs se define como el l´ ımite en prob- abilidad de la sucesi´n o n 1 (ut + uti )∆Bi , i=1 2 i−1 51
  • 52.
    iT suponiendo ti = n . Supongamos que el proceso u es un proceso de Itˆ de la o forma t t ut = u0 + αs dBs + β s ds. (26) 0 0 Utilizando la descomposici´n o 1 (ut + uti )(Bti − Bti−1 ) = uti−1 (Bti − Bti−1 ) 2 i−1 1 + (uti − uti−1 )(Bti − Bti−1 ), 2 se obtiene la siguiente f´rmula que relaciona las integrales de Itˆ y de Stratonovich: o o T t t 1 us ◦ dBs = us dBs + αs ds. (27) 0 0 2 0 En efecto, las sumas de Riemann-Stieltjes n (uti − uti−1 )(Bti − Bti−1 ) i=1 convergen hacia la integral t t t t 2 dus dBs = αs (dBs ) + β s dsdBs = αs ds. 0 0 0 0 Puede comprobarse que la integral estoc´stica de Stratonovich sigue las a reglas del c´lculo diferencial ordinario. Es decir, si u es un proceso de la a forma (26) y t t Xt = X0 + us ◦ dBs + vs ds 0 0 t t 1 = X0 + us dBs + vs + αs ds, 0 0 2 entonces, 1 df (Xt ) = f (Xt )dXt + f (Xt )(dXt )2 2 1 = f (Xt )ut dBt + f (Xt ) vt + αt dt 2 1 + f (Xt )u2 dt. t (28) 2 52
  • 53.
    Por otra parte, 1 f (Xt )ut dBt = f (Xt )ut ◦ dBt − d [f (Xt )ut ] dBt . 2 En el c´lculo de d [f (Xt )ut ] dBt hemos de tener en cuenta solo los diferen- a ciales estoc´sticos de d [f (Xt )ut ] que son a f (Xt )αt dBt + f (Xt )u2 dBt . t Por consiguiente, se obtiene 1 f (Xt )ut dBt = f (Xt )ut ◦ dBt − f (Xt )αt + f (Xt )u2 dt t 2 y substituyendo esta expresi´n en (28) obtenemos o df (Xt ) = f (Xt )ut ◦ dBt + f (Xt )vt dt = f (Xt ) ◦ dXt . 2.6 Tiempo local Consideremos la funci´n siguiente para cada ε > 0 o |x| si |x| ≥ ε gε (x) = 1 x2 . 2 ε+ ε si |x| < ε La derivada de esta funci´n vale o sign(x) si |x| ≥ ε gε (x) = x . ε si |x| < ε La segunda derivada existe excepto si x = ε y vale 0 si |x| ≥ ε gε (x) = 1 . ε si |x| < ε Siempre que una funci´n sea de clase C 2 excepto en un n´mero finito de o u puntos y la segunda derivada est´ acotada se verifica todav´ la f´rmula de e ıa o Itˆ. Por ello, tendremos o t t ε 1 gε (Bt ) = + gε (Bs )dBs + 1(−ε,ε) (Bs )ds. 2 0 2ε 0 53
  • 54.
    Cuando ε tiendea cero, gε (Bt ) converge en media cuadr´tica hacia |Bt |. Por a 2 otra parte, gε (Bs ) converge en L ([0, t] × Ω) hacia sign(Bs ). En efecto, t 2 E |sign(Bs ) − gε (Bs )| ds 0 t 2 Bs ≤ 2E (sign(Bs ))2 + 1(−ε,ε) (Bs )ds 0 ε2 t ≤ 4E 1(−ε,ε) (Bs )ds 0 t t ε↓0 = 4 P (|Bs | < ε)ds −→ 4 P (|Bs | = 0)ds = 0. 0 0 Denotaremos por Lt (0) el l´ ımite en media cuadr´tica de a t 1 1 1(−ε,ε) (Bs )ds = |{s ∈ [0, t] : |Bs | < ε}|. 2ε 0 2ε De esta forma obtenemos la f´rmula de Itˆ para el valor absoluto del movimiento o o browniano, conocida como f´rmula de Tanaka: o t |Bt | = sign(Bs )dBs + Lt (0). 0 Observaciones: • M´s generalmente, para todo x se tiene a t |Bt − x| = sign(Bs − x)dBs + Lt (x). 0 • El proceso {Lt (x), t ≥ 0, x ∈ R} se denomina el tiempo local del movimiento browniano. Para cada t ≥ 0, Lt (x) es la densidad de la medida de ocu- paci´n, es decir, o b t Lt (x)dx = 1[a,b] (Bs )ds. a 0 Puede demostrarse que existe una versi´n del tiempo local que es con- o tinua en las dos variables (t, x). 54
  • 55.
    • En elcaso de una funci´n diferenciable b(t), se tiene o d|b(t)| = sign(b(s))b (s)ds, y la densidad de la medida de ocupaci´n en [0, t] vale o 1 Lt (x) = . b (s) s∈[0,t]:b(s)=x 2.7 Representaci´n integral de martingalas o Consideremos un proceso u de la clase L2 . Sabemos que la integral in- a,T definida t Xt = us dBs 0 es una martingala respecto de la filtraci´n Ft . En este apartado demostraremos o que todas las martingalas de cuadrado integrable respecto de esta filtraci´no son de este tipo. Veamos un resultado preliminar. Lema 12 El conjunto de variables que son combinaciones lineales de expo- nenciales de la forma T T 1 exp hs dBs − h2 ds , s (29) 0 2 0 T donde h es una funci´n determinista tal que o 0 h2 ds < ∞, es denso en s L2 (Ω, FT , P ). Demostraci´n: Sea Y una variable de L2 (Ω, FT , P ) ortogonal a todas las o exponenciales de la forma (29). Queremos demostrar que Y = 0. Fijados m instantes 0 ≤ t1 < · · · tm ≤ T y m n´meros reales λ1 , . . . , λm sabemos que u E Y eλ1 Bt1 +···+λm Btm = 0. Esto implica que la medida ν(A) = E (Y 1A (Bt1 , . . . , Btm )) 55
  • 56.
    tiene una transformadade Laplace id´nticamente nula. Por lo tanto, e E(Y 1G ) = 0 para todo suceso G de la σ -´lgebra generada por las variables Bt1 , . . . , Btm . Por a un argumento de clases mon´tonas, esto ser´ cierto para todo G de la σ -´lgebra o a a FT , y por lo tanto, Y = 0. Teorema 13 (Teorema de representaci´n de Itˆ) Consideremos una vari- o o 2 able aleatoria F de L (Ω, FT , P ). Entonces existe un unico proceso es- ´ toc´stico u de la clase L2 tal que a a,T T F = E(F ) + us dBs . 0 Demostraci´n: Supongamos primero que la variable F es de la forma o T T 1 exp hs dBs − h2 ds , s 0 2 0 T donde h es una funci´n determinista tal que o 0 h2 ds < ∞. Definimos s t t 1 Yt = exp hs dBs − h2 ds . s 0 2 0 t Por la f´rmula de Itˆ aplicada a la funci´n f (x) = ex y al proceso Xt = o o o 0 hs dBs − 1 t 2 0 h2 ds, s obtenemos 1 1 dYt = Yt h(t)dBt − h2 (t)dt + Yt (h(t)dBt )2 2 2 = Yt h(t)dBt , es decir, t Yt = 1 + Ys h(s)dBs . 0 Por lo tanto, T F = YT = 1 + Ys h(s)dBs 0 56
  • 57.
    y se cumplela representaci´n buscada porque E(F ) = 1, o T T E Ys2 h2 (s)ds = E Ys2 h2 (s)ds 0 0 T T ≤ exp h2 ds s h2 ds < ∞ s 0 0 ya que t t E Yt2 = E exp 2 hs dBs − h2 ds s 0 0 t = exp h2 ds . s 0 Por linealidad, la representaci´n se cumplir´ en el caso en que F sea una com- o a binaci´n lineal de exponenciales del tipo (29). En el caso general, el Lema 12 nos o permite aproximar una variable arbitraria F de L2 (Ω, FT , P ) por una sucesi´n Fn o de combinaciones lineales de exponenciales de la forma (29). Tendremos, entonces, T Fn = E(Fn ) + u(n) dBs . s 0 Por la propiedad de isometr´ de la integral estoc´stica ıa a T 2 E (Fn − Fm )2 = E E(Fn − Fm ) + u(n) − u(m) dBs s s 0 T 2 = (E(Fn − Fm ))2 + E u(n) − u(m) dBs s s 0 T 2 ≥ E u(n) − u(m) s s ds . 0 La sucesi´n Fn es de Cauchy en L2 (Ω, FT , P ). Por lo tanto, o n,m→∞ E (Fn − Fm )2 −→ 0 y, en consecuencia, T 2 n,m→∞ E u(n) − u(m) s s ds −→ 0. 0 57
  • 58.
    Esto nos diceque la sucesi´n u(n) es de Cauchy en L2 ([0, T ] × Ω). Por lo tanto o ser´ convergente hacia un proceso u de L2 ([0, T ] × Ω). Por otra parte, puede a comprobarse que u pertenece a la clase L2 , teniendo en cuenta que una sucesi´n a,T o (n) parcial de u (t, ω) converge casi por todo (t, ω) hacia u(t, ω). Aplicando de nuevo la propiedad de isometr´ y teniendo en cuenta que E(Fn ) converge hacia ıa, E(F ), se obtiene T F = lim Fn = lim E(Fn ) + u(n) dBs s n→∞ n→∞ 0 T = E(F ) + us dBs . 0 Finalmente, la unicidad sale tambi´n de la propiedad de isometr´ Supong- e ıa: (1) (2) 2 amos que u y u fuesen dos procesos de La,T tales que T T F = E(F ) + u(1) dBs = E(F ) + s u(2) dBs . s 0 0 Entonces T 2 T 2 0=E u(1) s − u(2) s dBs =E u(1) − u(2) s s ds 0 0 (1) (2) y, por lo tanto, us (t, ω) = us (t, ω) casi por todo (t, ω). Teorema 14 (Teorema de representaci´n de martingalas) Supongamos o que {Mt , t ∈ [0, T ]} es una martingala respecto de la filtraci´n Ft , tal que o 2 E(MT ) < ∞ . Entonces existe un unico proceso estoc´stico u de la claseL2 ´ a a,T tal que t Mt = E(M0 ) + us dBs 0 para todo t ∈ [0, T ]. Demostraci´n: Aplicando el teorema de representaci´n de Itˆ a F = MT o o o obtenemos que existe un unico proceso u ∈ L2 tal que ´ T T T MT = E(MT ) + us dBs = E(M0 ) + us dBs . 0 0 58
  • 59.
    Supongamos que 0≤ t ≤ T . Tendremos T Mt = E[MT |Ft ] = E(M0 ) + E[ us dBs |Ft ] 0 t = E(M0 ) + us dBs . 0 2.8 Teorema de Girsanov El teorema de Girsanov nos dice que el movimiento browniano con deriva Bt + λt puede verse como un movimiento browniano sin deriva, cambiando la probabilidad. Analizaremos primero como funcionan los cambios de prob- abilidad mediante densidades. Si en un espacio de probabilidad (Ω, F, P ) consideramos una variable aleatoria L ≥ 0 de esperanza uno, entonces, Q(A) = E (1A L) define una nueva probabilidad. Que la esperanza de L sea igual a 1 nos garantiza que Q(Ω) = E(L) = 1. Se dice que L es la densidad de Q respecto de P y se escribe formalmente dQ = L. dP La esperanza de una variable aleatoria X en el espacio de probabilidad (Ω, F, Q) se calcula de la forma siguiente EQ (X) = E(XL). La probabilidad Q es absolutamente continua respecto de P , lo que significa que P (A) = 0 =⇒ Q(A) = 0. 59
  • 60.
    Si la variableL es estrictamente positiva, entonces las probabilidades P y Q son equivalentes (o sea, mutuamente absolutamente continuas), lo que significa P (A) = 0 ⇐⇒ Q(A) = 0. Veamos seguidamente un ejemplo simple de cambio de probabilidades que representa una versi´n sencilla del teorema de Girsanov: o Ejemplo 20 Sea X una variable aleatoria con ley normal N (m, σ 2 ). Existe una probabilidad Q respecto de la cual la variable X tenga ley N (0, σ 2 )? Consideremos la variable m m2 L = e− σ2 X+ 2σ2 . Es f´cil comprobar que tiene esperanza uno E(L) = 1. Por otra parte, en a el espacio de probabilidad (Ω, F, Q) la variable X tiene por funci´n carac- o ter´ ıstica: ∞ 1 (x−m)2 2 − mx + m 2 +itx EQ (eitX ) = E(eitX L) = √ e− 2σ 2 σ2 2σ dx 2πσ 2 −∞ ∞ 1 x2 σ 2 t2 = √ e− 2σ2 +itx dx = e− 2 , 2πσ 2 −∞ es decir, X tiene una ley N (0, σ 2 ). Veremos que en el caso del movimiento browniano se obtiene un resultado similar. Teniendo en cuenta que el movimiento browniano es el l´ ımite de paseos aleatorios, analizaremos primero el problema de la eliminaci´n de la o deriva en un paseo aleatorio: Consideremos una succesi´n {Xn , n ≥ 1} de variables aleatorias indepen- o dientes tales que +1, con probabilidad 1/2 Xn = . −1, con probabilidad 1/2 Pongamos S0 = 0, y Sn = X1 + · · · + Xn + na, donde a > 0. La succesi´n Sn o representa un paseo aleatorio con deriva igual a a, y no es una martingala ya que E(Sn |Fn−1 ) = Sn−1 + a, 60
  • 61.
    donde Fn esla σ-´lgebra generada por X1 , ..., Xn si n ≥ 1, y F0 = {∅, Ω}. a Podemos cambiar la asignaci´n de probabilidades de manera que Sn sea una o martingala. Si suponemos que P (Xn = +1) = p, P (Xn = −1) = 1 − p, necesitaremos que E(a + Xn ) = 0, es decir, 1−a p= , 2 suponiendo que a < 1. Multipliquemos√ valores de la constante a por ∆t y los valores de las los variables Xn por σ ∆t. O sea supondremos que S0 = 0, ∆Sn = a∆t + σXn , √ 1 P (Xn = ± ∆t) = . 2 En tal caso el valor de la probabilidad p respecto de la cual las Sn forman una martingala es √ 1 a√ P (Xn = ∆t) = p = − ∆t, 2 2σ √ 1 a√ P (Xn = − ∆t) = 1 − p = + ∆t. 2 2σ Podemos escribir √ 1 a P (Xn = ± ∆t) = 1− Xn . 2 σ Si consideramos un camino de longitud N formado por los sucesivos valores que toman las variables Xn , la probabilidad P de este camino seria 2−N , mientras que la probabilidad Q seria 2−N N 1 − σ Xn . Es decir, pode- n=1 a mos escribir N Q(camino) a = 1 − Xn . P (camino) n=1 σ 61
  • 62.
    Observamos que laprobabilidad Q est´ bien definida si a σ 2 ∆t < , a lo cual es cierto siempre que ∆t sea suficientement peque˜o.n Supongamos ahora que las variables aleatorias Sn se observan en instantes que distan ∆t. Si ∆t tiende a cero y N tiende a infinito de manera que N ∆t = t, entonces, Sn converge hacia un movimiento browniano con deriva at + σBt . Por otra parte, el cociente entre las probabilidades Q y P converge hacia un t´rmino exponencial: e N Q(camino) a = 1− Xn P (camino) n=1 σ N a = exp log 1 − Xn n=1 σ N a a2 2 exp − Xn − 2 Xn n=1 σ 2σ N a a2 = exp − Xn − t . σ n=1 2σ 2 Es decir, en el l´ ımite se obtiene Q(camino) a a2 = exp − Bt − 2 t . P (camino) σ 2σ Sea{Bt , t ∈ [0, T ]} un movimiento browniano. Fijemos un n´mero real λ. u Consideremos la martingala λ2 Lt = exp −λBt − 2 t . (30) Observemos que el proceso estoc´stico {Lt , t ∈ [0, T ]} es una martingala pos- a itiva de esperanza uno que satisface la ecuaci´n diferencial estoc´stica o a t Lt = 1 − λLs dBs . 0 62
  • 63.
    La variable LTes una densidad de probabilidad en el espacio (Ω, FT , P ) que define una probabilidad Q dada por Q(A) = E (1A LT ) , para todo A ∈ FT . La propiedad de martingala del proceso Lt implica que en el espacio (Ω, Ft , P ), la probabilidad Q tiene densidad igual a Lt . En efecto, si A pertenece a la σ-´lgebra Ft se tiene a Q(A) = E (1A LT ) = E (E (1A LT |Ft )) = E (1A E (LT |Ft )) = E (1A Lt ) . Teorema 15 (Teorema de Girsanov) En el espacio de probabilidad (Ω, FT , Q) el proceso estoc´stico a Wt = Bt + λt, es un movimiento browniano. Antes de demostrar este teorema probaremos un resultado t´cnico: e Lema 16 Supongamos que X es una variable aleatoria real y G es una σ- ´lgebra tales que a u2 σ 2 E eiuX |G = e− 2 . Entonces, la variable X es independiente de la σ-´lgebra G y tiene una ley a 2 normal N (0, σ ). Demostraci´n: Para todo suceso A ∈ G se cumplir´ o a u2 σ 2 E 1A eiuX = P (A)e− 2 . Por lo tanto, eligiendo A = Ω obtenemos la funci´n caracter´ o ıstica de X , y en consecuencia, X tiene una ley N (0, σ 2 ). Por otra parte, fijado un suceso A ∈ G , la funci´n caracter´ o ıstica de la variable X respecto de la probabilidad condicionada por A ser´ tambi´n a e u2 σ 2 EA eiuX = e− 2 . 63
  • 64.
    Es decir, laley de X condicionada por A es tambi´n una ley normal N (0, σ 2 ). e Por consiguiente, tendremos PA (X ≤ x) = Φ(x/σ) , y P ((X ≤ x) ∩ A) = P (A)Φ(x/σ) = P (A)P (X ≤ x), (31) donde Φ representa la funci´n de distribuci´n de la ley N (0, 1). La igualdad (31) o o nos da la independencia entre la variable X y la σ -´lgebra G . a Demostraci´n del teorema de Girsanov: Ser´ suficiente con demostrar o a que, en el espacio de probabilidad (Ω, FT , Q), para todo s < t ≤ T el incremento Wt − Ws es independiente de Fs y tiene ley normal N (0, t − s). Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen de la f´rmula siguiente, para todo s < t, A ∈ Fs , u ∈ R, o u2 EQ 1A eiu(Wt −Ws ) = Q(A)e− 2 (t−s) . (32) Para demostrar la f´rmula (32) ponemos o EQ 1A eiu(Wt −Ws ) = E 1A eiu(Wt −Ws ) Lt λ2 = E 1A eiu(Bt −Bs )+iuλ(t−s)−λ(Bt −Bs )− 2 (t−s) Ls λ2 = E(1A Ls )E e(iu−λ)(Bt −Bs ) eiuλ(t−s)− 2 (t−s) (iu−λ)2 2 (t−s)+iuλ(t−s)− λ (t−s) = Q(A)e 2 2 u2 = Q(A)e− 2 (t−s) . El teorema de Girsanov admite la siguiente generalizaci´n: o Teorema 17 Sea {θt , t ∈ [0, T ]} un proceso adaptado y tal que cumple la denominada condici´n de Novikov: o T 1 E exp θ2 dt t < ∞. (33) 2 0 Entonces, el proceso t W t = Bt + θs ds 0 64
  • 65.
    es un movimientobrowniano respecto de la probabilidad Q definida por Q(A) = E (1A LT ) , donde t t 1 Lt = exp − θs dBs − θ2 ds . s 0 2 0 Observemos que de nuevo Lt es satisface la ecuaci´n diferencial estoc´stica o a t Lt = 1 − θs Ls dBs . 0 Para que el proceso Lt sea una martingala y tengamos E(Lt ) = 1, necesitamos que θs Ls pertenezca a la clase L2 . La condici´n (33) sirve para asegurar a,T o esta propiedad. Como aplicaci´n del teorema de Girsanov deduciremos la ley del instante o de llegada del movimiento browniano con deriva a un nivel a. Sea {Bt , t ≥ 0} un movimiento browniano. Fijado un valor λ, definimos la martingala Lt como en (30). Sea Q la probabilidad en ∪t≥0 Ft tal que para todo t ≥ 0 dQ |F = Lt . dP t Por el teorema de Girsanov, para todo T > 0, en el espacio de probabili- dad (Ω, FT , Q) el proceso Bt + λt := Bt es un movimiento browniano en el intervalo de tiempo [0, T ]. Es decir, en este espacio Bt es un movimiento browniano con deriva −λt. Sea τ a = inf{t ≥ 0, Bt = a}, donde a = 0. Para cada t ≥ 0 el suceso {τ a ≤ t} pertenece a la σ-´lgebra a Fτ a ∧t ya que para todo s ≥ 0 {τ a ≤ t} ∩ {τ a ∧ t ≤ s} = {τ a ≤ t} ∩ {τ a ≤ s} = {τ a ≤ t ∧ s} ∈ Fs∧t ⊂ Fs . 65
  • 66.
    Por consiguiente, utilizandola propiedad de martingala respecto de los tiem- pos de paro obtenemos Q{τ a ≤ t} = E 1{τ a ≤t} Lt = E 1{τ a ≤t} E(Lt |Fτ a ∧t ) = E 1{τ a ≤t} Lτ a ∧t = E 1{τ a ≤t} Lτ a 1 2 = E 1{τ a ≤t} e−λa− 2 λ τa t 1 2 = e−λa− 2 λ s f (s)ds, 0 donde f es la densidad de la variable τ a . Sabemos que |a| a2 f (s) = √ e− 2s . 2πs3 Por lo tanto, respecto de Q la variable aleatoria τ a tiene una densidad igual a |a| − (a+λs)2 √ e 2s , s > 0. 2πs3 Haciendo, t ↑ ∞ obtenemos 1 2 Q{τ a < ∞} = e−λa E e− 2 λ τa = e−λa−|λa| . Si λ = 0 (movimiento browniano sin deriva), la probabilidad de llegar alguna vez a un nivel dado es igual a uno. Si −λa > 0 (la deriva −λ y el nivel a tienen el mismo signo) esta probabilidad es tambi´n igual a uno. Si −λa < 0 e (la deriva −λ y el nivel a tienen signo distinto) la probabilidad vale e−2λa . Ejercicios 2.1 Consideremos una funci´n f tal que o T f (s)2 ds < ∞. 0 Definimos la sucesi´n de funciones continuas o t fn (t) = f (s)ds, 1 t− n 66
  • 67.
    con la convenci´nf (s) = 0 si s < 0. Demostrar que se cumple o T n→∞ (f (s) − fn (s))2 ds −→ 0 −→ 0. 0 Indicaci´n: Sabemos que para cada ε > 0 podemos encontrar una o funci´n continua g tal que o T (f (s) − g(s))2 ds < ε. 0 2.2 Consideremos un proceso estoc´stico M = {Mt , t ≥ 0} que es una mar- a tingala respecto de una filtraci´n {Mt , t ≥ 0}. Demostrar que el pro- o ceso M tambi´n es una martingala respecto de la filtraci´n natural e o M Ft = σ (Ms , 0 ≤ s ≤ t) ⊂ Mt . 2.2 Consideremos una martingala M = {Mt , t ≥ 0} respecto de una fil- traci´n {Mt , t ≥ 0} tal que E(Mt2 ) < ∞ para todo t ≥ 0. Demostrar o que si s < t E((Mt − Ms )2 |Ms ) = E(Mt2 − Ms |Ms ). 2 2.3 Demostrar que si τ es un tiempo de paro, Fτ definida en (18) es una σ- ´lgebra y τ es Fτ -medible. Si X = {Xt , t ≥ 0} es un proceso adaptado a con trayectorias continuas, y τ es finito, demostrar que la variable Xτ es Fτ -medible. 2.4 Sea Y una variable aleatoria integrable y {Mt , t ≥ 0} una familia cre- ciente de σ-´lgebras. Demostrar que a Mt = E(Y |Mt ) es una martingala. 2.5 Comprobar si los siguientes procesos estoc´sticos, definidos a partir de a 67
  • 68.
    un movimiento brownianoBt , son martingalas: 3 Xt = Bt − 3tBt s Xt = t2 Bt − 2 sBs ds 0 Xt = et/2 cos Bt Xt = et/2 sin Bt 1 Xt = (Bt + t) exp(−Bt − t) 2 Xt = B1 (t)B2 (t). En el ultimo caso, B1 y B2 son dos movimientos brownianos indepen- ´ dientes. 2.6 Supongamos que Bt es un movimiento browniano n-dimensional y sea f : Rn → R una funci´n de clase C 2 . Utilizando la f´rmula de Itˆ o o o demostrar que t t 1 f (Bt ) = f (0) + f (Bs )ds + ∆f (Bs )ds. 0 2 0 2.7 Encontrar el proceso u que nos proporciona la representaci´n integral o T F = E(F ) + us dBs 0 en los ejemplos siguientes: F = BT 2 F = BT F = eBT T F = Bt dt 0 3 F = BT F = sin BT √ 2.8 Sea p(t, x) = 1/ 1 − t exp(−x2 /2(1 − t)), para 0 ≤ t < 1 y x ∈ R, y p(1, x) = 0. Definimos Mt = p(t, Bt ), donde {Bt , 0 ≤ t ≤ 1} es un movimiento browniano. 68
  • 69.
    a) Demostrar que t ∂p Mt = M0 + (s, Bs )dBs . 0 ∂x ∂p 1 b) Sea Ht = ∂x (t, Bt ). Probar que 0 Ht2 dt < ∞ casi seguramente, 1 pero E 0 Ht2 dt = ∞. 2.9 Sean Yt y Xt procesos de Itˆ. Demostrar la siguiente f´rmula de inte- o o graci´n por partes: o t t t Xt Yt = X0 Y0 + Xs dYs + Ys dXs + dXs dYs . 0 0 0 3 Ecuaciones diferenciales estoc´sticas a Queremos resolver ecuaciones diferenciales del tipo dXt = b(t, Xt )dt + σ(t, Xt )dBt . (34) Los coeficientes b(t, x) y σ(t, x) se denominan, respectivamente, coefi- ciente de deriva y coeficiente de difusi´n. Si el coeficiente de difusi´n se o o anula, entonces, tendremos una ecuaci´n diferencial ordinaria: o dXt = b(t, Xt ), dt que puede resolverse, si conocemos la condici´n inicial X0 . Por ejemplo, en o el caso lineal b(t, x) = b(t)x, la soluci´n es o Rt b(s)ds Xt = X0 + e 0 . Una ecuaci´n diferencial del tipo (34) se denomina una ecuaci´n diferen- o o cial estoc´stica. La soluci´n ser´ un proceso estoc´stico {Xt , t ≥ 0} con a o a a trayectorias continuas adaptado a la filtraci´n browniana. Los procesos o soluci´n se denominan procesos de difusi´n. o o Una interpretaci´n heur´ o ıstica de la ecuaci´n diferencial (34) ser´ la sigu- o ıa iente: El incremento ∆Xt = Xt+∆t − Xt se expresa como una suma de b(t, Xt )∆t m´s un t´rmino que depende del incremento del movimiento brow- a e niano: σ(t, Xt )∆Bt y que se interpreta como una impulso aleatorio. Por 69
  • 70.
    tanto, el incremento∆Xt tendr´ una ley normal de media b(t, Xt )∆t y vari- a 2 anza σ(t, Xt ) ∆t. La formalizaci´n de estas ecuaciones se realiza transform´ndolas en ecua- o a ciones integrales y utilizando integrales estoc´sticas: a t t Xt = X0 + b(s, Xs )ds + σ(s, Xs )dBs . (35) 0 0 El resultado fundamental sobre la existencia y unicidad de soluciones es el siguiente: Teorema 18 Fijemos un intervalo de tiempo [0, T ]. Supongamos que los coeficientes de la ecuaci´n (34) verifican: o |b(t, x) − b(t, y)| ≤ D1 |x − y| (36) |σ(t, x) − σ(t, y)| ≤ D2 |x − y| (37) |b(t, x)| ≤ C1 (1 + |x|) (38) |σ(t, x)| ≤ C2 (1 + |x|), (39) para todo x, y ∈ R, t ∈ [0, T ]. Supongamos que Z es una variable aleatoria independiente de la σ-´lgebra FT generada por el movimiento browniano en a 2 [0, T ], tal que E(Z ) < ∞. Entonces, existe un unico proceso {Xt , t ∈ [0, T ]} ´ continuo, adaptado, soluci´n de (35) y tal que o T E |Xs |2 ds < ∞. 0 Observaciones: 1.- Este resultado es cierto en dimensi´n superior, cuando Bt es un movimiento o browniano m-dimensional, la soluci´n Xt es un proceso estoc´stico n- o a dimensional, y los coeficientes son funciones b : [0, T ] × Rn → Rn , σ : [0, T ] × Rn → Rn×m . 2.- La condici´n de crecimiento lineal (38,39) garantiza que la soluci´n no o o explota antes del tiempo final T . Por ejemplo, la ecuaci´n diferencial o determinista dXt = Xt2 , X0 = 1, dt 70
  • 71.
    tiene por unicasoluci´n la funci´n ´ o o 1 Xt = , 0 ≤ t < 1, 1−t que diverge en el instante t = 1. 3.- La condici´n de Lipschitz (36,37) garantiza que no exista m´s de una o a soluci´n. Por ejemplo, la ecuaci´n diferencial determinista o o dXt 2/3 = 3Xt , X0 = 0, dt tiene infinitas soluciones ya que para cada a > 0, la funci´n o 0 si t ≤ a Xt = (t − a)3 si t > a es soluci´n. En este ejemplo la funci´n b(x) = 3x2/3 no cumple la o o condici´n de Lipschitz ya que la derivada de b no est´ acotada. o a 4.- Si los coeficientes b(t, x) y σ(t, x) son diferenciables en la variable x, la condici´n de Lipschitz significa que las derivadas parciales ∂x y ∂σ est´n o ∂b ∂x a acotadas por las constantes D1 y D2 , respectivamente. Demostraci´n del Teorema 18: Consideremos el espacio L2 de los o a,T T procesos adaptados a la filtraci´n FtZ = σ(Z) ∨ Ft y tales que E o 0 |Xs |2 ds < ∞. En este espacio introducimos la siguiente norma T 1/2 −λs 2 X = e E Xs ds , 0 2 2 donde λ es una constante tal que λ > 2 (T D1 + D2 ). Definimos un operador en este espacio de la forma siguiente t t (LX)t = X0 + b(s, Xs )ds + σ(s, Xs )dBs . 0 0 Este operador est´ bien definido debido a la propiedad de crecimiento lineal (38,39) a de los coeficientes de la ecuaci´n. o 71
  • 72.
    La desigualdad deSchwartz y la isometr´ de la integral estoc´stica nos per- ıa a miten escribir t 2 2 E |(LX)t − (LY )t | ≤ 2E (b(s, Xs ) − b(s, Ys )) ds 0 t 2 +2E (σ(s, Xs ) − σ(s, Xs )) dBs 0 t ≤ 2T E (b(s, Xs ) − b(s, Ys ))2 ds 0 t +2E (σ(s, Xs ) − σ(s, Xs ))2 ds . 0 Utilizando la propiedad de Lipschitz (36,37) se obtiene t E |(LX)t − (LY )t |2 ≤ 2 T D1 + D2 E 2 2 (Xs − Ys )2 ds . 0 2 2 Pongamos C = 2 (T D1 + D2 ). Por consiguiente, multiplicando por el factor e−λt e integrando en [0, T ] se obtiene T T t e−λt E |(LX)t − (LY )t |2 dt ≤ C e−λt E (Xs − Ys )2 ds dt 0 0 0 T T ≤ C e−λt dt E (Xs − Ys )2 ds 0 s T C ≤ e−λs E (Xs − Ys )2 ds. λ 0 Por lo tanto, C LX − LY ≤ X −Y λ C y como λ < 1. Esto nos dice que el operador L es una contracci´n en el espacio o L2 . El teorema del punto fijo nos asegura que este operador tiene un unico punto a,T ´ fijo, lo que implica la unicidad y existencia de soluci´n de la ecuaci´n (35). o o 72
  • 73.
    3.1 Soluciones expl´ ıcitas de ecuaciones diferenciales es- toc´sticas a La f´rmula de Itˆ permite resolver expl´ o o ıcitamente algunas ecuaciones difer- enciales estoc´sticas. Veamos algunos ejemplos. a A) Ecuaciones lineales. El movimiento browniano geom´trico e 2 µ− σ t+σBt Xt = X0 e 2 satisface la ecuaci´n lineal o dXt = µXt dt + σXt dBt . M´s generalmente, la soluci´n de la ecuaci´n lineal homog´nea a o o e dXt = b(t)Xt dt + σ(t)Xt dBt ser´ a t t Xt = X0 exp 0 b(s) − 1 σ 2 (s) ds + 2 0 σ(s)dBs B) El proceso de Ornstein-Uhlenbeck. Consideremos la ecuaci´n diferencial o estoc´stica a dXt = a (m − Xt ) dt + σdBt X0 = x, donde a, σ 0 y m es un n´mero real. Como se trata de una ecuaci´n u o lineal no homog´nea, utilizaremos el m´todo de variaci´n de las con- e e o stantes. La soluci´n de la ecuaci´n homog´nea o o e dxt = −axt dt x0 = x es xt = xe−at . Entonces hacemos el cambio de variable Xt = Yt e−at , es decir, Yt = Xt eat . El proceso Yt satisface dYt = aXt eat dt + eat dXt = ameat dt + σeat dBt . 73
  • 74.
    Por tanto, t Yt = x + m(eat − 1) + σ eas dBs , 0 lo que implica t as Xt = m + (x − m)e−at + σe−at 0 e dBs El proceso estoc´stico Xt es gaussiano. La media y varianza de cada a variable Xt pueden calcularse f´cilmente: a E(Xt ) = m + (x − m)e−at , t 2 V arXt = σ 2 e−2at E eas dBs 0 t σ2 = e−2at e2as ds = 1 − e−2at . 0 2a La distribuci´n de Xt cuando t tiende a infinito converge hacia la ley o normal σ2 N (m, ). 2a Esta ley se denomina la ley invariante o estacionaria. En el caso m = 0 este proceso se denomina el proceso de Ornstein-Uhlenbeck. C) Consideremos una ecuaci´n diferencial estoc´stica del tipo o a dXt = f (t, Xt )dt + c(t)Xt dBt , X0 = x, (40) donde f (t, x) y c(t) son funciones deterministas continuas, tales que f satisface las condiciones de crecimiento lineal y propiedad de Lipschitz en la variable x. Esta ecuaci´n se puede resolver siguiendo los pasos o siguientes: a) Se considera el “factor integrante” t t 1 Ft = exp − c(s)dBs + c2 (s)ds , 0 2 0 tal que Ft−1es soluci´n de la ecuaci´n (40) si f = 0 y x = 1. El o o proceso Yt = Ft Xt cumple dYt = Ft f (t, Ft−1 Yt )dt, Y0 = x. (41) 74
  • 75.
    b) La ecuaci´n(41) es una ecuaci´n diferencial determinista, parametrizada o o por ω ∈ Ω, que podr´ resolverse mediante m´todos habituales. a e Por ejemplo, supongamos que f (t, x) = f (t)x. En tal caso la ecuaci´n o (41) es dYt = f (t)Yt dt, de lo que se deduce t Yt = x exp f (s)ds 0 y, por lo tanto, t t 1 t 2 Xt = x exp 0 f (s)ds + 0 c(s)dBs − 2 0 c (s)ds D) Ecuaci´n diferencial estoc´stica lineal general. Consideremos la ecuaci´n o a o dXt = (a(t) + b(t)Xt ) dt + (c(t) + d(t)Xt ) dBt , con condici´n inicial X0 = x, donde a, b, c y d son funciones continuas. o Utilizando el m´todo de variaci´n de las constantes propondremos una e o soluci´n de la forma o Xt = Ut Vt (42) donde dUt = b(t)Ut dt + d(t)Ut dBt y dVt = α(t)dt + β(t)dBt , con U0 = 1 y V0 = x. Por el apartado C sabemos que t t t 1 Ut = exp b(s)ds + d(s)dBs − d2 (s)ds . 0 0 2 0 Por otra parte, diferenciando la igualdad (42) obtenemos a(t) = Ut α(t) + β(t)d(t)Ut c(t) = Ut β(t) 75
  • 76.
    es decir β(t) = c(t) Ut−1 α(t) = [a(t) − c(t)d(t)] Ut−1 . Finalmente, t −1 t −1 Xt = Ut x + 0 [a(s) − c(s)d(s)] Us ds + 0 c(s) Us dBs La ecuaci´n diferencial estoc´stica de Itˆ o a o t t Xt = X0 + b(s, Xs )ds + σ(s, Xs )dBs , 0 0 puede transformarse en una ecuaci´n de Stratonovich, utilizando la f´rmula o o (27) que nos relaciona ambos tipos de integral. As´ se obtiene ı, t t t 1 Xt = X0 + b(s, Xs )ds − (σσ ) (s, Xs )ds + σ(s, Xs ) ◦ dBs , 0 0 2 0 ya que la expresi´n del proceso σ(s, Xs ) como proceso de Itˆ ser´ o o ıa t 1 σ(t, Xt ) = σ(0, X0 ) + σ b − σ σ 2 (s, Xs )ds 0 2 t + (σσ ) (s, Xs )dBs . 0 Yamada y Watanabe demostraron en 1971 que la condici´n de Lipschitz o pod´ debilitarse de la forma siguiente, en el caso de ecuaciones diferenciales ıa estoc´sticas unidimensionales. Supongamos que los coeficientes b y σ no de- a penden del tiempo, el coeficiente b es Lipschitz, pero el coeficiente σ satisface la condici´n de H¨lder o o |σ(x) − σ(y)| ≤ D|x − y|α , donde α ≥ 1 . En tal caso existe una unica soluci´n de la ecuaci´n. 2 ´ o o Por ejemplo, la ecuaci´n o dXt = |Xt |r dBt X0 = 0 tiene una soluci´n unica si r ≥ 1/2. o ´ 76
  • 77.
    3.2 Soluciones fuertes y soluciones d´biles e La soluci´n Xt que hemos encontrado antes es una soluci´n fuerte porque es o o un proceso adaptado a la familia de σ-´lgebras a FtZ = σ(Bs , s ≤ t, Z). Podemos plantear el problema de forma diferente. Nos dan los coeficientes b(t, x) y σ(t, x) y nos piden que encontremos un par de procesos Xt , Bt en un espacio de probabilidad (Ω, F, P ) tales que Bt es un movimiento browniano relativo a una filtraci´n Ht y Xt satisface la ecuaci´n (34) en este espacio. Di- o o remos entonces que (Ω, F, P, Ht , Xt , Bt ) es una soluci´n d´bil de la ecuaci´n o e o (34). Pueden demostrarse los siguientes resultados: • Toda soluci´n fuerte es tambi´n una soluci´n d´bil. o e o e • Una ecuaci´n con coeficientes b(t, x) y σ(t, x) se dice que tiene unicidad o d´bil si dos soluciones d´biles tienen la misma ley (las mismas distribu- e e ciones en dimensi´n finita). Si los coeficientes satisfacen las condiciones o del Teorema (18) entonces se satisface la unicidad d´bil. e • La existencia de soluciones d´biles puede asegurarse suponiendo sola- e mente que los coeficientes b(t, x) y σ(t, x) son funciones continuas y acotadas. La ecuaci´n de Tanaka o dXt = sign (Xt ) dBt , X0 = 0, no tiene ninguna soluci´n fuerte pero tiene una soluci´n d´bil unica. o o e ´ 3.3 Aproximaciones num´ricas e Muchas ecuaciones diferenciales estoc´sticas no pueden resolverse expl´ a ıcitamente. Por ello es conveniente disponer de m´todos num´ricos que permiten la sim- e e ulaci´n de soluciones. o 77
  • 78.
    Consideremos la ecuaci´ndiferencial estoc´stica con coeficientes indepen- o a dientes del tiempo dXt = b(Xt )dt + σ(Xt )dBt , (43) con condici´n inicial X0 = x. o Fijemos un intervalo de tiempo [0, T ] y consideremos la subdivisi´n for- o mada por los puntos iT tj = , i = 0, 1, . . . , n. n La longitud de cada subintervalo ser´ δ n = T . a n El m´todo de Euler consiste en el esquema recursivo siguiente: e X (n) (ti ) = X (n) (ti−1 ) + b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 ))∆Bi , (n) i = 1, . . . , n, donde ∆Bi = Bti − Bti−1 . El valor inicial ser´ X0 = x. a (n) En los puntos de cada intervalo (ti ti+1 ) el valor del proceso X se deduce por interpolaci´n lineal. El proceso X (n) es una funci´n del movimiento o o browniano y podemos medir el error comerido al aproximar X por X (n) : 2 (n) en = E XT − XT . Puede demostrarse que en es del orden δ 1/2 es decir, n en ≤ cδ 1/2 n si n ≥ n0 . Para simular una soluci´n mediante el m´todo de Euler, basta con obtener o e valores de n variables aleatorias ξ 1 , . . . ., ξ n independientes con ley N (0, 1), y √ substituir ∆Bi por δ n ξ i . El m´todo de Euler puede mejorarse mediante una correcci´n adicional. e o Esto nos lleva a introducir el m´todo de Milstein. e El valor exacto del incremento entre dos puntos de la partici´n es o ti ti X(ti ) = X(ti−1 ) + b(Xs )ds + σ(Xs )dBs . (44) ti−1 ti−1 En el m´todo de Euler se basa en aproximar las integrales de la forma sigu- e iente: ti b(s)ds ≈ b(X (n) (ti−1 ))δ n , ti−1 ti σ(s)dBs ≈ σ(X (n) (ti−1 ))∆Bi . ti−1 78
  • 79.
    En el m´todode Milstein, aplicaremos la f´rmula de Itˆ a los procesos b(Xs ) y e o o σ(Xs ) que aparecen en (44), con objeto de obtener una aproximaci´n mejor. o De esta forma obtenemos X(ti ) − X(ti−1 ) ti s s 1 = b(X (n) (ti−1 )) + bb + b σ 2 (Xr )dr + (σb ) (Xr )dBr ds ti−1 ti−1 2 ti−1 ti s s (n) 1 + σ(X (ti−1 )) + bσ + σ σ 2 (Xr )dr + (σσ ) (Xr )dBr dBs ti−1 ti−1 2 ti−1 = b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 ))∆Bi + Ri . El t´rmino dominante en el resto es la integral estoc´stica doble e a ti s (σσ ) (Xr )dBr dBs , ti−1 ti−1 y puede demostrarse que las dem´s componentes del resto son de ´rdenes a o inferiores y pueden despreciarse. La integral estoc´stica doble puede, a su a vez, aproximarse por ti s (σσ ) (X (n) (ti−1 )) dBr dBs . ti−1 ti−1 Las reglas del c´lculo estoc´stico nos permiten calcular la integral doble que a a nos queda: ti s ti dBr dBs = Bs − Bti−1 dBs ti−1 ti−1 ti−1 1 = 2 2 Bti − Bti−1 − Bti−1 Bti − Bti−1 − δ 2 n 2 1 = (∆Bi )2 − δ 2 . n 2 En conclusi´n, el m´todo de Milstein consiste en el sistema recursivo siguiente o e X (n) (ti ) = X (n) (ti−1 ) + b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 )) ∆Bi 1 + (σσ ) (X (n) (ti−1 )) (∆Bi )2 − δ 2 . n 2 79
  • 80.
    Puede demostarse queel error en es del orden δ n es decir, en ≤ cδ n si n ≥ n0 . 3.4 Propiedad de Markov Consideremos un proceso de difusi´n n-dimensional {Xt , t ≥ 0} que satisface o una ecuaci´n diferencial estoc´stica del tipo o a dXt = b(t, Xt )dt + σ(t, Xt )dBt , (45) donde B es un movimiento browniano m-dimensional y los coeficientes b y σ son funciones que satisfacen las hip´tesis del Teorema (18). o Seguidamente demostraremos que los procesos de difusi´n satisfacen la o propiedad de Markov. Esta propiedad nos dice que el comportamiento futuro del proceso, conociendo la informaci´n hasta el instante t solo depende del o valor del proceso en el instante presente, Xt . Definici´n 19 Diremos que un proceso estoc´stico n-dimensional {Xt , t ≥ o a 0} es un proceso de Markov si para todo s t se tiene E(f (Xt )|Xr , r ≤ s) = E(f Xt )|Xs ), para toda funci´n medible y acotada f en Rn . o La ley de probabilidad de los procesos de Markov se caracteriza mediante las denominadas probabilidades de transici´n: o P (C, t, x, s) = P (Xt ∈ C|Xs = x), donde 0 ≤ s t, C ∈ BRn y x ∈ Rn . Es decir, P (·, t, x, s) es la ley de proba- bilidad de la variable Xt condicionada por Xs = x. Si esta ley condicionada tiene densidad, la designaremos por p(y, t, x, s). Por ejemplo, el movimiento browniano real Bt es un proceso de Markov con probabilidades de transici´n o dadas por 1 (x−y)2 p(y, t, x, s) = e− 2(t−s) . 2π(t − s) 80
  • 81.
    Designaremos por {Xts,x, t ≥ s} la soluci´n de la ecuaci´n diferencial es- o o s,x toc´stica (45) en el intervalo de tiempo [s, ∞) y con condici´n inicial Xs = a o x. Si s = 0, escribiremos Xt0,x = Xtx . Puede demostrarse que existe una versi´n continua en los tres par´metros o a del proceso estoc´stico a {Xts,x , 0 ≤ s ≤ t, x ∈ Rn } . Por otra parte, para cada 0 ≤ s ≤ t se cumple la siguiente propiedad: x s,Xs Xtx = Xt (46) En efecto, Xtx para t ≥ s satisface la ecuaci´n diferencial estoc´stica o a t t Xtx = Xs + x x b(u, Xu )du + x σ(u, Xu )dBu . s s Por otra parte, Xts,y verifica t t Xts,y = y + s,y b(u, Xu )du + s,y σ(u, Xu )dBu s s s,X x x y substituyendo y por Xs obtenemos que los procesos Xtx y Xt s son solu- x ciones de la misma ecuaci´n en el intervalo [s, ∞) con condici´n inicial Xs . o o Por la unicidad de soluciones deben coincidir. Teorema 20 (Propiedad de Markov de las difusiones) Sea f una funci´n o medible y acotada definida en Rn . Entonces, para cada 0 ≤ s t tendremos E [f (Xt )|Fs ] = E [f (Xts,x )] |x=Xs . Demostraci´n: Tenemos, utilizando (46) y la Regla 7 de la esperanza condi- o cionada: E [f (Xt )|Fs ] = E f (Xts,Xs )|Fs = E [f (Xts,x )] |x=Xs , s,x ya que el proceso {Xt , t ≥ s, x ∈ Rn } es independiente de Fs y la variable Xs es medible respecto de Fs . Este teorema nos dice que los procesos de difusi´n tienen la propiedad de o Markov y sus probabilidades de transici´n son o P (C, t, x, s) = P (Xts,x ∈ C). 81
  • 82.
    Si el procesode difusi´n es homog´neo en el tiempo, la propiedad de Markov o e se escribe x E [f (Xt )|Fs ] = E f (Xt−s ) |x=Xs . 3.5 Generador de una difusi´n o Consideremos un proceso de difusi´n n-dimensional {Xt , t ≥ 0} que satisface o una ecuaci´n diferencial estoc´stica del tipo o a dXt = b(t, Xt )dt + σ(t, Xt )dBt . donde B es un movimiento browniano m-dimensional. Supondremos que los coeficientes b y σ satisfacen las hip´tesis del Teorema 18 y que X0 es o constante. Podemos asociar a un proceso de difusi´n un operador diferencial de se- o gundo orden. Dicho operador, que denotaremos por As , s ≥ 0, se denomina el generador de la difusi´n, y se define por o n ∂f n ∂ f 2 1 As f (x) = i=1 bi (s, x) ∂xi + 2 i,j=1 (σσ )i,j (s, x) ∂xi ∂xj . (47) En esta expresi´n f es una funci´n en Rn dos veces derivable con derivadas o o 1,2 parciales continuas (de clase C ). La matriz (σσ ) (s, x) es sim´trica y e semidefinida positiva: n (σσ )i,j (s, x) = σ i,k (s, x)σ j,k (s, x). k=1 La relaci´n entre el operador As y la difusi´n viene dada por la siguiente o o propiedad, consecuencia de la f´rmula de Itˆ: Si f (t, x) es una funci´n de o o o clase C 1,2 , entonces, f (t, Xt ) es un proceso de Itˆ con diferencial o ∂f df (t, Xt ) = (t, Xt ) + At f (t, Xt ) dt ∂t n m ∂f j + (t, Xt )σ i,j (t, Xt )dBt . i=1 j=1 ∂xi 82
  • 83.
    Por consiguiente, sise cumple t 2 ∂f E (s, Xs )σ i,j (s, Xs ) ds ∞ (48) 0 ∂xi para cada t 0 y cada i, j, el proceso t ∂f Mt = f (t, Xt ) − + As f (s, Xs )ds (49) 0 ∂s ser´ una martingala. Condiciones suficientes para (48) son: a ∂f a) Las derivadas parciales ∂xi est´n acotadas. a b) Existen constantes ct , kt tales que para cada s ∈ [0, t] ∂f ∂f ∂2f (s, x) + (s, x) + (s, x) ≤ ct ekt |x| . ∂s ∂xi ∂xi ∂xj En particular si f satisface la ecuaci´n o ∂f ∂t + At f = 0 (50) y se cumple a) o b), entonces f (t, Xt ) es una martingala. La propiedad de martingala de este proceso nos permite dar una inter- pretaci´n probabilista de la soluci´n de una ecuaci´n parab´lica con condici´n o o o o o n terminal fijada: Si la funci´n f (t, x) satisface (50) en [0, T ] × R con la o condici´n terminal f (T, x) = g(x), entonces o t,x f (t, x) = E(g(XT )) casi por todo respecto de la ley de Xt . En efecto, la propiedad de martingala del proceso f (t, Xt ) implica t,x f (t, Xt ) = E(f (T, XT )|Xt ) = E(g(XT )|Xt ) = E(g(XT ))|x=Xt . Consideremos una funci´n q(x) continua y acotada inferiormente. En- o tonces, aplicando de nuevo la f´rmula de Itˆ puede demostrarse que, si la o o 83
  • 84.
    funci´n f esde clase C 1,2 y cumple una de las condiciones a) o b) anteriores, o el proceso Rt t Rs ∂f Mt = e− 0 q(Xs )ds f (t, Xt ) − e− 0 q(Xr )dr + As f − qf (s, Xs )ds 0 ∂s es una martingala. En efecto, Rt n m − q(Xs )ds ∂f j dMt = e 0 i (t, Xt )σ i,j (t, Xt )dBt . i=1 j=1 ∂x Si la funci´n f satisface la ecuaci´n o o ∂f + As f − qf = 0 (51) ∂s entonces, Rt e− 0 q(Xs )ds f (t, Xt ) (52) ser´ una martingala. a Supongamos que f (t, x) satisface (51) en [0, T ] × Rn con condici´n termi- o nal f (T, x) = g(x). Entonces, RT t,x t,x f (t, x) = E e− t q(Xs )ds g(XT ) . En efecto, la propiedad de martingala del proceso (52) implica RT f (t, Xt ) = E e− t q(Xs )ds f (T, XT )|Ft . Finalmente, la propiedad de Markov nos permite escribir RT RT t,x t,x E e− t q(Xs )ds f (T, XT )|Ft = E e− t q(Xs )ds g(XT ) |x=Xt . Tomando esperanzas en la ecuaci´n (49) se obtiene o t ∂f E(f (t, Xt )) = f (0, X0 ) + E + As f (s, Xs )ds. 0 ∂s Esta es la denominada f´rmula de Dynkin que tiene una extensi´n a tiempos o o de paro. Designaremos por C0 (R ) el conjunto de las funciones f en Rn con 2 n dos derivadas parciales continuas y soporte compacto. 84
  • 85.
    Teorema 21 (F´rmulade Dynkin) Sea f ∈ C0 (Rn ) y consideremos un o 2 proceso de difusi´n {Xt , t ≥ 0} que satisface la ecuaci´n diferencial es- o o toc´stica (45), con condici´n inicial constante. Entonces, si τ es un tiempo a o de paro tal que E(τ ) ∞, τ E [f (Xτ )] = f (X0 ) + E (As f ) (Xs )ds. 0 En particular si τ es el tiempo de salida de un conjunto acotado, la condici´n E(τ ) ∞ siempre se cumple. o Demostraci´n: Utilizando la f´rmula de Itˆ es suficiente con ver que o o o n m τ ∂f k E (Xs )σ i,k (s, Xs )dBs = 0. i=1 k=1 0 ∂xi Consideremos la sucesi´n de variables aleatorias, para cada i, k fijados, o τ ∧N ∂f k ξN = (Xs )σ i,k (s, Xs )dBs . 0 ∂xi Esta sucesi´n converge casi seguramente hacia la variable o τ ∂f k ξ= (Xs )σ i,k (s, Xs )dBs . 0 ∂xi La propiedad (20) implica N ∂f k E [ξ N ] = E (Xs )σ i,k (s, Xs )1{s≤τ } dBs = 0. 0 ∂xi ∂f Por otra parte, como la funci´n f tiene soporte compacto, el proceso o ∂xi (Xs )σ i,k (s, Xs ) est´ acotado por una constante c y por consiguiente, a N 2 2 ∂f E (ξ N ) =E (Xs )σ i,k (s, Xs )1{s≤τ } ds ≤ N c2 E(τ ) ∞. 0 ∂xi La acotaci´n uniforme de los momentos de orden 2 de las variables ξ N , y la o convergencia casi segura de la sucesi´n ξ N hacia la variable ξ implican o E(ξ) = lim E(ξ N ) = 0. N →∞ 85
  • 86.
    Como aplicaci´n consideremosel siguiente problema. Sea Bt un movimiento o browniano n-dimensional tal que B0 = a, y supongamos |a| R. Cual es la esperanza del tiempo de salida τ K de la bola de radio R : K = {x ∈ Rn : |x| R}. Apliquemos la f´mula de Dynkin a X = B, τ = τ K ∧ N y sea f una funci´n o o 2 n 2 2 de C0 (R ) tal que f (x) = |x| para |x| ≤ R. Tendremos τ 1 E[f (Bτ )] = f (a) + E ∆f (Bs )ds 2 0 = |a|2 + nE [τ ] . Por tanto, 1 E [τ K ∧ N ] = R2 − |a|2 n y haciendo N → ∞ obtenemos 1 E [τ K ] = R2 − |a|2 . n 3.6 Procesos de difusi´n y ecuaciones en derivadas par- o ciales Existe una relaci´n interesante entre procesos de difusi´n y ecuaciones en o o derivadas parciales. En general, los procesos de difusi´n permiten dar in- o terpretaciones probabilistas de ecuaciones en derivadas parciales de segundo orden. Consideremos el siguiente ejemplo sencillo. Si Bt es un movimiento brow- niano, y f es una funci´n continua y con crecimiento polinomial, la funci´n o o u(t, x) = E(f (Bt + x)) satisface la ecuaci´n de la calor: o ∂u 1 ∂ 2u = , (53) ∂t 2 ∂x2 con condici´n inicial u(0, x) = f (x). Esto es debido a que podemos escribir o ∞ 1 − (x−y)2 E(f (Bt + x)) = f (y) √ e 2t dy, −∞ 2πt 86
  • 87.
    (x−y)2 1 y la funci´n √2πt e− 2t para cada y fijo, satisface la ecuaci´n (53). o o La funci´n x → u(t, x) representa la distribuci´n de temperaturas en una o o barra de longitud infinita, suponiendo un perfil inicial de temperaturas dado por la funci´n f (x). o Consideremos una difusi´n es homog´nea en el tiempo. En tal caso, el o e generador A no depende del tiempo y vale: n n ∂f 1 ∂ 2f Af (x) = bi (x) + (σσ )i,j (x) . (54) i=1 ∂xi 2 i,j=1 ∂xi ∂xj La f´rmula de Dynkin, suponiendo X0 = x, nos dice que o t E [f (Xtx )] = f (x) + 0 x E [Af (Xs )] ds. (55) Consideremos la funci´n o u(t, x) = E [f (Xtx )]. (56) La f´rmula (55) nos dice que esta funci´n es diferenciable y satisface la sigu- o o iente ecuaci´n o ∂u = E [Af (Xtx )] . ∂t x El t´rmino E [Af (Xt )] puede tambi´n expresarse en funci´n de u. Para ello e e o necesitamos introducir el dominio del generador de la difusi´n: o Definici´n 22 El dominio DA del generador de la difusi´n {Xt } es el con- o o junto de funciones f : Rn → R tales que el l´ ımite siguiente existe para todo x ∈ Rn E [f (Xtx )] − f (x) Af (x) = lim . (57) t↓0 t o 2 La expresi´n (55) nos dice que C0 (Rn ) ⊂ DA y para toda funci´n f ∈ o C0 (Rn ), 2 el l´ ımite (57) es igual a al valor Af dado por (54). El siguiente resultado nos dice que la funci´n u(t, x) definida en (56) sat- o isface una ecuaci´n en derivadas parciales, denominada ecuaci´n retr´grada o o o (bakward) de Kolmogorov. Esto nos proporciona una interpretaci´n proba- o bilista de las ecuaciones en derivadas parciales de tipo parab´lico. o Teorema 23 Sea f ∈ C0 (Rn ). 2 87
  • 88.
    a) Definimos u(t,x) = E [f (Xtx )]. Entonces, u(t, ·) ∈ DA para cada t y ∂u = Au ∂t (58) u(0, x) = f (x) b) Si w ∈ C 1,2 ([0, ∞) × Rn ) es una funci´n acotada que satisface la ecuaci´n o o x (58), entonces w(t, x) = E [f (Xt )]. Demostraci´n: a) Hemos de calcular el l´ o ımite cuando r ↓ 0 de la expresi´n o x E [u(t, Xr )] − u(t, x) . r Aplicando la propiedad de Markov obtenemos E [u(t, Xr )] = E E [f (Xty )] |y=Xr x x x = E f (Xt+r ) = u(t + r, x). Finalmente, como t → u(t, x) es diferenciable x E [u(t, Xr )] − u(t, x) 1 ∂u = (u(t + r, x) − u(t, x)) −→ . r r ∂t b) Consideremos el proceso (n + 1)-dimensional Yt = (s − t, Xtx ). La f´rmula de Itˆ aplicada a este proceso y a la funci´n w nos da o o o t ∂w x w(Yt ) = w(s, x) + Aw − (s − r, Xr )dr 0 ∂r t n m ∂w x x j + (s − r, Xr )σ i,j (Xr )dBr . 0 i=1 j=1 ∂xi ∂w Teniendo encuenta que w satisface la ecuaci´n Aw = o ∂t , obtenemos t n m ∂w x x j w(Yt ) = w(s, x) + (s − r, Xr )σ i,j (Xr )dBr . 0 i=1 j=1 ∂xi 88
  • 89.
    Ahora deseamos tomaresperanzas, pero como no hemos impuesto ninguna condici´n o de crecimiento sobre las derivadas parciales de la funci´n w no sabemos si la inte- o gral estoc´stica tiene esperanza cero. Por ello, debemos introducir un tiempo de a paro, para un R 0, fijado, definido por τ R = inf{t 0 : |Xtx | ≥ R}. ∂w x x Para r ≤ τ R , el proceso ∂xi (s − r, Xr )σ i,j (Xr ) est´ acotado. Por tanto, a E [w(Yt∧τ R )] = w(s, x), y haciendo R ↑ ∞, se obtiene E [w(Yt )] = w(s, x). Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f (x), obtenemos E [f (Xtx )] = w(s, x). Notemos por pt (x, y) la soluci´n fundamental de la ecuaci´n parab´lica o o o (58). Es decir, tal soluci´n se obtiene formalmente tomando como funci´n o o f la delta δ y . Entonces, y −→ pt (x, y) es la densidad de probabilidad de la variable aleatoria Xtx : u(t, x) = E [f (Xtx )] = f (y)pt (x, y)dy. Rn Esto nos dice tambi´n que p(y, t, x, s) = pt−s (x, y) ser´n las probabilidades e a de tansici´n del proceso de Markov Xt . o Ejemplo 21 En el caso b = 0, σ = I, el proceso de difusi´n Xt es el movimiento o browniano Bt n-dimensional. Su generador ser´ el operador de Laplace: a 1 n ∂2 ∆= 2 i=1 ∂x2 . i La ecuaci´n de Kolmogorov en este caso es precisamente la ecuacion de la o calor: ∂u 1 = ∆f. ∂t 2 89
  • 90.
    La soluci´n fundamentalde esta ecuaci´n es la densidad gaussiana: o o |x − y|2 pt (x, y) = (2πt)−n/2 exp − . 2t La f´rmula de Feynman-Kac es una generalizaci´n de la ecuaci´n de Kol- o o o mogorov que hemos obtenido en el apartado anterior. Teorema 24 Sean f ∈ C0 (Rn ) y q ∈ C(Rn ). Suponemos que la funci´n q 2 o est´ acotada inferiormente. Consideremos un proceso de difusi´n {Xt , t ≥ 0} a o que satisface la ecuaci´n diferencial estoc´stica (45). o a a) Definimos t v(t, x) = E exp − q(Xs )ds f (Xtx ) . x 0 Entonces, u(t, ·) ∈ DA para cada t y ∂v = Av − qv ∂t (59) u(0, x) = f (x) b) Si w ∈ C 1,2 ([0, ∞) × Rn ) es una funci´n acotada en cada [0, T ] × Rn que o satisface la ecuaci´n (59), entonces w(t, x) = v(t, x). o t Demostraci´n: a) Pongamos Yt = f (Xtx ), Zt = exp − o 0 x q(Xs )ds . Entonces dZt = −Zt q(Xtx )dt. Por lo tanto, d(Yt Zt ) = Yt dZt + Zt dYt , ya que dZt dYt = 0. Como Yt Zt es un proceso de Itˆ, la funci´n v(t, x) = E(Yt Zt ) o o es diferenciable respecto de la variable t. En efecto, t t x x v(t, x) = f (x) − E [Ys Zs q(Xs )] ds + E [Zs Af (Xs )] ds, 0 0 ya que el t´rmino de integral estoc´stica tiene esperanza cero, teniendo en cuenta e a que f tiene soporte compacto y q est´ acotada inferiormente. Por consiguiente, a 90
  • 91.
    Aplicando la propiedadde Markov obtenemos t x E[v(t, Xr )] = E[E[exp − q(Xs )ds f (Xty )]|y=Xr ] y x 0 t x x = E[E[exp − q(Xs+r )ds f (Xt+r )]|Fr ] 0 t x x = E[exp − q(Xs+r )ds f (Xt+r )] 0 r x x = E[exp q(Xs )ds Zt+r f (Xt+r )] 0 r x x = v(t + r, x) + E exp q(Xs )ds − 1 Zt+r f (Xt+r ) 0 Finalmente, como t → v(t, x) es diferenciable y r 1 x x r↓0 E exp q(Xs )ds − 1 Zt+r f (Xt+r ) −→ q(x)v(t, x), r 0 obtenemos x E [v(t, Xr )] − v(t, x) r↓0 ∂v −→ + qv. r ∂t b) Consideremos los procesos Yt = (s − t, Xtx ) t x Rt = q(Xs )ds. 0 La f´rmula de Itˆ aplicada a estos procesos y a la funci´n φ(s, x, z) = e−z w(s, x) o o o nos da t ∂w e−Rt w(Yt ) = w(s, x) + Aw − − qw (s − r, Xr )e−Rr dr x 0 ∂r t n m ∂w + (s − r, Xr )σ i,j (Xr )e−Rr dBr . x x j 0 i=1 j=1 ∂xi ∂w Teniendo encuenta que w satisface la ecuaci´n Aw + qw = o ∂t , obtenemos t n m −Rt ∂w e w(Yt ) = w(s, x) + (s − r, Xr )σ i,j (Xr )e−Rr dBr . x x j 0 i=1 j=1 ∂xi 91
  • 92.
    Introduciendo, com antes,el tiempo de paro τ R = inf{t 0 : |Xtx | ≥ R}, ∂w tendremos que para r ≤ τ R , el proceso ∂xi x (s − r, Xr )σ i,j (Xr )e−Rr x est´ acotado. a Por tanto, E e−Rt∧τ R w(Yt∧τ R ) = w(s, x), y haciendo R ↑ ∞, se obtiene E e−Rt w(Yt ) = w(s, x). Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f (x), obtenemos t E exp − q(Xs )ds f (Xtx ) = w(s, x). x 0 Ejercicios 3.1 Comprobar que los siguientes procesos satisfacen las ecuaciones diferen- ciales estoc´sticas indicadas: a Bt (i) El proceso Xt = 1+t cumple 1 1 dXt = − Xt dt + dBt , 1+t 1+t X0 = 0 (ii) El proceso Xt = sin Bt , con B0 = a ∈ − π , π es soluci´n de 2 2 o 1 dXt = − Xt dt + 1 − Xt2 dBt , 2 para t T = inf{s 0 : Bs ∈ − π , π . / 2 2 (iii) (X1 (t), X2 (t)) = (t, et Bt ) satisface dX1 1 0 = dt + X1 dBt dX2 X2 e 92
  • 93.
    (iv) (X1 (t),X2 (t)) = (cosh(Bt ), sinh(Bt )) satisface dX1 1 X1 X2 = dt + dBt . dX2 2 X2 X1 (v) Xt = (cos(Bt ), sin(Bt )) satisface 1 dXt = Xt dt + Xt dBt , 2 0 −1 donde M = . Las componentes del proceso Xt cumplen 1 0 X1 (t)2 + X2 (t)2 = 1, y por lo tanto, Xt puede considerarse como un movimiento brow- niano en la circunferencia de radio 1. (vi) El proceso Xt = (x1/3 + 1 Bt )3 , x 0, cumple 3 1 1/3 2/3 dXt = Xt dt + Xt dBt . 3 3.2 Consideremos un movimiento browniano n-dimensional Bt y fijemos con- stantes αi , i = 1, . . . , n. Resolver la ecuaci´n diferencial estoc´stica o a n dXt = rXt dt + Xt αk dBk (t). k=1 3.3 Resolverde las ecuaciones diferenciales estoc´sticas siguientes: a dXt = rdt + αXt dBt , X0 = x 1 dXt = dt + αXt dBt , X0 = x 0 Xt dXt = Xtγ dt + αXt dBt , X0 = x 0. Para que valores de las constantes α, γ hay explosi´n? o 3.4 Resolver las ecuaciones diferenciales estoc´sticas siguientes: a (i) dX1 1 1 0 dB1 = dt + . dX2 0 0 X1 dB2 93
  • 94.
    (ii) dX1 (t) = X2 (t)dt + αdB1 (t) dX2 (t) = X1 (t)dt + βdB2 (t) 3.5 La ecuaci´n diferencial estoc´stica no lineal o a dXt = rXt (K − Xt )dt + βXt dBt , X0 = x 0 es utiliza como modelo para el crecimiento de una poblaci´n de tama˜o o n Xt , en un medio aleatorio. La constante K 0 se denomina la capaci- dad del medio, la constante r ∈ R mide la calidad del medio y la con- stante β ∈ R es una medida del nivel de ruido del sistema. Comprobar que exp rK − 1 β 2 t + βBt 2 Xt = t x−1 + r 0 exp rK − 1 β 2 s + βBs ds 2 es la unica soluci´n. ´ o 3.6 Encontrar el generador de los siguientes procesos de difusi´n: o a) dXt = µXt dt + σdBt , (proceso de Ornstein-Uhlenbeck) µ y r son constantes b) dXt = rXt dt + αXt dBt , (movimiento browniano geom´trico) α y r e son constantes c) dXt = rdt + αXt dBt , α y r son constantes dt d) dYt = donde Xt es el proceso introducido en a) dXt dX1 1 0 e) = dt + dBt dX2 X2 eX1 dX1 1 1 0 dB1 f) = dt + dX2 0 0 X1 dB2 h) X(t) = (X1 , X2 , . . . .Xn ), siendo n dXk (t) = rk Xk dt + Xk αkj dBj , 1 ≤ k ≤ n j=1 3.7 Encontrar un proceso de difusi´n cuyo generador sea: o 94
  • 95.
    2 a) Af (x) = f (x) + f (x), f ∈ C0 (R) ∂f 2 b) Af (x) = ∂t + cx ∂f + 1 α2 x2 ∂ f , f ∈ C0 (R2 ) ∂x 2 ∂x2 2 2 c) Af (x1 , x2 ) = 2x2 ∂x1 + log(1 + x2 + x2 ) ∂x2 + 1 (1 + x2 ) ∂ f ∂f 1 2 ∂f 2 1 ∂x2 1 ∂2f 1 ∂2f +x1 ∂x1 ∂x2 + 2 ∂x2 , f∈ C0 (R2 ) 2 2 3.8 Demostrar que la soluci´n u(t, x) del problema con valor inicial o ∂u 1 2 2 ∂ 2u ∂u = β x 2 + αx , t 0, x ∈ R ∂t 2 ∂x ∂x 2 u(0, x) = f (x), f ∈ C0 (R) puede expresarse como 1 u(t, x) = E f (x exp{βBt + (α − β 2 )t} . 2 4 Aplicaci´n del c´lculo estoc´stico a la cober- o a a tura y valoraci´n de derivados o Consideremos el modelo de Black y Scholes para la curva de precios de un activo financiero. El precio St en un instante t viene dado por un movimiento browniano geom´trico: e σ2 St = S0 eµt− 2 t+σBt , donde S0 es el precio inicial, µ es una constante que representa la tendencia a crecer (observemos que E(St ) = S0 eµt ), y σ se denomina la volatilidad. Sabemos que St satisface una ecuaci´n diferencial estoc´stica lineal: o a dSt = σSt dBt + µSt dt. Este modelo tiene las propiedades siguientes: a) Las trayectorias t → St son continuas. St −Ss b) Para todo s t, el incremento relativo Ss es independient de la σ- ´lgebra generada por {Su , 0 ≤ u ≤ s}. a 95
  • 96.
    St c) La leydel cociente Ss es una distribuci´n lognormal con par´metros o a σ2 2 µ− 2 (t − s), σ (t − s). Fijemos un intervalo de tiempo [0, T ]. Una cartera de valores (o estrategia de inversi´n) ser´ un proceso estoc´stico o a a φ = {(αt , β t ) , 0 ≤ t ≤ T } tal que sus componentes son procesos progresivamente medibles y verifican T |αt | dt ∞, 0 T (β t )2 dt ∞. 0 La componente αt representa el capital (activo financiero sin riesgo) al tipo de inter´s r. La componente β t representa la cantidad de acciones de que e disponemos. En esta situaci´n el valor de la cartera en cada instante t ser´ o a Vt (φ) = αt ert + β t St . Diremos que la cartera φt es autofinanciada si su valor es un proceso de Itˆ con diferencial o dVt (φ) = rαt ert dt + β t dSt . Esto significa que el incremento del valor solo depende del incremento de los precios. Se introducen los precios actualizados como σ2 St = e−rt St = S0 exp (µ − r) t − t + σBt . 2 El valor actualizado de una cartera ser´, por definici´n, a o Vt (φ) = e−rt Vt (φ) = αt + β t St . Observemos que dVt (φ) = −re−rt Vt (φ)dt + e−rt dVt (φ) = −rβ t St dt + e−rt β t dSt = β t dSt . 96
  • 97.
    Se dice queun modelo es viable si existe una probabilidad equivalente respecto de la cual los precios actualizados forman una martingala. Esta condici´n es equivalente a que no haya arbitrajes (carteras autofinanciadas o con valor inicial cero y tales que VT (φ) ≥ 0 y P (VT (φ) 0) 0). Tales probabilidades se denominan probabilidades sin riesgo. El teorema de Girsanov nos dice que existe una probabilidad Q respecto de la cual el proceso µ−r Wt = Bt + t σ es una martingala. En funci´n del proceso Wt los precios se escriben o σ2 St = S0 exp rt − t + σWt , 2 y los precios actualizados ser´n martingala: a σ2 St = e−rt St = S0 exp − t + σWt , 2 es decir, Q ser´ una probabilidad sin riesgo. a El valor actualizado de una cartera autofinanciada φ valdr´ a t Vt (θ) = V0 (θ) + β u dSu , 0 y ser´ una martingala respecto de Q si a T E(β 2 Su )du ∞. u 2 (60) 0 Observemos que una tal cartera no puede ser un arbitraje ya que si su valor inicial es nulo, entonces, EQ VT (θ) = V0 (θ) = 0. Consideremos un contrato derivado sobre el activo financiero que permita hacer un beneficio a su propietario dado por una variable aleatoria h ≥ 0, FT -medible y de cuadrado integrable respecto de Q. El tiempo T ser´ laa fecha de vencimiento del contrato. 97
  • 98.
    • En elcaso de una opci´n de compra europea de vencimiento T y precio o de ejercicio K, tendremos h = (ST − K)+ . • En el caso de una opci´n de venta europea de vencimiento T y precio o de ejercicio K, tendremos h = (K − ST )+ . Diremos que una cartera autofinanciada φ que cunple (60) cubre el derivado si VT (θ) = h, y se dice entonces que la variable h es replicable. El precio del derivado en cualquier instante t ≤ T se determina como el valor de una cartera de cobertura, suponiendo que el beneficio h es replicable. Vendr´ dado por la f´rmula a o Vt (θ) = EQ (e−r(T −t) h|Ft ), (61) que se deduce de la propiedad de martingala de Vt (θ) respecte de Q: EQ (e−rT h|Ft ) = EQ (VT (θ)|Ft ) = Vt (θ) = e−rt Vt (θ). En particular, V0 (θ) = EQ (e−rT h). Se dice que un modelo es completo si toda variable de cuadrado integrable respecto de la probabilidad sin riesgo es replicable. El modelo de Black y Scholes es completo, como consecuencia del teorema de representaci´n de o martingalas: Consideremos la martingala de cuadrado integrable Mt = EQ e−rT h|Ft . Sabemos que existe un proceso estoc´stico Kt adaptado y de cuadrado inte- a T 2 grable, o sea, 0 EQ (Ks )ds ∞, tal que t Mt = M0 + Ks dWs . 0 98
  • 99.
    Definimos la carteraautofinanciada φt = (αt , β t ) por Kt βt = , σ St 1 αt = Mt − St . σ El valor actualizado de esta cartera ser´ a Vt (θ) = αt + β t St = Mt , y, por lo tanto, su valor final ser´ a VT (θ) = erT VT (θ) = erT MT = h. Consideremos el caso particular h = g(ST ). El valor del derivado en el instante t ser´ a Vt = EQ e−r(T −t) g(ST )|Ft 2 /2(T −t) = e−r(T −t) EQ g(St er(T −t) eσ(WT −Wt )−σ )|Ft . Por lo tanto, Vt = F (t, St ), (62) donde 2 /2(T −t) F (t, x) = e−r(T −t) EQ g(xer(T −t) eσ(WT −Wt )−σ ) . (63) Bajo hip´tesis muy generales sobre g (por ejemplo si es continua y deriv- o able a trozos)que incluyen, en particular, las funciones g(x) = (x − K)+ , g(x) = (K − x)+ , la funci´n F (t, x) es derivable respecto de t y dos veces derivable respecto de o x, con todas las derivadas parciales continuas. Supondremos que existe una funci´n F (t, x) de este tipo tal que se cumple (62). Entonces, aplicando la o 99
  • 100.
    f´rmula de Itˆa (62) se obtiene o o t t ∂F ∂F Vt = V0 + (u, Su )Su dWu + σ r (u, Su )Su du 0 ∂x 0 ∂x t ∂F 1 t ∂2F + (u, Su )du + (u, Su ) σ 2 Su du 2 0 ∂t 2 0 ∂x2 t ∂F = V0 + σ (u, Su )Su dWu 0 ∂x t + Ku du. 0 Por otro lado, sabemos que Vt es un proceso de Itˆ con representaci´n o o t t Vt = V0 + σHu Su dWu + rVu du. 0 0 Comparando estas dos expresiones se deduce ∂F Ht = (t, St ), ∂x ∂F 1 2 2 ∂ 2F rF (t, St ) = (t, St ) + σ St (t, St ) ∂t 2 ∂x2 ∂F +rSt (t, St ). ∂x El soporte de la ley de probabilidad de la variable aleatoria St es [0, ∞). Per tanto, estas igualdades nos dicen que F (t, x) satisface la ecuaci´n o ∂F ∂F 1 ∂ 2F (t, x) + rx (t, x) + (t, x) σ 2 x2 = rF (t, x), (64) ∂t ∂x 2 ∂x2 F (T, x) = g(x). Por otra parte, la cartera recubridora ser´ a ∂F αt = (t, St ), ∂x β t = e−rt (F (t, St ) − Ht St ) . La f´rmula (63) puede escribirse como o 2 /2(T −t) F (t, x) = e−r(T −t) EQ g(xer(T −t) eσ(WT −Wt )−σ ) ∞ √ 1 σ2 2 /2 = e−rθ √ g(xerθ− 2 θ+σ θy )e−y dy, 2π −∞ 100
  • 101.
    donde θ =T − t. En el caso particular de una opci´n de compra europea de o precio de ejercicio K y vencimiento T , g(x) = (x − K)+ , se obtiene ∞ √ 1 2 /2 σ2 + F (t, x) = √ e−y xe− 2 θ+σ θy − Ke−rθ dy 2π −∞ = xΦ(d+ ) − Ke−r(T −t) Φ(d− ), donde 2 log K + r − σ2 (T − t) x d− = √ , σ T −t 2 log K + r + σ2 (T − t) x d+ = √ σ T −t Por tanto, el precio en el instante t ser´ a Ct = F (t, St ). La composici´n de la cartera de cobertura ser´ o a ∂F Ht = (t, St ) = Φ(d+ ). ∂x References [1] I. Karatzas and S. E. Schreve: Brownian Motion and Stochastic Calculus. Springer-Verlag 1991 [2] F. C. Klebaner: Introduction to Stochastic Calculus with Applications. [3] T. Mikosh: Elementary Stochastic Calculus. World Scientific 2000. [4] B. Øksendal: Stochastic Differential Equations. Springer-Verlag 1998 [5] D. Revuz and M. Yor: Continuous Martingales and Brownian motion. Springer-Verlag, 1994. 101