SlideShare una empresa de Scribd logo
1 de 101
Descargar para leer sin conexión
C´lculo estoc´stico
 a           a
    David Nualart
Universitat de Barcelona




           1
1     Probabilidades y procesos estoc´sticos
                                     a
1.1    Conceptos b´sicos del c´lculo de probabilidades
                  a           a
Recordemos en primer lugar algunas definiciones generales del c´lculo de
                                                                  a
probabilidades.
   Un espacio de probabilidad es una terna (Ω, F, P ) formada por:

(i) Un conjunto Ω que representa el conjunto de los posibles resultados de
     una cierta experiencia aleatoria.

(ii) Una familia F de subconjuntos de Ω que tiene estructura de σ-´lgebra:
                                                                  a
      a) ∅ ∈ F
      b) Si A ∈ F, su complementario Ac tambi´n pertenece a F
                                             e
      c) A1 , A2 , . . . ∈ F =⇒ ∪∞ Ai ∈ F
                                 i=1

(iii) Una aplicaci´n P : F → [0, 1] que cumple:
                  o
      a) P (∅) = 0, P (Ω) = 1
      b) Si A1 , A2 , . . . ∈ F son conjuntos disjuntos dos a dos (es decir, Ai ∩
      Aj = ∅ si i = j), entonces
                                               ∞
                             P (∪∞ Ai ) =
                                 i=1           i=1   P (Ai )

   Los elementos de la σ-´lgebra F se denominan sucesos y la aplicaci´n P se
                         a                                           o
denomina una probabilidad, de forma que tenemos la siguiente interpretaci´n
                                                                         o
de este modelo:

             P (F )=“probabilidad de que el suceso F se realice”

Si P (F ) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi
seguramente.
    Las propiedades a) y b) permiten deducir algunas reglas b´sicas del
                                                                a
c´lculo de probabilidades:
 a

                 P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅
                     P (Ac ) = 1 − P (A)
                         A ⊂ B =⇒ P (A) ≤ P (B).

                                       2
Ejemplo 1 Lanzamos un dado.
               Ω = {1, 2, 3, 4, 5, 6}
               F = P(Ω) (F contiene todos los subconjuntos de Ω)
                    1
       P ({ω i }) =   , para i = 1, . . . , 6
                    6

Ejemplo 2 Elegimos un n´mero al azar en el intervalo [0, 2]. Ω = [0, 2], F es
                            u
la σ-´lgebra de Borel (generada por los intervalos de [0, 2]). La probabilidad
     a
de cualquier intervalo [a, b] ⊂ [0, 2] ser´
                                          a
                                             b−a
                              P ([a, b]) =       .
                                              2

    Se dice que un espacio de probabilidad (Ω, F, P ) es completo si dado un
suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la
σ-´lgebra F. Un espacio de probabilidad siempre se puede completar substi-
  a
tuyendo la σ-´lgebra F por una σ-´lgebra mayor formada por los conjuntos
              a                    a
de la forma F ∪ A, donde F ∈ F y A es un subconjunto de un conjunto de
F de probabilidad cero.
   Si U es una familia de subconjuntos de Ω, la m´s peque˜a σ-´lgebra que
                                                 a       n    a
contiene a U es, por definici´n,
                            o
                 σ(U) = ∩ {G, G es una σ-´lgebra, U ⊂ G} ,
                                         a
y se denomina la σ-´lgebra generada por U. Por ejemplo, la σ-´lgebra gen-
                    a                                          a
                                                             n
erada por los conjuntos abiertos (o por los rect´ngulos) de R se denomina
                                                a
                          n
la σ-´lgebra de Borel de R y la representaremos por BRn .
     a

Ejemplo 3 Consideremos una partici´n finita P = {A1 , . . . , An } de Ω. La σ-
                                   o
´lgebra generada por P est´ formada por todas las uniones de los elementos
a                           a
de la partici´n (2n en total).
             o

   Una variable aleatoria es una aplicaci´n
                                         o
                                       X
                                  Ω −→ R
                                 ω → X(ω)
que es F-medible, es decir, X −1 (B) ∈ F , para todo conjunto B de la σ-
´lgebra de Borel de R.
a

                                       3
• Una variable aleatoria determina una σ-´lgebra {X −1 (B), B ∈ BR } ⊂
                                             a
      F que se denomina la σ-´lgebra generada por X.
                              a

    • Una variable aleatoria determina una probabilidad en la σ-´lgebra de
                                                                a
      Borel BR definida por PX = P ◦ X −1 , es decir,

                       PX (B) = P (X −1 (B)) = P ({ω : X(ω) ∈ B})

       La probabilidad PX se denomina la ley o distribuci´n de la variable X.
                                                         o

    Diremos que una variable aleatoria X tiene densidad de probabilidad fX
si fX (x) es una funci´n positiva, medible respecto de la σ-´lgebra de Borel
                      o                                     a
y tal que
                                                      b
                            P (a < X < b) =               fX (x)dx,
                                                  a
para todo a < b.
    Las variables discretas (que toman un conjunto finito o numerable de
valores distintos xk ) no tienen densidad y su ley est´ determinada por la
                                                      a
funci´n de probabilidad :
     o
                               pk = P (X = xk ).

Ejemplo 4 Una variable aleatoria tiene ley normal N (m, σ 2 ) si
                                                              b
                                              1                        (x−m)2
                      P (a < X < b) = √                           e−     2σ 2   dx
                                          2πσ 2           a

para todo par de n´meros reales a < b.
                  u

Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si

                                          n k
                            P (X = k) =     p (1 − p)n−k ,
                                          k
para k = 0, 1, . . . , n.

    La distribuci´n de una variable aleatoria X puede caracterizarse mediante
                 o
su funci´n de distribuci´n definida como la probabilidad acumulada:
        o               o

                        FX (x) = P (X ≤ x) = PX ((−∞, x])


                                          4
• La funci´n FX : R →[0, 1] es creciente, continua por la derecha y con
              o
     l´
      ımites iguales a cero en −∞ y 1 en +∞.

   • Si la variable X tiene densidad fX , entonces,
                                                 x
                                    FX (x) =         fX (y)dy,
                                                −∞

      y si la densidad es continua, FX (x) = fX (x).

    La esperanza matem´tica de una variable aleatoria X se define como la
                              a
integral de X respecto de la probabilidad P , considerada como una medida
en el espacio (Ω, F). En particular, si X es una variable elemental que toma
los valores α1 , . . . , αn en los conjuntos A1 , . . . , An , su esperanza valdr´
                                                                                 a
                                           n
                             E(X) =             αi P (Ai ).
                                          i=1

El c´lculo de la esperanza de una variable aleatoria se efectua integrando la
    a
funci´n x respecto de la ley de probabilidad de la variable. Es decir, si X es
     o
una variable que tiene esperanza (o sea E(|X|) < ∞) se tiene
                                                        ∞
                   E(X) =           X(ω)dP (ω) =              xdPX (x).
                                Ω                      −∞

M´s generalmente, si g : R → R es una funci´n medible respecto de la σ-
  a                                            o
´lgebra de Borel y E(|g(X)|) < ∞, entonces la esperanza de la variable g(X)
a
se puede calcular integrando la funci´n g respecto de la ley de la variable X:
                                     o
                                                          ∞
              E(g(X)) =         g(X(ω))dP (ω) =                g(x)dPX (x).
                            Ω                           −∞

              ∞
La integral −∞ g(x)dPX (x) se calcula utilizando la densidad o funci´n de
                                                                    o
probabilidad de la variable X:

    ∞                       ∞
                            −∞
                                g(x)fX (x)dx, fX (x) es la densidad de X
        g(x)dPX (x) =
   −∞                       k g(xk )P (X = xk ),  X variable discreta




                                           5
Ejemplo 6 Si X es una variable aleatoria con ley normal N (0, σ 2 ) y λ es un
n´mero real,
 u
                                                      ∞
                                      1                             x2
              E(exp (λX)) = √                                eλx e− 2σ2 dx
                                    2πσ 2           −∞
                                                                ∞
                                     1              σ 2 λ2               (x−σ 2 λ)2
                             = √                e      2            e−      2σ 2      dx
                                    2πσ 2                     −∞
                                   σ 2 λ2
                             = e      2     .


   La varianza de una variable aleatoria X se define por

           σ 2 = Var(X) = E((X − E(X))2 ) = E(X 2 ) − [E(X)]2 .
             X

La varianza nos mide el grado de dispersi´n de los valores de la variable
                                           o
respecto de su esperanza. Por ejemplo, si X es una variable con ley normal
N (m, σ 2 ) se tiene
                                                                            X −m
     P (m − 1.96σ ≤ X ≤ m + 1.96σ) = P (−1.96 ≤                                  ≤ 1.96)
                                                                              σ
                     = Φ(1.96) − Φ(−1.96) = 0.95,

donde Φ es la funci´n de distribuci´n de la ley N (0, 1). Es decir, la probabil-
                   o               o
idad de que la variable X tome valores en el intervalo [m − 1.96σ, m + 1.96σ]
es igual a 0.95.

   Diremos que X = (X1 , . . . , Xn ) es un vector aleatorio n-dimensional si
sus componentes son variables aleatorias.
   La esperanza de un vector aleatorio n-dimensional X ser´ el vector
                                                              a

                        E(X) = (E(X1 ), . . . , E(Xn ))

   La matriz de covarianzas de un vector aleatorio n-dimensional X es, por
definici´n, la matriz ΓX = (cov(Xi , Xj ))1≤i,j≤n , donde
       o

               cov(Xi , Xj ) = E [(Xi − E(Xi )) (Xj − E(Xj ))] .

Es decir, los elementos de la diagonal de esta matriz son las varianzas de las
variables Xj y fuera de la diagonal encontramos las covarianzas entre dos
variables Xi y Xj .

                                            6
Como en el caso de variables aleatorias se introduce la ley o distribuci´n
                                                                            o
de un vector aleatorio n-dimensional X como la probabilidad definida en la
σ-´lgebra de Borel BRn por
  a

                        PX (B) = P (X −1 (B)) = P (X ∈ B).

   Diremos que un vector aleatorio n-dimensional X tiene una ley normal
N = (m, Γ), donde m ∈ Rn , y Γ es una matriz sim´trica y definida positiva,
                                                e
si

           P (ai ≤ Xi ≤ bi , i = 1, . . . , n)
             bn          b1                              Pn
                                             n       1                             −1
       =          ···         (2π det Γ)− 2 e− 2          i,j=1 (xi −mi )(xj −mj )Γij         dx1 · · · dxn .
            an          a1

En tal caso, se tiene, m = E(X) y Γ = ΓX .
   Si la matrix Γ es una matriz diagonal
                                                                   
                                  σ2 · · ·
                                    1                           0
                               . ..                             . 
                           Γ= .   .     .                       . 
                                                                 .
                                                 0       ···    σ2n

entonces la densidad del vector X ser´ el producto de n densidades normales
                                     a
unidimensionales:
                                                 n                             (x−mi )2
                                                               1           −
                                                                                 2σ 2
                   fX (x1 , . . . , xn ) =                             e            i     .
                                                 i=1           2πσ 2
                                                                   i

    Existen tambi´n leyes normales degeneradas, en las que la matriz Γ es
                  e
singular. En este caso, no existe la densidad de probabilidad, y la ley de X
queda determinada por su funci´n caracter´
                                o           ıstica:
                                                 1
                             E eit X = exp it m − t Γt ,
                                                 2

donde t ∈ Rn . En esta f´rmula t es un vector l´
                        o                      ınea (matriz 1 × n) y t es un
vector columna (matriz n × 1).

   Si X es un vector normal n-dimensional con ley N (m, Γ) y A es una
matriz m × n, entonces AX es un vector normal m-dimensional con ley
N (Am, AΓA ).

                                                     7
Diremos que una variable tiene media de orden p ≥ 1 si E(|X|p ) < ∞.
En tal caso, se define el momento de orden p de la variable aleatoria X como

                                       mp = E(X p ).

El conjunto de las variables que tienen media de orden p se representa por
Lp (Ω, F, P ).
    Sea X una variable aleatoria con funci´n caracter´
                                          o          ıstica
                                     ϕX (t) = E(eitX ).
Los momentos de la variable aleatoria puede calcularse a partir de las derivadas
de la funci´n caracter´
           o          ıstica en el origen
                                           1 (n)
                                    mn =     ϕ (t)|t=0 .
                                           in X

   Recordemos algunas desigualdades importantes en el c´lculo de probabil-
                                                       a
idades:

   • Desigualdad de Tchebychev: Si λ > 0
                                                    1
                                    P (|X| > λ) ≤      E(|X|p ).
                                                    λp
   • Desigualdad de Schwartz:
                                E(XY ) ≤         E(X 2 )E(Y 2 ).

   • Desigualdad de H¨lder:
                     o
                                                      1            1
                            E(XY ) ≤ [E(|X|p )] p [E(|Y |q )] q ,
                        1       1
     donde p, q > 1 y   p
                            +   q
                                    = 1.
   • Desigualdad de Jensen: Si ϕ : R → R es una funci´n convexa tal que las
                                                     o
     variables X y ϕ(X) tienen esperanza, entonces,
                                     ϕ(E(X)) ≤ E(ϕ(X)).
     En particular si ϕ(x) = |x|p , con p ≥ 1, tendremos
                                      |E(X)|p ≤ E(|X|p ).

                                             8
Recordemos los diferentes modos de convergencia de una sucesi´n de vari-
                                                                o
ables aleatorias Xn , n = 1, 2, 3, . . .:
                                     c.s.
Convergencia casi segura: Xn −→ X, si

                                  lim Xn (ω) = X(ω),
                               n→∞

     para todo ω ∈ N , donde P (N ) = 0.
                 /
                                                P
Convergencia en probabilidad: Xn −→ X, si

                             lim P (|Xn − X| > ε) = 0,
                            n→∞

     para todo ε > 0.
                                                           Lp
Convergencia en media de orden p ≥ 1: Xn −→ X, si

                              lim E(|Xn − X|p ) = 0.
                              n→∞


                              L
Convergencia en ley: Xn −→ X, si

                               lim FXn (x) = FX (x),
                               n→∞

     para todo punto x de continuidad de la funci´n de distribuci´n FX .
                                                 o               o


   • La convergencia en media de orden p implica la convergencia en prob-
     abilidad ya que, debido a la desigualdad de Tchebychev tendremos
                                                    1
                        P (|Xn − X| > ε) ≤           p
                                                       E(|Xn − X|p ).
                                                    ε

   • La convergencia casi segura implica la convergencia en probabilidad
     (esto es m´s dif´ de demostrar).
               a     ıcil

   • La convergencia casi segura implica la convergencia en media de orden
     p ≥ 1, si las variables aleatorias Xn est´n acotadas por una variable
                                              a
     aleatoria integrable Y (teorema de convergencia dominada):

                              |Xn | ≤ Y, E(Y ) < ∞.

                                            9
La convergencia en ley es diferente de los otros tipos de convergencia, ya
que lo que nos interesa es la ley de las variables y no sus valores particulares.

   Un concepto fundamental en probabilidades es el de independencia. Dos
sucesos A, B ∈ F se dicen independientes si

                              P (A ∩ B) = P (A)P (B).

   Si tenemos una colecci´n finita o infinita de sucesos {Ai , i ∈ I}, diremos
                           o
que los sucesos de la colecci´n son independientes si
                             o

                     P (Ai1 ∩ · · · ∩ Aik ) = P (Ai1 ) · · · P (Aik )

para todo conjunto finito de ´  ındices {i1 , . . . , ik } ⊂ I.
    Una colecci´n de conjuntos de sucesos {Gi , i ∈ I} diremos que es indepen-
                o
diente si cualquier colecci´n de sucesos {Ai , i ∈ I} tal que Ai ∈ Gi para todo
                           o
i ∈ I, es independiente.
    Una colecci´n de variables aleatorias {Xi , i ∈ I} se dice que es indepen-
                o
diente si la colecci´n de σ-´lgebras Xi−1 (BRn ), i ∈ I lo es. Esto significa
                    o        a
que

       P (Xi1 ∈ Bi1 , . . . , Xik ∈ Bik ) = P (Xi1 ∈ Bi1 ) · · · P (Xik ∈ Bik ),

para todo conjunto finito de ´  ındices {i1 , . . . , ik } ⊂ I, donde los Bj son con-
juntos de Borel.
    Si dos variables aleatorias reales X, Y son independientes y tienen esper-
anza finita, entonces el producto XY tiene esperanza finita y se cumple la
relaci´n
      o
                             E(XY ) = E(X)E(Y ) .
   M´s generalmente, si las variables X1 , . . . , Xn son independientes,
    a

               E [g1 (X1 ) · · · gn (Xn )] = E [g1 (X1 )] · · · E [gn (Xn )] ,

donde las gi son funciones medibles tales que E [|gi (Xi )|] < ∞.

   Las componentes de un vector aleatorio son independientes s´ y solo s´ su
                                                               ı        ı
densidad o funci´n de probabilidad es igual al producto de las densidades o
                o
funciones de probabilidad de cada componente.


                                             10
1.2     Procesos estoc´sticos
                      a
Un proceso estoc´stico ´s una familia de variables aleatorias reales {Xt , t ≥ 0}
                a      e
definidas en un espacio de probabilidad (Ω, F, P ).
   El conjunto de par´metros [0, ∞) representa el tiempo y en algunos casos
                      a
supondremos que es un intervalo acotado [0, T ], o el conjunto los n´meros
                                                                         u
naturales (procesos a tiempo discreto).
   Per cada ω ∈ Ω, la aplicaci´n
                               o

                                     t −→ Xt (ω)

se dnomina una trayectoria del proceso estoc´stico.a
    Si fijamos un conjunto finito de instantes {0 ≤ t1 < · · · < tn } tendremos
un vector aleatorio
                         (Xt1 , . . . , Xtn ) : Ω −→ Rn .
Las distribuciones de probabilidad Pt1 ,...,tn = P ◦ (Xt1 , . . . , Xtn )−1 se denom-
inan las distribuciones en dimensi´n finita del proceso.
                                  o
   El siguiente teorema debido a Kolmogorov asegura la existencia de un
proceso estoc´stico asociado a una familia de distribuciones en dimensi´n
               a                                                                   o
finita que satisfagan una condici´n de compatibilidad.
                                o

Teorema 1 Consideremos una familia de probabilidades

                       {Pt1 ,...,tn , 0 ≤ t1 < · · · < tn , n ≥ 1}

tales que:

   1. Pt1 ,...,tn es una probabilidad en Rn

   2. (Condici´n de compatibilidad): Si {0 ≤ s1 < · · · < sm } ⊂ {0 ≤ t1 <
                  o
      · · · < tn }, entonces

                                 Pt1 ,...,tn ◦ π −1 = Ps1 ,...,sm

      donde π : Rn → Rm es la proyecci´n natural asociada a los dos con-
                                      o
      juntos de ´
                ındices.

   Entonces, existe un proceso estoc´stico {Xt , t ≥ 0} que tiene la familia
                                         a
{Pt1 ,...,tn } como distribuciones en dimensi´n finita.
                                             o


                                           11
La media y la autocovarianza de un proceso estoc´stico se definen como
                                                    a
sigue:

                 mX (t) = E(Xt )
                ΓX (s, t) = Cov(Xs , Xt )
                          = E((Xs − mX (s))(Xt − mX (t)).

La varianza del proceso X se define por

                        σ 2 (t) = ΓX (t, t) = Var(Xt ).
                          X



Ejemplo 7 Consideremos el proceso estoc´stico
                                       a

                            Xt = A cos(ϕ + λt),

donde A y ϕ son variables aleatorias independientes tales que E(A2 ) < ∞ y
ϕ tiene ley uniforme en [0, 2π]. En este caso,

                      mX (t) = 0
                                 1
                     ΓX (s, t) =   E(A2 ) cos λ(t − s).
                                 2


    Se dice que un proceso estoc´stico {Xt , t ≥ 0} es gaussiano o normal si
                                 a
sus distribuciones en dimensi´n finita son leyes normales multidimensionales.
                              o
    Observamos que en el caso de un proceso gaussiano, la media mX (t) y
la autocovarianza ΓX (s, t) determinan las distribuciones en dimensi´n finita
                                                                    o
del proceso.
    La media mX (t) y la varianza σ 2 (t) nos permiten conocer donde se
                                       X
concentran los valores de la variable Xt as´ como su grado de dispersi´n,
                                              ı                          o
para cada instante t fijo. Por ejemplo, en el caso de un proceso gaussiano,

            P (mX (t) − 2σ X (t) ≤ Xt ≤ mX (t) + 2σ X (t))   0.95.


    Notemos que la probabilidad de que las trayectorias del proceso est´n e
comprendidas entre las curvas mX (t) − 2σ X (t) y mX (t) − 2σ X (t) es mucho
m´s dif´ de calcular.
  a    ıcil


                                      12
Ejemplo 8 Consideremos un proceso gaussiano {Xt , t ∈ [0, 1]} tal que las
variables aleatorias Xt son independientes y con ley N (0, σ 2 ). La media y
autocovarianza de este proceso son

                            mX (t) = 0
                                              1 si s = t
                          ΓX (s, t) =
                                              0 si s = t


   Se dice que un proceso estoc´stico {Xt , t ≥ 0} es una versi´n de otro
                                  a                            o
proceso {Xt , t ≥ 0} si para cada t ≥ 0

                                  P {Xt = Xt } = 1.

Se dice tambi´n que ambos procesos son equivalentes. Dos procesos equiva-
              e
lentes puede tener trayectorias diferentes (v´ase el Ejercicio 1.6).
                                             e

   Diremos que el proceso {Xt , t ≥ 0} es continuo en probabilidad si para
todo ε > 0 y todo t ≥ 0

                            lim P (|Xt − Xs | > ε) = 0.
                            s→t

   Consideremos un proceso estoc´stico {Xt , t ≥ 0} tal que E (|Xt |p ) < ∞,
                                  a
para todo t ≥ 0, donde p ≥ 1. Diremos que el proceso {Xt , t ≥ 0} es continuo
en media de orden p si

                             lim E (|Xt − Xs |p ) = 0.
                             s→t

La continuidad en media de orden p implica la continuidad en probabilidad.
Sin embargo, la continuidad en media de orden p no implica necesariamente
la continuidad de las trayectorias.

Ejemplo 9 El proceso de Poisson {Nt , t ≥ 0} es un proceso estoc´stico car-
                                                                a
acterizado por la ssiguientes propiedades:

i) Nt = 0,

ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn −Ntn−1 , . . . , Nt2 −
      Nt1 , son variables aleatorias independientes,

                                         13
iii) Si s < t, el incremento Nt − Ns tiene una ley de Poisson de par´metro
                                                                    a
      λ(t − s), es decir

                                                                   [λ(t − s)]k
                          P (Nt − Ns = k) = e−λ(t−s)                           ,
                                                                        k!
     k = 0, 1, 2, . . .

    Se puede construir un proceso de Poisson de la forma siguiente. Consid-
eremos una sucesi´n {Yn , n ≥ 1} de variables aleatorias independientes y con
                 o
ley geom´trica de par´metro λ. Es decir, para todo x ≥ 0,
         e           a

                                  P (Yn ≥ x) = e−λx .

Pongamos T0 = 0 y para n ≥ 1,

                                  T n = Y1 + · · · + Yn .

Entonces, el proceso Nt definido por

                              Nt = n si Tn ≤ t < Tn+1

es un proceso de Poisson de par´metro λ.
                                 a
    Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de
amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada
par de saltos son variables aleatorias independientes con leyes exponenciales
de par´metro λ. Por tanto, las trayectorias no son continuas, aunque si que
       a
los son en media cuadr´tica:
                        a
                                          ∞
                              2                    −λ(t−s) k
                                                               2
                                                                   [λ(t − s)]k
               E (Nt − Ns )         =          e
                                         k=1
                                                                      k!
                                                                           s→t
                                    = λ(t − s) + [λ(t − s)]2 −→ 0.


    Acotaciones adecuadas de los momentos de los incrementos del proceso,
permiten deducir la continuidad de las trayectorias. Este es el contenido del
siguiente criterio de continuidad, debido a Kolmogorov.




                                            14
Proposici´n 2 (Criterio de continuidad) Supongamos que un proceso es-
           o
toc´stico {Xt , t ≥ 0} cumple la condici´n siguiente:
   a                                    o

                          E (|Xt − Xs |p ) ≤ cT |t − s|α                         (1)

para todo 0 ≤ s < t ≤ T , donde a > 1 y p > 0. Entonces existe una versi´n
                                                                        o
del proceso estoc´stico Xt que tiene trayectorias continuas.
                 a


Ejemplo 10 El proceso de Poisson no cumple la condici´n (1).
                                                     o

    La condici´n (1) nos permide adem´s tener informaci´n sobre la regu-
              o                          a                 o
laridad de las trayectorias. En efecto, fijemos un intervalo de tiempo [0, T ].
Entonces, para cada ε > 0 existe una variable aleatoria Gε,T tal que, con
probabilidad uno,
                                                           α
                     |Xt (ω) − Xs (ω)| ≤ Gε,T (ω)|t − s| p −ε ,                  (2)

para todo s, t ∈ [0, T ]. Adem´s, E(Gp ) < ∞ para todo p ≥ 1.
                              a      ε,T


1.3    Movimiento browniano
En 1828 el bot´nico ingl´s Robert Brown observ´ que los granos de polen en
                a         e                       o
suspensi´n se mov´ de forma irregular. Posteriormente se descubri´ que
         o          ıan                                                   o
este fen´meno es debido a los choques aleatorios de las part´
        o                                                       ıculas de polen
con las mol´culas del l´
            e            ıquido. En los a˜os 20 Norbert Wiener present´ un
                                          n                                o
modelo matem´tico para este movimiento basado en la teor´ de los procesos
                a                                            ıa
estoc´sticos. La posici´n de una part´
     a                  o             ıcula en cada instante t ≥ 0 es un vector
variable aleatorio 3-dimensional Bt .
    En el caso unidimensional la definici´n del movimiento browniano como
                                          o
proceso estoc´stico es la siguiente:
              a

Definici´n 3 Un proceso estoc´stico {Bt , t ≥ 0} es un movimiento browni-
         o                     a
ano si se cumplen las condiciones siguientes:

   i) B0 = 0

  ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn −Btn−1 , . . . , Bt2 −
      Bt1 , son variables aleatorias independientes


                                        15
iii) Si s < t, el incremento Bt − Bs tiene una ley normal N (0, t − s)
  iv) Las trayectorias del proceso son funciones continuas.

Observaciones
1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un
    vector aleatorio (Bt1 , . . . , Btn ) es normal ya que este vector es una trans-
    formaci´n lineal del vector Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 que tiene
            o
    ley normal ya que tiene las componentes independientes y normales.
2) La media y la autocovarianza del movimiento browniano se calculan facil-
     mente:
                E(Bt ) = 0
              E(Bs Bt ) = E(Bs (Bt − Bs + Bs ))
                                                2
                        = E(Bs (Bt − Bs )) + E(Bs ) = s = min(s, t)
      si s ≤ t. Puede comprobarse f´cilmente que si un proceso gaussiano
                                      a
      tiene media cero y funci´n de autocovarianza ΓX (s, t) = min(s, t), en-
                              o
      tonces cumple las condiciones i), ii) y iii) de la Definici´n anterior.
                                                                o
3) Puede demostrarse que existe un proceso estoc´stico que cumple las
                                                    a
     condiciones anteriores. Para ello, se parte de sus distribuciones en
     dimensi´n finita, que son leyes normales N (0, Γ) donde Γ es la la ma-
             o
     triz                                     
                                t1 t1 · · · t1
                              t1 t2 · · · t2 
                                              
                              . . ..        . .
                              . .
                                 . .      . . 
                                             .
                                t1 t2 · · · tn
      El teorema de extensi´n de Kolmogorov permite construir un proceso
                             o
      estoc´stico fijadas las distribuciones en dimensi´n finita, siempre que
            a                                          o
      sean compatibles, lo que aqu´ es cierto. Finalmente hay que demostrar
                                    ı
      que se pueden modificar las variables Bt conjuntos de probabilidad
      cero de forma que las trayectorias sean continuas. Para ello se aplica el
      criterio de continuidad de Kolmogorov. Como los incrementos Bt − Bs
      tienen ley normal N (0, t − s), para todo n´mero entero k tendremos
                                                 u
                                                (2k)!
                           E (Bt − Bs )2k =           (t − s)k .                (3)
                                                2k k!

                                        16
Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una
     versi´n continua, ya que
          o

                           E (Bt − Bs )4 = 3(t − s)2 .

4) En la definici´n de movimiento bronwiano, se supone que el espacio de
                o
     probabilidad (Ω, F, P ) es arbitrario. Sin embargo, mediante la apli-
     caci´n
         o

                              Ω → C ([0, ∞), R)
                              ω → B· (ω)

     podemos suponer que el espacio de probabilidad es el conjunto de
     las funciones continuas C ([0, ∞), R) con la σ-´lgebra de Borel (gen-
                                                    a
     erada por los conjuntos abiertos relativos a la estructura de espacio
     m´trico separable y completo) y con una probabilidad igual a la ley del
       e
     movimiento browniano: P ◦ B −1 . En tal caso las variables aleatorias
     son las evaluaciones ω(t) y este espacio de probabilidad se denomina
     espacio can´nico.
                o


Regularidad de las trayectorias
    Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo
p = 2k y utilizando (3), tendremos α = k. Por lo tanto, para todo ε > 0
existe una variable aleatoria Gε,T tal que
                                                   1
                        |Bt − Bs | ≤ Gε,T |t − s| 2 −ε ,                  (4)

para cada s, t ∈ [0, T ]. Es decir, las trayectorias del movimiento Browniano
son H¨lder continuas de orden 1 − ε para todo ε > 0. Intuitivamente, esto
      o                           2
significa que
                                                      1
                          ∆Bt = Bt+∆t − Bt (∆t) 2 .
En media esta aproximaci´n es exacta: E (∆Bt )2 = ∆t.
                        o


Variaci´n cuadr´tica del movimiento browniano
         o        a
    Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisi´n π de
                                                                      o
este intervalo
                         0 = t0 < t1 < · · · < tn = t.

                                      17
La norma de la subdivisi´n π se define como |π| = maxk ∆tk , donde ∆tk =
                        o
tk − tk−1 . Pongamos ∆Bk = Btk − Btk−1 . Entonces, si tj = jt tendremos
                                                           n

                                  n                                 1
                                                              t     2
                                      |∆Bk |         n                  −→ ∞,
                              k=1
                                                              n

mientras que
                                       n
                                                                   t
                                            (∆Bk )2            n     = t.                             (5)
                                      k=1
                                                                   n
Esas propiedades pueden formularse de manera rigurosa como sigue:
    En primer lugar, puede demostrarse que las sumas de los cuadrados de
los incrementos convergen en media cuadr´tica hacia la longitud del intervalo
                                        a
de tiempo considerado:
                                                              
               n                      2                            n                          2

     E                   2
                    (∆Bk ) − t             = E                                2
                                                                         (∆Bk ) − ∆tk             
              k=1                                                 k=1
                                                      n
                                                                                        2
                                             =                E         (∆Bk )2 − ∆tk
                                                     k=1
                                                      n
                                             =                 4 (∆tk )2 − 2 (∆tk )2 + (∆tk )2
                                                     k=1
                                                       n
                                                                                    |π|→0
                                             = 3                  (∆tk )2 ≤ 3t|π| −→ 0.
                                                         k=1

   Por otra parte, la variaci´n total de las trayectorias del movimiento brow-
                             o
niano, definida como
                                                          n
                                       V = sup                 |∆Bk |
                                                 π
                                                         k=1
es infinita con probabilidad uno. En efecto, utilizando la continuidad de las
trayectorias del movimiento browniano, tendremos
         n                                        n
                      2                                                                     |π|→0
              (∆Bk ) ≤ sup |∆Bk |                        |∆Bk |          ≤ V sup |∆Bk | −→ 0          (6)
                              k                                                k
        k=1                                      k=1

                                                 n
si V < ∞, lo cual contradice que                 k=1      (∆Bk )2 converja en media cuadr´tica
                                                                                         a
hacia t cuando |π| → 0.

                                                      18
Propiedad de autosimilitud
  Para todo n´mero real a > 0, el proceso
             u

                             a−1/2 Bat , t ≥ 0

es un movimiento browniano. En efecto, este proceso es normal, con media
cero y funci´n de autocovarianza igual a min(s, t).
            o


Procesos relacionados con el movimiento browniano

1.- El puente browniano: Consideremos el proceso

                                Xt = Bt − tB1 ,

     t ∈ [0, 1]. Se trata de un proceso normal centrado con funci´n de
                                                                 o
     autocovarianza
                          E(Xt Xs ) = min(s, t) − st,
     que verifica X0 = 0, X1 = 0.

2.- El movimiento browniano con deriva: Consideremos el proceso

                               Xt = σBt + µt,

     t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Se trata de un proceso
     normal con media y funci´n de autocovarianza
                             o

                            E(Xt ) = µt,
                           ΓX (s, t) = σ 2 min(s, t)

3.- Movimiento browniano geom´trico: Es el proceso estoc´stico propuesto
                                e                         a
     por Black, Scholes y Merton como modelo para la curva de precios de
     los activos financieros. Su definici´n es la siguiente
                                       o

                                   Xt = eσBt +µt ,

     t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Es decir, se trata de la
     exponencial de un movimiento browniano con deriva lineal.


                                     19
Simulaci´n del movimiento browniano
          o
    El movimiento browniano puede considerarse como el l´         ımite de los paseos
aleatorios. Fijemos un intervalo de tiempo [0, T ]. Consideremos n variables
aleatorias ξ 1 , . . . , ξ n independientes, id´nticamente distribuidas, centradas y
                                               e
de varianza T . Formemos las sumas parciales
                 n

                         Rk = ξ 1 + · · · + ξ k , k = 1, . . . , n.
El Teorema Central del L´mite nos dice que cuando n tiende a infinito, la
                           ı
sucesi´n Rn converge en ley hacia la ley N (0, T ).
      o
    Consideremos ahora el proceso estoc´stico continuo Sn (t) construido por
                                          a
interpolaci´n lineal a partir de los valores
           o
                                    kT
                             Sn (      ) = Rk k = 0, . . . , n.
                                     n

Es decir, colocamos las sumas parciales R1 , R2 , . . . en los instantes T , 2T , 3T , . . .
                                                                         n n       n
.
   Se verifica una versi´n funcional del Teorema Central del L´
                        o                                           ımite, conocida
con el nombre de Principio de Invariancia de Donsker, que nos dice que la
sucesi´n de procesos estoc´sticos Sn (t) convege en ley hacia el movimiento
      o                    a
browniano en [0, T ].


   Tambi´n puede hacerse una simulaci´n de las trayectorias brownianas
         e                              o
mediante series de Fourier con coeficientes aleatorios. La representaci´n de
                                                                      o
Paley-Wiener del movimiento browniano es
                                           ∞
                          t   2                      sin(nt/2)
                Bt = Z 0 √ + √                  Zn             , t ∈ [0, 2π],
                          2π   π          n=1
                                                         n

donde las Zn , n = 0, 1, . . . son variables aleatorias independientes y con
ley N (0, 1). La serie converge uniformemente en [0, 2π], para cada ω, casi
seguramente.
    Para utilizar esta f´rmula en la simulaci´n de las trayectorias brownianas
                        o                    o
debemos elegir el n´mero M de funciones trigonom´tricas y el n´mero N de
                     u                               e             u
puntos de discretizaci´n de las funciones:
                        o
                                                M
                             tj  2                        sin(ntj /2)
                         Z0 √ + √                    Zn               ,
                              2π  π            n=1
                                                              n

                                               20
2πj
donde tj =    N
                 ,   j = 0, 1, . . . , N .


1.4    Esperanza condicionada
La probabilidad condicionada de un suceso A por un suceso B (suponiendo
P (B) > 0) se define como

                                                   P (A∩B)
                                      P (A|B) =      P (B)
                                                           .

Vemos que A y B son independientes s´ y solo si P (A|B) = P (A). La
                                        ı
probabilidad condicionada P (A|B) representa la probabilidad del suceso A
suponiendo que sabemos que B ha ocurrido. La aplicaci´n
                                                      o

                                         A −→ P (A|B)

define una nueva probabilidad en la σ-´lgebra F que se concentra en el con-
                                       a
junto B. Se puede calcular entonces la esperanza condicionada por B de una
variable aleatoria integrable X:
                                                1
                                 E(X|B) =           E(X1B ),
                                              P (B)
donde 1B representa la funci´n indicatriz del suceso B definida por
                            o

                                              1 si ω ∈ B
                                 1B (ω) =
                                              0 si ω ∈ B
                                                     /

    Un concepto m´s complicado es el condicionamiento por una σ-´lgebra
                   a                                             a
de sucesos. Consideremos una σ-`lgebra B ⊂ F y una variable aleatoria
                                  a
integrable X.
    Una variable aleatoria Z se denomina la esperanza condicionada de la
variable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dos
propiedades siguientes:

   • Z es medible respecto de B.

   • Para todo suceso A ∈ B

                                        E (Z1A ) = E (X1A ) .

                                              21
Puede demostrarse que la esperanza condicionada existe y es unica casi se-
                                                                  ´
guramente, de manera que si Z fuese otra variable con las mismas propiedades,
entonces Z = Z, P -casi seguramente.
   En el caso particular en que la σ-´lgebra B est´ generada per una partici´n
                                     a            a                         o
finita {B1 , ..., Bm }, entonces E(X|B) es una variable aleatoria elemental que
en cada conjunto Bj toma el valor constante E(X|Bj ), es decir,
                                    m
                                         E X1Bj
                       E(X|B) =                   1Bj .
                                   j=1
                                          P (Bj )

   Reglas para el c´lculo de esperanzas condicionadas:
                   a

Regla 1 La esperanza condicionada es lineal:

                      E(aX + bY |B) = aE(X|B) + bE(Y |B)

Regla 2 La variable y su esperanza condicionada tienen la misma esperanza:

                               E (E(X|B)) = E(X)

     Esta propiedad es una consecuencia inmediata de la definici´n, tomando
                                                               o
     A = Ω.
Regla 3 Si la variable aleatoria X y la σ-´lgebra B son independientes,
                                          a
    entonces E(X|B) = E(X).
     En efecto, para todo suceso A ∈ B tendremos
                     E (X1A ) = E (X)E(1A ) = E(E(X)1A ).

Regla 4 Si X es B-medible, entonces E(X|B) = X.
Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces
                             E(ZX|B) = ZE(X|B).
     Es decir, las variables aleatorias B-medibles se comportan como con-
     stantes y pueden sacarse fuera de la esperanza condicionada.
Regla 6 Si C ⊂ B, entonces

                    E (E(X|B)|C) = E (E(X|C)|B) = E(X|C)


                                        22
Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es B-
    medible y X es independiente de B. Consideremos una funci´n h(x, z)
                                                             o
    tal que h(X, Z) es integrable. Entonces, se tiene

                              E (h(X, Z)|B) = E (h(X, z)) |z=Z

      Es decir, primero calculamos la esperanza E (h(X, z)) para un valor
      arbitrario z de la variable Z y luego substituimos z por Z.


   La esperanza condicionada tiene propiedades similares a la esperanza or-
dinaria. Por ejempo se cumple la siguiente propiedad de monoton´ ıa:

                           X ≤ Y ⇒ E(X|B) ≤ E(Y |B),

que implica la desigualdad |E(X|B) | ≤ E(|X| |B). Tambi´n se cumple la
                                                           e
desigualdad de Jensen: Si ϕ es una funci´n convexa tal que E(|ϕ(X)|) < ∞,
                                        o
entonces
                        ϕ (E(X|B)) ≤ E(ϕ(X)|B).                        (7)
    En particular, si tomamos ϕ(x) = |x|p con p ≥ 1, se obtiene

                                |E(X|B)|p ≤ E(|X|p |B),

por lo tanto, tomando esperanzas, deducimos que si E(|X|p ) < ∞, entonces,
E(|E(X|B)|p ) < ∞, y

                               E(|E(X|B)|p ) ≤ E(|X|p ).

    Si la σ-´lgebra B est´ generada por las variables aleatorias Y1 , . . . , Ym ,
            a                  a
entonces, la esperanza condicionada se representa por E(X|Y1 , . . . , Ym ) y
es una cierta funci´n g(Y1 , . . . , Ym ) de estas variables. En particular, si las
                        o
variables X, Y1 , . . . , Ym tienen una ley conjunta con densidad f (x, y1 , . . . , ym ),
entonces, la esperanza condicionada se puede calcular como la esperanza de
la densidad condicionada:
                                                  f (x, y1 , . . . , ym )
               f (x|y1 , . . . , ym ) =   +∞                                          ,
                                          −∞
                                               f (x, y1 , . . . , ym )dy1 · · · dym

es decir,
                                                +∞
                  E(X|Y1 , . . . , Ym ) =            xf (x|Y1 , . . . , Ym )dx.
                                               −∞


                                               23
En el caso en que la σ-´lgebra B est´ generada por un conjunto infinito
                             a            e
de variables aleatorias {Yj }, escribiremos tambi´n
                                                 e
                           E(X|B) = E(X| {Yj }),
pero el c´lculo no se puede efectuar mediante una f´rmula como la anterior
         a                                          o
y necesitaremos utilizar las reglas que hemos introducido antes.

Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt , t ≥
0}. Para cada instante t, definimos la σ-´lgebra Ft generada por las variables
                                        a
aleatorias {Bs , s ≤ t}. La σ-´lgebra Ft contiene la historia del movimiento
                              a
browniano hasta el instante t. Esto quiere decir que:
i) Los sucesos F de Ft ser´n conocidos (se sabr´ si han ocurrido o no) en el
                          a                    a
     instante t.
ii) El valor de una variable aleatoria X(ω) medible respecto de la σ-´lgebra
                                                                     a
      Ft ser´ una funci´n de la trayectoria del movimiento browniano
            a          o
                                {Bs (ω), s ∈ [0, t]} .

   Observemos que Fs ⊂ Ft si s ≤ t, es decir, la familia de σ-´lgebras
                                                                     a
{Ft , t ≥ 0} es creciente. Diremos que {Ft , t ≥ 0} es una filtraci´n en el es-
                                                                  o
pacio de probabilidad (Ω, F, P ).
   Queremos calcular
                        E(Bt |Fs ) = E(Bt |Br , r ≤ s).
   • Si s ≥ t, la variable Bt es Fs -medible, y por la Regla 4 obtenemos
     E(Bt |Fs ) = Bt .
   • Si s < t, por la propiedad de linealidad (Regla 1):
                   E(Bt |Fs ) = E(Bt − Bs + Bs |Fs )
                              = E(Bt − Bs |Fs ) + E( Bs |Fs ).
     Como Bt − Bs es independiente de Fs , la Regla 3 nos da
                       E(Bt − Bs |Fs ) = E(Bt − Bs ) = 0,
     y, por lo tanto, obtenemos
                                  E(Bt |Fs ) = Bs .                       (8)

                                      24
El conjunto de las variables aleatorias Z que son medibles respecto de una
σ-´lgebra B y que son de cuadrado integrable (E(Z 2 ) < ∞), lo representare-
  a
mos por L2 (Ω, B, P ). Puede demostrarse que L2 (Ω, F, P ) es un espacio de
Hilbert con el producto escalar

                               Z, Y = E(ZY ),

y que L2 (Ω, B, P ) es un subespacio cerrado de L2 (Ω, F, P ).
   En este contexto, si X es una variable tal que E(X 2 ) < ∞, la esperanza
condicionada E(X|B) es la variable del espacio L2 (Ω, B, P ) m´s pr´xima a
                                                               a    o
X en media cuadr´tica:
                    a

               E (X − E(X|B))2 =           min        E (X − Z)2 .        (9)
                                      Z∈L2 (Ω,B,P )


Es decir, E(X|B) es la proyecci´n de X en el subespacio L2 (Ω, B, P ).
                                o
    Desde el punto de vista de la teor´ de la estimaci´n, la esperanza condi-
                                      ıa              o
cionada E(X|B) es el mejor predictor de la variable X a partir de la σ-´lgebra
                                                                       a
B (estimador ´ptimo).
              o
    Demostraci´n de (9): Sea X una variable tal que E(X 2 ) < ∞. La
                 o
desigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B)
tambi´n es de cuadrado integrable ya que
     e

                  E (E(X|B))2 ≤ E E(X 2 |B) = E(X 2 ).

La regla 5 nos permite demostrar que la diferencia X − E(X|B) es ortogonal a
L2 (Ω, B, P ). En efecto, si Z es una variable de L2 (Ω, B, P ) tendremos

           E [(X − E(X|B))Z] = E(XZ) − E(E(X|B)Z)
                             = E(XZ) − E(E(XZ|B)) = 0.

Finalmente, esta ortogonalidad implica que

        E (X − Y )2 = E (X − E(X|B))2 + E (E(X|B) − Z)2 ,

de lo que se deduce (9).


   Ejercicios


                                      25
1.1 Supongamos que {Hi , i ∈ I} es una familia de σ-´lgebras en un conjunto
                                                    a
     Ω. Demostrar que
                               H = ∩{Hi , i ∈ I}
     es tambi´n una σ-´lgebra.
             e        a
1.2 Supongamos que X es una variable aleatoria real tal que

                             M = E[exp(k|X|)] < ∞

     para un cierto k > 0. Probar que P (|X| > λ) ≤ M e−kλ , para todo
     λ ≥ 0.
1.3 Sea (Ω, F, P ) un espacio de probabilidad y consideremos una sucesi´n
                                                                       o
     de sucesos A1 , A2 , . . . tales que
                                  ∞
                                        P (Ak ) < ∞.
                                  k=1

     Demostrar el lema de Borel-Cantelli:

                              P (∩∞ ∪∞ Ak ) = 0,
                                  m=1 k=m

     es decir, la probabilidad que ocurran infinitos sucesos de la sucesi´n es
                                                                        o
     nula.
1.4 Sea Z una variable aleatoria con ley N (0, σ 2 ). A partir de la f´rmula
                                                                      o
                                               1   2 2
                                 E(eλZ ) = e 2 λ    σ
                                                         ,

     y desarrollando en serie de potencias la funci´n exponencial deducir
                                                   o
     que para todo k ≥ 1
                                          (2k)! 2k
                               E(Z 2k ) =        σ ,
                                           2k k!
                             E(Z 2k−1 ) = 0.

1.5 Sea Z una variable aleatoria con ley de Poisson de par´metro λ. Com-
                                                          a
     probar que la funci´n caracter´
                        o          ıstica de Z vale

                            ϕZ (t) = exp λ eit − 1           .

     Como aplicaci´n calcular E(Z 2 ), Var(Z) y E(Z 3 ).
                  o

                                        26
1.6 Sea (Ω, F, P ) = ([0, ∞), B[0,∞) , µ), donde µ es una probabilidad en [0, ∞)
     con funci´n de distribuci´n continua. Consideremos en este espacio de
               o               o
     probabilidad los procesos estoc´sticos
                                        a

                                            1 si t = ω
                            Xt (ω) =
                                            0 si t = ω
                            Yt (ω) = 0.

      Comprobar que estos procesos tienen las mismas distribuciones en di-
      mensi´n finita, pero las trayectorias del proceso X son todas discontin-
           o
      uas.

1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 ≥ 0. De-
     mostrar que el proceso

                              Bt = Bt0 +t − Bt0 , t ≥ 0

      es tambi´n un movimiento browniano.
              e

1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular

                                    P (|Bt | < ρ)

      donde ρ > 0.

1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una
     matriz U cuadrada de dimensi´n n, ortogonal (es decir, U U = I).
                                 o
     Demostrar que el proceso
                               Bt = U Bt
      es tambi´n un movimiento browniano.
              e

1.10 Calcular la media y la autocovarianza del movimiento browniano geom´trico.
                                                                        e
     Es un proceso gaussiano?




                                       27
2     Integraci´n estoc´stica
               o       a
Supongamos que {Bt , t ≥ 0} es un movimiento browniano definido en un es-
pacio de probabilidad (Ω, F, P ). Consideremos la familia creciente {Ft , t ≥ 0}
de σ-´lgebras generadas por este proceso. Supondremos adem´s que Ft con-
     a                                                          a
tiene los conjuntos de probabilidad cero. Esto significa que Ft es la m´   ınima
σ-´lgebra que contiene los conjuntos de la forma
   a

                                {Bs ∈ A} ∪ N

donde s ∈ [0, t], A pertenece a la σ-´lgebra de Borel BR , y N es un conjunto
                                     a
de probabilidad cero.
    Diremos que un proceso estoc´stico {ut , u ≥ 0} es adaptado (a la familia
                                   a
de σ-´lgebras Ft ) si para cada t la variable aleatoria ut es Ft -medible.
     a
    La inclusi´n de los sucesos de probabilidad cero en cada σ-´lgebra Ft
               o                                                     a
tiene las siguientes consecuencias interesantes:

a) Toda versi´n de un proceso adaptado es tambi´n adaptado.
             o                                 e

b) La familia de σ-´lgebras es continua por la derecha, es decir, para todo
                   a
     t≥0
                                 ∩s>t Fs = Ft .

    Demostraci´n de b): Consideremos las σ -´lgebras F t = σ{Br − Bt , r ≥
                  o                                a
s}. Si B ∈ ∩s>t Fs , la σ -´lgebra generada por B y por Ft , es independiente de
                           a
     1
  t+ n
F      para todo n. Por tanto, σ(B, Ft ) ser´ independiente de F t , y tendemos
                                            a

                      E(1B |Ft ) = E(1B |Ft ∨ F t ) = 1B ,

de lo que se deduce 1B ∈ Ft .
   La σ-´lgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto
         a
implica que las variables aleatorias F0 -medibles ser´n constantes, casi segu-
                                                     a
ramente.

    Nuestro objetivo es la definici´n de integrales estoc´sticas de la forma
                                  o                     a
                                     T
                                    0
                                         ut dBt .

    Una posibilidad consiste en utilizar la definici´n de integral de Riemann
                                                   o
Stieltjes:

                                         28
Consideremos una partici´n del intervalo [0, T ]:
                           o
                   τ n : 0 = t0 < t1 < · · · < tn−1 < tn = T
as´ como una partici´n intermedia:
  ı                 o
                   σn :        ti ≤ si leqti+1 , i = 0, . . . , n − 1.
Dadas dos funciones f y g en el intervalo [0, T ], la integral de Riemann
           T
Stieltjes 0 f dg se define como el l´
                                   ımite
                                         n
                                   lim         f (si−1 )∆gi
                                  n→∞
                                         i=1
                      n→∞
cuando supi (ti − ti−1 ) −→ 0, suponiendo que este l´ımite existe y es indepen-
diente de la sucesi´n de particiones τ n y de sus particiones intermedias σ n ,
                    o
con la notaci´n ∆gi = g(ti ) − g(ti−1 ).
             o
                                                   T
    Se sabe que la integral de Riemann Stieltjes 0 f dg existe si la funci´n f
                                                                           o
es continua y la funci´n g tiene variaci´n total acotada, es decir:
                        o                o

                                  sup          |∆gi | < ∞.
                                    τ
                                         i

    Como las trayectorias del movimiento browniano tienen variaci´n total
                                                                    o
infinita (v´ase (6)) no podemos utilizar este criterio para asegurar que la
           e
                                T
integral de Riemann-Stieltjes 0 ut (ω)dBt (ω) existe para cada ω, si u es un
proceso arbitrario con trayectorias continuas.
    Obsevemos, si embargo, que si las trayectorias del proceso u son difer-
enciables con derivadas acotadas, entonces, la integral de Riemann Stielt-
     T
jes 0 ut (ω)dBt (ω) existe y puede calcularse mediante una integraci´n por
                                                                      o
partes:
                           T                            T
                          0
                               ut dBt = uT BT −        0
                                                            ut Bt dt.
                                                                         T
   En este apartado presentaremos una construcci´n de la integral 0 ut dBt
                                                  o
mediante un procedimiento global de tipo probabil´  ıstico. En primer lugar
definiremos la clase de procesos que integraremos:
   Designaremos por L2 el conjunto de los procesos estoc´sticos
                       a,T                                  a
                                  u = {ut , t ∈ [0, T ]}
tales que:

                                               29
a) Para cada t ∈ [0, T ], la aplicaci´n (s, ω) −→ us (ω) definida en [0, t] × Ω
                                     o
     es medible respecto de la σ-´lgebra producto B[0,t] × Ft .
                                   a
         T
b) E    0
             u2 dt < ∞.
              t


    Un proceso que verifica la condici´n a) se dice que es progresivamente
                                         o
medible. En general, que un proceso estoc´stico u sea medible significa que la
                                           a
funci´n de dos variables (s, ω) −→ us (ω) es medible en la σ-´lgebra producto
       o                                                        a
B[0,T ] ×F . La propiedad a) require la medibilidad de la restricci´n del proceso
                                                                   o
u a cada conjunto [0, t] × Ω. Esta propiedad implica que el proceso u sea
adaptado, ya que si una funci´n es medible en un espacio producto, al fijar
                                o
una coordenada resulta medible como funci´n de la segunda coordenada. Por
                                             o
otra parte, la propiedad a) es esencial para garantizar que variables aleatorias
            t
del tipo 0 us ds sean Ft -medibles.
    La condici´n b) significa que el momento de segundo orden es integrable
                o
en [0, T ], ya que, el teorema de Fubini nos permite escribir
                                        T                        T
                          E                 u2 dt
                                             t          =            E u2 dt.
                                                                        t
                                    0                        0

La propiedad b) nos dice que el proceso u como funci´n de las dos variables
                                                     o
                             2
(t, ω) pertenece al espacio L ([0, T ] × Ω).
                                           T
     Definiremos la integral estoc´stica 0 ut dBt para procesos u de la clase
                                  a
L2 como el l´
  a,T          ımite en L2 (Ω) de la integral de procesos elementales. Por
definici´n un proceso u de L2 es elemental si se puede expresar de la forma
        o                    a,T

                                               n
                                   ut =             φj 1(tj−1 ,tj ] (t),        (10)
                                              j=1


donde 0 = t0 < t1 < · · · < tn = T y las φj son variables aleatorias de
cuadrado integrable Ftj−1 -medibles.
   Si u es un proceso elemental de la forma (10) se define la integral es-
toc´stica de u respecto del movimiento browniano B como
   a
                              T                     n
                                  ut dBt =              φj Btj − Btj−1 .        (11)
                          0                     j=1




                                                        30
La integral estoc´stica definida en el espacio E de los procesos elementales
                     a
tiene las siguiente propiedad de isometria:

                                                            2
                                        T                                       T
                                E      0
                                            ut dBt               =E            0
                                                                                    u2 dt
                                                                                     t                           (12)


   Demostraci´n de la isometr´ Pongamos ∆Bj = Btj −Btj−1 . Entonces
             o               ıa:

                                                                       0           si i = j
                   E φi φj ∆Bi ∆Bj =
                                                          E     φ2
                                                                 j    (tj − tj−1 ) si i = j

ya que si i < j las variables aleatorias φi φj ∆Bi y ∆Bj son independientes y si
i = j las variables aleatorias φ2 y (∆Bi )2 son independientes. Por lo tanto se
                                 i
obtiene
               T            2          n                                                n
       E           ut dBt       =             E φi φj ∆Bi ∆Bj =                              E φ2 (ti − ti−1 )
                                                                                                i
           0                          i,j=1                                            i=1
                                                      T
                                = E                       u2 dt .
                                                           t
                                                  0



   La extensi´n de la integral estoc´stica a todos los procesos de la clase
             o                       a
L2
 a,Tse basa en el siguiente resultado de aproximaci´n:
                                                   o

Lema 4 Si u es un proceso de la clase L2 existe una sucesi´n de procesos
                                       a,T                o
             (n)
elementales u tales que
                                                      T                    2
                                                                     (n)
                                lim E                     ut − ut              dt    = 0.                        (13)
                                n→∞               0

   Demostraci´n: La demostraci´n de este resultado la haremos en dos etapas:
             o                o

  1. Supongamos que el proceso u es continuo en media cuadr´tica. En tal caso,
                                                           a
       podemos tomar la sucesi´n aproximadora
                              o
                                                           n
                                            (n)
                                        ut        =             utj−1 1(tj−1 ,tj ] (t),
                                                          j=1




                                                            31
siendo tj = jT . La continuidad en media cuadr´tica del proceso u nos
                   n
                                                   a
     garantiza que
                           T                         2                                T                              2
                                               (n)                                                             (n)
              E                ut − ut                   dt           =                   E        ut − ut               dt
                       0                                                          0
                                                                      ≤ T                 sup       E |ut − us |2
                                                                                   |t−s|≤T /n

     converge hacia cero cuando n tiende a infinito.

  2. Supongamos que u es un proceso arbitrario de la clase L2 . En tal caso,
                                                                 a,T
     existe una sucesi´n de procesos v , pertenecientes a la clase L2 , continuos
                      o               (n)
                                                                     a,T
     en media cuadr´tica y tales que
                   a
                                                             T                            2
                                                                                  (n)
                                   lim E                             ut − v t                 dt   = 0.                       (14)
                                n→∞                      0

     En efecto, definimos
                                           t                                  t                         t
                   (n)
                  vt       =n                   us ds = n                         us ds −                   us− 1 ds ,
                                          1                                                                    n
                                       t− n                               0                         0

     con la convenci´n u(s) = 0 si s < 0. Estos procesos son continuos en media
                    o
     cuadr´tica (tambi´n tienen trayectorias continuas), y pertenecen a la clase
           a           e
     L2 , debido a la propiedad a). Adem´s se cumple (14) ya que para cada
       a,T                                 a
     (t, ω) tenemos
                                       T
                                                                                          2        n→∞
                                               u(t, ω) − v (n) (t, ω) dt −→ 0
                                   0
     (v´ase Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia
       e
     dominada en el espacio producto [0, T ] × Ω ya que
                                   T                                                  T
                                                                 2
                                           v (n) (t, ω) dt ≤                              |u(t, ω)|2 dt.
                               0                                                  0




Definici´n 5 Si u es un proceso de la clase L2 , la integral estoc´stica se
        o                                   a,T                  a
define como el l´mite en L2 (Ω)
               ı
                                    T                                         T
                                                                                      (n)
                                           ut dBt = lim                           ut dBt ,                                    (15)
                                0                             n→∞         0

donde u(n) es una sucesi´n de procesos elementales tales que cumplen (13).
                        o

                                                                 32
Que el l´
            ımite (15) existe es debido a que la sucesi´n de variables aleato-
                                                       o
      T (n)                                   2
rias 0 ut dBt es de Cauchy en el espacio L (Ω), debido a la propiedad de
isometr´ (12):
       ıa
          T                              T                    2                               T                                        2
               (n)                            (m)                                                             (n)            (m)
E             ut dBt −                       ut dBt                     = E                           ut − ut                              dt
      0                              0                                                    0
                                                                                                  T                                2
                                                                                                               (n)
                                                                        ≤ 2E                              ut − ut                      dt
                                                                                              0
                                                                                                      T                                    2
                                                                                                                              (m)                   n,m→∞
                                                                                +2E                             ut − ut                        dt    →      0.
                                                                                                  0

Tambi´n puede demostrarse que el l´
      e                              ımite (15) no depende de la sucesi´n u(n)
                                                                       o
siempre que esta sucesi´n cumpla (13).
                       o
   La integral estoc´stica tiene las siguientes propiedades importantes:
                    a

1.- Isometr´
           ıa:
                                                         T                  2                             T
                                         E                   ut dBt              =E                           u2 dt .
                                                                                                               t
                                                     0                                                0


2.- Media cero:
                                                                        T
                                                         E                  ut dBt            = 0.
                                                                    0

3.- Linealidad:
                                 T                                                   T                                   T
                                     (aut + bvt ) dBt = a                                ut dBt + b                          vt dBt .
                             0                                                   0                                   0

                                                     T
4.- Localidad: Se cumple                            0
                                                         ut dBt = 0 casi seguramente, en el conjunto
                      T
      G=             0
                          u2 dt = 0 .
                           t


    La propiedad de localidad es una consecuencia de que en el conjunto G
la sucesi´n aproximadora
         o
                                               n                   (j−1)T
                                                                      n
                       (n,m,N )
                      ut                 =          m                            us ds 1( (j−1)T , jT ] (t)
                                                                  (j−1)T     1               n      n
                                              j=1                    n
                                                                            −m


se anula.

                                                                        33
Ejemplo 12
                                        T
                                                    1 2 1
                                            Bt dBt = BT − T.
                                    0               2    2
  Como el proceso Bt es continuo en media cuadr´tica podemos tomar como
                                               a
sucesi´n aproximadora
      o
                                                n
                                   (n)
                               ut           =         Btj−1 1(tj−1 ,tj ] (t),
                                                j=1

                jT
donde tj =       n
                   ,   y tendremos

           T                        n
               Bt dBt =      lim            Btj−1 Btj − Btj−1
       0                     n→∞
                                   j=1
                                                                                n
                           1       2     2     1                                        2
                         =    lim Btj − Btj−1 − lim      Btj − Btj−1
                           2 n→∞               2 n→∞ j=1
                             1 2 1
                         =    B − T.                                                        (16)
                             2 T 2
Si xt es una funci´n derivable, las reglas del c´lculo diferencial e integral nos
                  o                               a
dicen que
                       T            T
                                                 1 2
                         xt dxt =     xt xt dt =    x − x2 .
                     0            0              2 T      0

Observemos que en el caso del movimiento browniano nos aparece un t´rmino
                                                                   e
                    1
adicional igual a − 2 T .


                                                                                    T
Ejemplo 13 Consideremos una funci´n determinista g tal que 0 g(s)2 ds <
                                     o
                                          T
∞. En este caso, la integral estoc´stica 0 gs dBs es una variable aleatoria
                                  a
con ley normal
                                                          T
                                         N (0,                g(s)2 ds).
                                                      0




                                                          34
2.1    Integrales estoc´sticas indefinidas
                       a
Consideremos un proceso u de la clase L2 . El proceso u1[0,t] tambi´n
                                           a,T                     e
             2
pertenece a La,T , y por lo tanto, podemos definir su integral:
                                  t                               T
                                      us dBs :=                       us 1[0,t] (s)dBs .
                              0                               0

De esta forma hemos construido un nuevo proceso estoc´stico
                                                     a
                                               t
                                                   us dBs , 0 ≤ t ≤ T
                                           0

que es la integral indefinida del proceso u respecto de B. En este apartado
estudiaremos las propiedades de las integrales indefinidas. En primer lugar,
debido a la linealidad de la integral estoc´stica, tenemos la propiedad de
                                           a
aditividad siguiente:
                          b                               c                            c
                              us dBs +                        us dBs =                     us dBs ,
                      a                               b                            a

si a ≤ b ≤ c.
    Si a < b y A es un suceso de la σ-´lgebra Fa entonces,
                                      a
                                      b                                       b
                                          1A us dBs = 1A                          us dBs .
                                  a                                       a

En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable
acotada y Fa -medible.
   Una propiedad importante de las integrales indefinidas es la propiedad de
martingala.

Definici´n 6 Un proceso estoc´stico {Mt , t ≥ 0} diremos que es una martin-
         o                      a
gala respecto de una familia creciente de σ-´lgebras {Mt , t ≥ 0}, contenidas
                                            a
en F, si se cumplen las propiedades siguientes:

(i) Mt es medible respecto de Mt , para todo t ≥ 0.

(ii) E(|Mt |) < ∞ para todo t ≥ 0.

(iii) E(Mt |Ms ) = Ms , si s ≤ t.

                                                              35
La propiedad (iii) puede expresarse de forma equivalente como sigue
                           E(Mt − Ms |Ms ) = 0
y ello significa que la esperanza condicionada de los incrementos de una mar-
tingala es cero. Las martingalas se introduden para modelizar las ganancias
de un jugador que juega una partida equitativa en un juego de azar. En he-
cho de que la ganancia esperada tenga valor medio cero representa el car´cter
                                                                        a
equitativo del juego.
    De forma an´loga se puede introducir el concepto de martingala para un
                 a
proceso {Mt , 0 ≤ t ≤ T } respecto de una familia creciente de σ-´lgebras
                                                                     a
{Mt , 0 ≤ t ≤ T }. En tal caso, la propiedad de martingala nos dice que
                             Mt = E(MT |Mt ).
Fij´monos en que la variable terminal MT determina la martingala ya que
   e
las variables Mt se obtinenen tomando la esperanza condicionada de MT
respecto de la familia creciente de σ-´lgebras.
                                      a
    Como consecuencia de la propiedad de martingala tendremos que la es-
peranza de una martingala es consante:
                             E(Mt ) = E(M0 ).



Ejemplo 14 Si Bt es un movimiento browniano y Ft es la filtraci´n generada
                                                              o
por Bt , entonces, los procesos:
                                Bt
                                 2
                                Bt − t
                                           a2 t
                                exp(aBt −       )
                                            2
son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido
                            2
demostrada en (8). Para Bt − t, la propiedad de martingala se deduce del
siguiente c´lculo de esperanzas condicionadas, si s < t
           a
        E(Bt |Fs ) = E((Bt − Bs + Bs )2 |Fs )
           2

                   = E((Bt − Bs )2 |Fs ) + 2E((Bt − Bs ) Bs |Fs )
                            2
                     +E(Bs |Fs )
                   = E (Bt − Bs )2 + 2Bs E((Bt − Bs ) |Fs ) + Bs 2

                              2
                   = t − s + Bs .

                                     36
a2 t
Finalmente, para el proceso exp(aBt −                    2
                                                             )    tendremos
                            a2 t                                            a2 t
                 E(eaBt −    2     |Fs ) = eaBs E(ea(Bt −Bs )−               2     |Fs )
                                                                           2
                                                              a(Bt −Bs )− a2 t
                                         = eaBs E(e                                )
                                                        a2 (t−s)    2                  a2 s
                                                                 − a2 t
                                         = eaBs e           2              = eaBs −     2     .



   Las martingalas con trayectorias continuas cumplen la desigualdad fun-
damental siguiente debida a Doob:

Desigualdad de Doob: Supongamos que {Mt , 0 ≤ t ≤ T } es una martin-
gala con trayectorias continuas. Entonces, para todo p ≥ 1 y todo λ > 0 se
cumple
                                            1
                    P sup |Mt | > λ ≤ p E(|MT |p ).
                        0≤t≤T              λ
    Obsevamos que se trata de una generalizaci´n de la desigualdad de Tcheby-
                                               o
chev. Como consecuencia de la desigualdad de Doob puede demostrarse que
las integrales estoc´sticas indefinidas tienen trayectorias continuas.
                    a

Proposici´n 7 Supongamos que u es un proceso de la clase L2 . Entonces,
            o                                                   a,T
                         t
la integral estoc´stica 0 us dBs tiene una versi´n con trayectorias continuas.
                 a                              o

      Demostraci´n: Consideremos una sucesi´n de procesos elementales u(n) tal
                o                          o
que
                                             T                    2
                                                            (n)
                        lim E                    ut − ut              dt   = 0.
                        n→∞              0
Pongamos
                                                        t
                                     I(t) =                 us dBs ,
                                                    0
                                                        t
                                    In (t) =                u(n) dBs .
                                                             s
                                                    0

El proceso In tiene trayectorias continuas y es una martingala respecto de la familia
creciente de σ -´lgebras Ft . En efecto, si s < t y φj es el valor del proceso
                a


                                                  37
estoc´stico u(n) cada el intevalo (tj−1 , tj ] tendremos
     a
                                                                       

         E (In (t) − In (s)|Fs ) = E                          φj ∆Bj |Fs 
                                               s≤tj−1 ≤tj ≤t

                                =                     E E φj ∆Bj |Ftj−1 |Fs
                                     s≤tj−1 ≤tj ≤t

                                =                     E φj E ∆Bj |Ftj−1 |Fs = 0.
                                     s≤tj−1 ≤tj ≤t


Por consiguiente, la diferencia In − Im ser´ una martingala, y la desigualdad de
                                           a
Doob con p = 2 nos permite escribir

                                             1
 P       sup |In (t) − Im (t)| > λ         ≤    E |In (T ) − Im (T )|2
         0≤t≤T                               λ2
                                                      T
                                             1             (n)    (m)
                                                                       2           n,m→∞
                                           =   2E        ut − ut         dt         −→ 0.
                                             λ      0

Podemos elegir una sucesi´n creciente de n´meros naturales nk , k = 1, 2, . . . tal
                         o                u
que
                    P    sup |Ink+1 (t) − Ink (t)| > 2−k              ≤ 2−k .
                        0≤t≤T

Los sucesos Ak := sup0≤t≤T |Ink+1 (t) − Ink (t)| > 2−k                   tienen probabilidades
que forman una serie convergence, es decir,
                                     ∞
                                           P (Ak ) < ∞.
                                     k=1

El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un n´mero u
infinito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidad
cero tal que para todo ω ∈ N podemos encontrar un ´
                           /                             ındice k1 (ω) tal que si k ≥
k1 (ω)
                         sup |Ink+1 (t, ω) − Ink (t, ω)| ≤ 2−k .
                        0≤t≤T

Por lo tanto, si ω ∈ N , la sucesi´n Ink (t, ω) es uniformemente convergente en
                       /             o
[0, T ] hacia una funci´n continua Jt (ω). Por otra parte, sabemos que para cada
                         o
                                                         t
t ∈ [0, T ], Ink (t) converge en media cuadr´tica hacia 0 us dBs . Por consiguiente,
                                            a


                                                 38
t
Jt (ω) =   0
                us dBs casi seguramente, para todo t ∈ [0, T ], y ello nos dice que la
integral indefinida tiene una versi´n con trayectorias continuas.
                                  o
                                                     t
   La integral indefinida Mt = 0 us dBs es una martingala respecto de la
familia de σ-´lgebras Ft y se cumple la desigualdad siguiente, para todo
             a
λ > 0,
                                                T
                                       1
                 P sup |Mt | > λ ≤ 2 E            u2 dt .
                                                   t                 (17)
                     0≤t≤T            λ       0
                                                                      t
En efecto, la propiedad de martingala de 0 us dBs de deduce de la propiedad
                                             t (n)
de martingala de las integrales indefinidas 0 us dBs que hemos obtenido en
la demostraci´n anterior. La desigualdad (17) se deduce de la desigualdad
              o
de Doob y de la propiedad de isometr´ de la integral estoc´stica.
                                       ıa                   a
                           t
    La martingala Mt = 0 us dBs tiene trayectorias continuas, pero son ir-
regulares como las del movimiento browniano. En particular, las trayectorias
de las integrales indefinidas tienen variaci´n cuadr´tica finita como nos dice
                                           o       a
la propiedad siguiente:

Proposici´n 8 (Variaci´n cuadr´tica ) Sea u un proceso de la clase L2 .
          o           o       a                                     a,T
Entonces,
                              n                                 2
                                       tj                                              t
                                                                    L1 (Ω)
                                             us dBs                   −→                   u2 ds
                                                                                            s
                           j=1        tj−1                                         0

                                                               jt
cuando n tiende a infinito, donde tj =                          n
                                                                  .

   Demostraci´n: Observemos en primer lugar que si el proceso u es elemen-
             o
tal, el resultado es una consecuencia de la propiedad de variaci´n cuadr´tica del
                                                                o       a
movimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valor
constante φ aparecer´ una contribuci´n del tipo
                      a              o
                                                                 n→∞
                         φ2                      (∆Bj )2 −→ φ2 (b − a) .
                              a≤tj−1 ≤tj ≤b


Supongamos que u es un proceso arbitrario de la clase L2 . Existe una sucesi´n
                                                       a,T                  o
 (k)
u de procesos elementales tal que
                                                 T                        2
                                                                    (k)
                              lim E                      ut − ut              dt           = 0.
                           k→∞               0




                                                          39
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico
Calculo estocastico

Más contenido relacionado

La actualidad más candente

Teoria de la integral de riemann
Teoria de la integral de riemannTeoria de la integral de riemann
Teoria de la integral de riemannbdeotto
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones linealesalgebra
 
matemática unidad 1 unefa
matemática unidad 1 unefamatemática unidad 1 unefa
matemática unidad 1 unefaJose cedeño
 
Teoremas y criterios de series
Teoremas y criterios de seriesTeoremas y criterios de series
Teoremas y criterios de seriesRobinson Ch
 
Fundamentos matrices y determinantes
Fundamentos matrices y determinantes     Fundamentos matrices y determinantes
Fundamentos matrices y determinantes ReybertS
 
Presentación de matrices
Presentación de matricesPresentación de matrices
Presentación de matricesmirle_reyes
 
Vectores tangente unitario y normal unitario
Vectores tangente unitario y normal unitarioVectores tangente unitario y normal unitario
Vectores tangente unitario y normal unitarioRodolfo Alcantara Rosales
 
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulli
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulliEcuaciones diferenciales exactas, factor integral, lineales y de dernulli
Ecuaciones diferenciales exactas, factor integral, lineales y de dernullige0ser
 
5.metodo del punto fijo
5.metodo del punto fijo5.metodo del punto fijo
5.metodo del punto fijorjvillon
 
Interpolacion de taylor y hermite
Interpolacion de taylor y hermiteInterpolacion de taylor y hermite
Interpolacion de taylor y hermitetaker85
 
Que es el wronskiano
Que es el wronskianoQue es el wronskiano
Que es el wronskianoEIYSC
 
Ecuaciones exactas por factor integrante,lineales,bernoulli
Ecuaciones exactas por factor integrante,lineales,bernoulliEcuaciones exactas por factor integrante,lineales,bernoulli
Ecuaciones exactas por factor integrante,lineales,bernoulliLight
 

La actualidad más candente (20)

Teoria de la integral de riemann
Teoria de la integral de riemannTeoria de la integral de riemann
Teoria de la integral de riemann
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
 
Funciones Generadoras
Funciones GeneradorasFunciones Generadoras
Funciones Generadoras
 
matemática unidad 1 unefa
matemática unidad 1 unefamatemática unidad 1 unefa
matemática unidad 1 unefa
 
Teoremas y criterios de series
Teoremas y criterios de seriesTeoremas y criterios de series
Teoremas y criterios de series
 
Derivadas
DerivadasDerivadas
Derivadas
 
Ejercicio de aplicación regla de cramer
Ejercicio de aplicación   regla de cramerEjercicio de aplicación   regla de cramer
Ejercicio de aplicación regla de cramer
 
Método simplex
Método simplexMétodo simplex
Método simplex
 
Fundamentos matrices y determinantes
Fundamentos matrices y determinantes     Fundamentos matrices y determinantes
Fundamentos matrices y determinantes
 
Presentación de matrices
Presentación de matricesPresentación de matrices
Presentación de matrices
 
Grafos Y Digrafos
Grafos Y DigrafosGrafos Y Digrafos
Grafos Y Digrafos
 
Vectores tangente unitario y normal unitario
Vectores tangente unitario y normal unitarioVectores tangente unitario y normal unitario
Vectores tangente unitario y normal unitario
 
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulli
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulliEcuaciones diferenciales exactas, factor integral, lineales y de dernulli
Ecuaciones diferenciales exactas, factor integral, lineales y de dernulli
 
Matlab inecuaciones
Matlab inecuacionesMatlab inecuaciones
Matlab inecuaciones
 
5.metodo del punto fijo
5.metodo del punto fijo5.metodo del punto fijo
5.metodo del punto fijo
 
Interpolacion de taylor y hermite
Interpolacion de taylor y hermiteInterpolacion de taylor y hermite
Interpolacion de taylor y hermite
 
Isomorfos y arboles
Isomorfos y arbolesIsomorfos y arboles
Isomorfos y arboles
 
Teoria redes
Teoria redesTeoria redes
Teoria redes
 
Que es el wronskiano
Que es el wronskianoQue es el wronskiano
Que es el wronskiano
 
Ecuaciones exactas por factor integrante,lineales,bernoulli
Ecuaciones exactas por factor integrante,lineales,bernoulliEcuaciones exactas por factor integrante,lineales,bernoulli
Ecuaciones exactas por factor integrante,lineales,bernoulli
 

Similar a Calculo estocastico

calculo estocastico.pdf
calculo estocastico.pdfcalculo estocastico.pdf
calculo estocastico.pdfEnkelStyrket
 
Practico1
Practico1Practico1
Practico1orestes
 
Fourier
FourierFourier
FourierDC FCP
 
Herstein, i. n. algebra moderna
Herstein, i. n.   algebra modernaHerstein, i. n.   algebra moderna
Herstein, i. n. algebra modernaSol Ar
 
Guía de estructuras
Guía de estructurasGuía de estructuras
Guía de estructurasObidioquesada
 
Distribuciones de probabilidad importantes
Distribuciones de probabilidad importantesDistribuciones de probabilidad importantes
Distribuciones de probabilidad importantes4lejandro 4lejandro
 
Documento 05 variable_aleatoria
Documento 05 variable_aleatoriaDocumento 05 variable_aleatoria
Documento 05 variable_aleatoriaLuis Tapia Nuñez
 
Interior, exterior y frontera de un conjunto
Interior, exterior y frontera de un conjuntoInterior, exterior y frontera de un conjunto
Interior, exterior y frontera de un conjuntowalexander03
 
Bitácora n° 10 (16 de abril a 20 de abril)
Bitácora n° 10 (16 de abril a 20 de abril)Bitácora n° 10 (16 de abril a 20 de abril)
Bitácora n° 10 (16 de abril a 20 de abril)MiriJaneth
 
libro de algebra moderna
libro de algebra moderna libro de algebra moderna
libro de algebra moderna Rony Gramajo
 
Herstein Algebra moderna
Herstein   Algebra modernaHerstein   Algebra moderna
Herstein Algebra modernaBoris Paredes
 

Similar a Calculo estocastico (20)

calculo estocastico.pdf
calculo estocastico.pdfcalculo estocastico.pdf
calculo estocastico.pdf
 
Tema 6
Tema 6Tema 6
Tema 6
 
Practico1
Practico1Practico1
Practico1
 
Fourier
FourierFourier
Fourier
 
Ampte8
Ampte8Ampte8
Ampte8
 
Herstein, i. n. algebra moderna
Herstein, i. n.   algebra modernaHerstein, i. n.   algebra moderna
Herstein, i. n. algebra moderna
 
Guía de estructuras
Guía de estructurasGuía de estructuras
Guía de estructuras
 
Distribuciones de probabilidad importantes
Distribuciones de probabilidad importantesDistribuciones de probabilidad importantes
Distribuciones de probabilidad importantes
 
Funciones (notas de clase incompletas)
Funciones (notas de clase incompletas)Funciones (notas de clase incompletas)
Funciones (notas de clase incompletas)
 
Polinomios
PolinomiosPolinomios
Polinomios
 
Series de fourier
Series de fourierSeries de fourier
Series de fourier
 
Series de fourier (n)
Series de fourier (n)Series de fourier (n)
Series de fourier (n)
 
Documento 05 variable_aleatoria
Documento 05 variable_aleatoriaDocumento 05 variable_aleatoria
Documento 05 variable_aleatoria
 
Conjuntos
ConjuntosConjuntos
Conjuntos
 
Interior, exterior y frontera de un conjunto
Interior, exterior y frontera de un conjuntoInterior, exterior y frontera de un conjunto
Interior, exterior y frontera de un conjunto
 
Examen
ExamenExamen
Examen
 
Bitácora n° 10 (16 de abril a 20 de abril)
Bitácora n° 10 (16 de abril a 20 de abril)Bitácora n° 10 (16 de abril a 20 de abril)
Bitácora n° 10 (16 de abril a 20 de abril)
 
Theme 5
Theme 5Theme 5
Theme 5
 
libro de algebra moderna
libro de algebra moderna libro de algebra moderna
libro de algebra moderna
 
Herstein Algebra moderna
Herstein   Algebra modernaHerstein   Algebra moderna
Herstein Algebra moderna
 

Calculo estocastico

  • 1. C´lculo estoc´stico a a David Nualart Universitat de Barcelona 1
  • 2. 1 Probabilidades y procesos estoc´sticos a 1.1 Conceptos b´sicos del c´lculo de probabilidades a a Recordemos en primer lugar algunas definiciones generales del c´lculo de a probabilidades. Un espacio de probabilidad es una terna (Ω, F, P ) formada por: (i) Un conjunto Ω que representa el conjunto de los posibles resultados de una cierta experiencia aleatoria. (ii) Una familia F de subconjuntos de Ω que tiene estructura de σ-´lgebra: a a) ∅ ∈ F b) Si A ∈ F, su complementario Ac tambi´n pertenece a F e c) A1 , A2 , . . . ∈ F =⇒ ∪∞ Ai ∈ F i=1 (iii) Una aplicaci´n P : F → [0, 1] que cumple: o a) P (∅) = 0, P (Ω) = 1 b) Si A1 , A2 , . . . ∈ F son conjuntos disjuntos dos a dos (es decir, Ai ∩ Aj = ∅ si i = j), entonces ∞ P (∪∞ Ai ) = i=1 i=1 P (Ai ) Los elementos de la σ-´lgebra F se denominan sucesos y la aplicaci´n P se a o denomina una probabilidad, de forma que tenemos la siguiente interpretaci´n o de este modelo: P (F )=“probabilidad de que el suceso F se realice” Si P (F ) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi seguramente. Las propiedades a) y b) permiten deducir algunas reglas b´sicas del a c´lculo de probabilidades: a P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅ P (Ac ) = 1 − P (A) A ⊂ B =⇒ P (A) ≤ P (B). 2
  • 3. Ejemplo 1 Lanzamos un dado. Ω = {1, 2, 3, 4, 5, 6} F = P(Ω) (F contiene todos los subconjuntos de Ω) 1 P ({ω i }) = , para i = 1, . . . , 6 6 Ejemplo 2 Elegimos un n´mero al azar en el intervalo [0, 2]. Ω = [0, 2], F es u la σ-´lgebra de Borel (generada por los intervalos de [0, 2]). La probabilidad a de cualquier intervalo [a, b] ⊂ [0, 2] ser´ a b−a P ([a, b]) = . 2 Se dice que un espacio de probabilidad (Ω, F, P ) es completo si dado un suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la σ-´lgebra F. Un espacio de probabilidad siempre se puede completar substi- a tuyendo la σ-´lgebra F por una σ-´lgebra mayor formada por los conjuntos a a de la forma F ∪ A, donde F ∈ F y A es un subconjunto de un conjunto de F de probabilidad cero. Si U es una familia de subconjuntos de Ω, la m´s peque˜a σ-´lgebra que a n a contiene a U es, por definici´n, o σ(U) = ∩ {G, G es una σ-´lgebra, U ⊂ G} , a y se denomina la σ-´lgebra generada por U. Por ejemplo, la σ-´lgebra gen- a a n erada por los conjuntos abiertos (o por los rect´ngulos) de R se denomina a n la σ-´lgebra de Borel de R y la representaremos por BRn . a Ejemplo 3 Consideremos una partici´n finita P = {A1 , . . . , An } de Ω. La σ- o ´lgebra generada por P est´ formada por todas las uniones de los elementos a a de la partici´n (2n en total). o Una variable aleatoria es una aplicaci´n o X Ω −→ R ω → X(ω) que es F-medible, es decir, X −1 (B) ∈ F , para todo conjunto B de la σ- ´lgebra de Borel de R. a 3
  • 4. • Una variable aleatoria determina una σ-´lgebra {X −1 (B), B ∈ BR } ⊂ a F que se denomina la σ-´lgebra generada por X. a • Una variable aleatoria determina una probabilidad en la σ-´lgebra de a Borel BR definida por PX = P ◦ X −1 , es decir, PX (B) = P (X −1 (B)) = P ({ω : X(ω) ∈ B}) La probabilidad PX se denomina la ley o distribuci´n de la variable X. o Diremos que una variable aleatoria X tiene densidad de probabilidad fX si fX (x) es una funci´n positiva, medible respecto de la σ-´lgebra de Borel o a y tal que b P (a < X < b) = fX (x)dx, a para todo a < b. Las variables discretas (que toman un conjunto finito o numerable de valores distintos xk ) no tienen densidad y su ley est´ determinada por la a funci´n de probabilidad : o pk = P (X = xk ). Ejemplo 4 Una variable aleatoria tiene ley normal N (m, σ 2 ) si b 1 (x−m)2 P (a < X < b) = √ e− 2σ 2 dx 2πσ 2 a para todo par de n´meros reales a < b. u Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si n k P (X = k) = p (1 − p)n−k , k para k = 0, 1, . . . , n. La distribuci´n de una variable aleatoria X puede caracterizarse mediante o su funci´n de distribuci´n definida como la probabilidad acumulada: o o FX (x) = P (X ≤ x) = PX ((−∞, x]) 4
  • 5. • La funci´n FX : R →[0, 1] es creciente, continua por la derecha y con o l´ ımites iguales a cero en −∞ y 1 en +∞. • Si la variable X tiene densidad fX , entonces, x FX (x) = fX (y)dy, −∞ y si la densidad es continua, FX (x) = fX (x). La esperanza matem´tica de una variable aleatoria X se define como la a integral de X respecto de la probabilidad P , considerada como una medida en el espacio (Ω, F). En particular, si X es una variable elemental que toma los valores α1 , . . . , αn en los conjuntos A1 , . . . , An , su esperanza valdr´ a n E(X) = αi P (Ai ). i=1 El c´lculo de la esperanza de una variable aleatoria se efectua integrando la a funci´n x respecto de la ley de probabilidad de la variable. Es decir, si X es o una variable que tiene esperanza (o sea E(|X|) < ∞) se tiene ∞ E(X) = X(ω)dP (ω) = xdPX (x). Ω −∞ M´s generalmente, si g : R → R es una funci´n medible respecto de la σ- a o ´lgebra de Borel y E(|g(X)|) < ∞, entonces la esperanza de la variable g(X) a se puede calcular integrando la funci´n g respecto de la ley de la variable X: o ∞ E(g(X)) = g(X(ω))dP (ω) = g(x)dPX (x). Ω −∞ ∞ La integral −∞ g(x)dPX (x) se calcula utilizando la densidad o funci´n de o probabilidad de la variable X: ∞ ∞ −∞ g(x)fX (x)dx, fX (x) es la densidad de X g(x)dPX (x) = −∞ k g(xk )P (X = xk ), X variable discreta 5
  • 6. Ejemplo 6 Si X es una variable aleatoria con ley normal N (0, σ 2 ) y λ es un n´mero real, u ∞ 1 x2 E(exp (λX)) = √ eλx e− 2σ2 dx 2πσ 2 −∞ ∞ 1 σ 2 λ2 (x−σ 2 λ)2 = √ e 2 e− 2σ 2 dx 2πσ 2 −∞ σ 2 λ2 = e 2 . La varianza de una variable aleatoria X se define por σ 2 = Var(X) = E((X − E(X))2 ) = E(X 2 ) − [E(X)]2 . X La varianza nos mide el grado de dispersi´n de los valores de la variable o respecto de su esperanza. Por ejemplo, si X es una variable con ley normal N (m, σ 2 ) se tiene X −m P (m − 1.96σ ≤ X ≤ m + 1.96σ) = P (−1.96 ≤ ≤ 1.96) σ = Φ(1.96) − Φ(−1.96) = 0.95, donde Φ es la funci´n de distribuci´n de la ley N (0, 1). Es decir, la probabil- o o idad de que la variable X tome valores en el intervalo [m − 1.96σ, m + 1.96σ] es igual a 0.95. Diremos que X = (X1 , . . . , Xn ) es un vector aleatorio n-dimensional si sus componentes son variables aleatorias. La esperanza de un vector aleatorio n-dimensional X ser´ el vector a E(X) = (E(X1 ), . . . , E(Xn )) La matriz de covarianzas de un vector aleatorio n-dimensional X es, por definici´n, la matriz ΓX = (cov(Xi , Xj ))1≤i,j≤n , donde o cov(Xi , Xj ) = E [(Xi − E(Xi )) (Xj − E(Xj ))] . Es decir, los elementos de la diagonal de esta matriz son las varianzas de las variables Xj y fuera de la diagonal encontramos las covarianzas entre dos variables Xi y Xj . 6
  • 7. Como en el caso de variables aleatorias se introduce la ley o distribuci´n o de un vector aleatorio n-dimensional X como la probabilidad definida en la σ-´lgebra de Borel BRn por a PX (B) = P (X −1 (B)) = P (X ∈ B). Diremos que un vector aleatorio n-dimensional X tiene una ley normal N = (m, Γ), donde m ∈ Rn , y Γ es una matriz sim´trica y definida positiva, e si P (ai ≤ Xi ≤ bi , i = 1, . . . , n) bn b1 Pn n 1 −1 = ··· (2π det Γ)− 2 e− 2 i,j=1 (xi −mi )(xj −mj )Γij dx1 · · · dxn . an a1 En tal caso, se tiene, m = E(X) y Γ = ΓX . Si la matrix Γ es una matriz diagonal   σ2 · · · 1 0  . .. .  Γ= . . . .  . 0 ··· σ2n entonces la densidad del vector X ser´ el producto de n densidades normales a unidimensionales: n (x−mi )2 1 − 2σ 2 fX (x1 , . . . , xn ) = e i . i=1 2πσ 2 i Existen tambi´n leyes normales degeneradas, en las que la matriz Γ es e singular. En este caso, no existe la densidad de probabilidad, y la ley de X queda determinada por su funci´n caracter´ o ıstica: 1 E eit X = exp it m − t Γt , 2 donde t ∈ Rn . En esta f´rmula t es un vector l´ o ınea (matriz 1 × n) y t es un vector columna (matriz n × 1). Si X es un vector normal n-dimensional con ley N (m, Γ) y A es una matriz m × n, entonces AX es un vector normal m-dimensional con ley N (Am, AΓA ). 7
  • 8. Diremos que una variable tiene media de orden p ≥ 1 si E(|X|p ) < ∞. En tal caso, se define el momento de orden p de la variable aleatoria X como mp = E(X p ). El conjunto de las variables que tienen media de orden p se representa por Lp (Ω, F, P ). Sea X una variable aleatoria con funci´n caracter´ o ıstica ϕX (t) = E(eitX ). Los momentos de la variable aleatoria puede calcularse a partir de las derivadas de la funci´n caracter´ o ıstica en el origen 1 (n) mn = ϕ (t)|t=0 . in X Recordemos algunas desigualdades importantes en el c´lculo de probabil- a idades: • Desigualdad de Tchebychev: Si λ > 0 1 P (|X| > λ) ≤ E(|X|p ). λp • Desigualdad de Schwartz: E(XY ) ≤ E(X 2 )E(Y 2 ). • Desigualdad de H¨lder: o 1 1 E(XY ) ≤ [E(|X|p )] p [E(|Y |q )] q , 1 1 donde p, q > 1 y p + q = 1. • Desigualdad de Jensen: Si ϕ : R → R es una funci´n convexa tal que las o variables X y ϕ(X) tienen esperanza, entonces, ϕ(E(X)) ≤ E(ϕ(X)). En particular si ϕ(x) = |x|p , con p ≥ 1, tendremos |E(X)|p ≤ E(|X|p ). 8
  • 9. Recordemos los diferentes modos de convergencia de una sucesi´n de vari- o ables aleatorias Xn , n = 1, 2, 3, . . .: c.s. Convergencia casi segura: Xn −→ X, si lim Xn (ω) = X(ω), n→∞ para todo ω ∈ N , donde P (N ) = 0. / P Convergencia en probabilidad: Xn −→ X, si lim P (|Xn − X| > ε) = 0, n→∞ para todo ε > 0. Lp Convergencia en media de orden p ≥ 1: Xn −→ X, si lim E(|Xn − X|p ) = 0. n→∞ L Convergencia en ley: Xn −→ X, si lim FXn (x) = FX (x), n→∞ para todo punto x de continuidad de la funci´n de distribuci´n FX . o o • La convergencia en media de orden p implica la convergencia en prob- abilidad ya que, debido a la desigualdad de Tchebychev tendremos 1 P (|Xn − X| > ε) ≤ p E(|Xn − X|p ). ε • La convergencia casi segura implica la convergencia en probabilidad (esto es m´s dif´ de demostrar). a ıcil • La convergencia casi segura implica la convergencia en media de orden p ≥ 1, si las variables aleatorias Xn est´n acotadas por una variable a aleatoria integrable Y (teorema de convergencia dominada): |Xn | ≤ Y, E(Y ) < ∞. 9
  • 10. La convergencia en ley es diferente de los otros tipos de convergencia, ya que lo que nos interesa es la ley de las variables y no sus valores particulares. Un concepto fundamental en probabilidades es el de independencia. Dos sucesos A, B ∈ F se dicen independientes si P (A ∩ B) = P (A)P (B). Si tenemos una colecci´n finita o infinita de sucesos {Ai , i ∈ I}, diremos o que los sucesos de la colecci´n son independientes si o P (Ai1 ∩ · · · ∩ Aik ) = P (Ai1 ) · · · P (Aik ) para todo conjunto finito de ´ ındices {i1 , . . . , ik } ⊂ I. Una colecci´n de conjuntos de sucesos {Gi , i ∈ I} diremos que es indepen- o diente si cualquier colecci´n de sucesos {Ai , i ∈ I} tal que Ai ∈ Gi para todo o i ∈ I, es independiente. Una colecci´n de variables aleatorias {Xi , i ∈ I} se dice que es indepen- o diente si la colecci´n de σ-´lgebras Xi−1 (BRn ), i ∈ I lo es. Esto significa o a que P (Xi1 ∈ Bi1 , . . . , Xik ∈ Bik ) = P (Xi1 ∈ Bi1 ) · · · P (Xik ∈ Bik ), para todo conjunto finito de ´ ındices {i1 , . . . , ik } ⊂ I, donde los Bj son con- juntos de Borel. Si dos variables aleatorias reales X, Y son independientes y tienen esper- anza finita, entonces el producto XY tiene esperanza finita y se cumple la relaci´n o E(XY ) = E(X)E(Y ) . M´s generalmente, si las variables X1 , . . . , Xn son independientes, a E [g1 (X1 ) · · · gn (Xn )] = E [g1 (X1 )] · · · E [gn (Xn )] , donde las gi son funciones medibles tales que E [|gi (Xi )|] < ∞. Las componentes de un vector aleatorio son independientes s´ y solo s´ su ı ı densidad o funci´n de probabilidad es igual al producto de las densidades o o funciones de probabilidad de cada componente. 10
  • 11. 1.2 Procesos estoc´sticos a Un proceso estoc´stico ´s una familia de variables aleatorias reales {Xt , t ≥ 0} a e definidas en un espacio de probabilidad (Ω, F, P ). El conjunto de par´metros [0, ∞) representa el tiempo y en algunos casos a supondremos que es un intervalo acotado [0, T ], o el conjunto los n´meros u naturales (procesos a tiempo discreto). Per cada ω ∈ Ω, la aplicaci´n o t −→ Xt (ω) se dnomina una trayectoria del proceso estoc´stico.a Si fijamos un conjunto finito de instantes {0 ≤ t1 < · · · < tn } tendremos un vector aleatorio (Xt1 , . . . , Xtn ) : Ω −→ Rn . Las distribuciones de probabilidad Pt1 ,...,tn = P ◦ (Xt1 , . . . , Xtn )−1 se denom- inan las distribuciones en dimensi´n finita del proceso. o El siguiente teorema debido a Kolmogorov asegura la existencia de un proceso estoc´stico asociado a una familia de distribuciones en dimensi´n a o finita que satisfagan una condici´n de compatibilidad. o Teorema 1 Consideremos una familia de probabilidades {Pt1 ,...,tn , 0 ≤ t1 < · · · < tn , n ≥ 1} tales que: 1. Pt1 ,...,tn es una probabilidad en Rn 2. (Condici´n de compatibilidad): Si {0 ≤ s1 < · · · < sm } ⊂ {0 ≤ t1 < o · · · < tn }, entonces Pt1 ,...,tn ◦ π −1 = Ps1 ,...,sm donde π : Rn → Rm es la proyecci´n natural asociada a los dos con- o juntos de ´ ındices. Entonces, existe un proceso estoc´stico {Xt , t ≥ 0} que tiene la familia a {Pt1 ,...,tn } como distribuciones en dimensi´n finita. o 11
  • 12. La media y la autocovarianza de un proceso estoc´stico se definen como a sigue: mX (t) = E(Xt ) ΓX (s, t) = Cov(Xs , Xt ) = E((Xs − mX (s))(Xt − mX (t)). La varianza del proceso X se define por σ 2 (t) = ΓX (t, t) = Var(Xt ). X Ejemplo 7 Consideremos el proceso estoc´stico a Xt = A cos(ϕ + λt), donde A y ϕ son variables aleatorias independientes tales que E(A2 ) < ∞ y ϕ tiene ley uniforme en [0, 2π]. En este caso, mX (t) = 0 1 ΓX (s, t) = E(A2 ) cos λ(t − s). 2 Se dice que un proceso estoc´stico {Xt , t ≥ 0} es gaussiano o normal si a sus distribuciones en dimensi´n finita son leyes normales multidimensionales. o Observamos que en el caso de un proceso gaussiano, la media mX (t) y la autocovarianza ΓX (s, t) determinan las distribuciones en dimensi´n finita o del proceso. La media mX (t) y la varianza σ 2 (t) nos permiten conocer donde se X concentran los valores de la variable Xt as´ como su grado de dispersi´n, ı o para cada instante t fijo. Por ejemplo, en el caso de un proceso gaussiano, P (mX (t) − 2σ X (t) ≤ Xt ≤ mX (t) + 2σ X (t)) 0.95. Notemos que la probabilidad de que las trayectorias del proceso est´n e comprendidas entre las curvas mX (t) − 2σ X (t) y mX (t) − 2σ X (t) es mucho m´s dif´ de calcular. a ıcil 12
  • 13. Ejemplo 8 Consideremos un proceso gaussiano {Xt , t ∈ [0, 1]} tal que las variables aleatorias Xt son independientes y con ley N (0, σ 2 ). La media y autocovarianza de este proceso son mX (t) = 0 1 si s = t ΓX (s, t) = 0 si s = t Se dice que un proceso estoc´stico {Xt , t ≥ 0} es una versi´n de otro a o proceso {Xt , t ≥ 0} si para cada t ≥ 0 P {Xt = Xt } = 1. Se dice tambi´n que ambos procesos son equivalentes. Dos procesos equiva- e lentes puede tener trayectorias diferentes (v´ase el Ejercicio 1.6). e Diremos que el proceso {Xt , t ≥ 0} es continuo en probabilidad si para todo ε > 0 y todo t ≥ 0 lim P (|Xt − Xs | > ε) = 0. s→t Consideremos un proceso estoc´stico {Xt , t ≥ 0} tal que E (|Xt |p ) < ∞, a para todo t ≥ 0, donde p ≥ 1. Diremos que el proceso {Xt , t ≥ 0} es continuo en media de orden p si lim E (|Xt − Xs |p ) = 0. s→t La continuidad en media de orden p implica la continuidad en probabilidad. Sin embargo, la continuidad en media de orden p no implica necesariamente la continuidad de las trayectorias. Ejemplo 9 El proceso de Poisson {Nt , t ≥ 0} es un proceso estoc´stico car- a acterizado por la ssiguientes propiedades: i) Nt = 0, ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn −Ntn−1 , . . . , Nt2 − Nt1 , son variables aleatorias independientes, 13
  • 14. iii) Si s < t, el incremento Nt − Ns tiene una ley de Poisson de par´metro a λ(t − s), es decir [λ(t − s)]k P (Nt − Ns = k) = e−λ(t−s) , k! k = 0, 1, 2, . . . Se puede construir un proceso de Poisson de la forma siguiente. Consid- eremos una sucesi´n {Yn , n ≥ 1} de variables aleatorias independientes y con o ley geom´trica de par´metro λ. Es decir, para todo x ≥ 0, e a P (Yn ≥ x) = e−λx . Pongamos T0 = 0 y para n ≥ 1, T n = Y1 + · · · + Yn . Entonces, el proceso Nt definido por Nt = n si Tn ≤ t < Tn+1 es un proceso de Poisson de par´metro λ. a Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada par de saltos son variables aleatorias independientes con leyes exponenciales de par´metro λ. Por tanto, las trayectorias no son continuas, aunque si que a los son en media cuadr´tica: a ∞ 2 −λ(t−s) k 2 [λ(t − s)]k E (Nt − Ns ) = e k=1 k! s→t = λ(t − s) + [λ(t − s)]2 −→ 0. Acotaciones adecuadas de los momentos de los incrementos del proceso, permiten deducir la continuidad de las trayectorias. Este es el contenido del siguiente criterio de continuidad, debido a Kolmogorov. 14
  • 15. Proposici´n 2 (Criterio de continuidad) Supongamos que un proceso es- o toc´stico {Xt , t ≥ 0} cumple la condici´n siguiente: a o E (|Xt − Xs |p ) ≤ cT |t − s|α (1) para todo 0 ≤ s < t ≤ T , donde a > 1 y p > 0. Entonces existe una versi´n o del proceso estoc´stico Xt que tiene trayectorias continuas. a Ejemplo 10 El proceso de Poisson no cumple la condici´n (1). o La condici´n (1) nos permide adem´s tener informaci´n sobre la regu- o a o laridad de las trayectorias. En efecto, fijemos un intervalo de tiempo [0, T ]. Entonces, para cada ε > 0 existe una variable aleatoria Gε,T tal que, con probabilidad uno, α |Xt (ω) − Xs (ω)| ≤ Gε,T (ω)|t − s| p −ε , (2) para todo s, t ∈ [0, T ]. Adem´s, E(Gp ) < ∞ para todo p ≥ 1. a ε,T 1.3 Movimiento browniano En 1828 el bot´nico ingl´s Robert Brown observ´ que los granos de polen en a e o suspensi´n se mov´ de forma irregular. Posteriormente se descubri´ que o ıan o este fen´meno es debido a los choques aleatorios de las part´ o ıculas de polen con las mol´culas del l´ e ıquido. En los a˜os 20 Norbert Wiener present´ un n o modelo matem´tico para este movimiento basado en la teor´ de los procesos a ıa estoc´sticos. La posici´n de una part´ a o ıcula en cada instante t ≥ 0 es un vector variable aleatorio 3-dimensional Bt . En el caso unidimensional la definici´n del movimiento browniano como o proceso estoc´stico es la siguiente: a Definici´n 3 Un proceso estoc´stico {Bt , t ≥ 0} es un movimiento browni- o a ano si se cumplen las condiciones siguientes: i) B0 = 0 ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn −Btn−1 , . . . , Bt2 − Bt1 , son variables aleatorias independientes 15
  • 16. iii) Si s < t, el incremento Bt − Bs tiene una ley normal N (0, t − s) iv) Las trayectorias del proceso son funciones continuas. Observaciones 1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un vector aleatorio (Bt1 , . . . , Btn ) es normal ya que este vector es una trans- formaci´n lineal del vector Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 que tiene o ley normal ya que tiene las componentes independientes y normales. 2) La media y la autocovarianza del movimiento browniano se calculan facil- mente: E(Bt ) = 0 E(Bs Bt ) = E(Bs (Bt − Bs + Bs )) 2 = E(Bs (Bt − Bs )) + E(Bs ) = s = min(s, t) si s ≤ t. Puede comprobarse f´cilmente que si un proceso gaussiano a tiene media cero y funci´n de autocovarianza ΓX (s, t) = min(s, t), en- o tonces cumple las condiciones i), ii) y iii) de la Definici´n anterior. o 3) Puede demostrarse que existe un proceso estoc´stico que cumple las a condiciones anteriores. Para ello, se parte de sus distribuciones en dimensi´n finita, que son leyes normales N (0, Γ) donde Γ es la la ma- o triz   t1 t1 · · · t1  t1 t2 · · · t2     . . .. . .  . . . . . .  . t1 t2 · · · tn El teorema de extensi´n de Kolmogorov permite construir un proceso o estoc´stico fijadas las distribuciones en dimensi´n finita, siempre que a o sean compatibles, lo que aqu´ es cierto. Finalmente hay que demostrar ı que se pueden modificar las variables Bt conjuntos de probabilidad cero de forma que las trayectorias sean continuas. Para ello se aplica el criterio de continuidad de Kolmogorov. Como los incrementos Bt − Bs tienen ley normal N (0, t − s), para todo n´mero entero k tendremos u (2k)! E (Bt − Bs )2k = (t − s)k . (3) 2k k! 16
  • 17. Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una versi´n continua, ya que o E (Bt − Bs )4 = 3(t − s)2 . 4) En la definici´n de movimiento bronwiano, se supone que el espacio de o probabilidad (Ω, F, P ) es arbitrario. Sin embargo, mediante la apli- caci´n o Ω → C ([0, ∞), R) ω → B· (ω) podemos suponer que el espacio de probabilidad es el conjunto de las funciones continuas C ([0, ∞), R) con la σ-´lgebra de Borel (gen- a erada por los conjuntos abiertos relativos a la estructura de espacio m´trico separable y completo) y con una probabilidad igual a la ley del e movimiento browniano: P ◦ B −1 . En tal caso las variables aleatorias son las evaluaciones ω(t) y este espacio de probabilidad se denomina espacio can´nico. o Regularidad de las trayectorias Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo p = 2k y utilizando (3), tendremos α = k. Por lo tanto, para todo ε > 0 existe una variable aleatoria Gε,T tal que 1 |Bt − Bs | ≤ Gε,T |t − s| 2 −ε , (4) para cada s, t ∈ [0, T ]. Es decir, las trayectorias del movimiento Browniano son H¨lder continuas de orden 1 − ε para todo ε > 0. Intuitivamente, esto o 2 significa que 1 ∆Bt = Bt+∆t − Bt (∆t) 2 . En media esta aproximaci´n es exacta: E (∆Bt )2 = ∆t. o Variaci´n cuadr´tica del movimiento browniano o a Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisi´n π de o este intervalo 0 = t0 < t1 < · · · < tn = t. 17
  • 18. La norma de la subdivisi´n π se define como |π| = maxk ∆tk , donde ∆tk = o tk − tk−1 . Pongamos ∆Bk = Btk − Btk−1 . Entonces, si tj = jt tendremos n n 1 t 2 |∆Bk | n −→ ∞, k=1 n mientras que n t (∆Bk )2 n = t. (5) k=1 n Esas propiedades pueden formularse de manera rigurosa como sigue: En primer lugar, puede demostrarse que las sumas de los cuadrados de los incrementos convergen en media cuadr´tica hacia la longitud del intervalo a de tiempo considerado:     n 2 n 2 E 2 (∆Bk ) − t  = E 2 (∆Bk ) − ∆tk  k=1 k=1 n 2 = E (∆Bk )2 − ∆tk k=1 n = 4 (∆tk )2 − 2 (∆tk )2 + (∆tk )2 k=1 n |π|→0 = 3 (∆tk )2 ≤ 3t|π| −→ 0. k=1 Por otra parte, la variaci´n total de las trayectorias del movimiento brow- o niano, definida como n V = sup |∆Bk | π k=1 es infinita con probabilidad uno. En efecto, utilizando la continuidad de las trayectorias del movimiento browniano, tendremos n n 2 |π|→0 (∆Bk ) ≤ sup |∆Bk | |∆Bk | ≤ V sup |∆Bk | −→ 0 (6) k k k=1 k=1 n si V < ∞, lo cual contradice que k=1 (∆Bk )2 converja en media cuadr´tica a hacia t cuando |π| → 0. 18
  • 19. Propiedad de autosimilitud Para todo n´mero real a > 0, el proceso u a−1/2 Bat , t ≥ 0 es un movimiento browniano. En efecto, este proceso es normal, con media cero y funci´n de autocovarianza igual a min(s, t). o Procesos relacionados con el movimiento browniano 1.- El puente browniano: Consideremos el proceso Xt = Bt − tB1 , t ∈ [0, 1]. Se trata de un proceso normal centrado con funci´n de o autocovarianza E(Xt Xs ) = min(s, t) − st, que verifica X0 = 0, X1 = 0. 2.- El movimiento browniano con deriva: Consideremos el proceso Xt = σBt + µt, t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Se trata de un proceso normal con media y funci´n de autocovarianza o E(Xt ) = µt, ΓX (s, t) = σ 2 min(s, t) 3.- Movimiento browniano geom´trico: Es el proceso estoc´stico propuesto e a por Black, Scholes y Merton como modelo para la curva de precios de los activos financieros. Su definici´n es la siguiente o Xt = eσBt +µt , t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Es decir, se trata de la exponencial de un movimiento browniano con deriva lineal. 19
  • 20. Simulaci´n del movimiento browniano o El movimiento browniano puede considerarse como el l´ ımite de los paseos aleatorios. Fijemos un intervalo de tiempo [0, T ]. Consideremos n variables aleatorias ξ 1 , . . . , ξ n independientes, id´nticamente distribuidas, centradas y e de varianza T . Formemos las sumas parciales n Rk = ξ 1 + · · · + ξ k , k = 1, . . . , n. El Teorema Central del L´mite nos dice que cuando n tiende a infinito, la ı sucesi´n Rn converge en ley hacia la ley N (0, T ). o Consideremos ahora el proceso estoc´stico continuo Sn (t) construido por a interpolaci´n lineal a partir de los valores o kT Sn ( ) = Rk k = 0, . . . , n. n Es decir, colocamos las sumas parciales R1 , R2 , . . . en los instantes T , 2T , 3T , . . . n n n . Se verifica una versi´n funcional del Teorema Central del L´ o ımite, conocida con el nombre de Principio de Invariancia de Donsker, que nos dice que la sucesi´n de procesos estoc´sticos Sn (t) convege en ley hacia el movimiento o a browniano en [0, T ]. Tambi´n puede hacerse una simulaci´n de las trayectorias brownianas e o mediante series de Fourier con coeficientes aleatorios. La representaci´n de o Paley-Wiener del movimiento browniano es ∞ t 2 sin(nt/2) Bt = Z 0 √ + √ Zn , t ∈ [0, 2π], 2π π n=1 n donde las Zn , n = 0, 1, . . . son variables aleatorias independientes y con ley N (0, 1). La serie converge uniformemente en [0, 2π], para cada ω, casi seguramente. Para utilizar esta f´rmula en la simulaci´n de las trayectorias brownianas o o debemos elegir el n´mero M de funciones trigonom´tricas y el n´mero N de u e u puntos de discretizaci´n de las funciones: o M tj 2 sin(ntj /2) Z0 √ + √ Zn , 2π π n=1 n 20
  • 21. 2πj donde tj = N , j = 0, 1, . . . , N . 1.4 Esperanza condicionada La probabilidad condicionada de un suceso A por un suceso B (suponiendo P (B) > 0) se define como P (A∩B) P (A|B) = P (B) . Vemos que A y B son independientes s´ y solo si P (A|B) = P (A). La ı probabilidad condicionada P (A|B) representa la probabilidad del suceso A suponiendo que sabemos que B ha ocurrido. La aplicaci´n o A −→ P (A|B) define una nueva probabilidad en la σ-´lgebra F que se concentra en el con- a junto B. Se puede calcular entonces la esperanza condicionada por B de una variable aleatoria integrable X: 1 E(X|B) = E(X1B ), P (B) donde 1B representa la funci´n indicatriz del suceso B definida por o 1 si ω ∈ B 1B (ω) = 0 si ω ∈ B / Un concepto m´s complicado es el condicionamiento por una σ-´lgebra a a de sucesos. Consideremos una σ-`lgebra B ⊂ F y una variable aleatoria a integrable X. Una variable aleatoria Z se denomina la esperanza condicionada de la variable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dos propiedades siguientes: • Z es medible respecto de B. • Para todo suceso A ∈ B E (Z1A ) = E (X1A ) . 21
  • 22. Puede demostrarse que la esperanza condicionada existe y es unica casi se- ´ guramente, de manera que si Z fuese otra variable con las mismas propiedades, entonces Z = Z, P -casi seguramente. En el caso particular en que la σ-´lgebra B est´ generada per una partici´n a a o finita {B1 , ..., Bm }, entonces E(X|B) es una variable aleatoria elemental que en cada conjunto Bj toma el valor constante E(X|Bj ), es decir, m E X1Bj E(X|B) = 1Bj . j=1 P (Bj ) Reglas para el c´lculo de esperanzas condicionadas: a Regla 1 La esperanza condicionada es lineal: E(aX + bY |B) = aE(X|B) + bE(Y |B) Regla 2 La variable y su esperanza condicionada tienen la misma esperanza: E (E(X|B)) = E(X) Esta propiedad es una consecuencia inmediata de la definici´n, tomando o A = Ω. Regla 3 Si la variable aleatoria X y la σ-´lgebra B son independientes, a entonces E(X|B) = E(X). En efecto, para todo suceso A ∈ B tendremos E (X1A ) = E (X)E(1A ) = E(E(X)1A ). Regla 4 Si X es B-medible, entonces E(X|B) = X. Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces E(ZX|B) = ZE(X|B). Es decir, las variables aleatorias B-medibles se comportan como con- stantes y pueden sacarse fuera de la esperanza condicionada. Regla 6 Si C ⊂ B, entonces E (E(X|B)|C) = E (E(X|C)|B) = E(X|C) 22
  • 23. Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es B- medible y X es independiente de B. Consideremos una funci´n h(x, z) o tal que h(X, Z) es integrable. Entonces, se tiene E (h(X, Z)|B) = E (h(X, z)) |z=Z Es decir, primero calculamos la esperanza E (h(X, z)) para un valor arbitrario z de la variable Z y luego substituimos z por Z. La esperanza condicionada tiene propiedades similares a la esperanza or- dinaria. Por ejempo se cumple la siguiente propiedad de monoton´ ıa: X ≤ Y ⇒ E(X|B) ≤ E(Y |B), que implica la desigualdad |E(X|B) | ≤ E(|X| |B). Tambi´n se cumple la e desigualdad de Jensen: Si ϕ es una funci´n convexa tal que E(|ϕ(X)|) < ∞, o entonces ϕ (E(X|B)) ≤ E(ϕ(X)|B). (7) En particular, si tomamos ϕ(x) = |x|p con p ≥ 1, se obtiene |E(X|B)|p ≤ E(|X|p |B), por lo tanto, tomando esperanzas, deducimos que si E(|X|p ) < ∞, entonces, E(|E(X|B)|p ) < ∞, y E(|E(X|B)|p ) ≤ E(|X|p ). Si la σ-´lgebra B est´ generada por las variables aleatorias Y1 , . . . , Ym , a a entonces, la esperanza condicionada se representa por E(X|Y1 , . . . , Ym ) y es una cierta funci´n g(Y1 , . . . , Ym ) de estas variables. En particular, si las o variables X, Y1 , . . . , Ym tienen una ley conjunta con densidad f (x, y1 , . . . , ym ), entonces, la esperanza condicionada se puede calcular como la esperanza de la densidad condicionada: f (x, y1 , . . . , ym ) f (x|y1 , . . . , ym ) = +∞ , −∞ f (x, y1 , . . . , ym )dy1 · · · dym es decir, +∞ E(X|Y1 , . . . , Ym ) = xf (x|Y1 , . . . , Ym )dx. −∞ 23
  • 24. En el caso en que la σ-´lgebra B est´ generada por un conjunto infinito a e de variables aleatorias {Yj }, escribiremos tambi´n e E(X|B) = E(X| {Yj }), pero el c´lculo no se puede efectuar mediante una f´rmula como la anterior a o y necesitaremos utilizar las reglas que hemos introducido antes. Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt , t ≥ 0}. Para cada instante t, definimos la σ-´lgebra Ft generada por las variables a aleatorias {Bs , s ≤ t}. La σ-´lgebra Ft contiene la historia del movimiento a browniano hasta el instante t. Esto quiere decir que: i) Los sucesos F de Ft ser´n conocidos (se sabr´ si han ocurrido o no) en el a a instante t. ii) El valor de una variable aleatoria X(ω) medible respecto de la σ-´lgebra a Ft ser´ una funci´n de la trayectoria del movimiento browniano a o {Bs (ω), s ∈ [0, t]} . Observemos que Fs ⊂ Ft si s ≤ t, es decir, la familia de σ-´lgebras a {Ft , t ≥ 0} es creciente. Diremos que {Ft , t ≥ 0} es una filtraci´n en el es- o pacio de probabilidad (Ω, F, P ). Queremos calcular E(Bt |Fs ) = E(Bt |Br , r ≤ s). • Si s ≥ t, la variable Bt es Fs -medible, y por la Regla 4 obtenemos E(Bt |Fs ) = Bt . • Si s < t, por la propiedad de linealidad (Regla 1): E(Bt |Fs ) = E(Bt − Bs + Bs |Fs ) = E(Bt − Bs |Fs ) + E( Bs |Fs ). Como Bt − Bs es independiente de Fs , la Regla 3 nos da E(Bt − Bs |Fs ) = E(Bt − Bs ) = 0, y, por lo tanto, obtenemos E(Bt |Fs ) = Bs . (8) 24
  • 25. El conjunto de las variables aleatorias Z que son medibles respecto de una σ-´lgebra B y que son de cuadrado integrable (E(Z 2 ) < ∞), lo representare- a mos por L2 (Ω, B, P ). Puede demostrarse que L2 (Ω, F, P ) es un espacio de Hilbert con el producto escalar Z, Y = E(ZY ), y que L2 (Ω, B, P ) es un subespacio cerrado de L2 (Ω, F, P ). En este contexto, si X es una variable tal que E(X 2 ) < ∞, la esperanza condicionada E(X|B) es la variable del espacio L2 (Ω, B, P ) m´s pr´xima a a o X en media cuadr´tica: a E (X − E(X|B))2 = min E (X − Z)2 . (9) Z∈L2 (Ω,B,P ) Es decir, E(X|B) es la proyecci´n de X en el subespacio L2 (Ω, B, P ). o Desde el punto de vista de la teor´ de la estimaci´n, la esperanza condi- ıa o cionada E(X|B) es el mejor predictor de la variable X a partir de la σ-´lgebra a B (estimador ´ptimo). o Demostraci´n de (9): Sea X una variable tal que E(X 2 ) < ∞. La o desigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B) tambi´n es de cuadrado integrable ya que e E (E(X|B))2 ≤ E E(X 2 |B) = E(X 2 ). La regla 5 nos permite demostrar que la diferencia X − E(X|B) es ortogonal a L2 (Ω, B, P ). En efecto, si Z es una variable de L2 (Ω, B, P ) tendremos E [(X − E(X|B))Z] = E(XZ) − E(E(X|B)Z) = E(XZ) − E(E(XZ|B)) = 0. Finalmente, esta ortogonalidad implica que E (X − Y )2 = E (X − E(X|B))2 + E (E(X|B) − Z)2 , de lo que se deduce (9). Ejercicios 25
  • 26. 1.1 Supongamos que {Hi , i ∈ I} es una familia de σ-´lgebras en un conjunto a Ω. Demostrar que H = ∩{Hi , i ∈ I} es tambi´n una σ-´lgebra. e a 1.2 Supongamos que X es una variable aleatoria real tal que M = E[exp(k|X|)] < ∞ para un cierto k > 0. Probar que P (|X| > λ) ≤ M e−kλ , para todo λ ≥ 0. 1.3 Sea (Ω, F, P ) un espacio de probabilidad y consideremos una sucesi´n o de sucesos A1 , A2 , . . . tales que ∞ P (Ak ) < ∞. k=1 Demostrar el lema de Borel-Cantelli: P (∩∞ ∪∞ Ak ) = 0, m=1 k=m es decir, la probabilidad que ocurran infinitos sucesos de la sucesi´n es o nula. 1.4 Sea Z una variable aleatoria con ley N (0, σ 2 ). A partir de la f´rmula o 1 2 2 E(eλZ ) = e 2 λ σ , y desarrollando en serie de potencias la funci´n exponencial deducir o que para todo k ≥ 1 (2k)! 2k E(Z 2k ) = σ , 2k k! E(Z 2k−1 ) = 0. 1.5 Sea Z una variable aleatoria con ley de Poisson de par´metro λ. Com- a probar que la funci´n caracter´ o ıstica de Z vale ϕZ (t) = exp λ eit − 1 . Como aplicaci´n calcular E(Z 2 ), Var(Z) y E(Z 3 ). o 26
  • 27. 1.6 Sea (Ω, F, P ) = ([0, ∞), B[0,∞) , µ), donde µ es una probabilidad en [0, ∞) con funci´n de distribuci´n continua. Consideremos en este espacio de o o probabilidad los procesos estoc´sticos a 1 si t = ω Xt (ω) = 0 si t = ω Yt (ω) = 0. Comprobar que estos procesos tienen las mismas distribuciones en di- mensi´n finita, pero las trayectorias del proceso X son todas discontin- o uas. 1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 ≥ 0. De- mostrar que el proceso Bt = Bt0 +t − Bt0 , t ≥ 0 es tambi´n un movimiento browniano. e 1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular P (|Bt | < ρ) donde ρ > 0. 1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una matriz U cuadrada de dimensi´n n, ortogonal (es decir, U U = I). o Demostrar que el proceso Bt = U Bt es tambi´n un movimiento browniano. e 1.10 Calcular la media y la autocovarianza del movimiento browniano geom´trico. e Es un proceso gaussiano? 27
  • 28. 2 Integraci´n estoc´stica o a Supongamos que {Bt , t ≥ 0} es un movimiento browniano definido en un es- pacio de probabilidad (Ω, F, P ). Consideremos la familia creciente {Ft , t ≥ 0} de σ-´lgebras generadas por este proceso. Supondremos adem´s que Ft con- a a tiene los conjuntos de probabilidad cero. Esto significa que Ft es la m´ ınima σ-´lgebra que contiene los conjuntos de la forma a {Bs ∈ A} ∪ N donde s ∈ [0, t], A pertenece a la σ-´lgebra de Borel BR , y N es un conjunto a de probabilidad cero. Diremos que un proceso estoc´stico {ut , u ≥ 0} es adaptado (a la familia a de σ-´lgebras Ft ) si para cada t la variable aleatoria ut es Ft -medible. a La inclusi´n de los sucesos de probabilidad cero en cada σ-´lgebra Ft o a tiene las siguientes consecuencias interesantes: a) Toda versi´n de un proceso adaptado es tambi´n adaptado. o e b) La familia de σ-´lgebras es continua por la derecha, es decir, para todo a t≥0 ∩s>t Fs = Ft . Demostraci´n de b): Consideremos las σ -´lgebras F t = σ{Br − Bt , r ≥ o a s}. Si B ∈ ∩s>t Fs , la σ -´lgebra generada por B y por Ft , es independiente de a 1 t+ n F para todo n. Por tanto, σ(B, Ft ) ser´ independiente de F t , y tendemos a E(1B |Ft ) = E(1B |Ft ∨ F t ) = 1B , de lo que se deduce 1B ∈ Ft . La σ-´lgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto a implica que las variables aleatorias F0 -medibles ser´n constantes, casi segu- a ramente. Nuestro objetivo es la definici´n de integrales estoc´sticas de la forma o a T 0 ut dBt . Una posibilidad consiste en utilizar la definici´n de integral de Riemann o Stieltjes: 28
  • 29. Consideremos una partici´n del intervalo [0, T ]: o τ n : 0 = t0 < t1 < · · · < tn−1 < tn = T as´ como una partici´n intermedia: ı o σn : ti ≤ si leqti+1 , i = 0, . . . , n − 1. Dadas dos funciones f y g en el intervalo [0, T ], la integral de Riemann T Stieltjes 0 f dg se define como el l´ ımite n lim f (si−1 )∆gi n→∞ i=1 n→∞ cuando supi (ti − ti−1 ) −→ 0, suponiendo que este l´ımite existe y es indepen- diente de la sucesi´n de particiones τ n y de sus particiones intermedias σ n , o con la notaci´n ∆gi = g(ti ) − g(ti−1 ). o T Se sabe que la integral de Riemann Stieltjes 0 f dg existe si la funci´n f o es continua y la funci´n g tiene variaci´n total acotada, es decir: o o sup |∆gi | < ∞. τ i Como las trayectorias del movimiento browniano tienen variaci´n total o infinita (v´ase (6)) no podemos utilizar este criterio para asegurar que la e T integral de Riemann-Stieltjes 0 ut (ω)dBt (ω) existe para cada ω, si u es un proceso arbitrario con trayectorias continuas. Obsevemos, si embargo, que si las trayectorias del proceso u son difer- enciables con derivadas acotadas, entonces, la integral de Riemann Stielt- T jes 0 ut (ω)dBt (ω) existe y puede calcularse mediante una integraci´n por o partes: T T 0 ut dBt = uT BT − 0 ut Bt dt. T En este apartado presentaremos una construcci´n de la integral 0 ut dBt o mediante un procedimiento global de tipo probabil´ ıstico. En primer lugar definiremos la clase de procesos que integraremos: Designaremos por L2 el conjunto de los procesos estoc´sticos a,T a u = {ut , t ∈ [0, T ]} tales que: 29
  • 30. a) Para cada t ∈ [0, T ], la aplicaci´n (s, ω) −→ us (ω) definida en [0, t] × Ω o es medible respecto de la σ-´lgebra producto B[0,t] × Ft . a T b) E 0 u2 dt < ∞. t Un proceso que verifica la condici´n a) se dice que es progresivamente o medible. En general, que un proceso estoc´stico u sea medible significa que la a funci´n de dos variables (s, ω) −→ us (ω) es medible en la σ-´lgebra producto o a B[0,T ] ×F . La propiedad a) require la medibilidad de la restricci´n del proceso o u a cada conjunto [0, t] × Ω. Esta propiedad implica que el proceso u sea adaptado, ya que si una funci´n es medible en un espacio producto, al fijar o una coordenada resulta medible como funci´n de la segunda coordenada. Por o otra parte, la propiedad a) es esencial para garantizar que variables aleatorias t del tipo 0 us ds sean Ft -medibles. La condici´n b) significa que el momento de segundo orden es integrable o en [0, T ], ya que, el teorema de Fubini nos permite escribir T T E u2 dt t = E u2 dt. t 0 0 La propiedad b) nos dice que el proceso u como funci´n de las dos variables o 2 (t, ω) pertenece al espacio L ([0, T ] × Ω). T Definiremos la integral estoc´stica 0 ut dBt para procesos u de la clase a L2 como el l´ a,T ımite en L2 (Ω) de la integral de procesos elementales. Por definici´n un proceso u de L2 es elemental si se puede expresar de la forma o a,T n ut = φj 1(tj−1 ,tj ] (t), (10) j=1 donde 0 = t0 < t1 < · · · < tn = T y las φj son variables aleatorias de cuadrado integrable Ftj−1 -medibles. Si u es un proceso elemental de la forma (10) se define la integral es- toc´stica de u respecto del movimiento browniano B como a T n ut dBt = φj Btj − Btj−1 . (11) 0 j=1 30
  • 31. La integral estoc´stica definida en el espacio E de los procesos elementales a tiene las siguiente propiedad de isometria: 2 T T E 0 ut dBt =E 0 u2 dt t (12) Demostraci´n de la isometr´ Pongamos ∆Bj = Btj −Btj−1 . Entonces o ıa: 0 si i = j E φi φj ∆Bi ∆Bj = E φ2 j (tj − tj−1 ) si i = j ya que si i < j las variables aleatorias φi φj ∆Bi y ∆Bj son independientes y si i = j las variables aleatorias φ2 y (∆Bi )2 son independientes. Por lo tanto se i obtiene T 2 n n E ut dBt = E φi φj ∆Bi ∆Bj = E φ2 (ti − ti−1 ) i 0 i,j=1 i=1 T = E u2 dt . t 0 La extensi´n de la integral estoc´stica a todos los procesos de la clase o a L2 a,Tse basa en el siguiente resultado de aproximaci´n: o Lema 4 Si u es un proceso de la clase L2 existe una sucesi´n de procesos a,T o (n) elementales u tales que T 2 (n) lim E ut − ut dt = 0. (13) n→∞ 0 Demostraci´n: La demostraci´n de este resultado la haremos en dos etapas: o o 1. Supongamos que el proceso u es continuo en media cuadr´tica. En tal caso, a podemos tomar la sucesi´n aproximadora o n (n) ut = utj−1 1(tj−1 ,tj ] (t), j=1 31
  • 32. siendo tj = jT . La continuidad en media cuadr´tica del proceso u nos n a garantiza que T 2 T 2 (n) (n) E ut − ut dt = E ut − ut dt 0 0 ≤ T sup E |ut − us |2 |t−s|≤T /n converge hacia cero cuando n tiende a infinito. 2. Supongamos que u es un proceso arbitrario de la clase L2 . En tal caso, a,T existe una sucesi´n de procesos v , pertenecientes a la clase L2 , continuos o (n) a,T en media cuadr´tica y tales que a T 2 (n) lim E ut − v t dt = 0. (14) n→∞ 0 En efecto, definimos t t t (n) vt =n us ds = n us ds − us− 1 ds , 1 n t− n 0 0 con la convenci´n u(s) = 0 si s < 0. Estos procesos son continuos en media o cuadr´tica (tambi´n tienen trayectorias continuas), y pertenecen a la clase a e L2 , debido a la propiedad a). Adem´s se cumple (14) ya que para cada a,T a (t, ω) tenemos T 2 n→∞ u(t, ω) − v (n) (t, ω) dt −→ 0 0 (v´ase Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia e dominada en el espacio producto [0, T ] × Ω ya que T T 2 v (n) (t, ω) dt ≤ |u(t, ω)|2 dt. 0 0 Definici´n 5 Si u es un proceso de la clase L2 , la integral estoc´stica se o a,T a define como el l´mite en L2 (Ω) ı T T (n) ut dBt = lim ut dBt , (15) 0 n→∞ 0 donde u(n) es una sucesi´n de procesos elementales tales que cumplen (13). o 32
  • 33. Que el l´ ımite (15) existe es debido a que la sucesi´n de variables aleato- o T (n) 2 rias 0 ut dBt es de Cauchy en el espacio L (Ω), debido a la propiedad de isometr´ (12): ıa T T 2 T 2 (n) (m) (n) (m) E ut dBt − ut dBt = E ut − ut dt 0 0 0 T 2 (n) ≤ 2E ut − ut dt 0 T 2 (m) n,m→∞ +2E ut − ut dt → 0. 0 Tambi´n puede demostrarse que el l´ e ımite (15) no depende de la sucesi´n u(n) o siempre que esta sucesi´n cumpla (13). o La integral estoc´stica tiene las siguientes propiedades importantes: a 1.- Isometr´ ıa: T 2 T E ut dBt =E u2 dt . t 0 0 2.- Media cero: T E ut dBt = 0. 0 3.- Linealidad: T T T (aut + bvt ) dBt = a ut dBt + b vt dBt . 0 0 0 T 4.- Localidad: Se cumple 0 ut dBt = 0 casi seguramente, en el conjunto T G= 0 u2 dt = 0 . t La propiedad de localidad es una consecuencia de que en el conjunto G la sucesi´n aproximadora o n (j−1)T n (n,m,N ) ut = m us ds 1( (j−1)T , jT ] (t) (j−1)T 1 n n j=1 n −m se anula. 33
  • 34. Ejemplo 12 T 1 2 1 Bt dBt = BT − T. 0 2 2 Como el proceso Bt es continuo en media cuadr´tica podemos tomar como a sucesi´n aproximadora o n (n) ut = Btj−1 1(tj−1 ,tj ] (t), j=1 jT donde tj = n , y tendremos T n Bt dBt = lim Btj−1 Btj − Btj−1 0 n→∞ j=1 n 1 2 2 1 2 = lim Btj − Btj−1 − lim Btj − Btj−1 2 n→∞ 2 n→∞ j=1 1 2 1 = B − T. (16) 2 T 2 Si xt es una funci´n derivable, las reglas del c´lculo diferencial e integral nos o a dicen que T T 1 2 xt dxt = xt xt dt = x − x2 . 0 0 2 T 0 Observemos que en el caso del movimiento browniano nos aparece un t´rmino e 1 adicional igual a − 2 T . T Ejemplo 13 Consideremos una funci´n determinista g tal que 0 g(s)2 ds < o T ∞. En este caso, la integral estoc´stica 0 gs dBs es una variable aleatoria a con ley normal T N (0, g(s)2 ds). 0 34
  • 35. 2.1 Integrales estoc´sticas indefinidas a Consideremos un proceso u de la clase L2 . El proceso u1[0,t] tambi´n a,T e 2 pertenece a La,T , y por lo tanto, podemos definir su integral: t T us dBs := us 1[0,t] (s)dBs . 0 0 De esta forma hemos construido un nuevo proceso estoc´stico a t us dBs , 0 ≤ t ≤ T 0 que es la integral indefinida del proceso u respecto de B. En este apartado estudiaremos las propiedades de las integrales indefinidas. En primer lugar, debido a la linealidad de la integral estoc´stica, tenemos la propiedad de a aditividad siguiente: b c c us dBs + us dBs = us dBs , a b a si a ≤ b ≤ c. Si a < b y A es un suceso de la σ-´lgebra Fa entonces, a b b 1A us dBs = 1A us dBs . a a En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable acotada y Fa -medible. Una propiedad importante de las integrales indefinidas es la propiedad de martingala. Definici´n 6 Un proceso estoc´stico {Mt , t ≥ 0} diremos que es una martin- o a gala respecto de una familia creciente de σ-´lgebras {Mt , t ≥ 0}, contenidas a en F, si se cumplen las propiedades siguientes: (i) Mt es medible respecto de Mt , para todo t ≥ 0. (ii) E(|Mt |) < ∞ para todo t ≥ 0. (iii) E(Mt |Ms ) = Ms , si s ≤ t. 35
  • 36. La propiedad (iii) puede expresarse de forma equivalente como sigue E(Mt − Ms |Ms ) = 0 y ello significa que la esperanza condicionada de los incrementos de una mar- tingala es cero. Las martingalas se introduden para modelizar las ganancias de un jugador que juega una partida equitativa en un juego de azar. En he- cho de que la ganancia esperada tenga valor medio cero representa el car´cter a equitativo del juego. De forma an´loga se puede introducir el concepto de martingala para un a proceso {Mt , 0 ≤ t ≤ T } respecto de una familia creciente de σ-´lgebras a {Mt , 0 ≤ t ≤ T }. En tal caso, la propiedad de martingala nos dice que Mt = E(MT |Mt ). Fij´monos en que la variable terminal MT determina la martingala ya que e las variables Mt se obtinenen tomando la esperanza condicionada de MT respecto de la familia creciente de σ-´lgebras. a Como consecuencia de la propiedad de martingala tendremos que la es- peranza de una martingala es consante: E(Mt ) = E(M0 ). Ejemplo 14 Si Bt es un movimiento browniano y Ft es la filtraci´n generada o por Bt , entonces, los procesos: Bt 2 Bt − t a2 t exp(aBt − ) 2 son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido 2 demostrada en (8). Para Bt − t, la propiedad de martingala se deduce del siguiente c´lculo de esperanzas condicionadas, si s < t a E(Bt |Fs ) = E((Bt − Bs + Bs )2 |Fs ) 2 = E((Bt − Bs )2 |Fs ) + 2E((Bt − Bs ) Bs |Fs ) 2 +E(Bs |Fs ) = E (Bt − Bs )2 + 2Bs E((Bt − Bs ) |Fs ) + Bs 2 2 = t − s + Bs . 36
  • 37. a2 t Finalmente, para el proceso exp(aBt − 2 ) tendremos a2 t a2 t E(eaBt − 2 |Fs ) = eaBs E(ea(Bt −Bs )− 2 |Fs ) 2 a(Bt −Bs )− a2 t = eaBs E(e ) a2 (t−s) 2 a2 s − a2 t = eaBs e 2 = eaBs − 2 . Las martingalas con trayectorias continuas cumplen la desigualdad fun- damental siguiente debida a Doob: Desigualdad de Doob: Supongamos que {Mt , 0 ≤ t ≤ T } es una martin- gala con trayectorias continuas. Entonces, para todo p ≥ 1 y todo λ > 0 se cumple 1 P sup |Mt | > λ ≤ p E(|MT |p ). 0≤t≤T λ Obsevamos que se trata de una generalizaci´n de la desigualdad de Tcheby- o chev. Como consecuencia de la desigualdad de Doob puede demostrarse que las integrales estoc´sticas indefinidas tienen trayectorias continuas. a Proposici´n 7 Supongamos que u es un proceso de la clase L2 . Entonces, o a,T t la integral estoc´stica 0 us dBs tiene una versi´n con trayectorias continuas. a o Demostraci´n: Consideremos una sucesi´n de procesos elementales u(n) tal o o que T 2 (n) lim E ut − ut dt = 0. n→∞ 0 Pongamos t I(t) = us dBs , 0 t In (t) = u(n) dBs . s 0 El proceso In tiene trayectorias continuas y es una martingala respecto de la familia creciente de σ -´lgebras Ft . En efecto, si s < t y φj es el valor del proceso a 37
  • 38. estoc´stico u(n) cada el intevalo (tj−1 , tj ] tendremos a   E (In (t) − In (s)|Fs ) = E  φj ∆Bj |Fs  s≤tj−1 ≤tj ≤t = E E φj ∆Bj |Ftj−1 |Fs s≤tj−1 ≤tj ≤t = E φj E ∆Bj |Ftj−1 |Fs = 0. s≤tj−1 ≤tj ≤t Por consiguiente, la diferencia In − Im ser´ una martingala, y la desigualdad de a Doob con p = 2 nos permite escribir 1 P sup |In (t) − Im (t)| > λ ≤ E |In (T ) − Im (T )|2 0≤t≤T λ2 T 1 (n) (m) 2 n,m→∞ = 2E ut − ut dt −→ 0. λ 0 Podemos elegir una sucesi´n creciente de n´meros naturales nk , k = 1, 2, . . . tal o u que P sup |Ink+1 (t) − Ink (t)| > 2−k ≤ 2−k . 0≤t≤T Los sucesos Ak := sup0≤t≤T |Ink+1 (t) − Ink (t)| > 2−k tienen probabilidades que forman una serie convergence, es decir, ∞ P (Ak ) < ∞. k=1 El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un n´mero u infinito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidad cero tal que para todo ω ∈ N podemos encontrar un ´ / ındice k1 (ω) tal que si k ≥ k1 (ω) sup |Ink+1 (t, ω) − Ink (t, ω)| ≤ 2−k . 0≤t≤T Por lo tanto, si ω ∈ N , la sucesi´n Ink (t, ω) es uniformemente convergente en / o [0, T ] hacia una funci´n continua Jt (ω). Por otra parte, sabemos que para cada o t t ∈ [0, T ], Ink (t) converge en media cuadr´tica hacia 0 us dBs . Por consiguiente, a 38
  • 39. t Jt (ω) = 0 us dBs casi seguramente, para todo t ∈ [0, T ], y ello nos dice que la integral indefinida tiene una versi´n con trayectorias continuas. o t La integral indefinida Mt = 0 us dBs es una martingala respecto de la familia de σ-´lgebras Ft y se cumple la desigualdad siguiente, para todo a λ > 0, T 1 P sup |Mt | > λ ≤ 2 E u2 dt . t (17) 0≤t≤T λ 0 t En efecto, la propiedad de martingala de 0 us dBs de deduce de la propiedad t (n) de martingala de las integrales indefinidas 0 us dBs que hemos obtenido en la demostraci´n anterior. La desigualdad (17) se deduce de la desigualdad o de Doob y de la propiedad de isometr´ de la integral estoc´stica. ıa a t La martingala Mt = 0 us dBs tiene trayectorias continuas, pero son ir- regulares como las del movimiento browniano. En particular, las trayectorias de las integrales indefinidas tienen variaci´n cuadr´tica finita como nos dice o a la propiedad siguiente: Proposici´n 8 (Variaci´n cuadr´tica ) Sea u un proceso de la clase L2 . o o a a,T Entonces, n 2 tj t L1 (Ω) us dBs −→ u2 ds s j=1 tj−1 0 jt cuando n tiende a infinito, donde tj = n . Demostraci´n: Observemos en primer lugar que si el proceso u es elemen- o tal, el resultado es una consecuencia de la propiedad de variaci´n cuadr´tica del o a movimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valor constante φ aparecer´ una contribuci´n del tipo a o n→∞ φ2 (∆Bj )2 −→ φ2 (b − a) . a≤tj−1 ≤tj ≤b Supongamos que u es un proceso arbitrario de la clase L2 . Existe una sucesi´n a,T o (k) u de procesos elementales tal que T 2 (k) lim E ut − ut dt = 0. k→∞ 0 39