SlideShare una empresa de Scribd logo
1 de 101
Descargar para leer sin conexión
Cálculo estocástico
David Nualart
Universitat de Barcelona
1
1 Probabilidades y procesos estocásticos
1.1 Conceptos básicos del cálculo de probabilidades
Recordemos en primer lugar algunas definiciones generales del cálculo de
probabilidades.
Un espacio de probabilidad es una terna (Ω, F, P) formada por:
(i) Un conjunto Ω que representa el conjunto de los posibles resultados de
una cierta experiencia aleatoria.
(ii) Una familia F de subconjuntos de Ω que tiene estructura de σ-álgebra:
a) ∅ ∈ F
b) Si A ∈ F, su complementario Ac
también pertenece a F
c) A1, A2, . . . ∈ F =⇒ ∪∞
i=1Ai ∈ F
(iii) Una aplicación P : F → [0, 1] que cumple:
a) P(∅) = 0, P(Ω) = 1
b) Si A1, A2, . . . ∈ F son conjuntos disjuntos dos a dos (es decir, Ai ∩
Aj = ∅ si i 6= j), entonces
P (∪∞
i=1Ai) =
P∞
i=1 P(Ai)
Los elementos de la σ-álgebra F se denominan sucesos y la aplicación P se
denomina una probabilidad, de forma que tenemos la siguiente interpretación
de este modelo:
P(F)=“probabilidad de que el suceso F se realice”
Si P(F) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi
seguramente.
Las propiedades a) y b) permiten deducir algunas reglas básicas del
cálculo de probabilidades:
P(A ∪ B) = P(A) + P(B) si A ∩ B = ∅
P(Ac
) = 1 − P(A)
A ⊂ B =⇒ P(A) ≤ P(B).
2
Ejemplo 1 Lanzamos un dado.
Ω = {1, 2, 3, 4, 5, 6}
F = P(Ω) (F contiene todos los subconjuntos de Ω)
P({ωi}) =
1
6
, para i = 1, . . . , 6
Ejemplo 2 Elegimos un número al azar en el intervalo [0, 2]. Ω = [0, 2], F es
la σ-álgebra de Borel (generada por los intervalos de [0, 2]). La probabilidad
de cualquier intervalo [a, b] ⊂ [0, 2] será
P([a, b]) =
b − a
2
.
Se dice que un espacio de probabilidad (Ω, F, P) es completo si dado un
suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la
σ-álgebra F. Un espacio de probabilidad siempre se puede completar substi-
tuyendo la σ-álgebra F por una σ-álgebra mayor formada por los conjuntos
de la forma F ∪ A, donde F ∈ F y A es un subconjunto de un conjunto de
F de probabilidad cero.
Si U es una familia de subconjuntos de Ω, la más pequeña σ-álgebra que
contiene a U es, por definición,
σ(U) = ∩ {G, G es una σ-álgebra, U ⊂ G} ,
y se denomina la σ-álgebra generada por U. Por ejemplo, la σ-álgebra gen-
erada por los conjuntos abiertos (o por los rectángulos) de Rn
se denomina
la σ-álgebra de Borel de Rn
y la representaremos por BRn .
Ejemplo 3 Consideremos una partición finita P = {A1, . . . , An} de Ω. La σ-
álgebra generada por P está formada por todas las uniones de los elementos
de la partición (2n
en total).
Una variable aleatoria es una aplicación
Ω
X
−→ R
ω → X(ω)
que es F-medible, es decir, X−1
(B) ∈ F, para todo conjunto B de la σ-
álgebra de Borel de R.
3
• Una variable aleatoria determina una σ-álgebra {X−1
(B), B ∈ BR} ⊂
F que se denomina la σ-álgebra generada por X.
• Una variable aleatoria determina una probabilidad en la σ-álgebra de
Borel BR definida por PX = P ◦ X−1
, es decir,
PX(B) = P(X−1
(B)) = P({ω : X(ω) ∈ B})
La probabilidad PX se denomina la ley o distribución de la variable X.
Diremos que una variable aleatoria X tiene densidad de probabilidad fX
si fX(x) es una función positiva, medible respecto de la σ-álgebra de Borel
y tal que
P(a < X < b) =
Z b
a
fX(x)dx,
para todo a < b.
Las variables discretas (que toman un conjunto finito o numerable de
valores distintos xk) no tienen densidad y su ley está determinada por la
función de probabilidad:
pk = P(X = xk).
Ejemplo 4 Una variable aleatoria tiene ley normal N(m, σ2
) si
P (a < X < b) =
1
√
2πσ2
Z b
a
e−
(x−m)2
2σ2
dx
para todo par de números reales a < b.
Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si
P (X = k) =
µ
n
k
¶
pk
(1 − p)n−k
,
para k = 0, 1, . . . , n.
La distribución de una variable aleatoria X puede caracterizarse mediante
su función de distribución definida como la probabilidad acumulada:
FX(x) = P (X ≤ x) = PX ((−∞, x])
4
• La función FX : R →[0, 1] es creciente, continua por la derecha y con
lı́mites iguales a cero en −∞ y 1 en +∞.
• Si la variable X tiene densidad fX, entonces,
FX(x) =
Z x
−∞
fX(y)dy,
y si la densidad es continua, F0
X(x) = fX(x).
La esperanza matemática de una variable aleatoria X se define como la
integral de X respecto de la probabilidad P, considerada como una medida
en el espacio (Ω, F). En particular, si X es una variable elemental que toma
los valores α1, . . . , αn en los conjuntos A1, . . . , An, su esperanza valdrá
E(X) =
n
X
i=1
αiP(Ai).
El cálculo de la esperanza de una variable aleatoria se efectua integrando la
función x respecto de la ley de probabilidad de la variable. Es decir, si X es
una variable que tiene esperanza (o sea E(|X|) < ∞) se tiene
E(X) =
Z
Ω
X(ω)dP(ω) =
Z ∞
−∞
xdPX(x).
Más generalmente, si g : R → R es una función medible respecto de la σ-
álgebra de Borel y E(|g(X)|) < ∞, entonces la esperanza de la variable g(X)
se puede calcular integrando la función g respecto de la ley de la variable X:
E(g(X)) =
Z
Ω
g(X(ω))dP(ω) =
Z ∞
−∞
g(x)dPX(x).
La integral
R ∞
−∞
g(x)dPX(x) se calcula utilizando la densidad o función de
probabilidad de la variable X:
Z ∞
−∞
g(x)dPX(x) =
½ R ∞
−∞
g(x)fX(x)dx, fX(x) es la densidad de X
P
k g(xk)P(X = xk), X variable discreta
5
Ejemplo 6 Si X es una variable aleatoria con ley normal N(0, σ2
) y λ es un
número real,
E(exp (λX)) =
1
√
2πσ2
Z ∞
−∞
eλx
e− x2
2σ2
dx
=
1
√
2πσ2
e
σ2λ2
2
Z ∞
−∞
e−
(x−σ2λ)2
2σ2
dx
= e
σ2λ2
2 .
La varianza de una variable aleatoria X se define por
σ2
X = Var(X) = E((X − E(X))2
) = E(X2
) − [E(X)]2
.
La varianza nos mide el grado de dispersión de los valores de la variable
respecto de su esperanza. Por ejemplo, si X es una variable con ley normal
N(m, σ2
) se tiene
P(m − 1.96σ ≤ X ≤ m + 1.96σ) = P(−1.96 ≤
X − m
σ
≤ 1.96)
= Φ(1.96) − Φ(−1.96) = 0.95,
donde Φ es la función de distribución de la ley N(0, 1). Es decir, la probabil-
idad de que la variable X tome valores en el intervalo [m − 1.96σ, m + 1.96σ]
es igual a 0.95.
Diremos que X = (X1, . . . , Xn) es un vector aleatorio n-dimensional si
sus componentes son variables aleatorias.
La esperanza de un vector aleatorio n-dimensional X será el vector
E(X) = (E(X1), . . . , E(Xn))
La matriz de covarianzas de un vector aleatorio n-dimensional X es, por
definición, la matriz ΓX = (cov(Xi, Xj))1≤i,j≤n, donde
cov(Xi, Xj) = E [(Xi − E(Xi)) (Xj − E(Xj))] .
Es decir, los elementos de la diagonal de esta matriz son las varianzas de las
variables Xj y fuera de la diagonal encontramos las covarianzas entre dos
variables Xi y Xj.
6
Como en el caso de variables aleatorias se introduce la ley o distribución
de un vector aleatorio n-dimensional X como la probabilidad definida en la
σ-álgebra de Borel BRn por
PX(B) = P(X−1
(B)) = P(X ∈ B).
Diremos que un vector aleatorio n-dimensional X tiene una ley normal
N = (m, Γ), donde m ∈ Rn
, y Γ es una matriz simétrica y definida positiva,
si
P (ai ≤ Xi ≤ bi, i = 1, . . . , n)
=
Z bn
an
· · ·
Z b1
a1
(2π det Γ)−n
2 e−1
2
Pn
i,j=1(xi−mi)(xj−mj)Γ−1
ij dx1 · · · dxn.
En tal caso, se tiene, m = E(X) y Γ = ΓX.
Si la matrix Γ es una matriz diagonal
Γ =



σ2
1 · · · 0
.
.
.
...
.
.
.
0 · · · σ2
n



entonces la densidad del vector X será el producto de n densidades normales
unidimensionales:
fX(x1, . . . , xn) =
n
Y
i=1
Ã
1
p
2πσ2
i
e
−
(x−mi)2
2σ2
i
!
.
Existen también leyes normales degeneradas, en las que la matriz Γ es
singular. En este caso, no existe la densidad de probabilidad, y la ley de X
queda determinada por su función caracterı́stica:
E
³
eit0X
´
= exp
µ
it0
m −
1
2
t0
Γt
¶
,
donde t ∈ Rn
. En esta fórmula t0
es un vector lı́nea (matriz 1 × n) y t es un
vector columna (matriz n × 1).
Si X es un vector normal n-dimensional con ley N(m, Γ) y A es una
matriz m × n, entonces AX es un vector normal m-dimensional con ley
N(Am, AΓA0
).
7
Diremos que una variable tiene media de orden p ≥ 1 si E(|X|p
) < ∞.
En tal caso, se define el momento de orden p de la variable aleatoria X como
mp = E(Xp
).
El conjunto de las variables que tienen media de orden p se representa por
Lp
(Ω, F, P).
Sea X una variable aleatoria con función caracterı́stica
ϕX(t) = E(eitX
).
Los momentos de la variable aleatoria puede calcularse a partir de las derivadas
de la función caracterı́stica en el origen
mn =
1
in
ϕ
(n)
X (t)|t=0.
Recordemos algunas desigualdades importantes en el cálculo de probabil-
idades:
• Desigualdad de Tchebychev: Si λ > 0
P(|X| > λ) ≤
1
λp E(|X|p
).
• Desigualdad de Schwartz:
E(XY ) ≤
p
E(X2)E(Y 2).
• Desigualdad de Hölder:
E(XY ) ≤ [E(|X|p
)]
1
p [E(|Y |q
)]
1
q ,
donde p, q > 1 y 1
p
+ 1
q
= 1.
• Desigualdad de Jensen: Si ϕ : R → R es una función convexa tal que las
variables X y ϕ(X) tienen esperanza, entonces,
ϕ(E(X)) ≤ E(ϕ(X)).
En particular si ϕ(x) = |x|p
, con p ≥ 1, tendremos
|E(X)|p
≤ E(|X|p
).
8
Recordemos los diferentes modos de convergencia de una sucesión de vari-
ables aleatorias Xn, n = 1, 2, 3, . . .:
Convergencia casi segura: Xn
c.s.
−→ X, si
lim
n→∞
Xn(ω) = X(ω),
para todo ω /
∈ N, donde P(N) = 0.
Convergencia en probabilidad: Xn
P
−→ X, si
lim
n→∞
P(|Xn − X| > ε) = 0,
para todo ε > 0.
Convergencia en media de orden p ≥ 1: Xn
Lp
−→ X, si
lim
n→∞
E(|Xn − X|p
) = 0.
Convergencia en ley: Xn
L
−→ X, si
lim
n→∞
FXn (x) = FX(x),
para todo punto x de continuidad de la función de distribución FX.
• La convergencia en media de orden p implica la convergencia en prob-
abilidad ya que, debido a la desigualdad de Tchebychev tendremos
P(|Xn − X| > ε) ≤
1
εp
E(|Xn − X|p
).
• La convergencia casi segura implica la convergencia en probabilidad
(esto es más difı́cil de demostrar).
• La convergencia casi segura implica la convergencia en media de orden
p ≥ 1, si las variables aleatorias Xn están acotadas por una variable
aleatoria integrable Y (teorema de convergencia dominada):
|Xn| ≤ Y, E(Y ) < ∞.
9
La convergencia en ley es diferente de los otros tipos de convergencia, ya
que lo que nos interesa es la ley de las variables y no sus valores particulares.
Un concepto fundamental en probabilidades es el de independencia. Dos
sucesos A, B ∈ F se dicen independientes si
P(A ∩ B) = P(A)P(B).
Si tenemos una colección finita o infinita de sucesos {Ai, i ∈ I}, diremos
que los sucesos de la colección son independientes si
P(Ai1 ∩ · · · ∩ Aik
) = P(Ai1 ) · · · P(Aik
)
para todo conjunto finito de ı́ndices {i1, . . . , ik} ⊂ I.
Una colección de conjuntos de sucesos {Gi, i ∈ I} diremos que es indepen-
diente si cualquier colección de sucesos {Ai, i ∈ I} tal que Ai ∈ Gi para todo
i ∈ I, es independiente.
Una colección de variables aleatorias {Xi, i ∈ I} se dice que es indepen-
diente si la colección de σ-álgebras
©
X−1
i (BRn ), i ∈ I
ª
lo es. Esto significa
que
P(Xi1 ∈ Bi1 , . . . , Xik
∈ Bik
) = P(Xi1 ∈ Bi1 ) · · · P(Xik
∈ Bik
),
para todo conjunto finito de ı́ndices {i1, . . . , ik} ⊂ I, donde los Bj son con-
juntos de Borel.
Si dos variables aleatorias reales X, Y son independientes y tienen esper-
anza finita, entonces el producto XY tiene esperanza finita y se cumple la
relación
E(XY ) = E(X)E(Y ) .
Más generalmente, si las variables X1, . . . , Xn son independientes,
E [g1(X1) · · · gn(Xn)] = E [g1(X1)] · · · E [gn(Xn)] ,
donde las gi son funciones medibles tales que E [|gi(Xi)|] < ∞.
Las componentes de un vector aleatorio son independientes sı́ y solo sı́ su
densidad o función de probabilidad es igual al producto de las densidades o
funciones de probabilidad de cada componente.
10
1.2 Procesos estocásticos
Un proceso estocástico és una familia de variables aleatorias reales {Xt, t ≥ 0}
definidas en un espacio de probabilidad (Ω, F, P).
El conjunto de parámetros [0, ∞) representa el tiempo y en algunos casos
supondremos que es un intervalo acotado [0, T], o el conjunto los números
naturales (procesos a tiempo discreto).
Per cada ω ∈ Ω, la aplicación
t −→ Xt(ω)
se dnomina una trayectoria del proceso estocástico.
Si fijamos un conjunto finito de instantes {0 ≤ t1 < · · · < tn} tendremos
un vector aleatorio
(Xt1 , . . . , Xtn ) : Ω −→ Rn
.
Las distribuciones de probabilidad Pt1,...,tn = P ◦ (Xt1 , . . . , Xtn )−1
se denom-
inan las distribuciones en dimensión finita del proceso.
El siguiente teorema debido a Kolmogorov asegura la existencia de un
proceso estocástico asociado a una familia de distribuciones en dimensión
finita que satisfagan una condición de compatibilidad.
Teorema 1 Consideremos una familia de probabilidades
{Pt1,...,tn , 0 ≤ t1 < · · · < tn, n ≥ 1}
tales que:
1. Pt1,...,tn es una probabilidad en Rn
2. (Condición de compatibilidad): Si {0 ≤ s1 < · · · < sm} ⊂ {0 ≤ t1 <
· · · < tn}, entonces
Pt1,...,tn ◦ π−1
= Ps1,...,sm
donde π : Rn
→ Rm
es la proyección natural asociada a los dos con-
juntos de ı́ndices.
Entonces, existe un proceso estocástico {Xt, t ≥ 0} que tiene la familia
{Pt1,...,tn } como distribuciones en dimensión finita.
11
La media y la autocovarianza de un proceso estocástico se definen como
sigue:
mX(t) = E(Xt)
ΓX(s, t) = Cov(Xs, Xt)
= E((Xs − mX(s))(Xt − mX(t)).
La varianza del proceso X se define por
σ2
X(t) = ΓX(t, t) = Var(Xt).
Ejemplo 7 Consideremos el proceso estocástico
Xt = A cos(ϕ + λt),
donde A y ϕ son variables aleatorias independientes tales que E(A2
) < ∞ y
ϕ tiene ley uniforme en [0, 2π]. En este caso,
mX(t) = 0
ΓX(s, t) =
1
2
E(A2
) cos λ(t − s).
Se dice que un proceso estocástico {Xt, t ≥ 0} es gaussiano o normal si
sus distribuciones en dimensión finita son leyes normales multidimensionales.
Observamos que en el caso de un proceso gaussiano, la media mX(t) y
la autocovarianza ΓX(s, t) determinan las distribuciones en dimensión finita
del proceso.
La media mX(t) y la varianza σ2
X(t) nos permiten conocer donde se
concentran los valores de la variable Xt ası́ como su grado de dispersión,
para cada instante t fijo. Por ejemplo, en el caso de un proceso gaussiano,
P(mX(t) − 2σX(t) ≤ Xt ≤ mX(t) + 2σX(t)) w 0.95.
Notemos que la probabilidad de que las trayectorias del proceso estén
comprendidas entre las curvas mX(t) − 2σX(t) y mX(t) − 2σX(t) es mucho
más difı́cil de calcular.
12
Ejemplo 8 Consideremos un proceso gaussiano {Xt, t ∈ [0, 1]} tal que las
variables aleatorias Xt son independientes y con ley N(0, σ2
). La media y
autocovarianza de este proceso son
mX(t) = 0
ΓX(s, t) =
½
1 si s = t
0 si s 6= t
Se dice que un proceso estocástico {Xt, t ≥ 0} es una versión de otro
proceso {X0
t, t ≥ 0} si para cada t ≥ 0
P{Xt = X0
t} = 1.
Se dice también que ambos procesos son equivalentes. Dos procesos equiva-
lentes puede tener trayectorias diferentes (véase el Ejercicio 1.6).
Diremos que el proceso {Xt, t ≥ 0} es continuo en probabilidad si para
todo ε > 0 y todo t ≥ 0
lim
s→t
P(|Xt − Xs| > ε) = 0.
Consideremos un proceso estocástico {Xt, t ≥ 0} tal que E (|Xt|p
) < ∞,
para todo t ≥ 0, donde p ≥ 1. Diremos que el proceso {Xt, t ≥ 0} es continuo
en media de orden p si
lim
s→t
E (|Xt − Xs|p
) = 0.
La continuidad en media de orden p implica la continuidad en probabilidad.
Sin embargo, la continuidad en media de orden p no implica necesariamente
la continuidad de las trayectorias.
Ejemplo 9 El proceso de Poisson {Nt, t ≥ 0} es un proceso estocástico car-
acterizado por la ssiguientes propiedades:
i) Nt = 0,
ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn −Ntn−1 , . . . , Nt2 −
Nt1 , son variables aleatorias independientes,
13
iii) Si s < t, el incremento Nt − Ns tiene una ley de Poisson de parámetro
λ(t − s), es decir
P(Nt − Ns = k) = e−λ(t−s) [λ(t − s)]k
k!
,
k = 0, 1, 2, . . .
Se puede construir un proceso de Poisson de la forma siguiente. Consid-
eremos una sucesión {Yn, n ≥ 1} de variables aleatorias independientes y con
ley geométrica de parámetro λ. Es decir, para todo x ≥ 0,
P(Yn ≥ x) = e−λx
.
Pongamos T0 = 0 y para n ≥ 1,
Tn = Y1 + · · · + Yn.
Entonces, el proceso Nt definido por
Nt = n si Tn ≤ t < Tn+1
es un proceso de Poisson de parámetro λ.
Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de
amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada
par de saltos son variables aleatorias independientes con leyes exponenciales
de parámetro λ. Por tanto, las trayectorias no son continuas, aunque si que
los son en media cuadrática:
E
£
(Nt − Ns)2¤
=
∞
X
k=1
e−λ(t−s) k2
[λ(t − s)]k
k!
= λ(t − s) + [λ(t − s)]2 s→t
−→ 0.
Acotaciones adecuadas de los momentos de los incrementos del proceso,
permiten deducir la continuidad de las trayectorias. Este es el contenido del
siguiente criterio de continuidad, debido a Kolmogorov.
14
Proposición 2 (Criterio de continuidad) Supongamos que un proceso es-
tocástico {Xt, t ≥ 0} cumple la condición siguiente:
E (|Xt − Xs|p
) ≤ cT |t − s|α
(1)
para todo 0 ≤ s < t ≤ T, donde a > 1 y p > 0. Entonces existe una versión
del proceso estocástico Xt que tiene trayectorias continuas.
Ejemplo 10 El proceso de Poisson no cumple la condición (1).
La condición (1) nos permide además tener información sobre la regu-
laridad de las trayectorias. En efecto, fijemos un intervalo de tiempo [0, T].
Entonces, para cada ε > 0 existe una variable aleatoria Gε,T tal que, con
probabilidad uno,
|Xt(ω) − Xs(ω)| ≤ Gε,T (ω)|t − s|
α
p
−ε
, (2)
para todo s, t ∈ [0, T]. Además, E(Gp
ε,T ) < ∞ para todo p ≥ 1.
1.3 Movimiento browniano
En 1828 el botánico inglés Robert Brown observó que los granos de polen en
suspensión se movı́an de forma irregular. Posteriormente se descubrió que
este fenómeno es debido a los choques aleatorios de las partı́culas de polen
con las moléculas del lı́quido. En los años 20 Norbert Wiener presentó un
modelo matemático para este movimiento basado en la teorı́a de los procesos
estocásticos. La posición de una partı́cula en cada instante t ≥ 0 es un vector
variable aleatorio 3-dimensional Bt.
En el caso unidimensional la definición del movimiento browniano como
proceso estocástico es la siguiente:
Definición 3 Un proceso estocástico {Bt, t ≥ 0} es un movimiento browni-
ano si se cumplen las condiciones siguientes:
i) B0 = 0
ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn −Btn−1 , . . . , Bt2 −
Bt1 , son variables aleatorias independientes
15
iii) Si s < t, el incremento Bt − Bs tiene una ley normal N(0, t − s)
iv) Las trayectorias del proceso son funciones continuas.
Observaciones
1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un
vector aleatorio (Bt1 , . . . , Btn ) es normal ya que este vector es una trans-
formación lineal del vector
¡
Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1
¢
que tiene
ley normal ya que tiene las componentes independientes y normales.
2) La media y la autocovarianza del movimiento browniano se calculan facil-
mente:
E(Bt) = 0
E(BsBt) = E(Bs(Bt − Bs + Bs))
= E(Bs(Bt − Bs)) + E(B2
s ) = s = min(s, t)
si s ≤ t. Puede comprobarse fácilmente que si un proceso gaussiano
tiene media cero y función de autocovarianza ΓX(s, t) = min(s, t), en-
tonces cumple las condiciones i), ii) y iii) de la Definición anterior.
3) Puede demostrarse que existe un proceso estocástico que cumple las
condiciones anteriores. Para ello, se parte de sus distribuciones en
dimensión finita, que son leyes normales N(0, Γ) donde Γ es la la ma-
triz 




t1 t1 · · · t1
t1 t2 · · · t2
.
.
.
.
.
.
...
.
.
.
t1 t2 · · · tn





.
El teorema de extensión de Kolmogorov permite construir un proceso
estocástico fijadas las distribuciones en dimensión finita, siempre que
sean compatibles, lo que aquı́ es cierto. Finalmente hay que demostrar
que se pueden modificar las variables Bt conjuntos de probabilidad
cero de forma que las trayectorias sean continuas. Para ello se aplica el
criterio de continuidad de Kolmogorov. Como los incrementos Bt − Bs
tienen ley normal N(0, t − s), para todo número entero k tendremos
E
h
(Bt − Bs)2k
i
=
(2k)!
2kk!
(t − s)k
. (3)
16
Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una
versión continua, ya que
E
£
(Bt − Bs)4¤
= 3(t − s)2
.
4) En la definición de movimiento bronwiano, se supone que el espacio de
probabilidad (Ω, F, P) es arbitrario. Sin embargo, mediante la apli-
cación
Ω → C ([0, ∞), R)
ω → B·(ω)
podemos suponer que el espacio de probabilidad es el conjunto de
las funciones continuas C ([0, ∞), R) con la σ-álgebra de Borel (gen-
erada por los conjuntos abiertos relativos a la estructura de espacio
métrico separable y completo) y con una probabilidad igual a la ley del
movimiento browniano: P ◦ B−1
. En tal caso las variables aleatorias
son las evaluaciones ω(t) y este espacio de probabilidad se denomina
espacio canónico.
Regularidad de las trayectorias
Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo
p = 2k y utilizando (3), tendremos α = k. Por lo tanto, para todo ε > 0
existe una variable aleatoria Gε,T tal que
|Bt − Bs| ≤ Gε,T |t − s|
1
2
−ε
, (4)
para cada s, t ∈ [0, T]. Es decir, las trayectorias del movimiento Browniano
son Hölder continuas de orden 1
2
− ε para todo ε > 0. Intuitivamente, esto
significa que
∆Bt = Bt+∆t − Bt w (∆t)
1
2 .
En media esta aproximación es exacta: E
£
(∆Bt)2¤
= ∆t.
Variación cuadrática del movimiento browniano
Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisión π de
este intervalo
0 = t0 < t1 < · · · < tn = t.
17
La norma de la subdivisión π se define como |π| = maxk ∆tk, donde ∆tk =
tk − tk−1 . Pongamos ∆Bk = Btk
− Btk−1
. Entonces, si tj = jt
n
tendremos
n
X
k=1
|∆Bk| w n
µ
t
n
¶1
2
−→ ∞,
mientras que
n
X
k=1
(∆Bk)2
w n
t
n
= t. (5)
Esas propiedades pueden formularse de manera rigurosa como sigue:
En primer lugar, puede demostrarse que las sumas de los cuadrados de
los incrementos convergen en media cuadrática hacia la longitud del intervalo
de tiempo considerado:
E


à n
X
k=1
(∆Bk)2
− t
!2

 = E


à n
X
k=1
£
(∆Bk)2
− ∆tk
¤
!2


=
n
X
k=1
E
³£
(∆Bk)2
− ∆tk
¤2
´
=
n
X
k=1
£
4 (∆tk)2
− 2 (∆tk)2
+ (∆tk)2¤
= 3
n
X
k=1
(∆tk)2
≤ 3t|π|
|π|→0
−→ 0.
Por otra parte, la variación total de las trayectorias del movimiento brow-
niano, definida como
V = sup
π
n
X
k=1
|∆Bk|
es infinita con probabilidad uno. En efecto, utilizando la continuidad de las
trayectorias del movimiento browniano, tendremos
n
X
k=1
(∆Bk)2
≤ sup
k
|∆Bk|
à n
X
k=1
|∆Bk|
!
≤ V sup
k
|∆Bk|
|π|→0
−→ 0 (6)
si V < ∞, lo cual contradice que
Pn
k=1 (∆Bk)2
converja en media cuadrática
hacia t cuando |π| → 0.
18
Propiedad de autosimilitud
Para todo número real a > 0, el proceso
©
a−1/2
Bat, t ≥ 0
ª
es un movimiento browniano. En efecto, este proceso es normal, con media
cero y función de autocovarianza igual a min(s, t).
Procesos relacionados con el movimiento browniano
1.- El puente browniano: Consideremos el proceso
Xt = Bt − tB1,
t ∈ [0, 1]. Se trata de un proceso normal centrado con función de
autocovarianza
E(XtXs) = min(s, t) − st,
que verifica X0 = 0, X1 = 0.
2.- El movimiento browniano con deriva: Consideremos el proceso
Xt = σBt + µt,
t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Se trata de un proceso
normal con media y función de autocovarianza
E(Xt) = µt,
ΓX(s, t) = σ2
min(s, t)
3.- Movimiento browniano geométrico: Es el proceso estocástico propuesto
por Black, Scholes y Merton como modelo para la curva de precios de
los activos financieros. Su definición es la siguiente
Xt = eσBt+µt
,
t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Es decir, se trata de la
exponencial de un movimiento browniano con deriva lineal.
19
Simulación del movimiento browniano
El movimiento browniano puede considerarse como el lı́mite de los paseos
aleatorios. Fijemos un intervalo de tiempo [0, T]. Consideremos n variables
aleatorias ξ1, . . . , ξn independientes, idénticamente distribuidas, centradas y
de varianza T
n
. Formemos las sumas parciales
Rk = ξ1 + · · · + ξk, k = 1, . . . , n.
El Teorema Central del Lı́mite nos dice que cuando n tiende a infinito, la
sucesión Rn converge en ley hacia la ley N(0, T).
Consideremos ahora el proceso estocástico continuo Sn(t) construido por
interpolación lineal a partir de los valores
Sn(
kT
n
) = Rk k = 0, . . . , n.
Es decir, colocamos las sumas parciales R1, R2, . . . en los instantes T
n
, 2T
n
, 3T
n
, . . .
.
Se verifica una versión funcional del Teorema Central del Lı́mite, conocida
con el nombre de Principio de Invariancia de Donsker, que nos dice que la
sucesión de procesos estocásticos Sn(t) convege en ley hacia el movimiento
browniano en [0, T].
También puede hacerse una simulación de las trayectorias brownianas
mediante series de Fourier con coeficientes aleatorios. La representación de
Paley-Wiener del movimiento browniano es
Bt = Z0
t
√
2π
+
2
√
π
∞
X
n=1
Zn
sin(nt/2)
n
, t ∈ [0, 2π],
donde las Zn, n = 0, 1, . . . son variables aleatorias independientes y con
ley N(0, 1). La serie converge uniformemente en [0, 2π], para cada ω, casi
seguramente.
Para utilizar esta fórmula en la simulación de las trayectorias brownianas
debemos elegir el número M de funciones trigonométricas y el número N de
puntos de discretización de las funciones:
Z0
tj
√
2π
+
2
√
π
M
X
n=1
Zn
sin(ntj/2)
n
,
20
donde tj = 2πj
N
, j = 0, 1, . . . , N.
1.4 Esperanza condicionada
La probabilidad condicionada de un suceso A por un suceso B (suponiendo
P(B) > 0) se define como
P(A|B) = P(A∩B)
P(B)
.
Vemos que A y B son independientes sı́ y solo si P(A|B) = P(A). La
probabilidad condicionada P(A|B) representa la probabilidad del suceso A
suponiendo que sabemos que B ha ocurrido. La aplicación
A 7−→ P(A|B)
define una nueva probabilidad en la σ-álgebra F que se concentra en el con-
junto B. Se puede calcular entonces la esperanza condicionada por B de una
variable aleatoria integrable X:
E(X|B) =
1
P(B)
E(X1B),
donde 1B representa la función indicatriz del suceso B definida por
1B(ω) =
½
1 si ω ∈ B
0 si ω /
∈ B
Un concepto más complicado es el condicionamiento por una σ-álgebra
de sucesos. Consideremos una σ-àlgebra B ⊂ F y una variable aleatoria
integrable X.
Una variable aleatoria Z se denomina la esperanza condicionada de la
variable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dos
propiedades siguientes:
• Z es medible respecto de B.
• Para todo suceso A ∈ B
E (Z1A) = E (X1A) .
21
Puede demostrarse que la esperanza condicionada existe y es única casi se-
guramente, de manera que si e
Z fuese otra variable con las mismas propiedades,
entonces Z = e
Z, P-casi seguramente.
En el caso particular en que la σ-álgebra B está generada per una partición
finita {B1, ..., Bm}, entonces E(X|B) es una variable aleatoria elemental que
en cada conjunto Bj toma el valor constante E(X|Bj), es decir,
E(X|B) =
m
X
j=1
E
¡
X1Bj
¢
P(Bj)
1Bj
.
Reglas para el cálculo de esperanzas condicionadas:
Regla 1 La esperanza condicionada es lineal:
E(aX + bY |B) = aE(X|B) + bE(Y |B)
Regla 2 La variable y su esperanza condicionada tienen la misma esperanza:
E (E(X|B)) = E(X)
Esta propiedad es una consecuencia inmediata de la definición, tomando
A = Ω.
Regla 3 Si la variable aleatoria X y la σ-álgebra B son independientes,
entonces E(X|B) = E(X).
En efecto, para todo suceso A ∈ B tendremos
E (X1A) = E (X)E(1A) = E(E(X)1A).
Regla 4 Si X es B-medible, entonces E(X|B) = X.
Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces
E(ZX|B) = ZE(X|B).
Es decir, las variables aleatorias B-medibles se comportan como con-
stantes y pueden sacarse fuera de la esperanza condicionada.
Regla 6 Si C ⊂ B, entonces
E (E(X|B)|C) = E (E(X|C)|B) = E(X|C)
22
Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es B-
medible y X es independiente de B. Consideremos una función h(x, z)
tal que h(X, Z) es integrable. Entonces, se tiene
E (h(X, Z)|B) = E (h(X, z)) |z=Z
Es decir, primero calculamos la esperanza E (h(X, z)) para un valor
arbitrario z de la variable Z y luego substituimos z por Z.
La esperanza condicionada tiene propiedades similares a la esperanza or-
dinaria. Por ejempo se cumple la siguiente propiedad de monotonı́a:
X ≤ Y ⇒ E(X|B) ≤ E(Y |B),
que implica la desigualdad |E(X|B) | ≤ E(|X| |B). También se cumple la
desigualdad de Jensen: Si ϕ es una función convexa tal que E(|ϕ(X)|) < ∞,
entonces
ϕ (E(X|B)) ≤ E(ϕ(X)|B). (7)
En particular, si tomamos ϕ(x) = |x|p
con p ≥ 1, se obtiene
|E(X|B)|p
≤ E(|X|p
|B),
por lo tanto, tomando esperanzas, deducimos que si E(|X|p
) < ∞, entonces,
E(|E(X|B)|p
) < ∞, y
E(|E(X|B)|p
) ≤ E(|X|p
).
Si la σ-álgebra B está generada por las variables aleatorias Y1, . . . , Ym,
entonces, la esperanza condicionada se representa por E(X|Y1, . . . , Ym) y
es una cierta función g(Y1, . . . , Ym) de estas variables. En particular, si las
variables X, Y1, . . . , Ym tienen una ley conjunta con densidad f(x, y1, . . . , ym),
entonces, la esperanza condicionada se puede calcular como la esperanza de
la densidad condicionada:
f(x|y1, . . . , ym) =
f(x, y1, . . . , ym)
R +∞
−∞
f(x, y1, . . . , ym)dy1 · · · dym
,
es decir,
E(X|Y1, . . . , Ym) =
Z +∞
−∞
xf(x|Y1, . . . , Ym)dx.
23
En el caso en que la σ-álgebra B esté generada por un conjunto infinito
de variables aleatorias {Yj}, escribiremos también
E(X|B) = E(X| {Yj}),
pero el cálculo no se puede efectuar mediante una fórmula como la anterior
y necesitaremos utilizar las reglas que hemos introducido antes.
Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt, t ≥
0}. Para cada instante t, definimos la σ-álgebra Ft generada por las variables
aleatorias {Bs, s ≤ t}. La σ-álgebra Ft contiene la historia del movimiento
browniano hasta el instante t. Esto quiere decir que:
i) Los sucesos F de Ft serán conocidos (se sabrá si han ocurrido o no) en el
instante t.
ii) El valor de una variable aleatoria X(ω) medible respecto de la σ-álgebra
Ft será una función de la trayectoria del movimiento browniano
{Bs(ω), s ∈ [0, t]} .
Observemos que Fs ⊂ Ft si s ≤ t, es decir, la familia de σ-álgebras
{Ft, t ≥ 0} es creciente. Diremos que {Ft, t ≥ 0} es una filtración en el es-
pacio de probabilidad (Ω, F, P).
Queremos calcular
E(Bt|Fs) = E(Bt|Br, r ≤ s).
• Si s ≥ t, la variable Bt es Fs-medible, y por la Regla 4 obtenemos
E(Bt|Fs) = Bt.
• Si s < t, por la propiedad de linealidad (Regla 1):
E(Bt|Fs) = E(Bt − Bs + Bs|Fs)
= E(Bt − Bs |Fs) + E( Bs|Fs).
Como Bt − Bs es independiente de Fs, la Regla 3 nos da
E(Bt − Bs |Fs) = E(Bt − Bs ) = 0,
y, por lo tanto, obtenemos
E(Bt|Fs) = Bs. (8)
24
El conjunto de las variables aleatorias Z que son medibles respecto de una
σ-álgebra B y que son de cuadrado integrable (E(Z2
) < ∞), lo representare-
mos por L2
(Ω, B, P). Puede demostrarse que L2
(Ω, F, P) es un espacio de
Hilbert con el producto escalar
hZ, Y i = E(ZY ),
y que L2
(Ω, B, P) es un subespacio cerrado de L2
(Ω, F, P).
En este contexto, si X es una variable tal que E(X2
) < ∞, la esperanza
condicionada E(X|B) es la variable del espacio L2
(Ω, B, P) más próxima a
X en media cuadrática:
E
£
(X − E(X|B))2¤
= min
Z∈L2(Ω,B,P)
E
£
(X − Z)2¤
. (9)
Es decir, E(X|B) es la proyección de X en el subespacio L2
(Ω, B, P).
Desde el punto de vista de la teorı́a de la estimación, la esperanza condi-
cionada E(X|B) es el mejor predictor de la variable X a partir de la σ-álgebra
B (estimador óptimo).
Demostración de (9): Sea X una variable tal que E(X2
) < ∞. La
desigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B)
también es de cuadrado integrable ya que
E
¡
(E(X|B))2¢
≤ E
¡
E(X2
|B)
¢
= E(X2
).
La regla 5 nos permite demostrar que la diferencia X − E(X|B) es ortogonal a
L2
(Ω, B, P). En efecto, si Z es una variable de L2
(Ω, B, P) tendremos
E [(X − E(X|B))Z] = E(XZ) − E(E(X|B)Z)
= E(XZ) − E(E(XZ|B)) = 0.
Finalmente, esta ortogonalidad implica que
E
£
(X − Y )2¤
= E
£
(X − E(X|B))2¤
+ E
£
(E(X|B) − Z)2¤
,
de lo que se deduce (9). ¤
Ejercicios
25
1.1 Supongamos que {Hi, i ∈ I} es una familia de σ-álgebras en un conjunto
Ω. Demostrar que
H = ∩{Hi, i ∈ I}
es también una σ-álgebra.
1.2 Supongamos que X es una variable aleatoria real tal que
M = E[exp(k|X|)] < ∞
para un cierto k > 0. Probar que P(|X| > λ) ≤ Me−kλ
, para todo
λ ≥ 0.
1.3 Sea (Ω, F, P) un espacio de probabilidad y consideremos una sucesión
de sucesos A1, A2, . . . tales que
∞
X
k=1
P(Ak) < ∞.
Demostrar el lema de Borel-Cantelli:
P (∩∞
m=1 ∪∞
k=m Ak) = 0,
es decir, la probabilidad que ocurran infinitos sucesos de la sucesión es
nula.
1.4 Sea Z una variable aleatoria con ley N(0, σ2
). A partir de la fórmula
E(eλZ
) = e
1
2
λ2
σ2
,
y desarrollando en serie de potencias la función exponencial deducir
que para todo k ≥ 1
E(Z2k
) =
(2k)!
2kk!
σ2k
,
E(Z2k−1
) = 0.
1.5 Sea Z una variable aleatoria con ley de Poisson de parámetro λ. Com-
probar que la función caracterı́stica de Z vale
ϕZ(t) = exp
£
λ
¡
eit
− 1
¢¤
.
Como aplicación calcular E(Z2
), Var(Z) y E(Z3
).
26
1.6 Sea (Ω, F, P) = ([0, ∞), B[0,∞), µ), donde µ es una probabilidad en [0, ∞)
con función de distribución continua. Consideremos en este espacio de
probabilidad los procesos estocásticos
Xt(ω) =
½
1 si t = ω
0 si t 6= ω
Yt(ω) = 0.
Comprobar que estos procesos tienen las mismas distribuciones en di-
mensión finita, pero las trayectorias del proceso X son todas discontin-
uas.
1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 ≥ 0. De-
mostrar que el proceso
n
e
Bt = Bt0+t − Bt0 , t ≥ 0
o
es también un movimiento browniano.
1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular
P (|Bt| < ρ)
donde ρ > 0.
1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una
matriz U cuadrada de dimensión n, ortogonal (es decir, UU0
= I).
Demostrar que el proceso
e
Bt = UBt
es también un movimiento browniano.
1.10 Calcular la media y la autocovarianza del movimiento browniano geométrico.
Es un proceso gaussiano?
27
2 Integración estocástica
Supongamos que {Bt, t ≥ 0} es un movimiento browniano definido en un es-
pacio de probabilidad (Ω, F, P). Consideremos la familia creciente {Ft, t ≥ 0}
de σ-álgebras generadas por este proceso. Supondremos además que Ft con-
tiene los conjuntos de probabilidad cero. Esto significa que Ft es la mı́nima
σ-álgebra que contiene los conjuntos de la forma
{Bs ∈ A} ∪ N
donde s ∈ [0, t], A pertenece a la σ-álgebra de Borel BR, y N es un conjunto
de probabilidad cero.
Diremos que un proceso estocástico {ut, u ≥ 0} es adaptado (a la familia
de σ-álgebras Ft) si para cada t la variable aleatoria ut es Ft-medible.
La inclusión de los sucesos de probabilidad cero en cada σ-álgebra Ft
tiene las siguientes consecuencias interesantes:
a) Toda versión de un proceso adaptado es también adaptado.
b) La familia de σ-álgebras es continua por la derecha, es decir, para todo
t ≥ 0
∩s>tFs = Ft.
Demostración de b): Consideremos las σ-álgebras Ft
= σ{Br − Bt, r ≥
s}. Si B ∈ ∩s>tFs, la σ-álgebra generada por B y por Ft , es independiente de
Ft+ 1
n para todo n. Por tanto, σ(B, Ft) será independiente de Ft
, y tendemos
E(1B|Ft) = E(1B|Ft ∨ Ft
) = 1B,
de lo que se deduce 1B ∈ Ft. ¤
La σ-álgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto
implica que las variables aleatorias F0-medibles serán constantes, casi segu-
ramente.
Nuestro objetivo es la definición de integrales estocásticas de la forma
R T
0
utdBt .
Una posibilidad consiste en utilizar la definición de integral de Riemann
Stieltjes:
28
Consideremos una partición del intervalo [0, T]:
τn : 0 = t0 < t1 < · · · < tn−1 < tn = T
ası́ como una partición intermedia:
σn : ti ≤ sileqti+1 , i = 0, . . . , n − 1.
Dadas dos funciones f y g en el intervalo [0, T], la integral de Riemann
Stieltjes
R T
0
fdg se define como el lı́mite
lim
n→∞
n
X
i=1
f(si−1)∆gi
cuando supi(ti − ti−1)
n→∞
−→ 0, suponiendo que este lı́mite existe y es indepen-
diente de la sucesión de particiones τn y de sus particiones intermedias σn,
con la notación ∆gi = g(ti) − g(ti−1).
Se sabe que la integral de Riemann Stieltjes
R T
0
fdg existe si la función f
es continua y la función g tiene variación total acotada, es decir:
sup
τ
X
i
|∆gi| < ∞.
Como las trayectorias del movimiento browniano tienen variación total
infinita (véase (6)) no podemos utilizar este criterio para asegurar que la
integral de Riemann-Stieltjes
R T
0
ut(ω)dBt(ω) existe para cada ω, si u es un
proceso arbitrario con trayectorias continuas.
Obsevemos, si embargo, que si las trayectorias del proceso u son difer-
enciables con derivadas acotadas, entonces, la integral de Riemann Stielt-
jes
R T
0
ut(ω)dBt(ω) existe y puede calcularse mediante una integración por
partes:
R T
0
utdBt = uT BT −
R T
0
u0
tBtdt.
En este apartado presentaremos una construcción de la integral
R T
0
utdBt
mediante un procedimiento global de tipo probabilı́stico. En primer lugar
definiremos la clase de procesos que integraremos:
Designaremos por L2
a,T el conjunto de los procesos estocásticos
u = {ut, t ∈ [0, T]}
tales que:
29
a) Para cada t ∈ [0, T], la aplicación (s, ω) −→ us(ω) definida en [0, t] × Ω
es medible respecto de la σ-álgebra producto B[0,t] × Ft.
b) E
³R T
0
u2
t dt
´
< ∞.
Un proceso que verifica la condición a) se dice que es progresivamente
medible. En general, que un proceso estocástico u sea medible significa que la
función de dos variables (s, ω) −→ us(ω) es medible en la σ-álgebra producto
B[0,T]×F. La propiedad a) require la medibilidad de la restricción del proceso
u a cada conjunto [0, t] × Ω. Esta propiedad implica que el proceso u sea
adaptado, ya que si una función es medible en un espacio producto, al fijar
una coordenada resulta medible como función de la segunda coordenada. Por
otra parte, la propiedad a) es esencial para garantizar que variables aleatorias
del tipo
R t
0
usds sean Ft-medibles.
La condición b) significa que el momento de segundo orden es integrable
en [0, T], ya que, el teorema de Fubini nos permite escribir
E
µZ T
0
u2
t dt
¶
=
Z T
0
E
¡
u2
t
¢
dt.
La propiedad b) nos dice que el proceso u como función de las dos variables
(t, ω) pertenece al espacio L2
([0, T] × Ω).
Definiremos la integral estocástica
R T
0
utdBt para procesos u de la clase
L2
a,T como el lı́mite en L2
(Ω) de la integral de procesos elementales. Por
definición un proceso u de L2
a,T es elemental si se puede expresar de la forma
ut =
n
X
j=1
φj1(tj−1,tj](t), (10)
donde 0 = t0 < t1 < · · · < tn = T y las φj son variables aleatorias de
cuadrado integrable Ftj−1
-medibles.
Si u es un proceso elemental de la forma (10) se define la integral es-
tocástica de u respecto del movimiento browniano B como
Z T
0
utdBt =
n
X
j=1
φj
¡
Btj
− Btj−1
¢
. (11)
30
La integral estocástica definida en el espacio E de los procesos elementales
tiene las siguiente propiedad de isometria:
E
·³R T
0
utdBt
´2
¸
= E
³R T
0
u2
t dt
´
(12)
Demostración de la isometrı́a: Pongamos ∆Bj = Btj
−Btj−1
. Entonces
E
¡
φiφj∆Bi∆Bj
¢
=
½
0 si i 6= j
E
¡
φ2
j
¢
(tj − tj−1) si i = j
ya que si i < j las variables aleatorias φiφj∆Bi y ∆Bj son independientes y si
i = j las variables aleatorias φ2
i y (∆Bi)2
son independientes. Por lo tanto se
obtiene
E
µZ T
0
utdBt
¶2
=
n
X
i,j=1
E
¡
φiφj∆Bi∆Bj
¢
=
n
X
i=1
E
¡
φ2
i
¢
(ti − ti−1)
= E
µZ T
0
u2
t dt
¶
.
¤
La extensión de la integral estocástica a todos los procesos de la clase
L2
a,T se basa en el siguiente resultado de aproximación:
Lema 4 Si u es un proceso de la clase L2
a,T existe una sucesión de procesos
elementales u(n)
tales que
lim
n→∞
E
µZ T
0
¯
¯
¯ut − u
(n)
t
¯
¯
¯
2
dt
¶
= 0. (13)
Demostración: La demostración de este resultado la haremos en dos etapas:
1. Supongamos que el proceso u es continuo en media cuadrática. En tal caso,
podemos tomar la sucesión aproximadora
u
(n)
t =
n
X
j=1
utj−1
1(tj−1,tj](t),
31
siendo tj = jT
n
. La continuidad en media cuadrática del proceso u nos
garantiza que
E
µZ T
0
¯
¯
¯ut − u
(n)
t
¯
¯
¯
2
dt
¶
=
Z T
0
E
µ¯
¯
¯ut − u
(n)
t
¯
¯
¯
2
¶
dt
≤ T sup
|t−s|≤T/n
E
¡
|ut − us|2
¢
converge hacia cero cuando n tiende a infinito.
2. Supongamos que u es un proceso arbitrario de la clase L2
a,T . En tal caso,
existe una sucesión de procesos v(n)
, pertenecientes a la clase L2
a,T , continuos
en media cuadrática y tales que
lim
n→∞
E
µZ T
0
¯
¯
¯ut − v
(n)
t
¯
¯
¯
2
dt
¶
= 0. (14)
En efecto, definimos
v
(n)
t = n
Z t
t− 1
n
usds = n
µZ t
0
usds −
Z t
0
us− 1
n
ds
¶
,
con la convención u(s) = 0 si s < 0. Estos procesos son continuos en media
cuadrática (también tienen trayectorias continuas), y pertenecen a la clase
L2
a,T , debido a la propiedad a). Además se cumple (14) ya que para cada
(t, ω) tenemos
Z T
0
¯
¯u(t, ω) − v(n)
(t, ω)
¯
¯2
dt
n→∞
−→ 0
(véase Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia
dominada en el espacio producto [0, T] × Ω ya que
Z T
0
¯
¯v(n)
(t, ω)
¯
¯2
dt ≤
Z T
0
|u(t, ω)|2
dt.
¤
Definición 5 Si u es un proceso de la clase L2
a,T , la integral estocástica se
define como el lı́mite en L2
(Ω)
Z T
0
utdBt = lim
n→∞
Z T
0
u
(n)
t dBt, (15)
donde u(n)
es una sucesión de procesos elementales tales que cumplen (13).
32
Que el lı́mite (15) existe es debido a que la sucesión de variables aleato-
rias
R T
0
u
(n)
t dBt es de Cauchy en el espacio L2
(Ω), debido a la propiedad de
isometrı́a (12):
E
"µZ T
0
u
(n)
t dBt −
Z T
0
u
(m)
t dBt
¶2
#
= E
µZ T
0
³
u
(n)
t − u
(m)
t
´2
dt
¶
≤ 2E
µZ T
0
³
u
(n)
t − ut
´2
dt
¶
+2E
µZ T
0
³
ut − u
(m)
t
´2
dt
¶
n,m→∞
→ 0.
También puede demostrarse que el lı́mite (15) no depende de la sucesión u(n)
siempre que esta sucesión cumpla (13).
La integral estocástica tiene las siguientes propiedades importantes:
1.- Isometrı́a:
E
"µZ T
0
utdBt
¶2
#
= E
µZ T
0
u2
t dt
¶
.
2.- Media cero:
E
·µZ T
0
utdBt
¶¸
= 0.
3.- Linealidad:
Z T
0
(aut + bvt) dBt = a
Z T
0
utdBt + b
Z T
0
vtdBt.
4.- Localidad: Se cumple
R T
0
utdBt = 0 casi seguramente, en el conjunto
G =
nR T
0
u2
t dt = 0
o
.
La propiedad de localidad es una consecuencia de que en el conjunto G
la sucesión aproximadora
u
(n,m,N)
t =
n
X
j=1
m
"Z (j−1)T
n
(j−1)T
n
− 1
m
usds
#
1((j−1)T
n
,jT
n ](t)
se anula.
33
Ejemplo 12 Z T
0
BtdBt =
1
2
B2
T −
1
2
T.
Como el proceso Bt es continuo en media cuadrática podemos tomar como
sucesión aproximadora
u
(n)
t =
n
X
j=1
Btj−1
1(tj−1,tj](t),
donde tj = jT
n
, y tendremos
Z T
0
BtdBt = lim
n→∞
n
X
j=1
Btj−1
¡
Btj
− Btj−1
¢
=
1
2
lim
n→∞
³
B2
tj
− B2
tj−1
´
−
1
2
lim
n→∞
n
X
j=1
¡
Btj
− Btj−1
¢2
=
1
2
B2
T −
1
2
T. (16)
Si xt es una función derivable, las reglas del cálculo diferencial e integral nos
dicen que Z T
0
xtdxt =
Z T
0
xtx0
tdt =
1
2
¡
x2
T − x2
0
¢
.
Observemos que en el caso del movimiento browniano nos aparece un término
adicional igual a −1
2
T.
Ejemplo 13 Consideremos una función determinista g tal que
R T
0
g(s)2
ds <
∞. En este caso, la integral estocástica
R T
0
gsdBs es una variable aleatoria
con ley normal
N(0,
Z T
0
g(s)2
ds).
34
2.1 Integrales estocásticas indefinidas
Consideremos un proceso u de la clase L2
a,T . El proceso u1[0,t] también
pertenece a L2
a,T , y por lo tanto, podemos definir su integral:
Z t
0
usdBs :=
Z T
0
us1[0,t](s)dBs.
De esta forma hemos construido un nuevo proceso estocástico
½Z t
0
usdBs, 0 ≤ t ≤ T
¾
que es la integral indefinida del proceso u respecto de B. En este apartado
estudiaremos las propiedades de las integrales indefinidas. En primer lugar,
debido a la linealidad de la integral estocástica, tenemos la propiedad de
aditividad siguiente:
Z b
a
usdBs +
Z c
b
usdBs =
Z c
a
usdBs,
si a ≤ b ≤ c.
Si a < b y A es un suceso de la σ-álgebra Fa entonces,
Z b
a
1AusdBs = 1A
Z b
a
usdBs.
En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable
acotada y Fa-medible.
Una propiedad importante de las integrales indefinidas es la propiedad de
martingala.
Definición 6 Un proceso estocástico {Mt, t ≥ 0} diremos que es una martin-
gala respecto de una familia creciente de σ-álgebras {Mt, t ≥ 0}, contenidas
en F, si se cumplen las propiedades siguientes:
(i) Mt es medible respecto de Mt, para todo t ≥ 0.
(ii) E(|Mt|) < ∞ para todo t ≥ 0.
(iii) E(Mt|Ms) = Ms, si s ≤ t.
35
La propiedad (iii) puede expresarse de forma equivalente como sigue
E(Mt − Ms|Ms) = 0
y ello significa que la esperanza condicionada de los incrementos de una mar-
tingala es cero. Las martingalas se introduden para modelizar las ganancias
de un jugador que juega una partida equitativa en un juego de azar. En he-
cho de que la ganancia esperada tenga valor medio cero representa el carácter
equitativo del juego.
De forma análoga se puede introducir el concepto de martingala para un
proceso {Mt, 0 ≤ t ≤ T } respecto de una familia creciente de σ-álgebras
{Mt, 0 ≤ t ≤ T }. En tal caso, la propiedad de martingala nos dice que
Mt = E(MT |Mt).
Fijémonos en que la variable terminal MT determina la martingala ya que
las variables Mt se obtinenen tomando la esperanza condicionada de MT
respecto de la familia creciente de σ-álgebras.
Como consecuencia de la propiedad de martingala tendremos que la es-
peranza de una martingala es consante:
E(Mt) = E(M0).
Ejemplo 14 Si Bt es un movimiento browniano y Ft es la filtración generada
por Bt, entonces, los procesos:
Bt
B2
t − t
exp(aBt −
a2
t
2
)
son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido
demostrada en (8). Para B2
t − t, la propiedad de martingala se deduce del
siguiente cálculo de esperanzas condicionadas, si s < t
E(B2
t |Fs) = E((Bt − Bs + Bs)2
|Fs)
= E((Bt − Bs )2
|Fs) + 2E((Bt − Bs ) Bs|Fs)
+E(B2
s |Fs)
= E (Bt − Bs )2
+ 2BsE((Bt − Bs ) |Fs) + B2
s
= t − s + B2
s .
36
Finalmente, para el proceso exp(aBt − a2t
2
) tendremos
E(eaBt−a2t
2 |Fs) = eaBs
E(ea(Bt−Bs)−a2t
2 |Fs)
= eaBs
E(ea(Bt−Bs)−a2t
2 )
= eaBs
e
a2(t−s)
2
−a2t
2 = eaBs−a2s
2 .
Las martingalas con trayectorias continuas cumplen la desigualdad fun-
damental siguiente debida a Doob:
Desigualdad de Doob: Supongamos que {Mt, 0 ≤ t ≤ T } es una martin-
gala con trayectorias continuas. Entonces, para todo p ≥ 1 y todo λ > 0 se
cumple
P
µ
sup
0≤t≤T
|Mt| > λ
¶
≤
1
λp E(|MT |p
).
Obsevamos que se trata de una generalización de la desigualdad de Tcheby-
chev. Como consecuencia de la desigualdad de Doob puede demostrarse que
las integrales estocásticas indefinidas tienen trayectorias continuas.
Proposición 7 Supongamos que u es un proceso de la clase L2
a,T . Entonces,
la integral estocástica
R t
0
usdBs tiene una versión con trayectorias continuas.
Demostración: Consideremos una sucesión de procesos elementales u(n)
tal
que
lim
n→∞
E
µZ T
0
¯
¯
¯ut − u
(n)
t
¯
¯
¯
2
dt
¶
= 0.
Pongamos
I(t) =
Z t
0
usdBs,
In(t) =
Z t
0
u(n)
s dBs.
El proceso In tiene trayectorias continuas y es una martingala respecto de la familia
creciente de σ-álgebras Ft. En efecto, si s < t y φj es el valor del proceso
37
estocástico u(n)
cada el intevalo (tj−1, tj] tendremos
E (In(t) − In(s)|Fs) = E


X
s≤tj−1≤tj≤t
φj∆Bj|Fs


=
X
s≤tj−1≤tj≤t
E
¡
E
¡
φj∆Bj|Ftj−1
¢
|Fs
¢
=
X
s≤tj−1≤tj≤t
E
¡
φjE
¡
∆Bj|Ftj−1
¢
|Fs
¢
= 0.
Por consiguiente, la diferencia In − Im será una martingala, y la desigualdad de
Doob con p = 2 nos permite escribir
P
µ
sup
0≤t≤T
|In(t) − Im(t)| > λ
¶
≤
1
λ2 E
¡
|In(T) − Im(T)|2
¢
=
1
λ2 E
µZ T
0
¯
¯
¯u
(n)
t − u
(m)
t
¯
¯
¯
2
dt
¶
n,m→∞
−→ 0.
Podemos elegir una sucesión creciente de números naturales nk, k = 1, 2, . . . tal
que
P
µ
sup
0≤t≤T
|Ink+1
(t) − Ink
(t)| > 2−k
¶
≤ 2−k
.
Los sucesos Ak :=
©
sup0≤t≤T |Ink+1
(t) − Ink
(t)| > 2−k
ª
tienen probabilidades
que forman una serie convergence, es decir,
∞
X
k=1
P(Ak) < ∞.
El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un número
infinito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidad
cero tal que para todo ω /
∈ N podemos encontrar un ı́ndice k1(ω) tal que si k ≥
k1(ω)
sup
0≤t≤T
|Ink+1
(t, ω) − Ink
(t, ω)| ≤ 2−k
.
Por lo tanto, si ω /
∈ N, la sucesión Ink
(t, ω) es uniformemente convergente en
[0, T] hacia una función continua Jt(ω). Por otra parte, sabemos que para cada
t ∈ [0, T], Ink
(t) converge en media cuadrática hacia
R t
0
usdBs. Por consiguiente,
38
Jt(ω) =
R t
0
usdBs casi seguramente, para todo t ∈ [0, T], y ello nos dice que la
integral indefinida tiene una versión con trayectorias continuas. ¤
La integral indefinida Mt =
R t
0
usdBs es una martingala respecto de la
familia de σ-álgebras Ft y se cumple la desigualdad siguiente, para todo
λ > 0,
P
µ
sup
0≤t≤T
|Mt| > λ
¶
≤
1
λ2 E
µZ T
0
u2
t dt
¶
. (17)
En efecto, la propiedad de martingala de
R t
0
usdBs de deduce de la propiedad
de martingala de las integrales indefinidas
R t
0
u
(n)
s dBs que hemos obtenido en
la demostración anterior. La desigualdad (17) se deduce de la desigualdad
de Doob y de la propiedad de isometrı́a de la integral estocástica.
La martingala Mt =
R t
0
usdBs tiene trayectorias continuas, pero son ir-
regulares como las del movimiento browniano. En particular, las trayectorias
de las integrales indefinidas tienen variación cuadrática finita como nos dice
la propiedad siguiente:
Proposición 8 (Variación cuadrática ) Sea u un proceso de la clase L2
a,T .
Entonces,
n
X
j=1
ÃZ tj
tj−1
usdBs
!2
L1(Ω)
−→
Z t
0
u2
sds
cuando n tiende a infinito, donde tj = jt
n
.
Demostración: Observemos en primer lugar que si el proceso u es elemen-
tal, el resultado es una consecuencia de la propiedad de variación cuadrática del
movimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valor
constante φ aparecerá una contribución del tipo
φ2
X
a≤tj−1≤tj≤b
(∆Bj)2 n→∞
−→ φ2
(b − a) .
Supongamos que u es un proceso arbitrario de la clase L2
a,T . Existe una sucesión
u(k)
de procesos elementales tal que
lim
k→∞
E
µZ T
0
¯
¯
¯ut − u
(k)
t
¯
¯
¯
2
dt
¶
= 0.
39
Utilizando la notación
Vn(u) =
n
X
j=1
ÃZ tj
tj−1
usdBs
!2
tendremos
E
µ¯
¯
¯
¯Vn(u) −
Z t
0
u2
sds
¯
¯
¯
¯
¶
≤ E
¡¯
¯Vn(u) − Vn(u(k)
)
¯
¯
¢
+E
µ¯
¯
¯
¯ Vn(u(k)
) −
Z t
0
¡
u(k)
s
¢2
ds
¯
¯
¯
¯
¶
+E
µ¯
¯
¯
¯
Z t
0
¡
u(k)
s
¢2
ds −
Z t
0
u2
sds
¯
¯
¯
¯
¶
.
El primer sumando puede acotarse como sigue, utilizando la desigualdad de
Schwartz y la isometrı́a de la integral estocástica:
E
¡¯
¯Vn(u) − Vn(u(k)
)
¯
¯
¢
= E
" n
X
j=1
ÃZ tj
tj−1
¡
us + u(k)
s
¢
dBs
! ÃZ tj
tj−1
¡
us − u(k)
s
¢
dBs
!#
≤
£
E
¡
Vn(u + u(k)
)
¢
E
¡
Vn(u − u(k)
)
¢¤1/2
=
·
E
µZ t
0
¡
us + u(k)
s
¢2
ds
¶
E
µZ t
0
¡
us − u(k)
s
¢2
ds
¶¸1/2
.
Observemos que la acotación obtenida no depende de n y converge hacia cero
cuando k tiende a infinito. Por tanto, fijado ε > 0 existe un k0 tal que
E
µ¯
¯
¯
¯Vn(u) −
Z t
0
u2
sds
¯
¯
¯
¯
¶
≤ ε + E
µ¯
¯
¯
¯ Vn(u(k)
) −
Z t
0
¡
u(k)
s
¢2
ds
¯
¯
¯
¯
¶
para todo k ≥ k0 y para todo n. Finalmente basta tomar el lı́mite n → ∞. ¤
2.2 Tiempos de paro
Un tiempo de paro relativo a una familia creciente de σ-álgebras {Ft, t ≥ 0}
es una variable aleatoria
τ : Ω −→ [0, ∞]
40
tal que para todo t ≥ 0, {τ ≤ t} ∈ Ft. Es decir, podemos decidir si nos
paramos o no antes de un instante t a partir de la información contenida en
Ft.
Ejemplo 15 El tiempo de llegada de un proceso continuo y adaptado {Xt, t ≥ 0}
a un nivel a definido como
τa := inf{t > 0 : Xt = a}
es un tiempo de paro. En efecto,
{τa ≤ t} =
½
sup
0≤s≤t
Xs ≥ a
¾
=
½
sup
0≤s≤t,s∈Q
Xs ≥ a
¾
∈ Ft.
Más generalmente, el tiempo de llegada de un proceso n-dimensional con-
tinuo y adaptado {Xt, t ≥ 0} a un conjunto de Borel U de Rn
es un tiempo
de paro siempre que la familia de σ-álgebras {Ft, t ≥ 0} sea continua por la
derecha.
Podemos asociar a todo tiempo de paro τ la σ-álgebra Fτ formada por
los conjuntos G tales que
G ∩ {τ ≤ t} ∈ Ft (18)
para todo t ≥ 0.
Los tiempos de paro satisfacen las dos propiedades siguientes:
• Si {Mt, t ∈ [0, T]} es una martingala continua y y τ es un tiempo de
paro acotado por T, entonces
E(MT |Fτ ) = Mτ . (19)
• Si u es un proceso de la clase L2
a,T y τ es un tiempo de paro acotado por
T, el proceso u1[0,τ] también pertenece a L2
a,T y se verifica la relación
siguiente: Z T
0
ut1[0,τ](t)dBt =
Z τ
0
ut dBt. (20)
41
Demostración de (20): La demostración se hará en dos etapas:
1. Supongamos primero que el proceso u es de la forma ut = F1(a,b](t),
donde 0 ≤ a < b ≤ T y F ∈ L2
(Ω, Fa, P). Los tiempos de paro
τn =
P2n
i=1 ti
n1Ai
n
, donde ti
n = iT
2n , Ai
n =
n
(i−1)T
2n
≤ τ < iT
2n
o
forman una
sucesión decreciente que converge hacia τ. Para cada n tendremos
Z τn
0
ut dBt = F(Bb∧τn − Ba∧τn )
Z T
0
ut1[0,τn](t)dBt =
2n
X
i=1
1Ai
n
Z T
0
1(a∧ti
n,b∧ti
n](t)FdBt
=
2n
X
i=1
1Ai
n
F(Bb∧ti
n
− Ba∧ti
n
)
= F(Bb∧τn − Ba∧τn ).
Tomando el lı́mite cuando n tiende a infinito se deduce la igualdad en el
caso de un proceso elemental.
2. En el caso general, basta con aproximar el proceso u por procesos elemen-
tales. La convergencia del miembro de la derecha de (20) se deduce de la
desigualdad maximal de Doob. ¤
La siguiente aplicación de los tiempos de parada permite el cálculo de la
ley del instante de llegada del movimiento browniano a un cierto nivel.
Ejemplo 16 Sea Bt un movimiento browniano y Ft la filtración generada
por Bt. Consideremos el tiempo de paro
τa = inf{t ≥ 0 : Bt = a},
donde a > 0. Consideremos la martingala Mt = eλBt−
λ2t
2 que cumple
E(Mt) = E(M0) = 1.
La propiedad (19) nos permite obtener
E(Mτa∧N ) = 1,
42
para todo N ≥ 1. Observemos que
Mτa∧N = exp
µ
λBτa∧N −
λ2
(τa ∧ N)
2
¶
≤ eaλ
.
Por otra parte,
limN→∞ Mτa∧N = Mτa si τa < ∞
limN→∞ Mτa∧N = 0 si τa = ∞
y el teorema de convergencia dominada implica
E
¡
1{τa<∞}Mτa
¢
= 1,
es decir
E
µ
1{τa<∞} exp
µ
−
λ2
τa
2
¶¶
= e−λa
.
Haciendo λ ↓ 0 obtenemos
P (τa < ∞ ) = 1,
y, por consiguiente
E
µ
exp
µ
−
λ2
τa
2
¶¶
= e−λa
.
Con el cambio de variable λ2
2
= α, tendremos
E ( exp (−ατa)) = e−
√
2αa
. (21)
A partir de esta expresión puede calcularse la densidad de probabildad de la
variable τa:
P (τa ≤ t ) =
Z t
0
ae−a2/2s
√
2πs3
ds.
Por otra parte, la esperanza de τa puede obtenerse calculando la derivada en
α = 0 de la expresión (21):
E ( τa exp (−ατa)) =
ae−
√
2αa
√
2α
,
y haciendo α ↓ 0 se obtiene E(τa) = +∞.
43
2.3 Extensiones de la integral estocástica
La integral estocástica de Itô
R T
0
usdBs puede definirse para clases de pro-
cesos mas amplias que L2
a,T .
A) En primer lugar, podemos substituir la familia creciente de σ-álgebras
Ft por una familia mayor Ht tal que el movimiento browniano Bt sea una
martingala respecto de Ht. En efecto, en todas las demostraciones anteriores
solo se ha utilizado la propiedad
E(Bt − Bs|Fs) = 0.
Como ejemplo de esta situación, consideremos el caso en que F
(n)
t es
la familia creciente de σ-álgebras generadas por un movimiento browniano
n-dimensional Bt. Cada componente Bk(t) es una martingala respecto de
F
(n)
t , pero F
(n)
t no es la familia de σ-álgebras generada por Bk(t). De esta
forma, con la extensión indicada antes, se pueden definir integrales como
Z T
0
B2(s)dB1(s),
Z T
0
sin(B2
1(s) + B2
1(s))dB2(s).
B) La segunda extensión consiste en substituir la propiedad E
³R T
0
u2
t dt
´
<
∞ por la hipótesis más débil siguiente:
b’) P
³R T
0
u2
t dt < ∞
´
= 1.
La clase de procesos que cumplen las propiedades a) y b’) la designaremos
por La,T . Extenderemos la integral estocástica a la clase La,T mediante un
argumento de localización.
Consideremos un proceso estocástico u de La,T . Para cada n ≥ 1 defini-
mos el tiempo de paro
τn = inf
½
t ≥ 0 :
Z t
0
u2
sds = n
¾
, (22)
donde suponemos que τn = T si
R T
0
u2
sds < n. De esta forma tendremos una
sucesión creciente de tiempos de paro tal que τn ↑ T. Además,
t < τn ⇐⇒
Z t
0
u2
sds < n.
44
Los procesos
u
(n)
t = ut1[0,τn](t)
pertenecen a L2
a,T ya que E
µ
R T
0
³
u
(n)
s
´2
ds
¶
≤ n. Para cada n ≤ m, en el
conjunto {t ≤ τn} se cumple
Z t
0
u(n)
s dBs =
Z t
0
u(m)
s dBs
ya que las trayectorias en el intervalo [0, t] de los procesos u(n)
y u(m)
coinciden
en este conjunto. Por consiguiente, existirá un proceso continuo y adaptado
que denotaremos por
R t
0
usdBs tal que
Z t
0
u(n)
s dBs =
Z t
0
usdBs
si t ≤ τn.
La integral estocástica de procesos de la clase La,T satisface las propiedades
de linealidad y continuidad de trayectorias de la integral indefinida. En cam-
bio, la integral de procesos de la clase La,T puede no tener esperanza ni
varianza finitas.
Proposición 9 Consideremos un proceso u ∈ La,T . Para todo K, δ > 0 se
cumple la desigualdad siguiente:
P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K
¶
≤ P
µZ T
0
u2
sds ≥ δ
¶
+
δ
K2
.
Demostración: Consideremos el tiempos de paro definido por
τn = inf
½
t ≥ 0 :
Z t
0
u2
sds = δ
¾
,
con la convención τn = T si
R T
0
u2
sds < δ.Tendemos
P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K
¶
≤ P
µZ T
0
u2
sds ≥ δ
¶
+P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K,
Z T
0
u2
sds < δ
¶
,
45
por otra parte
P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K,
Z T
0
u2
sds < δ
¶
= P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K, τ = T
¶
= P
µ¯
¯
¯
¯
Z τ
0
usdBs
¯
¯
¯
¯ ≥ K, τ = T
¶
≤
1
K2
E
ï
¯
¯
¯
Z τ
0
usdBs
¯
¯
¯
¯
2
!
=
1
K2
E
µZ τ
0
u2
sds
¶
≤
δ
K2
.
¤
Como consecuencia de la proposición anterior, si u(n)
es una sucesión
de procesos de la clase La,T que converge hacia un proceso u ∈ La,T en
probabilidad: Z T
0
¡
u(n)
s − us
¢2
ds
P
→ 0
entonces, Z T
0
u(n)
s dBs
P
→
Z T
0
usdBs.
2.4 Fórmula de Itô
La fórmula de Itô es la versión estocástica de la clásica regla de la cadena en
el cálculo diferencial ordinario.
Consideremos el ejemplo
Z t
0
BsdBs =
1
2
B2
t −
1
2
t,
que podemos escribir en la forma
B2
t =
Z t
0
2BsdBs + t.
Podemos comprobar que la igualdad es cierta tomando esperanzas y uti-
lizando la propiedad de media nula de la integral estocástica: E(B2
t ) = t. En
notación diferencial podemos escribir
dB2
t = 2BtdBt + dt.
46
Vemos que el proceso estocástico B2
t es la suma de una integral estocástica
y de una función diferenciable. Más generalmente cualquier función f(Bt),
donde f es dos veces continuamente diferenciable, puede expresarse como
una suma de una integral estocástica y de un proceso con trayectorias difer-
enciables. Esto nos lleva a introducir la noción de proceso de Itô que será
una suma de una integral estocástica más una integral ordinaria. La clase
de los procesos de Itô será invariante por transformaciones funcionales reg-
ulares. Designaremos por L1
a,T la clase de los procesos v que satisfacen las
propiedades a) y
b”) P
³R T
0
|vt| dt < ∞
´
= 1.
Definición 10 Un proceso de Itô Xt será un proceso estocástico de la forma
Xt = X0 +
Z t
0
usdBs +
Z t
0
vsds, (23)
donde u pertenece a la clase La,T y v pertenece a la clase L1
a,T .
En notación diferencial escribiremos
dXt = utdBt + vtdt.
Teorema 11 (Fórmula de Itô) Supongamos que X es un proceso de Itô
de la forma (23). Sea f(t, x) una función dos veces derivable respecto de la
variable x y una vez respecto de la variable t, con todas las derivadas parciales
continuas (diremos que f es de clase C1,2
). Entonces el proceso Yt = f(t, Xt)
es también un proceso de Itô con la representación
Yt = f(0, X0) +
Z t
0
∂f
∂t
(s, Xs)ds +
Z t
0
∂f
∂x
(s, Xs)usdBs
+
Z t
0
∂f
∂x
(s, Xs)vsds +
1
2
Z t
0
∂2
f
∂x2
(s, Xs)u2
sds.
1.- En notación diferencial la fórmula de Itô puede escribirse de la forma
df(t, Xt) =
∂f
∂t
(t, Xt)dt +
∂f
∂x
(t, Xt)dXt +
1
2
∂2
f
∂x2
(s, Xs) (dXt)2
,
donde (dXt)2
se calcula mediante la convención
× dBt dt
dBt dt 0
dt 0 0
47
2.- El proceso Yt es un proceso de Itô con la representación
Yt = Y0 +
Z t
0
e
usdBs +
Z t
0
e
vsds,
donde
Y0 = f(0, X0),
e
ut =
∂f
∂x
(t, Xt)ut,
e
vt =
∂f
∂t
(t, Xt) +
∂f
∂x
(t, Xt)vt +
1
2
∂2
f
∂x2
(t, Xt)u2
t .
3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es pre-
cisamente el movimiento browniano Bt, y la fórmula de Itô adopta la
expresión más simple siguiente
f(t, Bt) = f(0, 0) +
Z t
0
∂f
∂x
(s, Bs)dBs +
Z t
0
∂f
∂t
(s, Bs)ds
+
1
2
Z t
0
∂2
f
∂x2
(s, Bs)ds.
4.- En el caso particular en que la función f no depende del tiempo se obtiene
la fórmula
f(Xt) = f(0) +
Z t
0
f0
(Xs)usdBs +
Z t
0
f0
(Xs)vsds +
1
2
Z t
0
f00
(Xs)u2
sds.
La fórmula de Itô se deduce del desarrollo de Taylor hasta el orden dos.
Indicaremos seguidamente, de forma heurı́stica, las ideas principales que con-
ducen a la fórmula de Itô. Supongamos v = 0. Fijemos un instante de tiempo
t > 0.
Consideremos los instantes tj = jt
n
. La fórmula de Taylor hasta el segundo
orden nos da
f(Xt) − f(0) =
n
X
j=1
£
f(Xtj
) − f(Xtj−1
)
¤
=
n
X
j=
f0
(Xtj−1
)∆Xj +
1
2
n
X
j=1
f00
(Xj) (∆Xj)2
, (24)
48
donde ∆Xj = Xtj
− Xtj−1
y Xj es un valor comprendido entre Xtj−1
y Xtj
.
El primer sumando de la expresión anterior converge en probabilidad
hacia
R t
0
f0
(Xs)usdBs, mientras que el segundo sumando converge en proba-
bilidad hacia 1
2
R t
0
f00
(Xs)u2
sds.
Veamos algunos ejemplos de aplicación de la fómula de Itô.
Ejemplo 17 Si f(x) = x2
y Xt = Bt, tendremos
B2
t = 2
Z t
0
BsdBs + t,
ya que f0
(x) = 2x y f00
(x) = 2.
Ejemplo 18 Si f(x) = x3
y Xt = Bt, tendremos
B3
t = 3
Z t
0
B2
s dBs + 3
Z t
0
Bsds,
ya que f0
(x) = 3x2
y f00
(x) = 6x. Más generalmente, si n ≥ 2 es un número
natural,
Bn
t = n
Z t
0
Bn−1
s dBs +
n(n − 1)
2
Z t
0
Bn−2
s ds.
Ejemplo 19 Si f(t, x) = eax−a2
2
t
, Xt = Bt, y Yt = eaBt−a2
2
t
, tendremos
Yt = 1 + a
Z t
0
YsdBs
ya que
∂f
∂t
+
1
2
∂2
f
∂x2
= 0. (25)
Este importante ejemplo nos permite deducir las observaciones siguientes:
1.- Si una función f(t, x) satisface la igualdad (25), entonces, el proceso
estocástico f(t, Bt) será una integral estocástica indefinida (más un
49
término constante), y por lo tanto, será una martingala, suponiendo
que f satisface la propiedad:
E
"Z t
0
µ
∂f
∂x
(s, Bs)
¶2
ds
#
< ∞
2.- La solución de la ecuación diferencial estocástica
dYt = aYtdBt
no es Yt = eaBt
, como en el caso del cálculo diferencial ordinario, sino
Yt = eaBt−a2
2
t
.
Como consecuencia de la fórmula de Itô, podemos deducir la siguiente
fórmula de integración por partes:
Supongamos que f(t) es una función continuamente diferenciable en [0, T].
En tal caso tendremos
Z t
0
fsdBs = f(t)Bt −
Z t
0
Bsf0
sds.
En efecto, aplicando la fórmula de Itô a la función f(t)x se obtiene
f(t)Bt =
Z t
0
fsdBs +
Z t
0
Bsf0
sds.
Veamos seguidamente la versión multidimensional de la fórmula de Itô.
Supongamos que Bt = (B1
t , B2
t , . . . , Bm
t ) es un movimiento browniano m-
dimensional, es decir, las componentes son movimientos brownianos inde-
pendientes. Consideremos un proceso de Itô n-dimensional de la forma





X1
t = X1
0 +
R t
0
u11
s dB1
s + · · · +
R t
0
u1m
s dBm
s +
R t
0
v1
s ds
.
.
.
Xn
t = Xn
0 +
R t
0
un1
s dB1
s + · · · +
R t
0
unm
s dBm
s +
R t
0
vn
s ds
.
En notación diferencial y vectorial podemos escribir
dXt = utdBt + vtdt,
50
donde Xt, vt, son procesos n-dimensionales, y ut es un proceso con valores
en el conjunto de las matrices n × m. Supondremos que las componentes de
u pertenecen a La,T y las de v pertenecen a L1
a,T .
Entonces, si f : [0, ∞)×Rn
→ Rp
es una función de clase C1,2
, el proceso
Yt = f(t, Xt) es también un proceso de Itô con la representación (en notación
diferencial)
dY k
t =
∂fk
∂t
(t, Xt)dt +
n
X
i=1
∂fk
∂xi
(t, Xt)dXi
t
+
1
2
n
X
i,j=1
∂2
fk
∂xi∂xj
(t, Xt)dXi
t dXj
t .
El producto de los diferenciales dXi
t dXj
t se calcula aplicando las reglas sigu-
ientes:
dBi
tdBj
t =
½
0 si i 6= j
dt si i = j
dBi
tdt = 0
(dt)2
= 0.
De esta forma se obtiene
dXi
t dXj
t =
à m
X
k=1
uik
t ujk
t
!
dt = (utu0
t)ij dt.
2.5 Integrales estocásticas de Stratonovich
En las sumas de Riemann-Stieltjes que elegimos para definir la integral es-
tocástica
R t
0
usdBs de un proceso continuo u, se toman siempre los valores
del proceso u en el punto tj−1 de cada intervalo [tj−1, tj] . De esta forma la
integral estocástica tiene media cero y su varianza puede calcularse a partir
de la propiedad de isometrı́a. También, la integral indefinida es una mar-
tingala. El inconveniente de esta elección consiste en que en la regla de la
cadena nos aparece un término correctivo.
La integral de Stratonovich
R T
0
us ◦ dBs se define como el lı́mite en prob-
abilidad de la sucesión
n
X
i=1
1
2
(uti−1
+ uti
)∆Bi,
51
suponiendo ti = iT
n
. Supongamos que el proceso u es un proceso de Itô de la
forma
ut = u0 +
Z t
0
αsdBs +
Z t
0
βsds. (26)
Utilizando la descomposición
1
2
(uti−1
+ uti
)(Bti
− Bti−1
) = uti−1
(Bti
− Bti−1
)
+
1
2
(uti
− uti−1
)(Bti
− Bti−1
),
se obtiene la siguiente fórmula que relaciona las integrales de Itô y de Stratonovich:
Z T
0
us ◦ dBs =
Z t
0
usdBs +
1
2
Z t
0
αsds. (27)
En efecto, las sumas de Riemann-Stieltjes
n
X
i=1
(uti
− uti−1
)(Bti
− Bti−1
)
convergen hacia la integral
Z t
0
dusdBs =
Z t
0
αs (dBs)2
+
Z t
0
βs dsdBs =
Z t
0
αsds.
Puede comprobarse que la integral estocástica de Stratonovich sigue las
reglas del cálculo diferencial ordinario. Es decir, si u es un proceso de la
forma (26) y
Xt = X0 +
Z t
0
us ◦ dBs +
Z t
0
vsds
= X0 +
Z t
0
usdBs +
Z t
0
µ
vs +
1
2
αs
¶
ds,
entonces,
df(Xt) = f0
(Xt)dXt +
1
2
f00
(Xt)(dXt)2
= f0
(Xt)utdBt + f0
(Xt)
µ
vt +
1
2
αt
¶
dt
+
1
2
f00
(Xt)u2
t dt. (28)
52
Por otra parte,
f0
(Xt)utdBt = f0
(Xt)ut ◦ dBt −
1
2
d [f0
(Xt)ut] dBt.
En el cálculo de d [f0
(Xt)ut] dBt hemos de tener en cuenta solo los diferen-
ciales estocásticos de d [f0
(Xt)ut] que son
f0
(Xt)αtdBt + f00
(Xt)u2
t dBt.
Por consiguiente, se obtiene
f0
(Xt)utdBt = f0
(Xt)ut ◦ dBt −
1
2
¡
f0
(Xt)αt + f00
(Xt)u2
t
¢
dt
y substituyendo esta expresión en (28) obtenemos
df(Xt) = f0
(Xt)ut ◦ dBt + f0
(Xt)vtdt
= f0
(Xt) ◦ dXt.
2.6 Tiempo local
Consideremos la función siguiente para cada ε > 0
gε(x) =
(
|x| si |x| ≥ ε
1
2
³
ε + x2
ε
´
si |x| < ε
.
La derivada de esta función vale
g0
ε(x) =
½
sign(x) si |x| ≥ ε
x
ε
si |x| < ε
.
La segunda derivada existe excepto si x = ∓ε y vale
g00
ε (x) =
½
0 si |x| ≥ ε
1
ε
si |x| < ε
.
Siempre que una función sea de clase C2
excepto en un número finito de
puntos y la segunda derivada esté acotada se verifica todavı́a la fórmula de
Itô. Por ello, tendremos
gε(Bt) =
ε
2
+
Z t
0
g0
ε(Bs)dBs +
1
2ε
Z t
0
1(−ε,ε)(Bs)ds.
53
Cuando ε tiende a cero, gε(Bt) converge en media cuadrática hacia |Bt|. Por
otra parte, g0
ε(Bs) converge en L2
([0, t] × Ω) hacia sign(Bs). En efecto,
E
Z t
0
|sign(Bs) − g0
ε(Bs)|
2
ds
≤ 2E
µZ t
0
·
(sign(Bs))2
+
B2
s
ε2
¸
1(−ε,ε)(Bs)ds
¶
≤ 4E
µZ t
0
1(−ε,ε)(Bs)ds
¶
= 4
Z t
0
P(|Bs| < ε)ds
ε↓0
−→ 4
Z t
0
P(|Bs| = 0)ds = 0.
Denotaremos por Lt(0) el lı́mite en media cuadrática de
1
2ε
Z t
0
1(−ε,ε)(Bs)ds =
1
2ε
|{s ∈ [0, t] : |Bs| < ε}|.
De esta forma obtenemos la fórmula de Itô para el valor absoluto del movimiento
browniano, conocida como fórmula de Tanaka:
|Bt| =
Z t
0
sign(Bs)dBs + Lt(0).
Observaciones:
• Más generalmente, para todo x se tiene
|Bt − x| =
Z t
0
sign(Bs − x)dBs + Lt(x).
• El proceso {Lt(x), t ≥ 0, x ∈ R} se denomina el tiempo local del movimiento
browniano. Para cada t ≥ 0, Lt(x) es la densidad de la medida de ocu-
pación, es decir,
Z b
a
Lt(x)dx =
Z t
0
1[a,b](Bs)ds.
Puede demostrarse que existe una versión del tiempo local que es con-
tinua en las dos variables (t, x).
54
• En el caso de una función diferenciable b(t), se tiene
d|b(t)| = sign(b(s))b0
(s)ds,
y la densidad de la medida de ocupación en [0, t] vale
Lt(x) =
X
s∈[0,t]:b(s)=x
1
b0(s)
.
2.7 Representación integral de martingalas
Consideremos un proceso u de la clase L2
a,T . Sabemos que la integral in-
definida
Xt =
Z t
0
usdBs
es una martingala respecto de la filtración Ft. En este apartado demostraremos
que todas las martingalas de cuadrado integrable respecto de esta filtración
son de este tipo.
Veamos un resultado preliminar.
Lema 12 El conjunto de variables que son combinaciones lineales de expo-
nenciales de la forma
exp
µZ T
0
hsdBs −
1
2
Z T
0
h2
sds
¶
, (29)
donde h es una función determinista tal que
R T
0
h2
sds < ∞, es denso en
L2
(Ω, FT , P).
Demostración: Sea Y una variable de L2
(Ω, FT , P) ortogonal a todas las
exponenciales de la forma (29). Queremos demostrar que Y = 0. Fijados m
instantes 0 ≤ t1 < · · · tm ≤ T y m números reales λ1, . . . , λm sabemos que
E
¡
Y eλ1Bt1 +···+λmBtm
¢
= 0.
Esto implica que la medida
ν(A) = E (Y 1A(Bt1 , . . . , Btm ))
55
tiene una transformada de Laplace idénticamente nula. Por lo tanto,
E(Y 1G) = 0
para todo suceso G de la σ-álgebra generada por las variables Bt1 , . . . , Btm . Por
un argumento de clases monótonas, esto será cierto para todo G de la σ-álgebra
FT , y por lo tanto, Y = 0. ¤
Teorema 13 (Teorema de representación de Itô) Consideremos una vari-
able aleatoria F de L2
(Ω, FT , P). Entonces existe un único proceso es-
tocástico u de la clase L2
a,T tal que
F = E(F) +
Z T
0
usdBs.
Demostración: Supongamos primero que la variable F es de la forma
exp
µZ T
0
hsdBs −
1
2
Z T
0
h2
sds
¶
,
donde h es una función determinista tal que
R T
0
h2
sds < ∞. Definimos
Yt = exp
µZ t
0
hsdBs −
1
2
Z t
0
h2
sds
¶
.
Por la fórmula de Itô aplicada a la función f(x) = ex
y al proceso Xt =
R t
0
hsdBs−
1
2
R t
0
h2
sds, obtenemos
dYt = Yt
µ
h(t)dBt −
1
2
h2
(t)dt
¶
+
1
2
Yt(h(t)dBt)2
= Yth(t)dBt,
es decir,
Yt = 1 +
Z t
0
Ysh(s)dBs.
Por lo tanto,
F = YT = 1 +
Z T
0
Ysh(s)dBs
56
y se cumple la representación buscada porque E(F) = 1,
E
µZ T
0
Y 2
s h2
(s)ds
¶
=
Z T
0
E
¡
Y 2
s
¢
h2
(s)ds
≤ exp
µZ T
0
h2
sds
¶ Z T
0
h2
sds < ∞
ya que
E
¡
Y 2
t
¢
= E
·
exp
µ
2
Z t
0
hsdBs −
Z t
0
h2
sds
¶¸
= exp
µZ t
0
h2
sds
¶
.
Por linealidad, la representación se cumplirá en el caso en que F sea una com-
binación lineal de exponenciales del tipo (29). En el caso general, el Lema 12 nos
permite aproximar una variable arbitraria F de L2
(Ω, FT , P) por una sucesión Fn
de combinaciones lineales de exponenciales de la forma (29). Tendremos, entonces,
Fn = E(Fn) +
Z T
0
u(n)
s dBs.
Por la propiedad de isometrı́a de la integral estocástica
E
£
(Fn − Fm)2¤
= E
"µ
E(Fn − Fm) +
Z T
0
¡
u(n)
s − u(m)
s
¢
dBs
¶2
#
= (E(Fn − Fm))2
+ E
"µZ T
0
¡
u(n)
s − u(m)
s
¢
dBs
¶2
#
≥ E
·Z T
0
¡
u(n)
s − u(m)
s
¢2
ds
¸
.
La sucesión Fn es de Cauchy en L2
(Ω, FT , P). Por lo tanto,
E
£
(Fn − Fm)2¤ n,m→∞
−→ 0
y, en consecuencia,
E
·Z T
0
¡
u(n)
s − u(m)
s
¢2
ds
¸
n,m→∞
−→ 0.
57
Esto nos dice que la sucesión u(n)
es de Cauchy en L2
([0, T] × Ω). Por lo tanto
será convergente hacia un proceso u de L2
([0, T] × Ω). Por otra parte, puede
comprobarse que u pertenece a la clase L2
a,T , teniendo en cuenta que una sucesión
parcial de u(n)
(t, ω) converge casi por todo (t, ω) hacia u(t, ω). Aplicando de
nuevo la propiedad de isometrı́a, y teniendo en cuenta que E(Fn) converge hacia
E(F), se obtiene
F = lim
n→∞
Fn = lim
n→∞
µ
E(Fn) +
Z T
0
u(n)
s dBs
¶
= E(F) +
Z T
0
usdBs.
Finalmente, la unicidad sale también de la propiedad de isometrı́a: Supong-
amos que u(1)
y u(2)
fuesen dos procesos de L2
a,T tales que
F = E(F) +
Z T
0
u(1)
s dBs = E(F) +
Z T
0
u(2)
s dBs.
Entonces
0 = E
"µZ T
0
¡
u(1)
s − u(2)
s
¢
dBs
¶2
#
= E
·Z T
0
¡
u(1)
s − u(2)
s
¢2
ds
¸
y, por lo tanto, u
(1)
s (t, ω) = u
(2)
s (t, ω) casi por todo (t, ω). ¤
Teorema 14 (Teorema de representación de martingalas) Supongamos
que {Mt, t ∈ [0, T]} es una martingala respecto de la filtración Ft, tal que
E(M2
T ) < ∞ . Entonces existe un único proceso estocástico u de la claseL2
a,T
tal que
Mt = E(M0) +
Z t
0
usdBs
para todo t ∈ [0, T].
Demostración: Aplicando el teorema de representación de Itô a F = MT
obtenemos que existe un único proceso u ∈ L2
T tal que
MT = E(MT ) +
Z T
0
usdBs = E(M0) +
Z T
0
usdBs.
58
Supongamos que 0 ≤ t ≤ T. Tendremos
Mt = E[MT |Ft] = E(M0) + E[
Z T
0
usdBs|Ft]
= E(M0) +
Z t
0
usdBs.
¤
2.8 Teorema de Girsanov
El teorema de Girsanov nos dice que el movimiento browniano con deriva
Bt + λt puede verse como un movimiento browniano sin deriva, cambiando
la probabilidad. Analizaremos primero como funcionan los cambios de prob-
abilidad mediante densidades.
Si en un espacio de probabilidad (Ω, F, P) consideramos una variable
aleatoria L ≥ 0 de esperanza uno, entonces,
Q(A) = E (1AL)
define una nueva probabilidad. Que la esperanza de L sea igual a 1 nos
garantiza que
Q(Ω) = E(L) = 1.
Se dice que L es la densidad de Q respecto de P y se escribe formalmente
dQ
dP
= L.
La esperanza de una variable aleatoria X en el espacio de probabilidad
(Ω, F, Q) se calcula de la forma siguiente
EQ(X) = E(XL).
La probabilidad Q es absolutamente continua respecto de P, lo que significa
que
P(A) = 0 =⇒ Q(A) = 0.
59
Si la variable L es estrictamente positiva, entonces las probabilidades P y
Q son equivalentes (o sea, mutuamente absolutamente continuas), lo que
significa
P(A) = 0 ⇐⇒ Q(A) = 0.
Veamos seguidamente un ejemplo simple de cambio de probabilidades que
representa una versión sencilla del teorema de Girsanov:
Ejemplo 20 Sea X una variable aleatoria con ley normal N(m, σ2
). Existe
una probabilidad Q respecto de la cual la variable X tenga ley N(0, σ2
)?
Consideremos la variable
L = e− m
σ2 X+ m2
2σ2
.
Es fácil comprobar que tiene esperanza uno E(L) = 1. Por otra parte, en
el espacio de probabilidad (Ω, F, Q) la variable X tiene por función carac-
terı́stica:
EQ(eitX
) = E(eitX
L) =
1
√
2πσ2
Z ∞
−∞
e−
(x−m)2
2σ2 −mx
σ2 + m2
2σ2 +itx
dx
=
1
√
2πσ2
Z ∞
−∞
e− x2
2σ2 +itx
dx = e−σ2t2
2 ,
es decir, X tiene una ley N(0, σ2
).
Veremos que en el caso del movimiento browniano se obtiene un resultado
similar. Teniendo en cuenta que el movimiento browniano es el lı́mite de
paseos aleatorios, analizaremos primero el problema de la eliminación de la
deriva en un paseo aleatorio:
Consideremos una succesión {Xn, n ≥ 1} de variables aleatorias indepen-
dientes tales que
Xn =
½
+1, con probabilidad 1/2
−1, con probabilidad 1/2
.
Pongamos S0 = 0, y Sn = X1 + · · · + Xn + na, donde a > 0. La succesión Sn
representa un paseo aleatorio con deriva igual a a, y no es una martingala ya
que
E(Sn|Fn−1) = Sn−1 + a,
60
donde Fn es la σ-álgebra generada por X1, ..., Xn si n ≥ 1, y F0 = {∅, Ω}.
Podemos cambiar la asignación de probabilidades de manera que Sn sea una
martingala. Si suponemos que
P(Xn = +1) = p,
P(Xn = −1) = 1 − p,
necesitaremos que E(a + Xn) = 0, es decir,
p =
1 − a
2
,
suponiendo que a < 1.
Multipliquemos los valores de la constante a por ∆t y los valores de las
variables Xn por σ
√
∆t. O sea supondremos que
S0 = 0,
∆Sn = a∆t + σXn,
P(Xn = ±
√
∆t) =
1
2
.
En tal caso el valor de la probabilidad p respecto de la cual las Sn forman
una martingala es
P(Xn =
√
∆t) = p =
1
2
−
a
2σ
√
∆t,
P(Xn = −
√
∆t) = 1 − p =
1
2
+
a
2σ
√
∆t.
Podemos escribir
P(Xn = ±
√
∆t) =
1
2
³
1 −
a
σ
Xn
´
.
Si consideramos un camino de longitud N formado por los sucesivos valores
que toman las variables Xn, la probabilidad P de este camino seria 2−N
,
mientras que la probabilidad Q seria 2−N
QN
n=1
¡
1 − a
σ
Xn
¢
. Es decir, pode-
mos escribir
Q(camino)
P(camino)
=
N
Y
n=1
³
1 −
a
σ
Xn
´
.
61
Observamos que la probabilidad Q está bien definida si
∆t <
³σ
a
´2
,
lo cual es cierto siempre que ∆t sea suficientement pequeño.
Supongamos ahora que las variables aleatorias Sn se observan en instantes
que distan ∆t. Si ∆t tiende a cero y N tiende a infinito de manera que
N∆t = t, entonces, Sn converge hacia un movimiento browniano con deriva
at + σBt.
Por otra parte, el cociente entre las probabilidades Q y P converge hacia
un término exponencial:
Q(camino)
P(camino)
=
N
Y
n=1
³
1 −
a
σ
Xn
´
= exp
à N
X
n=1
log
³
1 −
a
σ
Xn
´
!
w exp
à N
X
n=1
µ
−
a
σ
Xn −
a2
2σ2
X2
n
¶!
= exp
Ã
−
a
σ
N
X
n=1
Xn −
a2
2σ2
t
!
.
Es decir, en el lı́mite se obtiene
Q(camino)
P(camino)
= exp
µ
−
a
σ
Bt −
a2
2σ2
t
¶
.
Sea{Bt, t ∈ [0, T]} un movimiento browniano. Fijemos un número real λ.
Consideremos la martingala
Lt = exp
³
−λBt − λ2
2
t
´
. (30)
Observemos que el proceso estocástico {Lt, t ∈ [0, T]} es una martingala pos-
itiva de esperanza uno que satisface la ecuación diferencial estocástica
Lt = 1 −
Z t
0
λLsdBs.
62
La variable LT es una densidad de probabilidad en el espacio (Ω, FT , P) que
define una probabilidad Q dada por
Q(A) = E (1ALT ) ,
para todo A ∈ FT .
La propiedad de martingala del proceso Lt implica que en el espacio
(Ω, Ft, P), la probabilidad Q tiene densidad igual a Lt. En efecto, si A
pertenece a la σ-álgebra Ft se tiene
Q(A) = E (1ALT ) = E (E (1ALT |Ft))
= E (1AE (LT |Ft))
= E (1ALt) .
Teorema 15 (Teorema de Girsanov) En el espacio de probabilidad (Ω, FT , Q)
el proceso estocástico
Wt = Bt + λt,
es un movimiento browniano.
Antes de demostrar este teorema probaremos un resultado técnico:
Lema 16 Supongamos que X es una variable aleatoria real y G es una σ-
álgebra tales que
E
¡
eiuX
|G
¢
= e−u2σ2
2 .
Entonces, la variable X es independiente de la σ-álgebra G y tiene una ley
normal N(0, σ2
).
Demostración: Para todo suceso A ∈ G se cumplirá
E
¡
1AeiuX
¢
= P(A)e−u2σ2
2 .
Por lo tanto, eligiendo A = Ω obtenemos la función caracterı́stica de X, y en
consecuencia, X tiene una ley N(0, σ2
). Por otra parte, fijado un suceso A ∈ G,
la función caracterı́stica de la variable X respecto de la probabilidad condicionada
por A será también
EA
¡
eiuX
¢
= e−u2σ2
2 .
63
Es decir, la ley de X condicionada por A es también una ley normal N(0, σ2
).
Por consiguiente, tendremos
PA(X ≤ x) = Φ(x/σ) ,
y
P ((X ≤ x) ∩ A) = P(A)Φ(x/σ) = P(A)P(X ≤ x), (31)
donde Φ representa la función de distribución de la ley N(0, 1). La igualdad (31)
nos da la independencia entre la variable X y la σ-álgebra G . ¤
Demostración del teorema de Girsanov: Será suficiente con demostrar
que, en el espacio de probabilidad (Ω, FT , Q), para todo s < t ≤ T el incremento
Wt − Ws es independiente de Fs y tiene ley normal N(0, t − s).
Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen de la
fórmula siguiente, para todo s < t, A ∈ Fs, u ∈ R,
EQ
¡
1Aeiu(Wt−Ws)
¢
= Q(A)e−u2
2
(t−s)
. (32)
Para demostrar la fórmula (32) ponemos
EQ
¡
1Aeiu(Wt−Ws)
¢
= E
¡
1Aeiu(Wt−Ws)
Lt
¢
= E
³
1Aeiu(Bt−Bs)+iuλ(t−s)−λ(Bt−Bs)−λ2
2
(t−s)
Ls
´
= E(1ALs)E
¡
e(iu−λ)(Bt−Bs)
¢
eiuλ(t−s)−λ2
2
(t−s)
= Q(A)e
(iu−λ)2
2
(t−s)+iuλ(t−s)−λ2
2
(t−s)
= Q(A)e−u2
2
(t−s)
.
¤
El teorema de Girsanov admite la siguiente generalización:
Teorema 17 Sea {θt, t ∈ [0, T]} un proceso adaptado y tal que cumple la
denominada condición de Novikov:
E
µ
exp
µ
1
2
Z T
0
θ2
t dt
¶¶
< ∞. (33)
Entonces, el proceso
Wt = Bt +
Z t
0
θsds
64
es un movimiento browniano respecto de la probabilidad Q definida por
Q(A) = E (1ALT ) ,
donde
Lt = exp
µ
−
Z t
0
θsdBs −
1
2
Z t
0
θ2
sds
¶
.
Observemos que de nuevo Lt es satisface la ecuación diferencial estocástica
Lt = 1 −
Z t
0
θsLsdBs.
Para que el proceso Lt sea una martingala y tengamos E(Lt) = 1, necesitamos
que θsLs pertenezca a la clase L2
a,T . La condición (33) sirve para asegurar
esta propiedad.
Como aplicación del teorema de Girsanov deduciremos la ley del instante
de llegada del movimiento browniano con deriva a un nivel a.
Sea {Bt, t ≥ 0} un movimiento browniano. Fijado un valor λ, definimos
la martingala Lt como en (30). Sea Q la probabilidad en ∪t≥0Ft tal que para
todo t ≥ 0
dQ
dP
|Ft = Lt.
Por el teorema de Girsanov, para todo T > 0, en el espacio de probabili-
dad (Ω, FT , Q) el proceso Bt + λt := e
Bt es un movimiento browniano en el
intervalo de tiempo [0, T]. Es decir, en este espacio Bt es un movimiento
browniano con deriva −λt. Sea
τa = inf{t ≥ 0, Bt = a},
donde a 6= 0. Para cada t ≥ 0 el suceso {τa ≤ t} pertenece a la σ-álgebra
Fτa∧t ya que para todo s ≥ 0
{τa ≤ t} ∩ {τa ∧ t ≤ s} = {τa ≤ t} ∩ {τa ≤ s}
= {τa ≤ t ∧ s} ∈ Fs∧t ⊂ Fs.
65
Por consiguiente, utilizando la propiedad de martingala respecto de los tiem-
pos de paro obtenemos
Q{τa ≤ t} = E
¡
1{τa≤t}Lt
¢
= E
¡
1{τa≤t}E(Lt|Fτa∧t)
¢
= E
¡
1{τa≤t}Lτa∧t
¢
= E
¡
1{τa≤t}Lτa
¢
= E
³
1{τa≤t}e−λa−1
2
λ2
τa
´
=
Z t
0
e−λa−1
2
λ2
s
f(s)ds,
donde f es la densidad de la variable τa. Sabemos que
f(s) =
|a|
√
2πs3
e−a2
2s .
Por lo tanto, respecto de Q la variable aleatoria τa tiene una densidad igual
a
|a|
√
2πs3
e−
(a+λs)2
2s , s > 0.
Haciendo, t ↑ ∞ obtenemos
Q{τa < ∞} = e−λa
E
³
e−1
2
λ2
τa
´
= e−λa−|λa|
.
Si λ = 0 (movimiento browniano sin deriva), la probabilidad de llegar alguna
vez a un nivel dado es igual a uno. Si −λa > 0 (la deriva −λ y el nivel a
tienen el mismo signo) esta probabilidad es también igual a uno. Si −λa < 0
(la deriva −λ y el nivel a tienen signo distinto) la probabilidad vale e−2λa
.
Ejercicios
2.1 Consideremos una función f tal que
Z T
0
f(s)2
ds < ∞.
Definimos la sucesión de funciones continuas
fn(t) =
Z t
t− 1
n
f(s)ds,
66
con la convención f(s) = 0 si s < 0. Demostrar que se cumple
Z T
0
(f(s) − fn(s))2
ds −→ 0
n→∞
−→ 0.
Indicación: Sabemos que para cada ε > 0 podemos encontrar una
función continua g tal que
Z T
0
(f(s) − g(s))2
ds < ε.
2.2 Consideremos un proceso estocástico M = {Mt, t ≥ 0} que es una mar-
tingala respecto de una filtración {Mt, t ≥ 0}. Demostrar que el pro-
ceso M también es una martingala respecto de la filtración natural
FM
t = σ (Ms, 0 ≤ s ≤ t) ⊂ Mt.
2.2 Consideremos una martingala M = {Mt, t ≥ 0} respecto de una fil-
tración {Mt, t ≥ 0} tal que E(M2
t ) < ∞ para todo t ≥ 0. Demostrar
que si s < t
E((Mt − Ms)2
|Ms) = E(M2
t − M2
s |Ms).
2.3 Demostrar que si τ es un tiempo de paro, Fτ definida en (18) es una σ-
álgebra y τ es Fτ -medible. Si X = {Xt, t ≥ 0} es un proceso adaptado
con trayectorias continuas, y τ es finito, demostrar que la variable Xτ
es Fτ -medible.
2.4 Sea Y una variable aleatoria integrable y {Mt, t ≥ 0} una familia cre-
ciente de σ-álgebras. Demostrar que
Mt = E(Y |Mt)
es una martingala.
2.5 Comprobar si los siguientes procesos estocásticos, definidos a partir de
67
un movimiento browniano Bt, son martingalas:
Xt = B3
t − 3tBt
Xt = t2
Bt − 2
Z s
0
sBsds
Xt = et/2
cos Bt
Xt = et/2
sin Bt
Xt = (Bt + t) exp(−Bt −
1
2
t)
Xt = B1(t)B2(t).
En el último caso, B1 y B2 son dos movimientos brownianos indepen-
dientes.
2.6 Supongamos que Bt es un movimiento browniano n-dimensional y sea
f : Rn
→ R una función de clase C2
. Utilizando la fórmula de Itô
demostrar que
f(Bt) = f(0) +
Z t
0
∇f(Bs)ds +
1
2
Z t
0
∆f(Bs)ds.
2.7 Encontrar el proceso u que nos proporciona la representación integral
F = E(F) +
Z T
0
usdBs
en los ejemplos siguientes:
F = BT
F = B2
T
F = eBT
F =
Z T
0
Btdt
F = B3
T
F = sin BT
2.8 Sea p(t, x) = 1/
√
1 − t exp(−x2
/2(1 − t)), para 0 ≤ t < 1 y x ∈ R, y
p(1, x) = 0. Definimos Mt = p(t, Bt), donde {Bt, 0 ≤ t ≤ 1} es un
movimiento browniano.
68
a) Demostrar que
Mt = M0 +
Z t
0
∂p
∂x
(s, Bs)dBs.
b) Sea Ht = ∂p
∂x
(t, Bt). Probar que
R 1
0
H2
t dt < ∞ casi seguramente,
pero E
³R 1
0
H2
t dt
´
= ∞.
2.9 Sean Yt y Xt procesos de Itô. Demostrar la siguiente fórmula de inte-
gración por partes:
XtYt = X0Y0 +
Z t
0
XsdYs +
Z t
0
YsdXs +
Z t
0
dXsdYs.
3 Ecuaciones diferenciales estocásticas
Queremos resolver ecuaciones diferenciales del tipo
dXt = b(t, Xt)dt + σ(t, Xt)dBt. (34)
Los coeficientes b(t, x) y σ(t, x) se denominan, respectivamente, coefi-
ciente de deriva y coeficiente de difusión. Si el coeficiente de difusión se
anula, entonces, tendremos una ecuación diferencial ordinaria:
dXt
dt
= b(t, Xt),
que puede resolverse, si conocemos la condición inicial X0. Por ejemplo, en
el caso lineal b(t, x) = b(t)x, la solución es
Xt = X0 + e
R t
0 b(s)ds
.
Una ecuación diferencial del tipo (34) se denomina una ecuación diferen-
cial estocástica. La solución será un proceso estocástico {Xt, t ≥ 0} con
trayectorias continuas adaptado a la filtración browniana. Los procesos
solución se denominan procesos de difusión.
Una interpretación heurı́stica de la ecuación diferencial (34) serı́a la sigu-
iente: El incremento ∆Xt = Xt+∆t − Xt se expresa como una suma de
b(t, Xt)∆t más un término que depende del incremento del movimiento brow-
niano: σ(t, Xt)∆Bt y que se interpreta como una impulso aleatorio. Por
69
tanto, el incremento ∆Xt tendrá una ley normal de media b(t, Xt)∆t y vari-
anza σ(t, Xt)2
∆t.
La formalización de estas ecuaciones se realiza transformándolas en ecua-
ciones integrales y utilizando integrales estocásticas:
Xt = X0 +
Z t
0
b(s, Xs)ds +
Z t
0
σ(s, Xs)dBs. (35)
El resultado fundamental sobre la existencia y unicidad de soluciones es
el siguiente:
Teorema 18 Fijemos un intervalo de tiempo [0, T]. Supongamos que los
coeficientes de la ecuación (34) verifican:
|b(t, x) − b(t, y)| ≤ D1|x − y| (36)
|σ(t, x) − σ(t, y)| ≤ D2|x − y| (37)
|b(t, x)| ≤ C1(1 + |x|) (38)
|σ(t, x)| ≤ C2(1 + |x|), (39)
para todo x, y ∈ R, t ∈ [0, T]. Supongamos que Z es una variable aleatoria
independiente de la σ-álgebra FT generada por el movimiento browniano en
[0, T], tal que E(Z2
) < ∞. Entonces, existe un único proceso {Xt, t ∈ [0, T]}
continuo, adaptado, solución de (35) y tal que
E
µZ T
0
|Xs|2
ds
¶
< ∞.
Observaciones:
1.- Este resultado es cierto en dimensión superior, cuando Bt es un movimiento
browniano m-dimensional, la solución Xt es un proceso estocástico n-
dimensional, y los coeficientes son funciones b : [0, T] × Rn
→ Rn
,
σ : [0, T] × Rn
→ Rn×m
.
2.- La condición de crecimiento lineal (38,39) garantiza que la solución no
explota antes del tiempo final T. Por ejemplo, la ecuación diferencial
determinista
dXt
dt
= X2
t , X0 = 1,
70
tiene por única solución la función
Xt =
1
1 − t
, 0 ≤ t < 1,
que diverge en el instante t = 1.
3.- La condición de Lipschitz (36,37) garantiza que no exista más de una
solución. Por ejemplo, la ecuación diferencial determinista
dXt
dt
= 3X
2/3
t , X0 = 0,
tiene infinitas soluciones ya que para cada a > 0, la función
Xt =
½
0 si t ≤ a
(t − a)3
si t > a
es solución. En este ejemplo la función b(x) = 3x2/3
no cumple la
condición de Lipschitz ya que la derivada de b no está acotada.
4.- Si los coeficientes b(t, x) y σ(t, x) son diferenciables en la variable x, la
condición de Lipschitz significa que las derivadas parciales ∂b
∂x
y ∂σ
∂x
están
acotadas por las constantes D1 y D2, respectivamente.
Demostración del Teorema 18: Consideremos el espacio L2
a,T de los
procesos adaptados a la filtración FZ
t = σ(Z) ∨ Ft y tales que E
³R T
0
|Xs|2
ds
´
<
∞. En este espacio introducimos la siguiente norma
kXk =
µZ T
0
e−λs
E
£
X2
s
¤
ds
¶1/2
,
donde λ es una constante tal que λ > 2 (TD2
1 + D2
2).
Definimos un operador en este espacio de la forma siguiente
(LX)t = X0 +
Z t
0
b(s, Xs)ds +
Z t
0
σ(s, Xs)dBs.
Este operador está bien definido debido a la propiedad de crecimiento lineal (38,39)
de los coeficientes de la ecuación.
71
La desigualdad de Schwartz y la isometrı́a de la integral estocástica nos per-
miten escribir
E
£
|(LX)t − (LY )t|2¤
≤ 2E
"µZ t
0
(b(s, Xs) − b(s, Ys)) ds
¶2
#
+2E
"µZ t
0
(σ(s, Xs) − σ(s, Xs)) dBs
¶2
#
≤ 2TE
·Z t
0
(b(s, Xs) − b(s, Ys))2
ds
¸
+2E
·Z t
0
(σ(s, Xs) − σ(s, Xs))2
ds
¸
.
Utilizando la propiedad de Lipschitz (36,37) se obtiene
E
£
|(LX)t − (LY )t|2¤
≤ 2
¡
TD2
1 + D2
2
¢
E
·Z t
0
(Xs − Ys)2
ds
¸
.
Pongamos C = 2 (TD2
1 + D2
2). Por consiguiente, multiplicando por el factor e−λt
e integrando en [0, T] se obtiene
Z T
0
e−λt
E
£
|(LX)t − (LY )t|2¤
dt ≤ C
Z T
0
e−λt
E
·Z t
0
(Xs − Ys)2
ds
¸
dt
≤ C
Z T
0
µZ T
s
e−λt
dt
¶
E
£
(Xs − Ys)2¤
ds
≤
C
λ
Z T
0
e−λs
E
£
(Xs − Ys)2¤
ds.
Por lo tanto,
kLX − LY k ≤
r
C
λ
kX − Y k
y como
q
C
λ
< 1. Esto nos dice que el operador L es una contracción en el espacio
L2
a,T . El teorema del punto fijo nos asegura que este operador tiene un único punto
fijo, lo que implica la unicidad y existencia de solución de la ecuación (35). ¤
72
3.1 Soluciones explı́citas de ecuaciones diferenciales es-
tocásticas
La fórmula de Itô permite resolver explı́citamente algunas ecuaciones difer-
enciales estocásticas. Veamos algunos ejemplos.
A) Ecuaciones lineales. El movimiento browniano geométrico
Xt = X0e

µ−σ2
2

t+σBt
satisface la ecuación lineal
dXt = µXtdt + σXtdBt.
Más generalmente, la solución de la ecuación lineal homogénea
dXt = b(t)Xtdt + σ(t)XtdBt
será
Xt = X0 exp
hR t
0
¡
b(s) − 1
2
σ2
(s)
¢
ds +
R t
0
σ(s)dBs
i
B) El proceso de Ornstein-Uhlenbeck. Consideremos la ecuación diferencial
estocástica
dXt = a (m − Xt) dt + σdBt
X0 = x,
donde a, σ  0 y m es un número real. Como se trata de una ecuación
lineal no homogénea, utilizaremos el método de variación de las con-
stantes. La solución de la ecuación homogénea
dxt = −axtdt
x0 = x
es xt = xe−at
. Entonces hacemos el cambio de variable Xt = Yte−at
, es
decir, Yt = Xteat
. El proceso Yt satisface
dYt = aXteat
dt + eat
dXt
= ameat
dt + σeat
dBt.
73
Por tanto,
Yt = x + m(eat
− 1) + σ
Z t
0
eas
dBs,
lo que implica
Xt = m + (x − m)e−at
+ σe−at
R t
0
eas
dBs
El proceso estocástico Xt es gaussiano. La media y varianza de cada
variable Xt pueden calcularse fácilmente:
E(Xt) = m + (x − m)e−at
,
V arXt = σ2
e−2at
E
µZ t
0
eas
dBs
¶2
#
= e−2at
Z t
0
e2as
ds =
σ2
2a
¡
1 − e−2at
¢
.
La distribución de Xt cuando t tiende a infinito converge hacia la ley
normal
N(m,
σ2
2a
).
Esta ley se denomina la ley invariante o estacionaria. En el caso m = 0
este proceso se denomina el proceso de Ornstein-Uhlenbeck.
C) Consideremos una ecuación diferencial estocástica del tipo
dXt = f(t, Xt)dt + c(t)XtdBt, X0 = x, (40)
donde f(t, x) y c(t) son funciones deterministas continuas, tales que f
satisface las condiciones de crecimiento lineal y propiedad de Lipschitz
en la variable x. Esta ecuación se puede resolver siguiendo los pasos
siguientes:
a) Se considera el “factor integrante”
Ft = exp
µ
−
Z t
0
c(s)dBs +
1
2
Z t
0
c2
(s)ds
¶
,
tal que F−1
t es solución de la ecuación (40) si f = 0 y x = 1. El
proceso Yt = FtXt cumple
dYt = Ftf(t, F−1
t Yt)dt, Y0 = x. (41)
74
b) La ecuación (41) es una ecuación diferencial determinista, parametrizada
por ω ∈ Ω, que podrá resolverse mediante métodos habituales.
Por ejemplo, supongamos que f(t, x) = f(t)x. En tal caso la ecuación
(41) es
dYt = f(t)Ytdt,
de lo que se deduce
Yt = x exp
µZ t
0
f(s)ds
¶
y, por lo tanto,
Xt = x exp
³R t
0
f(s)ds +
R t
0
c(s)dBs − 1
2
R t
0
c2
(s)ds
´
D) Ecuación diferencial estocástica lineal general. Consideremos la ecuación
dXt = (a(t) + b(t)Xt) dt + (c(t) + d(t)Xt) dBt,
con condición inicial X0 = x, donde a, b, c y d son funciones continuas.
Utilizando el método de variación de las constantes propondremos una
solución de la forma
Xt = UtVt (42)
donde
dUt = b(t)Utdt + d(t)UtdBt
y
dVt = α(t)dt + β(t)dBt,
con U0 = 1 y V0 = x. Por el apartado C sabemos que
Ut = exp
µZ t
0
b(s)ds +
Z t
0
d(s)dBs −
1
2
Z t
0
d2
(s)ds
¶
.
Por otra parte, diferenciando la igualdad (42) obtenemos
a(t) = Utα(t) + β(t)d(t)Ut
c(t) = Utβ(t)
75
es decir
β(t) = c(t) U−1
t
α(t) = [a(t) − c(t)d(t)] U−1
t .
Finalmente,
Xt = Ut
³
x +
R t
0
[a(s) − c(s)d(s)] U−1
s ds +
R t
0
c(s) U−1
s dBs
´
La ecuación diferencial estocástica de Itô
Xt = X0 +
Z t
0
b(s, Xs)ds +
Z t
0
σ(s, Xs)dBs,
puede transformarse en una ecuación de Stratonovich, utilizando la fórmula
(27) que nos relaciona ambos tipos de integral. Ası́, se obtiene
Xt = X0 +
Z t
0
b(s, Xs)ds −
Z t
0
1
2
(σσ0
) (s, Xs)ds +
Z t
0
σ(s, Xs) ◦ dBs,
ya que la expresión del proceso σ(s, Xs) como proceso de Itô serı́a
σ(t, Xt) = σ(0, X0) +
Z t
0
µ
σ0
b −
1
2
σ00
σ2
¶
(s, Xs)ds
+
Z t
0
(σσ0
) (s, Xs)dBs.
Yamada y Watanabe demostraron en 1971 que la condición de Lipschitz
podı́a debilitarse de la forma siguiente, en el caso de ecuaciones diferenciales
estocásticas unidimensionales. Supongamos que los coeficientes b y σ no de-
penden del tiempo, el coeficiente b es Lipschitz, pero el coeficiente σ satisface
la condición de Hölder
|σ(x) − σ(y)| ≤ D|x − y|α
,
donde α ≥ 1
2
. En tal caso existe una única solución de la ecuación.
Por ejemplo, la ecuación
½
dXt = |Xt|r
dBt
X0 = 0
tiene una solución única si r ≥ 1/2.
76
3.2 Soluciones fuertes y soluciones débiles
La solución Xt que hemos encontrado antes es una solución fuerte porque es
un proceso adaptado a la familia de σ-álgebras
FZ
t = σ(Bs, s ≤ t, Z).
Podemos plantear el problema de forma diferente. Nos dan los coeficientes
b(t, x) y σ(t, x) y nos piden que encontremos un par de procesos Xt, Bt en un
espacio de probabilidad (Ω, F, P) tales que Bt es un movimiento browniano
relativo a una filtración Ht y Xt satisface la ecuación (34) en este espacio. Di-
remos entonces que (Ω, F, P, Ht, Xt, Bt) es una solución débil de la ecuación
(34).
Pueden demostrarse los siguientes resultados:
• Toda solución fuerte es también una solución débil.
• Una ecuación con coeficientes b(t, x) y σ(t, x) se dice que tiene unicidad
débil si dos soluciones débiles tienen la misma ley (las mismas distribu-
ciones en dimensión finita). Si los coeficientes satisfacen las condiciones
del Teorema (18) entonces se satisface la unicidad débil.
• La existencia de soluciones débiles puede asegurarse suponiendo sola-
mente que los coeficientes b(t, x) y σ(t, x) son funciones continuas y
acotadas.
La ecuación de Tanaka
dXt = sign (Xt) dBt, X0 = 0,
no tiene ninguna solución fuerte pero tiene una solución débil única.
3.3 Aproximaciones numéricas
Muchas ecuaciones diferenciales estocásticas no pueden resolverse explı́citamente.
Por ello es conveniente disponer de métodos numéricos que permiten la sim-
ulación de soluciones.
77
Consideremos la ecuación diferencial estocástica con coeficientes indepen-
dientes del tiempo
dXt = b(Xt)dt + σ(Xt)dBt, (43)
con condición inicial X0 = x.
Fijemos un intervalo de tiempo [0, T] y consideremos la subdivisión for-
mada por los puntos
tj =
iT
n
, i = 0, 1, . . . , n.
La longitud de cada subintervalo será δn = T
n
.
El método de Euler consiste en el esquema recursivo siguiente:
X(n)
(ti) = X(n)
(ti−1) + b(X(n)
(ti−1))δn + σ(X(n)
(ti−1))∆Bi,
i = 1, . . . , n, donde ∆Bi = Bti
− Bti−1
. El valor inicial será X
(n)
0 = x.
En los puntos de cada intervalo (titi+1) el valor del proceso X(n)
se deduce
por interpolación lineal. El proceso X(n)
es una función del movimiento
browniano y podemos medir el error comerido al aproximar X por X(n)
:
en = E
·³
XT − X
(n)
T
´2
¸
.
Puede demostrarse que en es del orden δ1/2
n es decir,
en ≤ cδ1/2
n
si n ≥ n0.
Para simular una solución mediante el método de Euler, basta con obtener
valores de n variables aleatorias ξ1, . . . ., ξn independientes con ley N(0, 1), y
substituir ∆Bi por
√
δnξi.
El método de Euler puede mejorarse mediante una corrección adicional.
Esto nos lleva a introducir el método de Milstein.
El valor exacto del incremento entre dos puntos de la partición es
X(ti) = X(ti−1) +
Z ti
ti−1
b(Xs)ds +
Z ti
ti−1
σ(Xs)dBs. (44)
En el método de Euler se basa en aproximar las integrales de la forma sigu-
iente:
Z ti
ti−1
b(s)ds ≈ b(X(n)
(ti−1))δn,
Z ti
ti−1
σ(s)dBs ≈ σ(X(n)
(ti−1))∆Bi.
78
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf
calculo estocastico.pdf

Más contenido relacionado

Similar a calculo estocastico.pdf

Similar a calculo estocastico.pdf (20)

Reporte de topologia 5 y tarea
Reporte de topologia 5 y tareaReporte de topologia 5 y tarea
Reporte de topologia 5 y tarea
 
Reporte de topologia 5 y tareas
Reporte de topologia 5 y tareasReporte de topologia 5 y tareas
Reporte de topologia 5 y tareas
 
Probabilidades ii 2021 a semana 2 clase 2
Probabilidades ii 2021 a semana 2 clase 2Probabilidades ii 2021 a semana 2 clase 2
Probabilidades ii 2021 a semana 2 clase 2
 
Variable aletoria
Variable aletoriaVariable aletoria
Variable aletoria
 
Reporte de topologia 5 y tareas
Reporte de topologia 5 y tareasReporte de topologia 5 y tareas
Reporte de topologia 5 y tareas
 
Reporte de topologia 5 y tareas
Reporte de topologia 5 y tareasReporte de topologia 5 y tareas
Reporte de topologia 5 y tareas
 
6.metodo de newton
6.metodo de newton6.metodo de newton
6.metodo de newton
 
Capitulo2
Capitulo2Capitulo2
Capitulo2
 
Variables Aleatorias
Variables AleatoriasVariables Aleatorias
Variables Aleatorias
 
Probabilidades ii 2021 a semana 2
Probabilidades ii 2021 a semana 2Probabilidades ii 2021 a semana 2
Probabilidades ii 2021 a semana 2
 
Probabilidades ii 2021 a semana 6 clase 1
Probabilidades ii 2021 a semana 6 clase 1Probabilidades ii 2021 a semana 6 clase 1
Probabilidades ii 2021 a semana 6 clase 1
 
Tema2
Tema2Tema2
Tema2
 
Guía de estructuras
Guía de estructurasGuía de estructuras
Guía de estructuras
 
02.6 varianza
02.6   varianza02.6   varianza
02.6 varianza
 
02.6 varianza
02.6   varianza02.6   varianza
02.6 varianza
 
Variable aleatoria un lu
Variable aleatoria un luVariable aleatoria un lu
Variable aleatoria un lu
 
Bitácora n° 5 (05 mar a 09 mar)
Bitácora n° 5 (05 mar a 09 mar)Bitácora n° 5 (05 mar a 09 mar)
Bitácora n° 5 (05 mar a 09 mar)
 
Distribuciones de probabilidad importantes
Distribuciones de probabilidad importantesDistribuciones de probabilidad importantes
Distribuciones de probabilidad importantes
 
Tr bases 3
Tr bases 3Tr bases 3
Tr bases 3
 
Tema6
Tema6Tema6
Tema6
 

Más de EnkelStyrket

pdfslide.net_codigos-de-averia-scania.pdf
pdfslide.net_codigos-de-averia-scania.pdfpdfslide.net_codigos-de-averia-scania.pdf
pdfslide.net_codigos-de-averia-scania.pdfEnkelStyrket
 
Apuntes finanzas corp.docx
Apuntes finanzas corp.docxApuntes finanzas corp.docx
Apuntes finanzas corp.docxEnkelStyrket
 
MexDer Mayo 2012 (Espanol).ppt
MexDer Mayo 2012 (Espanol).pptMexDer Mayo 2012 (Espanol).ppt
MexDer Mayo 2012 (Espanol).pptEnkelStyrket
 
MARCO JURIDICO Y ASPECTOS DE LOS DERIVADOS.ppt
MARCO JURIDICO Y ASPECTOS DE LOS DERIVADOS.pptMARCO JURIDICO Y ASPECTOS DE LOS DERIVADOS.ppt
MARCO JURIDICO Y ASPECTOS DE LOS DERIVADOS.pptEnkelStyrket
 
Estadisticas 2012.pdf
Estadisticas 2012.pdfEstadisticas 2012.pdf
Estadisticas 2012.pdfEnkelStyrket
 
La función de Utilidad.pptx
La función de Utilidad.pptxLa función de Utilidad.pptx
La función de Utilidad.pptxEnkelStyrket
 
MANTENIMIENTO ACTUALIZADO PX.ppt
MANTENIMIENTO ACTUALIZADO PX.pptMANTENIMIENTO ACTUALIZADO PX.ppt
MANTENIMIENTO ACTUALIZADO PX.pptEnkelStyrket
 

Más de EnkelStyrket (7)

pdfslide.net_codigos-de-averia-scania.pdf
pdfslide.net_codigos-de-averia-scania.pdfpdfslide.net_codigos-de-averia-scania.pdf
pdfslide.net_codigos-de-averia-scania.pdf
 
Apuntes finanzas corp.docx
Apuntes finanzas corp.docxApuntes finanzas corp.docx
Apuntes finanzas corp.docx
 
MexDer Mayo 2012 (Espanol).ppt
MexDer Mayo 2012 (Espanol).pptMexDer Mayo 2012 (Espanol).ppt
MexDer Mayo 2012 (Espanol).ppt
 
MARCO JURIDICO Y ASPECTOS DE LOS DERIVADOS.ppt
MARCO JURIDICO Y ASPECTOS DE LOS DERIVADOS.pptMARCO JURIDICO Y ASPECTOS DE LOS DERIVADOS.ppt
MARCO JURIDICO Y ASPECTOS DE LOS DERIVADOS.ppt
 
Estadisticas 2012.pdf
Estadisticas 2012.pdfEstadisticas 2012.pdf
Estadisticas 2012.pdf
 
La función de Utilidad.pptx
La función de Utilidad.pptxLa función de Utilidad.pptx
La función de Utilidad.pptx
 
MANTENIMIENTO ACTUALIZADO PX.ppt
MANTENIMIENTO ACTUALIZADO PX.pptMANTENIMIENTO ACTUALIZADO PX.ppt
MANTENIMIENTO ACTUALIZADO PX.ppt
 

Último

Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...SuannNeyraChongShing
 
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESAIPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESAJAMESDIAZ55
 
Elaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfElaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfKEVINYOICIAQUINOSORI
 
Tiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo IITiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo IILauraFernandaValdovi
 
Manual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfManual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfedsonzav8
 
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASTEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASfranzEmersonMAMANIOC
 
Curso intensivo de soldadura electrónica en pdf
Curso intensivo de soldadura electrónica  en pdfCurso intensivo de soldadura electrónica  en pdf
Curso intensivo de soldadura electrónica en pdfFernandaGarca788912
 
Diapositiva de Topografía Nivelación simple y compuesta
Diapositiva de Topografía Nivelación simple y compuestaDiapositiva de Topografía Nivelación simple y compuesta
Diapositiva de Topografía Nivelación simple y compuestajeffsalazarpuente
 
2. UPN PPT - SEMANA 02 GESTION DE PROYECTOS MG CHERYL QUEZADA(1).pdf
2. UPN PPT - SEMANA 02 GESTION DE PROYECTOS MG CHERYL QUEZADA(1).pdf2. UPN PPT - SEMANA 02 GESTION DE PROYECTOS MG CHERYL QUEZADA(1).pdf
2. UPN PPT - SEMANA 02 GESTION DE PROYECTOS MG CHERYL QUEZADA(1).pdfAnthonyTiclia
 
estadisticasII Metodo-de-la-gran-M.pdf
estadisticasII   Metodo-de-la-gran-M.pdfestadisticasII   Metodo-de-la-gran-M.pdf
estadisticasII Metodo-de-la-gran-M.pdfFlorenciopeaortiz
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfmatepura
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxClaudiaPerez86192
 
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdfPresentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdfMIGUELANGELCONDORIMA4
 
Flujo potencial, conceptos básicos y ejemplos resueltos.
Flujo potencial, conceptos básicos y ejemplos resueltos.Flujo potencial, conceptos básicos y ejemplos resueltos.
Flujo potencial, conceptos básicos y ejemplos resueltos.ALEJANDROLEONGALICIA
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxEduardoSnchezHernnde5
 
Proyecto de iluminación "guia" para proyectos de ingeniería eléctrica
Proyecto de iluminación "guia" para proyectos de ingeniería eléctricaProyecto de iluminación "guia" para proyectos de ingeniería eléctrica
Proyecto de iluminación "guia" para proyectos de ingeniería eléctricaXjoseantonio01jossed
 
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdfReporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdfMikkaelNicolae
 
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC SIEMENS
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC  SIEMENSMANIOBRA Y CONTROL INNOVATIVO LOGO PLC  SIEMENS
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC SIEMENSLuisLobatoingaruca
 
SSOMA, seguridad y salud ocupacional. SST
SSOMA, seguridad y salud ocupacional. SSTSSOMA, seguridad y salud ocupacional. SST
SSOMA, seguridad y salud ocupacional. SSTGestorManpower
 

Último (20)

Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
Polimeros.LAS REACCIONES DE POLIMERIZACION QUE ES COMO EN QUIMICA LLAMAMOS A ...
 
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESAIPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
IPERC Y ATS - SEGURIDAD INDUSTRIAL PARA TODA EMPRESA
 
Elaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfElaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdf
 
Tiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo IITiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo II
 
Manual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfManual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdf
 
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASTEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
 
Curso intensivo de soldadura electrónica en pdf
Curso intensivo de soldadura electrónica  en pdfCurso intensivo de soldadura electrónica  en pdf
Curso intensivo de soldadura electrónica en pdf
 
Diapositiva de Topografía Nivelación simple y compuesta
Diapositiva de Topografía Nivelación simple y compuestaDiapositiva de Topografía Nivelación simple y compuesta
Diapositiva de Topografía Nivelación simple y compuesta
 
2. UPN PPT - SEMANA 02 GESTION DE PROYECTOS MG CHERYL QUEZADA(1).pdf
2. UPN PPT - SEMANA 02 GESTION DE PROYECTOS MG CHERYL QUEZADA(1).pdf2. UPN PPT - SEMANA 02 GESTION DE PROYECTOS MG CHERYL QUEZADA(1).pdf
2. UPN PPT - SEMANA 02 GESTION DE PROYECTOS MG CHERYL QUEZADA(1).pdf
 
estadisticasII Metodo-de-la-gran-M.pdf
estadisticasII   Metodo-de-la-gran-M.pdfestadisticasII   Metodo-de-la-gran-M.pdf
estadisticasII Metodo-de-la-gran-M.pdf
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdf
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptx
 
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdfPresentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
Presentación N° 1 INTRODUCCIÓN Y CONCEPTOS DE GESTIÓN AMBIENTAL.pdf
 
VALORIZACION Y LIQUIDACION MIGUEL SALINAS.pdf
VALORIZACION Y LIQUIDACION MIGUEL SALINAS.pdfVALORIZACION Y LIQUIDACION MIGUEL SALINAS.pdf
VALORIZACION Y LIQUIDACION MIGUEL SALINAS.pdf
 
Flujo potencial, conceptos básicos y ejemplos resueltos.
Flujo potencial, conceptos básicos y ejemplos resueltos.Flujo potencial, conceptos básicos y ejemplos resueltos.
Flujo potencial, conceptos básicos y ejemplos resueltos.
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptx
 
Proyecto de iluminación "guia" para proyectos de ingeniería eléctrica
Proyecto de iluminación "guia" para proyectos de ingeniería eléctricaProyecto de iluminación "guia" para proyectos de ingeniería eléctrica
Proyecto de iluminación "guia" para proyectos de ingeniería eléctrica
 
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdfReporte de simulación de flujo del agua en un volumen de control MNVA.pdf
Reporte de simulación de flujo del agua en un volumen de control MNVA.pdf
 
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC SIEMENS
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC  SIEMENSMANIOBRA Y CONTROL INNOVATIVO LOGO PLC  SIEMENS
MANIOBRA Y CONTROL INNOVATIVO LOGO PLC SIEMENS
 
SSOMA, seguridad y salud ocupacional. SST
SSOMA, seguridad y salud ocupacional. SSTSSOMA, seguridad y salud ocupacional. SST
SSOMA, seguridad y salud ocupacional. SST
 

calculo estocastico.pdf

  • 2. 1 Probabilidades y procesos estocásticos 1.1 Conceptos básicos del cálculo de probabilidades Recordemos en primer lugar algunas definiciones generales del cálculo de probabilidades. Un espacio de probabilidad es una terna (Ω, F, P) formada por: (i) Un conjunto Ω que representa el conjunto de los posibles resultados de una cierta experiencia aleatoria. (ii) Una familia F de subconjuntos de Ω que tiene estructura de σ-álgebra: a) ∅ ∈ F b) Si A ∈ F, su complementario Ac también pertenece a F c) A1, A2, . . . ∈ F =⇒ ∪∞ i=1Ai ∈ F (iii) Una aplicación P : F → [0, 1] que cumple: a) P(∅) = 0, P(Ω) = 1 b) Si A1, A2, . . . ∈ F son conjuntos disjuntos dos a dos (es decir, Ai ∩ Aj = ∅ si i 6= j), entonces P (∪∞ i=1Ai) = P∞ i=1 P(Ai) Los elementos de la σ-álgebra F se denominan sucesos y la aplicación P se denomina una probabilidad, de forma que tenemos la siguiente interpretación de este modelo: P(F)=“probabilidad de que el suceso F se realice” Si P(F) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi seguramente. Las propiedades a) y b) permiten deducir algunas reglas básicas del cálculo de probabilidades: P(A ∪ B) = P(A) + P(B) si A ∩ B = ∅ P(Ac ) = 1 − P(A) A ⊂ B =⇒ P(A) ≤ P(B). 2
  • 3. Ejemplo 1 Lanzamos un dado. Ω = {1, 2, 3, 4, 5, 6} F = P(Ω) (F contiene todos los subconjuntos de Ω) P({ωi}) = 1 6 , para i = 1, . . . , 6 Ejemplo 2 Elegimos un número al azar en el intervalo [0, 2]. Ω = [0, 2], F es la σ-álgebra de Borel (generada por los intervalos de [0, 2]). La probabilidad de cualquier intervalo [a, b] ⊂ [0, 2] será P([a, b]) = b − a 2 . Se dice que un espacio de probabilidad (Ω, F, P) es completo si dado un suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la σ-álgebra F. Un espacio de probabilidad siempre se puede completar substi- tuyendo la σ-álgebra F por una σ-álgebra mayor formada por los conjuntos de la forma F ∪ A, donde F ∈ F y A es un subconjunto de un conjunto de F de probabilidad cero. Si U es una familia de subconjuntos de Ω, la más pequeña σ-álgebra que contiene a U es, por definición, σ(U) = ∩ {G, G es una σ-álgebra, U ⊂ G} , y se denomina la σ-álgebra generada por U. Por ejemplo, la σ-álgebra gen- erada por los conjuntos abiertos (o por los rectángulos) de Rn se denomina la σ-álgebra de Borel de Rn y la representaremos por BRn . Ejemplo 3 Consideremos una partición finita P = {A1, . . . , An} de Ω. La σ- álgebra generada por P está formada por todas las uniones de los elementos de la partición (2n en total). Una variable aleatoria es una aplicación Ω X −→ R ω → X(ω) que es F-medible, es decir, X−1 (B) ∈ F, para todo conjunto B de la σ- álgebra de Borel de R. 3
  • 4. • Una variable aleatoria determina una σ-álgebra {X−1 (B), B ∈ BR} ⊂ F que se denomina la σ-álgebra generada por X. • Una variable aleatoria determina una probabilidad en la σ-álgebra de Borel BR definida por PX = P ◦ X−1 , es decir, PX(B) = P(X−1 (B)) = P({ω : X(ω) ∈ B}) La probabilidad PX se denomina la ley o distribución de la variable X. Diremos que una variable aleatoria X tiene densidad de probabilidad fX si fX(x) es una función positiva, medible respecto de la σ-álgebra de Borel y tal que P(a < X < b) = Z b a fX(x)dx, para todo a < b. Las variables discretas (que toman un conjunto finito o numerable de valores distintos xk) no tienen densidad y su ley está determinada por la función de probabilidad: pk = P(X = xk). Ejemplo 4 Una variable aleatoria tiene ley normal N(m, σ2 ) si P (a < X < b) = 1 √ 2πσ2 Z b a e− (x−m)2 2σ2 dx para todo par de números reales a < b. Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si P (X = k) = µ n k ¶ pk (1 − p)n−k , para k = 0, 1, . . . , n. La distribución de una variable aleatoria X puede caracterizarse mediante su función de distribución definida como la probabilidad acumulada: FX(x) = P (X ≤ x) = PX ((−∞, x]) 4
  • 5. • La función FX : R →[0, 1] es creciente, continua por la derecha y con lı́mites iguales a cero en −∞ y 1 en +∞. • Si la variable X tiene densidad fX, entonces, FX(x) = Z x −∞ fX(y)dy, y si la densidad es continua, F0 X(x) = fX(x). La esperanza matemática de una variable aleatoria X se define como la integral de X respecto de la probabilidad P, considerada como una medida en el espacio (Ω, F). En particular, si X es una variable elemental que toma los valores α1, . . . , αn en los conjuntos A1, . . . , An, su esperanza valdrá E(X) = n X i=1 αiP(Ai). El cálculo de la esperanza de una variable aleatoria se efectua integrando la función x respecto de la ley de probabilidad de la variable. Es decir, si X es una variable que tiene esperanza (o sea E(|X|) < ∞) se tiene E(X) = Z Ω X(ω)dP(ω) = Z ∞ −∞ xdPX(x). Más generalmente, si g : R → R es una función medible respecto de la σ- álgebra de Borel y E(|g(X)|) < ∞, entonces la esperanza de la variable g(X) se puede calcular integrando la función g respecto de la ley de la variable X: E(g(X)) = Z Ω g(X(ω))dP(ω) = Z ∞ −∞ g(x)dPX(x). La integral R ∞ −∞ g(x)dPX(x) se calcula utilizando la densidad o función de probabilidad de la variable X: Z ∞ −∞ g(x)dPX(x) = ½ R ∞ −∞ g(x)fX(x)dx, fX(x) es la densidad de X P k g(xk)P(X = xk), X variable discreta 5
  • 6. Ejemplo 6 Si X es una variable aleatoria con ley normal N(0, σ2 ) y λ es un número real, E(exp (λX)) = 1 √ 2πσ2 Z ∞ −∞ eλx e− x2 2σ2 dx = 1 √ 2πσ2 e σ2λ2 2 Z ∞ −∞ e− (x−σ2λ)2 2σ2 dx = e σ2λ2 2 . La varianza de una variable aleatoria X se define por σ2 X = Var(X) = E((X − E(X))2 ) = E(X2 ) − [E(X)]2 . La varianza nos mide el grado de dispersión de los valores de la variable respecto de su esperanza. Por ejemplo, si X es una variable con ley normal N(m, σ2 ) se tiene P(m − 1.96σ ≤ X ≤ m + 1.96σ) = P(−1.96 ≤ X − m σ ≤ 1.96) = Φ(1.96) − Φ(−1.96) = 0.95, donde Φ es la función de distribución de la ley N(0, 1). Es decir, la probabil- idad de que la variable X tome valores en el intervalo [m − 1.96σ, m + 1.96σ] es igual a 0.95. Diremos que X = (X1, . . . , Xn) es un vector aleatorio n-dimensional si sus componentes son variables aleatorias. La esperanza de un vector aleatorio n-dimensional X será el vector E(X) = (E(X1), . . . , E(Xn)) La matriz de covarianzas de un vector aleatorio n-dimensional X es, por definición, la matriz ΓX = (cov(Xi, Xj))1≤i,j≤n, donde cov(Xi, Xj) = E [(Xi − E(Xi)) (Xj − E(Xj))] . Es decir, los elementos de la diagonal de esta matriz son las varianzas de las variables Xj y fuera de la diagonal encontramos las covarianzas entre dos variables Xi y Xj. 6
  • 7. Como en el caso de variables aleatorias se introduce la ley o distribución de un vector aleatorio n-dimensional X como la probabilidad definida en la σ-álgebra de Borel BRn por PX(B) = P(X−1 (B)) = P(X ∈ B). Diremos que un vector aleatorio n-dimensional X tiene una ley normal N = (m, Γ), donde m ∈ Rn , y Γ es una matriz simétrica y definida positiva, si P (ai ≤ Xi ≤ bi, i = 1, . . . , n) = Z bn an · · · Z b1 a1 (2π det Γ)−n 2 e−1 2 Pn i,j=1(xi−mi)(xj−mj)Γ−1 ij dx1 · · · dxn. En tal caso, se tiene, m = E(X) y Γ = ΓX. Si la matrix Γ es una matriz diagonal Γ =    σ2 1 · · · 0 . . . ... . . . 0 · · · σ2 n    entonces la densidad del vector X será el producto de n densidades normales unidimensionales: fX(x1, . . . , xn) = n Y i=1 Ã 1 p 2πσ2 i e − (x−mi)2 2σ2 i ! . Existen también leyes normales degeneradas, en las que la matriz Γ es singular. En este caso, no existe la densidad de probabilidad, y la ley de X queda determinada por su función caracterı́stica: E ³ eit0X ´ = exp µ it0 m − 1 2 t0 Γt ¶ , donde t ∈ Rn . En esta fórmula t0 es un vector lı́nea (matriz 1 × n) y t es un vector columna (matriz n × 1). Si X es un vector normal n-dimensional con ley N(m, Γ) y A es una matriz m × n, entonces AX es un vector normal m-dimensional con ley N(Am, AΓA0 ). 7
  • 8. Diremos que una variable tiene media de orden p ≥ 1 si E(|X|p ) < ∞. En tal caso, se define el momento de orden p de la variable aleatoria X como mp = E(Xp ). El conjunto de las variables que tienen media de orden p se representa por Lp (Ω, F, P). Sea X una variable aleatoria con función caracterı́stica ϕX(t) = E(eitX ). Los momentos de la variable aleatoria puede calcularse a partir de las derivadas de la función caracterı́stica en el origen mn = 1 in ϕ (n) X (t)|t=0. Recordemos algunas desigualdades importantes en el cálculo de probabil- idades: • Desigualdad de Tchebychev: Si λ > 0 P(|X| > λ) ≤ 1 λp E(|X|p ). • Desigualdad de Schwartz: E(XY ) ≤ p E(X2)E(Y 2). • Desigualdad de Hölder: E(XY ) ≤ [E(|X|p )] 1 p [E(|Y |q )] 1 q , donde p, q > 1 y 1 p + 1 q = 1. • Desigualdad de Jensen: Si ϕ : R → R es una función convexa tal que las variables X y ϕ(X) tienen esperanza, entonces, ϕ(E(X)) ≤ E(ϕ(X)). En particular si ϕ(x) = |x|p , con p ≥ 1, tendremos |E(X)|p ≤ E(|X|p ). 8
  • 9. Recordemos los diferentes modos de convergencia de una sucesión de vari- ables aleatorias Xn, n = 1, 2, 3, . . .: Convergencia casi segura: Xn c.s. −→ X, si lim n→∞ Xn(ω) = X(ω), para todo ω / ∈ N, donde P(N) = 0. Convergencia en probabilidad: Xn P −→ X, si lim n→∞ P(|Xn − X| > ε) = 0, para todo ε > 0. Convergencia en media de orden p ≥ 1: Xn Lp −→ X, si lim n→∞ E(|Xn − X|p ) = 0. Convergencia en ley: Xn L −→ X, si lim n→∞ FXn (x) = FX(x), para todo punto x de continuidad de la función de distribución FX. • La convergencia en media de orden p implica la convergencia en prob- abilidad ya que, debido a la desigualdad de Tchebychev tendremos P(|Xn − X| > ε) ≤ 1 εp E(|Xn − X|p ). • La convergencia casi segura implica la convergencia en probabilidad (esto es más difı́cil de demostrar). • La convergencia casi segura implica la convergencia en media de orden p ≥ 1, si las variables aleatorias Xn están acotadas por una variable aleatoria integrable Y (teorema de convergencia dominada): |Xn| ≤ Y, E(Y ) < ∞. 9
  • 10. La convergencia en ley es diferente de los otros tipos de convergencia, ya que lo que nos interesa es la ley de las variables y no sus valores particulares. Un concepto fundamental en probabilidades es el de independencia. Dos sucesos A, B ∈ F se dicen independientes si P(A ∩ B) = P(A)P(B). Si tenemos una colección finita o infinita de sucesos {Ai, i ∈ I}, diremos que los sucesos de la colección son independientes si P(Ai1 ∩ · · · ∩ Aik ) = P(Ai1 ) · · · P(Aik ) para todo conjunto finito de ı́ndices {i1, . . . , ik} ⊂ I. Una colección de conjuntos de sucesos {Gi, i ∈ I} diremos que es indepen- diente si cualquier colección de sucesos {Ai, i ∈ I} tal que Ai ∈ Gi para todo i ∈ I, es independiente. Una colección de variables aleatorias {Xi, i ∈ I} se dice que es indepen- diente si la colección de σ-álgebras © X−1 i (BRn ), i ∈ I ª lo es. Esto significa que P(Xi1 ∈ Bi1 , . . . , Xik ∈ Bik ) = P(Xi1 ∈ Bi1 ) · · · P(Xik ∈ Bik ), para todo conjunto finito de ı́ndices {i1, . . . , ik} ⊂ I, donde los Bj son con- juntos de Borel. Si dos variables aleatorias reales X, Y son independientes y tienen esper- anza finita, entonces el producto XY tiene esperanza finita y se cumple la relación E(XY ) = E(X)E(Y ) . Más generalmente, si las variables X1, . . . , Xn son independientes, E [g1(X1) · · · gn(Xn)] = E [g1(X1)] · · · E [gn(Xn)] , donde las gi son funciones medibles tales que E [|gi(Xi)|] < ∞. Las componentes de un vector aleatorio son independientes sı́ y solo sı́ su densidad o función de probabilidad es igual al producto de las densidades o funciones de probabilidad de cada componente. 10
  • 11. 1.2 Procesos estocásticos Un proceso estocástico és una familia de variables aleatorias reales {Xt, t ≥ 0} definidas en un espacio de probabilidad (Ω, F, P). El conjunto de parámetros [0, ∞) representa el tiempo y en algunos casos supondremos que es un intervalo acotado [0, T], o el conjunto los números naturales (procesos a tiempo discreto). Per cada ω ∈ Ω, la aplicación t −→ Xt(ω) se dnomina una trayectoria del proceso estocástico. Si fijamos un conjunto finito de instantes {0 ≤ t1 < · · · < tn} tendremos un vector aleatorio (Xt1 , . . . , Xtn ) : Ω −→ Rn . Las distribuciones de probabilidad Pt1,...,tn = P ◦ (Xt1 , . . . , Xtn )−1 se denom- inan las distribuciones en dimensión finita del proceso. El siguiente teorema debido a Kolmogorov asegura la existencia de un proceso estocástico asociado a una familia de distribuciones en dimensión finita que satisfagan una condición de compatibilidad. Teorema 1 Consideremos una familia de probabilidades {Pt1,...,tn , 0 ≤ t1 < · · · < tn, n ≥ 1} tales que: 1. Pt1,...,tn es una probabilidad en Rn 2. (Condición de compatibilidad): Si {0 ≤ s1 < · · · < sm} ⊂ {0 ≤ t1 < · · · < tn}, entonces Pt1,...,tn ◦ π−1 = Ps1,...,sm donde π : Rn → Rm es la proyección natural asociada a los dos con- juntos de ı́ndices. Entonces, existe un proceso estocástico {Xt, t ≥ 0} que tiene la familia {Pt1,...,tn } como distribuciones en dimensión finita. 11
  • 12. La media y la autocovarianza de un proceso estocástico se definen como sigue: mX(t) = E(Xt) ΓX(s, t) = Cov(Xs, Xt) = E((Xs − mX(s))(Xt − mX(t)). La varianza del proceso X se define por σ2 X(t) = ΓX(t, t) = Var(Xt). Ejemplo 7 Consideremos el proceso estocástico Xt = A cos(ϕ + λt), donde A y ϕ son variables aleatorias independientes tales que E(A2 ) < ∞ y ϕ tiene ley uniforme en [0, 2π]. En este caso, mX(t) = 0 ΓX(s, t) = 1 2 E(A2 ) cos λ(t − s). Se dice que un proceso estocástico {Xt, t ≥ 0} es gaussiano o normal si sus distribuciones en dimensión finita son leyes normales multidimensionales. Observamos que en el caso de un proceso gaussiano, la media mX(t) y la autocovarianza ΓX(s, t) determinan las distribuciones en dimensión finita del proceso. La media mX(t) y la varianza σ2 X(t) nos permiten conocer donde se concentran los valores de la variable Xt ası́ como su grado de dispersión, para cada instante t fijo. Por ejemplo, en el caso de un proceso gaussiano, P(mX(t) − 2σX(t) ≤ Xt ≤ mX(t) + 2σX(t)) w 0.95. Notemos que la probabilidad de que las trayectorias del proceso estén comprendidas entre las curvas mX(t) − 2σX(t) y mX(t) − 2σX(t) es mucho más difı́cil de calcular. 12
  • 13. Ejemplo 8 Consideremos un proceso gaussiano {Xt, t ∈ [0, 1]} tal que las variables aleatorias Xt son independientes y con ley N(0, σ2 ). La media y autocovarianza de este proceso son mX(t) = 0 ΓX(s, t) = ½ 1 si s = t 0 si s 6= t Se dice que un proceso estocástico {Xt, t ≥ 0} es una versión de otro proceso {X0 t, t ≥ 0} si para cada t ≥ 0 P{Xt = X0 t} = 1. Se dice también que ambos procesos son equivalentes. Dos procesos equiva- lentes puede tener trayectorias diferentes (véase el Ejercicio 1.6). Diremos que el proceso {Xt, t ≥ 0} es continuo en probabilidad si para todo ε > 0 y todo t ≥ 0 lim s→t P(|Xt − Xs| > ε) = 0. Consideremos un proceso estocástico {Xt, t ≥ 0} tal que E (|Xt|p ) < ∞, para todo t ≥ 0, donde p ≥ 1. Diremos que el proceso {Xt, t ≥ 0} es continuo en media de orden p si lim s→t E (|Xt − Xs|p ) = 0. La continuidad en media de orden p implica la continuidad en probabilidad. Sin embargo, la continuidad en media de orden p no implica necesariamente la continuidad de las trayectorias. Ejemplo 9 El proceso de Poisson {Nt, t ≥ 0} es un proceso estocástico car- acterizado por la ssiguientes propiedades: i) Nt = 0, ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn −Ntn−1 , . . . , Nt2 − Nt1 , son variables aleatorias independientes, 13
  • 14. iii) Si s < t, el incremento Nt − Ns tiene una ley de Poisson de parámetro λ(t − s), es decir P(Nt − Ns = k) = e−λ(t−s) [λ(t − s)]k k! , k = 0, 1, 2, . . . Se puede construir un proceso de Poisson de la forma siguiente. Consid- eremos una sucesión {Yn, n ≥ 1} de variables aleatorias independientes y con ley geométrica de parámetro λ. Es decir, para todo x ≥ 0, P(Yn ≥ x) = e−λx . Pongamos T0 = 0 y para n ≥ 1, Tn = Y1 + · · · + Yn. Entonces, el proceso Nt definido por Nt = n si Tn ≤ t < Tn+1 es un proceso de Poisson de parámetro λ. Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada par de saltos son variables aleatorias independientes con leyes exponenciales de parámetro λ. Por tanto, las trayectorias no son continuas, aunque si que los son en media cuadrática: E £ (Nt − Ns)2¤ = ∞ X k=1 e−λ(t−s) k2 [λ(t − s)]k k! = λ(t − s) + [λ(t − s)]2 s→t −→ 0. Acotaciones adecuadas de los momentos de los incrementos del proceso, permiten deducir la continuidad de las trayectorias. Este es el contenido del siguiente criterio de continuidad, debido a Kolmogorov. 14
  • 15. Proposición 2 (Criterio de continuidad) Supongamos que un proceso es- tocástico {Xt, t ≥ 0} cumple la condición siguiente: E (|Xt − Xs|p ) ≤ cT |t − s|α (1) para todo 0 ≤ s < t ≤ T, donde a > 1 y p > 0. Entonces existe una versión del proceso estocástico Xt que tiene trayectorias continuas. Ejemplo 10 El proceso de Poisson no cumple la condición (1). La condición (1) nos permide además tener información sobre la regu- laridad de las trayectorias. En efecto, fijemos un intervalo de tiempo [0, T]. Entonces, para cada ε > 0 existe una variable aleatoria Gε,T tal que, con probabilidad uno, |Xt(ω) − Xs(ω)| ≤ Gε,T (ω)|t − s| α p −ε , (2) para todo s, t ∈ [0, T]. Además, E(Gp ε,T ) < ∞ para todo p ≥ 1. 1.3 Movimiento browniano En 1828 el botánico inglés Robert Brown observó que los granos de polen en suspensión se movı́an de forma irregular. Posteriormente se descubrió que este fenómeno es debido a los choques aleatorios de las partı́culas de polen con las moléculas del lı́quido. En los años 20 Norbert Wiener presentó un modelo matemático para este movimiento basado en la teorı́a de los procesos estocásticos. La posición de una partı́cula en cada instante t ≥ 0 es un vector variable aleatorio 3-dimensional Bt. En el caso unidimensional la definición del movimiento browniano como proceso estocástico es la siguiente: Definición 3 Un proceso estocástico {Bt, t ≥ 0} es un movimiento browni- ano si se cumplen las condiciones siguientes: i) B0 = 0 ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn −Btn−1 , . . . , Bt2 − Bt1 , son variables aleatorias independientes 15
  • 16. iii) Si s < t, el incremento Bt − Bs tiene una ley normal N(0, t − s) iv) Las trayectorias del proceso son funciones continuas. Observaciones 1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un vector aleatorio (Bt1 , . . . , Btn ) es normal ya que este vector es una trans- formación lineal del vector ¡ Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ¢ que tiene ley normal ya que tiene las componentes independientes y normales. 2) La media y la autocovarianza del movimiento browniano se calculan facil- mente: E(Bt) = 0 E(BsBt) = E(Bs(Bt − Bs + Bs)) = E(Bs(Bt − Bs)) + E(B2 s ) = s = min(s, t) si s ≤ t. Puede comprobarse fácilmente que si un proceso gaussiano tiene media cero y función de autocovarianza ΓX(s, t) = min(s, t), en- tonces cumple las condiciones i), ii) y iii) de la Definición anterior. 3) Puede demostrarse que existe un proceso estocástico que cumple las condiciones anteriores. Para ello, se parte de sus distribuciones en dimensión finita, que son leyes normales N(0, Γ) donde Γ es la la ma- triz      t1 t1 · · · t1 t1 t2 · · · t2 . . . . . . ... . . . t1 t2 · · · tn      . El teorema de extensión de Kolmogorov permite construir un proceso estocástico fijadas las distribuciones en dimensión finita, siempre que sean compatibles, lo que aquı́ es cierto. Finalmente hay que demostrar que se pueden modificar las variables Bt conjuntos de probabilidad cero de forma que las trayectorias sean continuas. Para ello se aplica el criterio de continuidad de Kolmogorov. Como los incrementos Bt − Bs tienen ley normal N(0, t − s), para todo número entero k tendremos E h (Bt − Bs)2k i = (2k)! 2kk! (t − s)k . (3) 16
  • 17. Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una versión continua, ya que E £ (Bt − Bs)4¤ = 3(t − s)2 . 4) En la definición de movimiento bronwiano, se supone que el espacio de probabilidad (Ω, F, P) es arbitrario. Sin embargo, mediante la apli- cación Ω → C ([0, ∞), R) ω → B·(ω) podemos suponer que el espacio de probabilidad es el conjunto de las funciones continuas C ([0, ∞), R) con la σ-álgebra de Borel (gen- erada por los conjuntos abiertos relativos a la estructura de espacio métrico separable y completo) y con una probabilidad igual a la ley del movimiento browniano: P ◦ B−1 . En tal caso las variables aleatorias son las evaluaciones ω(t) y este espacio de probabilidad se denomina espacio canónico. Regularidad de las trayectorias Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo p = 2k y utilizando (3), tendremos α = k. Por lo tanto, para todo ε > 0 existe una variable aleatoria Gε,T tal que |Bt − Bs| ≤ Gε,T |t − s| 1 2 −ε , (4) para cada s, t ∈ [0, T]. Es decir, las trayectorias del movimiento Browniano son Hölder continuas de orden 1 2 − ε para todo ε > 0. Intuitivamente, esto significa que ∆Bt = Bt+∆t − Bt w (∆t) 1 2 . En media esta aproximación es exacta: E £ (∆Bt)2¤ = ∆t. Variación cuadrática del movimiento browniano Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisión π de este intervalo 0 = t0 < t1 < · · · < tn = t. 17
  • 18. La norma de la subdivisión π se define como |π| = maxk ∆tk, donde ∆tk = tk − tk−1 . Pongamos ∆Bk = Btk − Btk−1 . Entonces, si tj = jt n tendremos n X k=1 |∆Bk| w n µ t n ¶1 2 −→ ∞, mientras que n X k=1 (∆Bk)2 w n t n = t. (5) Esas propiedades pueden formularse de manera rigurosa como sigue: En primer lugar, puede demostrarse que las sumas de los cuadrados de los incrementos convergen en media cuadrática hacia la longitud del intervalo de tiempo considerado: E   Ã n X k=1 (∆Bk)2 − t !2   = E   Ã n X k=1 £ (∆Bk)2 − ∆tk ¤ !2   = n X k=1 E ³£ (∆Bk)2 − ∆tk ¤2 ´ = n X k=1 £ 4 (∆tk)2 − 2 (∆tk)2 + (∆tk)2¤ = 3 n X k=1 (∆tk)2 ≤ 3t|π| |π|→0 −→ 0. Por otra parte, la variación total de las trayectorias del movimiento brow- niano, definida como V = sup π n X k=1 |∆Bk| es infinita con probabilidad uno. En efecto, utilizando la continuidad de las trayectorias del movimiento browniano, tendremos n X k=1 (∆Bk)2 ≤ sup k |∆Bk| Ã n X k=1 |∆Bk| ! ≤ V sup k |∆Bk| |π|→0 −→ 0 (6) si V < ∞, lo cual contradice que Pn k=1 (∆Bk)2 converja en media cuadrática hacia t cuando |π| → 0. 18
  • 19. Propiedad de autosimilitud Para todo número real a > 0, el proceso © a−1/2 Bat, t ≥ 0 ª es un movimiento browniano. En efecto, este proceso es normal, con media cero y función de autocovarianza igual a min(s, t). Procesos relacionados con el movimiento browniano 1.- El puente browniano: Consideremos el proceso Xt = Bt − tB1, t ∈ [0, 1]. Se trata de un proceso normal centrado con función de autocovarianza E(XtXs) = min(s, t) − st, que verifica X0 = 0, X1 = 0. 2.- El movimiento browniano con deriva: Consideremos el proceso Xt = σBt + µt, t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Se trata de un proceso normal con media y función de autocovarianza E(Xt) = µt, ΓX(s, t) = σ2 min(s, t) 3.- Movimiento browniano geométrico: Es el proceso estocástico propuesto por Black, Scholes y Merton como modelo para la curva de precios de los activos financieros. Su definición es la siguiente Xt = eσBt+µt , t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Es decir, se trata de la exponencial de un movimiento browniano con deriva lineal. 19
  • 20. Simulación del movimiento browniano El movimiento browniano puede considerarse como el lı́mite de los paseos aleatorios. Fijemos un intervalo de tiempo [0, T]. Consideremos n variables aleatorias ξ1, . . . , ξn independientes, idénticamente distribuidas, centradas y de varianza T n . Formemos las sumas parciales Rk = ξ1 + · · · + ξk, k = 1, . . . , n. El Teorema Central del Lı́mite nos dice que cuando n tiende a infinito, la sucesión Rn converge en ley hacia la ley N(0, T). Consideremos ahora el proceso estocástico continuo Sn(t) construido por interpolación lineal a partir de los valores Sn( kT n ) = Rk k = 0, . . . , n. Es decir, colocamos las sumas parciales R1, R2, . . . en los instantes T n , 2T n , 3T n , . . . . Se verifica una versión funcional del Teorema Central del Lı́mite, conocida con el nombre de Principio de Invariancia de Donsker, que nos dice que la sucesión de procesos estocásticos Sn(t) convege en ley hacia el movimiento browniano en [0, T]. También puede hacerse una simulación de las trayectorias brownianas mediante series de Fourier con coeficientes aleatorios. La representación de Paley-Wiener del movimiento browniano es Bt = Z0 t √ 2π + 2 √ π ∞ X n=1 Zn sin(nt/2) n , t ∈ [0, 2π], donde las Zn, n = 0, 1, . . . son variables aleatorias independientes y con ley N(0, 1). La serie converge uniformemente en [0, 2π], para cada ω, casi seguramente. Para utilizar esta fórmula en la simulación de las trayectorias brownianas debemos elegir el número M de funciones trigonométricas y el número N de puntos de discretización de las funciones: Z0 tj √ 2π + 2 √ π M X n=1 Zn sin(ntj/2) n , 20
  • 21. donde tj = 2πj N , j = 0, 1, . . . , N. 1.4 Esperanza condicionada La probabilidad condicionada de un suceso A por un suceso B (suponiendo P(B) > 0) se define como P(A|B) = P(A∩B) P(B) . Vemos que A y B son independientes sı́ y solo si P(A|B) = P(A). La probabilidad condicionada P(A|B) representa la probabilidad del suceso A suponiendo que sabemos que B ha ocurrido. La aplicación A 7−→ P(A|B) define una nueva probabilidad en la σ-álgebra F que se concentra en el con- junto B. Se puede calcular entonces la esperanza condicionada por B de una variable aleatoria integrable X: E(X|B) = 1 P(B) E(X1B), donde 1B representa la función indicatriz del suceso B definida por 1B(ω) = ½ 1 si ω ∈ B 0 si ω / ∈ B Un concepto más complicado es el condicionamiento por una σ-álgebra de sucesos. Consideremos una σ-àlgebra B ⊂ F y una variable aleatoria integrable X. Una variable aleatoria Z se denomina la esperanza condicionada de la variable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dos propiedades siguientes: • Z es medible respecto de B. • Para todo suceso A ∈ B E (Z1A) = E (X1A) . 21
  • 22. Puede demostrarse que la esperanza condicionada existe y es única casi se- guramente, de manera que si e Z fuese otra variable con las mismas propiedades, entonces Z = e Z, P-casi seguramente. En el caso particular en que la σ-álgebra B está generada per una partición finita {B1, ..., Bm}, entonces E(X|B) es una variable aleatoria elemental que en cada conjunto Bj toma el valor constante E(X|Bj), es decir, E(X|B) = m X j=1 E ¡ X1Bj ¢ P(Bj) 1Bj . Reglas para el cálculo de esperanzas condicionadas: Regla 1 La esperanza condicionada es lineal: E(aX + bY |B) = aE(X|B) + bE(Y |B) Regla 2 La variable y su esperanza condicionada tienen la misma esperanza: E (E(X|B)) = E(X) Esta propiedad es una consecuencia inmediata de la definición, tomando A = Ω. Regla 3 Si la variable aleatoria X y la σ-álgebra B son independientes, entonces E(X|B) = E(X). En efecto, para todo suceso A ∈ B tendremos E (X1A) = E (X)E(1A) = E(E(X)1A). Regla 4 Si X es B-medible, entonces E(X|B) = X. Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces E(ZX|B) = ZE(X|B). Es decir, las variables aleatorias B-medibles se comportan como con- stantes y pueden sacarse fuera de la esperanza condicionada. Regla 6 Si C ⊂ B, entonces E (E(X|B)|C) = E (E(X|C)|B) = E(X|C) 22
  • 23. Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es B- medible y X es independiente de B. Consideremos una función h(x, z) tal que h(X, Z) es integrable. Entonces, se tiene E (h(X, Z)|B) = E (h(X, z)) |z=Z Es decir, primero calculamos la esperanza E (h(X, z)) para un valor arbitrario z de la variable Z y luego substituimos z por Z. La esperanza condicionada tiene propiedades similares a la esperanza or- dinaria. Por ejempo se cumple la siguiente propiedad de monotonı́a: X ≤ Y ⇒ E(X|B) ≤ E(Y |B), que implica la desigualdad |E(X|B) | ≤ E(|X| |B). También se cumple la desigualdad de Jensen: Si ϕ es una función convexa tal que E(|ϕ(X)|) < ∞, entonces ϕ (E(X|B)) ≤ E(ϕ(X)|B). (7) En particular, si tomamos ϕ(x) = |x|p con p ≥ 1, se obtiene |E(X|B)|p ≤ E(|X|p |B), por lo tanto, tomando esperanzas, deducimos que si E(|X|p ) < ∞, entonces, E(|E(X|B)|p ) < ∞, y E(|E(X|B)|p ) ≤ E(|X|p ). Si la σ-álgebra B está generada por las variables aleatorias Y1, . . . , Ym, entonces, la esperanza condicionada se representa por E(X|Y1, . . . , Ym) y es una cierta función g(Y1, . . . , Ym) de estas variables. En particular, si las variables X, Y1, . . . , Ym tienen una ley conjunta con densidad f(x, y1, . . . , ym), entonces, la esperanza condicionada se puede calcular como la esperanza de la densidad condicionada: f(x|y1, . . . , ym) = f(x, y1, . . . , ym) R +∞ −∞ f(x, y1, . . . , ym)dy1 · · · dym , es decir, E(X|Y1, . . . , Ym) = Z +∞ −∞ xf(x|Y1, . . . , Ym)dx. 23
  • 24. En el caso en que la σ-álgebra B esté generada por un conjunto infinito de variables aleatorias {Yj}, escribiremos también E(X|B) = E(X| {Yj}), pero el cálculo no se puede efectuar mediante una fórmula como la anterior y necesitaremos utilizar las reglas que hemos introducido antes. Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt, t ≥ 0}. Para cada instante t, definimos la σ-álgebra Ft generada por las variables aleatorias {Bs, s ≤ t}. La σ-álgebra Ft contiene la historia del movimiento browniano hasta el instante t. Esto quiere decir que: i) Los sucesos F de Ft serán conocidos (se sabrá si han ocurrido o no) en el instante t. ii) El valor de una variable aleatoria X(ω) medible respecto de la σ-álgebra Ft será una función de la trayectoria del movimiento browniano {Bs(ω), s ∈ [0, t]} . Observemos que Fs ⊂ Ft si s ≤ t, es decir, la familia de σ-álgebras {Ft, t ≥ 0} es creciente. Diremos que {Ft, t ≥ 0} es una filtración en el es- pacio de probabilidad (Ω, F, P). Queremos calcular E(Bt|Fs) = E(Bt|Br, r ≤ s). • Si s ≥ t, la variable Bt es Fs-medible, y por la Regla 4 obtenemos E(Bt|Fs) = Bt. • Si s < t, por la propiedad de linealidad (Regla 1): E(Bt|Fs) = E(Bt − Bs + Bs|Fs) = E(Bt − Bs |Fs) + E( Bs|Fs). Como Bt − Bs es independiente de Fs, la Regla 3 nos da E(Bt − Bs |Fs) = E(Bt − Bs ) = 0, y, por lo tanto, obtenemos E(Bt|Fs) = Bs. (8) 24
  • 25. El conjunto de las variables aleatorias Z que son medibles respecto de una σ-álgebra B y que son de cuadrado integrable (E(Z2 ) < ∞), lo representare- mos por L2 (Ω, B, P). Puede demostrarse que L2 (Ω, F, P) es un espacio de Hilbert con el producto escalar hZ, Y i = E(ZY ), y que L2 (Ω, B, P) es un subespacio cerrado de L2 (Ω, F, P). En este contexto, si X es una variable tal que E(X2 ) < ∞, la esperanza condicionada E(X|B) es la variable del espacio L2 (Ω, B, P) más próxima a X en media cuadrática: E £ (X − E(X|B))2¤ = min Z∈L2(Ω,B,P) E £ (X − Z)2¤ . (9) Es decir, E(X|B) es la proyección de X en el subespacio L2 (Ω, B, P). Desde el punto de vista de la teorı́a de la estimación, la esperanza condi- cionada E(X|B) es el mejor predictor de la variable X a partir de la σ-álgebra B (estimador óptimo). Demostración de (9): Sea X una variable tal que E(X2 ) < ∞. La desigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B) también es de cuadrado integrable ya que E ¡ (E(X|B))2¢ ≤ E ¡ E(X2 |B) ¢ = E(X2 ). La regla 5 nos permite demostrar que la diferencia X − E(X|B) es ortogonal a L2 (Ω, B, P). En efecto, si Z es una variable de L2 (Ω, B, P) tendremos E [(X − E(X|B))Z] = E(XZ) − E(E(X|B)Z) = E(XZ) − E(E(XZ|B)) = 0. Finalmente, esta ortogonalidad implica que E £ (X − Y )2¤ = E £ (X − E(X|B))2¤ + E £ (E(X|B) − Z)2¤ , de lo que se deduce (9). ¤ Ejercicios 25
  • 26. 1.1 Supongamos que {Hi, i ∈ I} es una familia de σ-álgebras en un conjunto Ω. Demostrar que H = ∩{Hi, i ∈ I} es también una σ-álgebra. 1.2 Supongamos que X es una variable aleatoria real tal que M = E[exp(k|X|)] < ∞ para un cierto k > 0. Probar que P(|X| > λ) ≤ Me−kλ , para todo λ ≥ 0. 1.3 Sea (Ω, F, P) un espacio de probabilidad y consideremos una sucesión de sucesos A1, A2, . . . tales que ∞ X k=1 P(Ak) < ∞. Demostrar el lema de Borel-Cantelli: P (∩∞ m=1 ∪∞ k=m Ak) = 0, es decir, la probabilidad que ocurran infinitos sucesos de la sucesión es nula. 1.4 Sea Z una variable aleatoria con ley N(0, σ2 ). A partir de la fórmula E(eλZ ) = e 1 2 λ2 σ2 , y desarrollando en serie de potencias la función exponencial deducir que para todo k ≥ 1 E(Z2k ) = (2k)! 2kk! σ2k , E(Z2k−1 ) = 0. 1.5 Sea Z una variable aleatoria con ley de Poisson de parámetro λ. Com- probar que la función caracterı́stica de Z vale ϕZ(t) = exp £ λ ¡ eit − 1 ¢¤ . Como aplicación calcular E(Z2 ), Var(Z) y E(Z3 ). 26
  • 27. 1.6 Sea (Ω, F, P) = ([0, ∞), B[0,∞), µ), donde µ es una probabilidad en [0, ∞) con función de distribución continua. Consideremos en este espacio de probabilidad los procesos estocásticos Xt(ω) = ½ 1 si t = ω 0 si t 6= ω Yt(ω) = 0. Comprobar que estos procesos tienen las mismas distribuciones en di- mensión finita, pero las trayectorias del proceso X son todas discontin- uas. 1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 ≥ 0. De- mostrar que el proceso n e Bt = Bt0+t − Bt0 , t ≥ 0 o es también un movimiento browniano. 1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular P (|Bt| < ρ) donde ρ > 0. 1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una matriz U cuadrada de dimensión n, ortogonal (es decir, UU0 = I). Demostrar que el proceso e Bt = UBt es también un movimiento browniano. 1.10 Calcular la media y la autocovarianza del movimiento browniano geométrico. Es un proceso gaussiano? 27
  • 28. 2 Integración estocástica Supongamos que {Bt, t ≥ 0} es un movimiento browniano definido en un es- pacio de probabilidad (Ω, F, P). Consideremos la familia creciente {Ft, t ≥ 0} de σ-álgebras generadas por este proceso. Supondremos además que Ft con- tiene los conjuntos de probabilidad cero. Esto significa que Ft es la mı́nima σ-álgebra que contiene los conjuntos de la forma {Bs ∈ A} ∪ N donde s ∈ [0, t], A pertenece a la σ-álgebra de Borel BR, y N es un conjunto de probabilidad cero. Diremos que un proceso estocástico {ut, u ≥ 0} es adaptado (a la familia de σ-álgebras Ft) si para cada t la variable aleatoria ut es Ft-medible. La inclusión de los sucesos de probabilidad cero en cada σ-álgebra Ft tiene las siguientes consecuencias interesantes: a) Toda versión de un proceso adaptado es también adaptado. b) La familia de σ-álgebras es continua por la derecha, es decir, para todo t ≥ 0 ∩s>tFs = Ft. Demostración de b): Consideremos las σ-álgebras Ft = σ{Br − Bt, r ≥ s}. Si B ∈ ∩s>tFs, la σ-álgebra generada por B y por Ft , es independiente de Ft+ 1 n para todo n. Por tanto, σ(B, Ft) será independiente de Ft , y tendemos E(1B|Ft) = E(1B|Ft ∨ Ft ) = 1B, de lo que se deduce 1B ∈ Ft. ¤ La σ-álgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto implica que las variables aleatorias F0-medibles serán constantes, casi segu- ramente. Nuestro objetivo es la definición de integrales estocásticas de la forma R T 0 utdBt . Una posibilidad consiste en utilizar la definición de integral de Riemann Stieltjes: 28
  • 29. Consideremos una partición del intervalo [0, T]: τn : 0 = t0 < t1 < · · · < tn−1 < tn = T ası́ como una partición intermedia: σn : ti ≤ sileqti+1 , i = 0, . . . , n − 1. Dadas dos funciones f y g en el intervalo [0, T], la integral de Riemann Stieltjes R T 0 fdg se define como el lı́mite lim n→∞ n X i=1 f(si−1)∆gi cuando supi(ti − ti−1) n→∞ −→ 0, suponiendo que este lı́mite existe y es indepen- diente de la sucesión de particiones τn y de sus particiones intermedias σn, con la notación ∆gi = g(ti) − g(ti−1). Se sabe que la integral de Riemann Stieltjes R T 0 fdg existe si la función f es continua y la función g tiene variación total acotada, es decir: sup τ X i |∆gi| < ∞. Como las trayectorias del movimiento browniano tienen variación total infinita (véase (6)) no podemos utilizar este criterio para asegurar que la integral de Riemann-Stieltjes R T 0 ut(ω)dBt(ω) existe para cada ω, si u es un proceso arbitrario con trayectorias continuas. Obsevemos, si embargo, que si las trayectorias del proceso u son difer- enciables con derivadas acotadas, entonces, la integral de Riemann Stielt- jes R T 0 ut(ω)dBt(ω) existe y puede calcularse mediante una integración por partes: R T 0 utdBt = uT BT − R T 0 u0 tBtdt. En este apartado presentaremos una construcción de la integral R T 0 utdBt mediante un procedimiento global de tipo probabilı́stico. En primer lugar definiremos la clase de procesos que integraremos: Designaremos por L2 a,T el conjunto de los procesos estocásticos u = {ut, t ∈ [0, T]} tales que: 29
  • 30. a) Para cada t ∈ [0, T], la aplicación (s, ω) −→ us(ω) definida en [0, t] × Ω es medible respecto de la σ-álgebra producto B[0,t] × Ft. b) E ³R T 0 u2 t dt ´ < ∞. Un proceso que verifica la condición a) se dice que es progresivamente medible. En general, que un proceso estocástico u sea medible significa que la función de dos variables (s, ω) −→ us(ω) es medible en la σ-álgebra producto B[0,T]×F. La propiedad a) require la medibilidad de la restricción del proceso u a cada conjunto [0, t] × Ω. Esta propiedad implica que el proceso u sea adaptado, ya que si una función es medible en un espacio producto, al fijar una coordenada resulta medible como función de la segunda coordenada. Por otra parte, la propiedad a) es esencial para garantizar que variables aleatorias del tipo R t 0 usds sean Ft-medibles. La condición b) significa que el momento de segundo orden es integrable en [0, T], ya que, el teorema de Fubini nos permite escribir E µZ T 0 u2 t dt ¶ = Z T 0 E ¡ u2 t ¢ dt. La propiedad b) nos dice que el proceso u como función de las dos variables (t, ω) pertenece al espacio L2 ([0, T] × Ω). Definiremos la integral estocástica R T 0 utdBt para procesos u de la clase L2 a,T como el lı́mite en L2 (Ω) de la integral de procesos elementales. Por definición un proceso u de L2 a,T es elemental si se puede expresar de la forma ut = n X j=1 φj1(tj−1,tj](t), (10) donde 0 = t0 < t1 < · · · < tn = T y las φj son variables aleatorias de cuadrado integrable Ftj−1 -medibles. Si u es un proceso elemental de la forma (10) se define la integral es- tocástica de u respecto del movimiento browniano B como Z T 0 utdBt = n X j=1 φj ¡ Btj − Btj−1 ¢ . (11) 30
  • 31. La integral estocástica definida en el espacio E de los procesos elementales tiene las siguiente propiedad de isometria: E ·³R T 0 utdBt ´2 ¸ = E ³R T 0 u2 t dt ´ (12) Demostración de la isometrı́a: Pongamos ∆Bj = Btj −Btj−1 . Entonces E ¡ φiφj∆Bi∆Bj ¢ = ½ 0 si i 6= j E ¡ φ2 j ¢ (tj − tj−1) si i = j ya que si i < j las variables aleatorias φiφj∆Bi y ∆Bj son independientes y si i = j las variables aleatorias φ2 i y (∆Bi)2 son independientes. Por lo tanto se obtiene E µZ T 0 utdBt ¶2 = n X i,j=1 E ¡ φiφj∆Bi∆Bj ¢ = n X i=1 E ¡ φ2 i ¢ (ti − ti−1) = E µZ T 0 u2 t dt ¶ . ¤ La extensión de la integral estocástica a todos los procesos de la clase L2 a,T se basa en el siguiente resultado de aproximación: Lema 4 Si u es un proceso de la clase L2 a,T existe una sucesión de procesos elementales u(n) tales que lim n→∞ E µZ T 0 ¯ ¯ ¯ut − u (n) t ¯ ¯ ¯ 2 dt ¶ = 0. (13) Demostración: La demostración de este resultado la haremos en dos etapas: 1. Supongamos que el proceso u es continuo en media cuadrática. En tal caso, podemos tomar la sucesión aproximadora u (n) t = n X j=1 utj−1 1(tj−1,tj](t), 31
  • 32. siendo tj = jT n . La continuidad en media cuadrática del proceso u nos garantiza que E µZ T 0 ¯ ¯ ¯ut − u (n) t ¯ ¯ ¯ 2 dt ¶ = Z T 0 E µ¯ ¯ ¯ut − u (n) t ¯ ¯ ¯ 2 ¶ dt ≤ T sup |t−s|≤T/n E ¡ |ut − us|2 ¢ converge hacia cero cuando n tiende a infinito. 2. Supongamos que u es un proceso arbitrario de la clase L2 a,T . En tal caso, existe una sucesión de procesos v(n) , pertenecientes a la clase L2 a,T , continuos en media cuadrática y tales que lim n→∞ E µZ T 0 ¯ ¯ ¯ut − v (n) t ¯ ¯ ¯ 2 dt ¶ = 0. (14) En efecto, definimos v (n) t = n Z t t− 1 n usds = n µZ t 0 usds − Z t 0 us− 1 n ds ¶ , con la convención u(s) = 0 si s < 0. Estos procesos son continuos en media cuadrática (también tienen trayectorias continuas), y pertenecen a la clase L2 a,T , debido a la propiedad a). Además se cumple (14) ya que para cada (t, ω) tenemos Z T 0 ¯ ¯u(t, ω) − v(n) (t, ω) ¯ ¯2 dt n→∞ −→ 0 (véase Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia dominada en el espacio producto [0, T] × Ω ya que Z T 0 ¯ ¯v(n) (t, ω) ¯ ¯2 dt ≤ Z T 0 |u(t, ω)|2 dt. ¤ Definición 5 Si u es un proceso de la clase L2 a,T , la integral estocástica se define como el lı́mite en L2 (Ω) Z T 0 utdBt = lim n→∞ Z T 0 u (n) t dBt, (15) donde u(n) es una sucesión de procesos elementales tales que cumplen (13). 32
  • 33. Que el lı́mite (15) existe es debido a que la sucesión de variables aleato- rias R T 0 u (n) t dBt es de Cauchy en el espacio L2 (Ω), debido a la propiedad de isometrı́a (12): E "µZ T 0 u (n) t dBt − Z T 0 u (m) t dBt ¶2 # = E µZ T 0 ³ u (n) t − u (m) t ´2 dt ¶ ≤ 2E µZ T 0 ³ u (n) t − ut ´2 dt ¶ +2E µZ T 0 ³ ut − u (m) t ´2 dt ¶ n,m→∞ → 0. También puede demostrarse que el lı́mite (15) no depende de la sucesión u(n) siempre que esta sucesión cumpla (13). La integral estocástica tiene las siguientes propiedades importantes: 1.- Isometrı́a: E "µZ T 0 utdBt ¶2 # = E µZ T 0 u2 t dt ¶ . 2.- Media cero: E ·µZ T 0 utdBt ¶¸ = 0. 3.- Linealidad: Z T 0 (aut + bvt) dBt = a Z T 0 utdBt + b Z T 0 vtdBt. 4.- Localidad: Se cumple R T 0 utdBt = 0 casi seguramente, en el conjunto G = nR T 0 u2 t dt = 0 o . La propiedad de localidad es una consecuencia de que en el conjunto G la sucesión aproximadora u (n,m,N) t = n X j=1 m "Z (j−1)T n (j−1)T n − 1 m usds # 1((j−1)T n ,jT n ](t) se anula. 33
  • 34. Ejemplo 12 Z T 0 BtdBt = 1 2 B2 T − 1 2 T. Como el proceso Bt es continuo en media cuadrática podemos tomar como sucesión aproximadora u (n) t = n X j=1 Btj−1 1(tj−1,tj](t), donde tj = jT n , y tendremos Z T 0 BtdBt = lim n→∞ n X j=1 Btj−1 ¡ Btj − Btj−1 ¢ = 1 2 lim n→∞ ³ B2 tj − B2 tj−1 ´ − 1 2 lim n→∞ n X j=1 ¡ Btj − Btj−1 ¢2 = 1 2 B2 T − 1 2 T. (16) Si xt es una función derivable, las reglas del cálculo diferencial e integral nos dicen que Z T 0 xtdxt = Z T 0 xtx0 tdt = 1 2 ¡ x2 T − x2 0 ¢ . Observemos que en el caso del movimiento browniano nos aparece un término adicional igual a −1 2 T. Ejemplo 13 Consideremos una función determinista g tal que R T 0 g(s)2 ds < ∞. En este caso, la integral estocástica R T 0 gsdBs es una variable aleatoria con ley normal N(0, Z T 0 g(s)2 ds). 34
  • 35. 2.1 Integrales estocásticas indefinidas Consideremos un proceso u de la clase L2 a,T . El proceso u1[0,t] también pertenece a L2 a,T , y por lo tanto, podemos definir su integral: Z t 0 usdBs := Z T 0 us1[0,t](s)dBs. De esta forma hemos construido un nuevo proceso estocástico ½Z t 0 usdBs, 0 ≤ t ≤ T ¾ que es la integral indefinida del proceso u respecto de B. En este apartado estudiaremos las propiedades de las integrales indefinidas. En primer lugar, debido a la linealidad de la integral estocástica, tenemos la propiedad de aditividad siguiente: Z b a usdBs + Z c b usdBs = Z c a usdBs, si a ≤ b ≤ c. Si a < b y A es un suceso de la σ-álgebra Fa entonces, Z b a 1AusdBs = 1A Z b a usdBs. En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable acotada y Fa-medible. Una propiedad importante de las integrales indefinidas es la propiedad de martingala. Definición 6 Un proceso estocástico {Mt, t ≥ 0} diremos que es una martin- gala respecto de una familia creciente de σ-álgebras {Mt, t ≥ 0}, contenidas en F, si se cumplen las propiedades siguientes: (i) Mt es medible respecto de Mt, para todo t ≥ 0. (ii) E(|Mt|) < ∞ para todo t ≥ 0. (iii) E(Mt|Ms) = Ms, si s ≤ t. 35
  • 36. La propiedad (iii) puede expresarse de forma equivalente como sigue E(Mt − Ms|Ms) = 0 y ello significa que la esperanza condicionada de los incrementos de una mar- tingala es cero. Las martingalas se introduden para modelizar las ganancias de un jugador que juega una partida equitativa en un juego de azar. En he- cho de que la ganancia esperada tenga valor medio cero representa el carácter equitativo del juego. De forma análoga se puede introducir el concepto de martingala para un proceso {Mt, 0 ≤ t ≤ T } respecto de una familia creciente de σ-álgebras {Mt, 0 ≤ t ≤ T }. En tal caso, la propiedad de martingala nos dice que Mt = E(MT |Mt). Fijémonos en que la variable terminal MT determina la martingala ya que las variables Mt se obtinenen tomando la esperanza condicionada de MT respecto de la familia creciente de σ-álgebras. Como consecuencia de la propiedad de martingala tendremos que la es- peranza de una martingala es consante: E(Mt) = E(M0). Ejemplo 14 Si Bt es un movimiento browniano y Ft es la filtración generada por Bt, entonces, los procesos: Bt B2 t − t exp(aBt − a2 t 2 ) son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido demostrada en (8). Para B2 t − t, la propiedad de martingala se deduce del siguiente cálculo de esperanzas condicionadas, si s < t E(B2 t |Fs) = E((Bt − Bs + Bs)2 |Fs) = E((Bt − Bs )2 |Fs) + 2E((Bt − Bs ) Bs|Fs) +E(B2 s |Fs) = E (Bt − Bs )2 + 2BsE((Bt − Bs ) |Fs) + B2 s = t − s + B2 s . 36
  • 37. Finalmente, para el proceso exp(aBt − a2t 2 ) tendremos E(eaBt−a2t 2 |Fs) = eaBs E(ea(Bt−Bs)−a2t 2 |Fs) = eaBs E(ea(Bt−Bs)−a2t 2 ) = eaBs e a2(t−s) 2 −a2t 2 = eaBs−a2s 2 . Las martingalas con trayectorias continuas cumplen la desigualdad fun- damental siguiente debida a Doob: Desigualdad de Doob: Supongamos que {Mt, 0 ≤ t ≤ T } es una martin- gala con trayectorias continuas. Entonces, para todo p ≥ 1 y todo λ > 0 se cumple P µ sup 0≤t≤T |Mt| > λ ¶ ≤ 1 λp E(|MT |p ). Obsevamos que se trata de una generalización de la desigualdad de Tcheby- chev. Como consecuencia de la desigualdad de Doob puede demostrarse que las integrales estocásticas indefinidas tienen trayectorias continuas. Proposición 7 Supongamos que u es un proceso de la clase L2 a,T . Entonces, la integral estocástica R t 0 usdBs tiene una versión con trayectorias continuas. Demostración: Consideremos una sucesión de procesos elementales u(n) tal que lim n→∞ E µZ T 0 ¯ ¯ ¯ut − u (n) t ¯ ¯ ¯ 2 dt ¶ = 0. Pongamos I(t) = Z t 0 usdBs, In(t) = Z t 0 u(n) s dBs. El proceso In tiene trayectorias continuas y es una martingala respecto de la familia creciente de σ-álgebras Ft. En efecto, si s < t y φj es el valor del proceso 37
  • 38. estocástico u(n) cada el intevalo (tj−1, tj] tendremos E (In(t) − In(s)|Fs) = E   X s≤tj−1≤tj≤t φj∆Bj|Fs   = X s≤tj−1≤tj≤t E ¡ E ¡ φj∆Bj|Ftj−1 ¢ |Fs ¢ = X s≤tj−1≤tj≤t E ¡ φjE ¡ ∆Bj|Ftj−1 ¢ |Fs ¢ = 0. Por consiguiente, la diferencia In − Im será una martingala, y la desigualdad de Doob con p = 2 nos permite escribir P µ sup 0≤t≤T |In(t) − Im(t)| > λ ¶ ≤ 1 λ2 E ¡ |In(T) − Im(T)|2 ¢ = 1 λ2 E µZ T 0 ¯ ¯ ¯u (n) t − u (m) t ¯ ¯ ¯ 2 dt ¶ n,m→∞ −→ 0. Podemos elegir una sucesión creciente de números naturales nk, k = 1, 2, . . . tal que P µ sup 0≤t≤T |Ink+1 (t) − Ink (t)| > 2−k ¶ ≤ 2−k . Los sucesos Ak := © sup0≤t≤T |Ink+1 (t) − Ink (t)| > 2−k ª tienen probabilidades que forman una serie convergence, es decir, ∞ X k=1 P(Ak) < ∞. El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un número infinito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidad cero tal que para todo ω / ∈ N podemos encontrar un ı́ndice k1(ω) tal que si k ≥ k1(ω) sup 0≤t≤T |Ink+1 (t, ω) − Ink (t, ω)| ≤ 2−k . Por lo tanto, si ω / ∈ N, la sucesión Ink (t, ω) es uniformemente convergente en [0, T] hacia una función continua Jt(ω). Por otra parte, sabemos que para cada t ∈ [0, T], Ink (t) converge en media cuadrática hacia R t 0 usdBs. Por consiguiente, 38
  • 39. Jt(ω) = R t 0 usdBs casi seguramente, para todo t ∈ [0, T], y ello nos dice que la integral indefinida tiene una versión con trayectorias continuas. ¤ La integral indefinida Mt = R t 0 usdBs es una martingala respecto de la familia de σ-álgebras Ft y se cumple la desigualdad siguiente, para todo λ > 0, P µ sup 0≤t≤T |Mt| > λ ¶ ≤ 1 λ2 E µZ T 0 u2 t dt ¶ . (17) En efecto, la propiedad de martingala de R t 0 usdBs de deduce de la propiedad de martingala de las integrales indefinidas R t 0 u (n) s dBs que hemos obtenido en la demostración anterior. La desigualdad (17) se deduce de la desigualdad de Doob y de la propiedad de isometrı́a de la integral estocástica. La martingala Mt = R t 0 usdBs tiene trayectorias continuas, pero son ir- regulares como las del movimiento browniano. En particular, las trayectorias de las integrales indefinidas tienen variación cuadrática finita como nos dice la propiedad siguiente: Proposición 8 (Variación cuadrática ) Sea u un proceso de la clase L2 a,T . Entonces, n X j=1 ÃZ tj tj−1 usdBs !2 L1(Ω) −→ Z t 0 u2 sds cuando n tiende a infinito, donde tj = jt n . Demostración: Observemos en primer lugar que si el proceso u es elemen- tal, el resultado es una consecuencia de la propiedad de variación cuadrática del movimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valor constante φ aparecerá una contribución del tipo φ2 X a≤tj−1≤tj≤b (∆Bj)2 n→∞ −→ φ2 (b − a) . Supongamos que u es un proceso arbitrario de la clase L2 a,T . Existe una sucesión u(k) de procesos elementales tal que lim k→∞ E µZ T 0 ¯ ¯ ¯ut − u (k) t ¯ ¯ ¯ 2 dt ¶ = 0. 39
  • 40. Utilizando la notación Vn(u) = n X j=1 ÃZ tj tj−1 usdBs !2 tendremos E µ¯ ¯ ¯ ¯Vn(u) − Z t 0 u2 sds ¯ ¯ ¯ ¯ ¶ ≤ E ¡¯ ¯Vn(u) − Vn(u(k) ) ¯ ¯ ¢ +E µ¯ ¯ ¯ ¯ Vn(u(k) ) − Z t 0 ¡ u(k) s ¢2 ds ¯ ¯ ¯ ¯ ¶ +E µ¯ ¯ ¯ ¯ Z t 0 ¡ u(k) s ¢2 ds − Z t 0 u2 sds ¯ ¯ ¯ ¯ ¶ . El primer sumando puede acotarse como sigue, utilizando la desigualdad de Schwartz y la isometrı́a de la integral estocástica: E ¡¯ ¯Vn(u) − Vn(u(k) ) ¯ ¯ ¢ = E " n X j=1 ÃZ tj tj−1 ¡ us + u(k) s ¢ dBs ! ÃZ tj tj−1 ¡ us − u(k) s ¢ dBs !# ≤ £ E ¡ Vn(u + u(k) ) ¢ E ¡ Vn(u − u(k) ) ¢¤1/2 = · E µZ t 0 ¡ us + u(k) s ¢2 ds ¶ E µZ t 0 ¡ us − u(k) s ¢2 ds ¶¸1/2 . Observemos que la acotación obtenida no depende de n y converge hacia cero cuando k tiende a infinito. Por tanto, fijado ε > 0 existe un k0 tal que E µ¯ ¯ ¯ ¯Vn(u) − Z t 0 u2 sds ¯ ¯ ¯ ¯ ¶ ≤ ε + E µ¯ ¯ ¯ ¯ Vn(u(k) ) − Z t 0 ¡ u(k) s ¢2 ds ¯ ¯ ¯ ¯ ¶ para todo k ≥ k0 y para todo n. Finalmente basta tomar el lı́mite n → ∞. ¤ 2.2 Tiempos de paro Un tiempo de paro relativo a una familia creciente de σ-álgebras {Ft, t ≥ 0} es una variable aleatoria τ : Ω −→ [0, ∞] 40
  • 41. tal que para todo t ≥ 0, {τ ≤ t} ∈ Ft. Es decir, podemos decidir si nos paramos o no antes de un instante t a partir de la información contenida en Ft. Ejemplo 15 El tiempo de llegada de un proceso continuo y adaptado {Xt, t ≥ 0} a un nivel a definido como τa := inf{t > 0 : Xt = a} es un tiempo de paro. En efecto, {τa ≤ t} = ½ sup 0≤s≤t Xs ≥ a ¾ = ½ sup 0≤s≤t,s∈Q Xs ≥ a ¾ ∈ Ft. Más generalmente, el tiempo de llegada de un proceso n-dimensional con- tinuo y adaptado {Xt, t ≥ 0} a un conjunto de Borel U de Rn es un tiempo de paro siempre que la familia de σ-álgebras {Ft, t ≥ 0} sea continua por la derecha. Podemos asociar a todo tiempo de paro τ la σ-álgebra Fτ formada por los conjuntos G tales que G ∩ {τ ≤ t} ∈ Ft (18) para todo t ≥ 0. Los tiempos de paro satisfacen las dos propiedades siguientes: • Si {Mt, t ∈ [0, T]} es una martingala continua y y τ es un tiempo de paro acotado por T, entonces E(MT |Fτ ) = Mτ . (19) • Si u es un proceso de la clase L2 a,T y τ es un tiempo de paro acotado por T, el proceso u1[0,τ] también pertenece a L2 a,T y se verifica la relación siguiente: Z T 0 ut1[0,τ](t)dBt = Z τ 0 ut dBt. (20) 41
  • 42. Demostración de (20): La demostración se hará en dos etapas: 1. Supongamos primero que el proceso u es de la forma ut = F1(a,b](t), donde 0 ≤ a < b ≤ T y F ∈ L2 (Ω, Fa, P). Los tiempos de paro τn = P2n i=1 ti n1Ai n , donde ti n = iT 2n , Ai n = n (i−1)T 2n ≤ τ < iT 2n o forman una sucesión decreciente que converge hacia τ. Para cada n tendremos Z τn 0 ut dBt = F(Bb∧τn − Ba∧τn ) Z T 0 ut1[0,τn](t)dBt = 2n X i=1 1Ai n Z T 0 1(a∧ti n,b∧ti n](t)FdBt = 2n X i=1 1Ai n F(Bb∧ti n − Ba∧ti n ) = F(Bb∧τn − Ba∧τn ). Tomando el lı́mite cuando n tiende a infinito se deduce la igualdad en el caso de un proceso elemental. 2. En el caso general, basta con aproximar el proceso u por procesos elemen- tales. La convergencia del miembro de la derecha de (20) se deduce de la desigualdad maximal de Doob. ¤ La siguiente aplicación de los tiempos de parada permite el cálculo de la ley del instante de llegada del movimiento browniano a un cierto nivel. Ejemplo 16 Sea Bt un movimiento browniano y Ft la filtración generada por Bt. Consideremos el tiempo de paro τa = inf{t ≥ 0 : Bt = a}, donde a > 0. Consideremos la martingala Mt = eλBt− λ2t 2 que cumple E(Mt) = E(M0) = 1. La propiedad (19) nos permite obtener E(Mτa∧N ) = 1, 42
  • 43. para todo N ≥ 1. Observemos que Mτa∧N = exp µ λBτa∧N − λ2 (τa ∧ N) 2 ¶ ≤ eaλ . Por otra parte, limN→∞ Mτa∧N = Mτa si τa < ∞ limN→∞ Mτa∧N = 0 si τa = ∞ y el teorema de convergencia dominada implica E ¡ 1{τa<∞}Mτa ¢ = 1, es decir E µ 1{τa<∞} exp µ − λ2 τa 2 ¶¶ = e−λa . Haciendo λ ↓ 0 obtenemos P (τa < ∞ ) = 1, y, por consiguiente E µ exp µ − λ2 τa 2 ¶¶ = e−λa . Con el cambio de variable λ2 2 = α, tendremos E ( exp (−ατa)) = e− √ 2αa . (21) A partir de esta expresión puede calcularse la densidad de probabildad de la variable τa: P (τa ≤ t ) = Z t 0 ae−a2/2s √ 2πs3 ds. Por otra parte, la esperanza de τa puede obtenerse calculando la derivada en α = 0 de la expresión (21): E ( τa exp (−ατa)) = ae− √ 2αa √ 2α , y haciendo α ↓ 0 se obtiene E(τa) = +∞. 43
  • 44. 2.3 Extensiones de la integral estocástica La integral estocástica de Itô R T 0 usdBs puede definirse para clases de pro- cesos mas amplias que L2 a,T . A) En primer lugar, podemos substituir la familia creciente de σ-álgebras Ft por una familia mayor Ht tal que el movimiento browniano Bt sea una martingala respecto de Ht. En efecto, en todas las demostraciones anteriores solo se ha utilizado la propiedad E(Bt − Bs|Fs) = 0. Como ejemplo de esta situación, consideremos el caso en que F (n) t es la familia creciente de σ-álgebras generadas por un movimiento browniano n-dimensional Bt. Cada componente Bk(t) es una martingala respecto de F (n) t , pero F (n) t no es la familia de σ-álgebras generada por Bk(t). De esta forma, con la extensión indicada antes, se pueden definir integrales como Z T 0 B2(s)dB1(s), Z T 0 sin(B2 1(s) + B2 1(s))dB2(s). B) La segunda extensión consiste en substituir la propiedad E ³R T 0 u2 t dt ´ < ∞ por la hipótesis más débil siguiente: b’) P ³R T 0 u2 t dt < ∞ ´ = 1. La clase de procesos que cumplen las propiedades a) y b’) la designaremos por La,T . Extenderemos la integral estocástica a la clase La,T mediante un argumento de localización. Consideremos un proceso estocástico u de La,T . Para cada n ≥ 1 defini- mos el tiempo de paro τn = inf ½ t ≥ 0 : Z t 0 u2 sds = n ¾ , (22) donde suponemos que τn = T si R T 0 u2 sds < n. De esta forma tendremos una sucesión creciente de tiempos de paro tal que τn ↑ T. Además, t < τn ⇐⇒ Z t 0 u2 sds < n. 44
  • 45. Los procesos u (n) t = ut1[0,τn](t) pertenecen a L2 a,T ya que E µ R T 0 ³ u (n) s ´2 ds ¶ ≤ n. Para cada n ≤ m, en el conjunto {t ≤ τn} se cumple Z t 0 u(n) s dBs = Z t 0 u(m) s dBs ya que las trayectorias en el intervalo [0, t] de los procesos u(n) y u(m) coinciden en este conjunto. Por consiguiente, existirá un proceso continuo y adaptado que denotaremos por R t 0 usdBs tal que Z t 0 u(n) s dBs = Z t 0 usdBs si t ≤ τn. La integral estocástica de procesos de la clase La,T satisface las propiedades de linealidad y continuidad de trayectorias de la integral indefinida. En cam- bio, la integral de procesos de la clase La,T puede no tener esperanza ni varianza finitas. Proposición 9 Consideremos un proceso u ∈ La,T . Para todo K, δ > 0 se cumple la desigualdad siguiente: P µ¯ ¯ ¯ ¯ Z T 0 usdBs ¯ ¯ ¯ ¯ ≥ K ¶ ≤ P µZ T 0 u2 sds ≥ δ ¶ + δ K2 . Demostración: Consideremos el tiempos de paro definido por τn = inf ½ t ≥ 0 : Z t 0 u2 sds = δ ¾ , con la convención τn = T si R T 0 u2 sds < δ.Tendemos P µ¯ ¯ ¯ ¯ Z T 0 usdBs ¯ ¯ ¯ ¯ ≥ K ¶ ≤ P µZ T 0 u2 sds ≥ δ ¶ +P µ¯ ¯ ¯ ¯ Z T 0 usdBs ¯ ¯ ¯ ¯ ≥ K, Z T 0 u2 sds < δ ¶ , 45
  • 46. por otra parte P µ¯ ¯ ¯ ¯ Z T 0 usdBs ¯ ¯ ¯ ¯ ≥ K, Z T 0 u2 sds < δ ¶ = P µ¯ ¯ ¯ ¯ Z T 0 usdBs ¯ ¯ ¯ ¯ ≥ K, τ = T ¶ = P µ¯ ¯ ¯ ¯ Z τ 0 usdBs ¯ ¯ ¯ ¯ ≥ K, τ = T ¶ ≤ 1 K2 E ï ¯ ¯ ¯ Z τ 0 usdBs ¯ ¯ ¯ ¯ 2 ! = 1 K2 E µZ τ 0 u2 sds ¶ ≤ δ K2 . ¤ Como consecuencia de la proposición anterior, si u(n) es una sucesión de procesos de la clase La,T que converge hacia un proceso u ∈ La,T en probabilidad: Z T 0 ¡ u(n) s − us ¢2 ds P → 0 entonces, Z T 0 u(n) s dBs P → Z T 0 usdBs. 2.4 Fórmula de Itô La fórmula de Itô es la versión estocástica de la clásica regla de la cadena en el cálculo diferencial ordinario. Consideremos el ejemplo Z t 0 BsdBs = 1 2 B2 t − 1 2 t, que podemos escribir en la forma B2 t = Z t 0 2BsdBs + t. Podemos comprobar que la igualdad es cierta tomando esperanzas y uti- lizando la propiedad de media nula de la integral estocástica: E(B2 t ) = t. En notación diferencial podemos escribir dB2 t = 2BtdBt + dt. 46
  • 47. Vemos que el proceso estocástico B2 t es la suma de una integral estocástica y de una función diferenciable. Más generalmente cualquier función f(Bt), donde f es dos veces continuamente diferenciable, puede expresarse como una suma de una integral estocástica y de un proceso con trayectorias difer- enciables. Esto nos lleva a introducir la noción de proceso de Itô que será una suma de una integral estocástica más una integral ordinaria. La clase de los procesos de Itô será invariante por transformaciones funcionales reg- ulares. Designaremos por L1 a,T la clase de los procesos v que satisfacen las propiedades a) y b”) P ³R T 0 |vt| dt < ∞ ´ = 1. Definición 10 Un proceso de Itô Xt será un proceso estocástico de la forma Xt = X0 + Z t 0 usdBs + Z t 0 vsds, (23) donde u pertenece a la clase La,T y v pertenece a la clase L1 a,T . En notación diferencial escribiremos dXt = utdBt + vtdt. Teorema 11 (Fórmula de Itô) Supongamos que X es un proceso de Itô de la forma (23). Sea f(t, x) una función dos veces derivable respecto de la variable x y una vez respecto de la variable t, con todas las derivadas parciales continuas (diremos que f es de clase C1,2 ). Entonces el proceso Yt = f(t, Xt) es también un proceso de Itô con la representación Yt = f(0, X0) + Z t 0 ∂f ∂t (s, Xs)ds + Z t 0 ∂f ∂x (s, Xs)usdBs + Z t 0 ∂f ∂x (s, Xs)vsds + 1 2 Z t 0 ∂2 f ∂x2 (s, Xs)u2 sds. 1.- En notación diferencial la fórmula de Itô puede escribirse de la forma df(t, Xt) = ∂f ∂t (t, Xt)dt + ∂f ∂x (t, Xt)dXt + 1 2 ∂2 f ∂x2 (s, Xs) (dXt)2 , donde (dXt)2 se calcula mediante la convención × dBt dt dBt dt 0 dt 0 0 47
  • 48. 2.- El proceso Yt es un proceso de Itô con la representación Yt = Y0 + Z t 0 e usdBs + Z t 0 e vsds, donde Y0 = f(0, X0), e ut = ∂f ∂x (t, Xt)ut, e vt = ∂f ∂t (t, Xt) + ∂f ∂x (t, Xt)vt + 1 2 ∂2 f ∂x2 (t, Xt)u2 t . 3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es pre- cisamente el movimiento browniano Bt, y la fórmula de Itô adopta la expresión más simple siguiente f(t, Bt) = f(0, 0) + Z t 0 ∂f ∂x (s, Bs)dBs + Z t 0 ∂f ∂t (s, Bs)ds + 1 2 Z t 0 ∂2 f ∂x2 (s, Bs)ds. 4.- En el caso particular en que la función f no depende del tiempo se obtiene la fórmula f(Xt) = f(0) + Z t 0 f0 (Xs)usdBs + Z t 0 f0 (Xs)vsds + 1 2 Z t 0 f00 (Xs)u2 sds. La fórmula de Itô se deduce del desarrollo de Taylor hasta el orden dos. Indicaremos seguidamente, de forma heurı́stica, las ideas principales que con- ducen a la fórmula de Itô. Supongamos v = 0. Fijemos un instante de tiempo t > 0. Consideremos los instantes tj = jt n . La fórmula de Taylor hasta el segundo orden nos da f(Xt) − f(0) = n X j=1 £ f(Xtj ) − f(Xtj−1 ) ¤ = n X j= f0 (Xtj−1 )∆Xj + 1 2 n X j=1 f00 (Xj) (∆Xj)2 , (24) 48
  • 49. donde ∆Xj = Xtj − Xtj−1 y Xj es un valor comprendido entre Xtj−1 y Xtj . El primer sumando de la expresión anterior converge en probabilidad hacia R t 0 f0 (Xs)usdBs, mientras que el segundo sumando converge en proba- bilidad hacia 1 2 R t 0 f00 (Xs)u2 sds. Veamos algunos ejemplos de aplicación de la fómula de Itô. Ejemplo 17 Si f(x) = x2 y Xt = Bt, tendremos B2 t = 2 Z t 0 BsdBs + t, ya que f0 (x) = 2x y f00 (x) = 2. Ejemplo 18 Si f(x) = x3 y Xt = Bt, tendremos B3 t = 3 Z t 0 B2 s dBs + 3 Z t 0 Bsds, ya que f0 (x) = 3x2 y f00 (x) = 6x. Más generalmente, si n ≥ 2 es un número natural, Bn t = n Z t 0 Bn−1 s dBs + n(n − 1) 2 Z t 0 Bn−2 s ds. Ejemplo 19 Si f(t, x) = eax−a2 2 t , Xt = Bt, y Yt = eaBt−a2 2 t , tendremos Yt = 1 + a Z t 0 YsdBs ya que ∂f ∂t + 1 2 ∂2 f ∂x2 = 0. (25) Este importante ejemplo nos permite deducir las observaciones siguientes: 1.- Si una función f(t, x) satisface la igualdad (25), entonces, el proceso estocástico f(t, Bt) será una integral estocástica indefinida (más un 49
  • 50. término constante), y por lo tanto, será una martingala, suponiendo que f satisface la propiedad: E "Z t 0 µ ∂f ∂x (s, Bs) ¶2 ds # < ∞ 2.- La solución de la ecuación diferencial estocástica dYt = aYtdBt no es Yt = eaBt , como en el caso del cálculo diferencial ordinario, sino Yt = eaBt−a2 2 t . Como consecuencia de la fórmula de Itô, podemos deducir la siguiente fórmula de integración por partes: Supongamos que f(t) es una función continuamente diferenciable en [0, T]. En tal caso tendremos Z t 0 fsdBs = f(t)Bt − Z t 0 Bsf0 sds. En efecto, aplicando la fórmula de Itô a la función f(t)x se obtiene f(t)Bt = Z t 0 fsdBs + Z t 0 Bsf0 sds. Veamos seguidamente la versión multidimensional de la fórmula de Itô. Supongamos que Bt = (B1 t , B2 t , . . . , Bm t ) es un movimiento browniano m- dimensional, es decir, las componentes son movimientos brownianos inde- pendientes. Consideremos un proceso de Itô n-dimensional de la forma      X1 t = X1 0 + R t 0 u11 s dB1 s + · · · + R t 0 u1m s dBm s + R t 0 v1 s ds . . . Xn t = Xn 0 + R t 0 un1 s dB1 s + · · · + R t 0 unm s dBm s + R t 0 vn s ds . En notación diferencial y vectorial podemos escribir dXt = utdBt + vtdt, 50
  • 51. donde Xt, vt, son procesos n-dimensionales, y ut es un proceso con valores en el conjunto de las matrices n × m. Supondremos que las componentes de u pertenecen a La,T y las de v pertenecen a L1 a,T . Entonces, si f : [0, ∞)×Rn → Rp es una función de clase C1,2 , el proceso Yt = f(t, Xt) es también un proceso de Itô con la representación (en notación diferencial) dY k t = ∂fk ∂t (t, Xt)dt + n X i=1 ∂fk ∂xi (t, Xt)dXi t + 1 2 n X i,j=1 ∂2 fk ∂xi∂xj (t, Xt)dXi t dXj t . El producto de los diferenciales dXi t dXj t se calcula aplicando las reglas sigu- ientes: dBi tdBj t = ½ 0 si i 6= j dt si i = j dBi tdt = 0 (dt)2 = 0. De esta forma se obtiene dXi t dXj t = Ã m X k=1 uik t ujk t ! dt = (utu0 t)ij dt. 2.5 Integrales estocásticas de Stratonovich En las sumas de Riemann-Stieltjes que elegimos para definir la integral es- tocástica R t 0 usdBs de un proceso continuo u, se toman siempre los valores del proceso u en el punto tj−1 de cada intervalo [tj−1, tj] . De esta forma la integral estocástica tiene media cero y su varianza puede calcularse a partir de la propiedad de isometrı́a. También, la integral indefinida es una mar- tingala. El inconveniente de esta elección consiste en que en la regla de la cadena nos aparece un término correctivo. La integral de Stratonovich R T 0 us ◦ dBs se define como el lı́mite en prob- abilidad de la sucesión n X i=1 1 2 (uti−1 + uti )∆Bi, 51
  • 52. suponiendo ti = iT n . Supongamos que el proceso u es un proceso de Itô de la forma ut = u0 + Z t 0 αsdBs + Z t 0 βsds. (26) Utilizando la descomposición 1 2 (uti−1 + uti )(Bti − Bti−1 ) = uti−1 (Bti − Bti−1 ) + 1 2 (uti − uti−1 )(Bti − Bti−1 ), se obtiene la siguiente fórmula que relaciona las integrales de Itô y de Stratonovich: Z T 0 us ◦ dBs = Z t 0 usdBs + 1 2 Z t 0 αsds. (27) En efecto, las sumas de Riemann-Stieltjes n X i=1 (uti − uti−1 )(Bti − Bti−1 ) convergen hacia la integral Z t 0 dusdBs = Z t 0 αs (dBs)2 + Z t 0 βs dsdBs = Z t 0 αsds. Puede comprobarse que la integral estocástica de Stratonovich sigue las reglas del cálculo diferencial ordinario. Es decir, si u es un proceso de la forma (26) y Xt = X0 + Z t 0 us ◦ dBs + Z t 0 vsds = X0 + Z t 0 usdBs + Z t 0 µ vs + 1 2 αs ¶ ds, entonces, df(Xt) = f0 (Xt)dXt + 1 2 f00 (Xt)(dXt)2 = f0 (Xt)utdBt + f0 (Xt) µ vt + 1 2 αt ¶ dt + 1 2 f00 (Xt)u2 t dt. (28) 52
  • 53. Por otra parte, f0 (Xt)utdBt = f0 (Xt)ut ◦ dBt − 1 2 d [f0 (Xt)ut] dBt. En el cálculo de d [f0 (Xt)ut] dBt hemos de tener en cuenta solo los diferen- ciales estocásticos de d [f0 (Xt)ut] que son f0 (Xt)αtdBt + f00 (Xt)u2 t dBt. Por consiguiente, se obtiene f0 (Xt)utdBt = f0 (Xt)ut ◦ dBt − 1 2 ¡ f0 (Xt)αt + f00 (Xt)u2 t ¢ dt y substituyendo esta expresión en (28) obtenemos df(Xt) = f0 (Xt)ut ◦ dBt + f0 (Xt)vtdt = f0 (Xt) ◦ dXt. 2.6 Tiempo local Consideremos la función siguiente para cada ε > 0 gε(x) = ( |x| si |x| ≥ ε 1 2 ³ ε + x2 ε ´ si |x| < ε . La derivada de esta función vale g0 ε(x) = ½ sign(x) si |x| ≥ ε x ε si |x| < ε . La segunda derivada existe excepto si x = ∓ε y vale g00 ε (x) = ½ 0 si |x| ≥ ε 1 ε si |x| < ε . Siempre que una función sea de clase C2 excepto en un número finito de puntos y la segunda derivada esté acotada se verifica todavı́a la fórmula de Itô. Por ello, tendremos gε(Bt) = ε 2 + Z t 0 g0 ε(Bs)dBs + 1 2ε Z t 0 1(−ε,ε)(Bs)ds. 53
  • 54. Cuando ε tiende a cero, gε(Bt) converge en media cuadrática hacia |Bt|. Por otra parte, g0 ε(Bs) converge en L2 ([0, t] × Ω) hacia sign(Bs). En efecto, E Z t 0 |sign(Bs) − g0 ε(Bs)| 2 ds ≤ 2E µZ t 0 · (sign(Bs))2 + B2 s ε2 ¸ 1(−ε,ε)(Bs)ds ¶ ≤ 4E µZ t 0 1(−ε,ε)(Bs)ds ¶ = 4 Z t 0 P(|Bs| < ε)ds ε↓0 −→ 4 Z t 0 P(|Bs| = 0)ds = 0. Denotaremos por Lt(0) el lı́mite en media cuadrática de 1 2ε Z t 0 1(−ε,ε)(Bs)ds = 1 2ε |{s ∈ [0, t] : |Bs| < ε}|. De esta forma obtenemos la fórmula de Itô para el valor absoluto del movimiento browniano, conocida como fórmula de Tanaka: |Bt| = Z t 0 sign(Bs)dBs + Lt(0). Observaciones: • Más generalmente, para todo x se tiene |Bt − x| = Z t 0 sign(Bs − x)dBs + Lt(x). • El proceso {Lt(x), t ≥ 0, x ∈ R} se denomina el tiempo local del movimiento browniano. Para cada t ≥ 0, Lt(x) es la densidad de la medida de ocu- pación, es decir, Z b a Lt(x)dx = Z t 0 1[a,b](Bs)ds. Puede demostrarse que existe una versión del tiempo local que es con- tinua en las dos variables (t, x). 54
  • 55. • En el caso de una función diferenciable b(t), se tiene d|b(t)| = sign(b(s))b0 (s)ds, y la densidad de la medida de ocupación en [0, t] vale Lt(x) = X s∈[0,t]:b(s)=x 1 b0(s) . 2.7 Representación integral de martingalas Consideremos un proceso u de la clase L2 a,T . Sabemos que la integral in- definida Xt = Z t 0 usdBs es una martingala respecto de la filtración Ft. En este apartado demostraremos que todas las martingalas de cuadrado integrable respecto de esta filtración son de este tipo. Veamos un resultado preliminar. Lema 12 El conjunto de variables que son combinaciones lineales de expo- nenciales de la forma exp µZ T 0 hsdBs − 1 2 Z T 0 h2 sds ¶ , (29) donde h es una función determinista tal que R T 0 h2 sds < ∞, es denso en L2 (Ω, FT , P). Demostración: Sea Y una variable de L2 (Ω, FT , P) ortogonal a todas las exponenciales de la forma (29). Queremos demostrar que Y = 0. Fijados m instantes 0 ≤ t1 < · · · tm ≤ T y m números reales λ1, . . . , λm sabemos que E ¡ Y eλ1Bt1 +···+λmBtm ¢ = 0. Esto implica que la medida ν(A) = E (Y 1A(Bt1 , . . . , Btm )) 55
  • 56. tiene una transformada de Laplace idénticamente nula. Por lo tanto, E(Y 1G) = 0 para todo suceso G de la σ-álgebra generada por las variables Bt1 , . . . , Btm . Por un argumento de clases monótonas, esto será cierto para todo G de la σ-álgebra FT , y por lo tanto, Y = 0. ¤ Teorema 13 (Teorema de representación de Itô) Consideremos una vari- able aleatoria F de L2 (Ω, FT , P). Entonces existe un único proceso es- tocástico u de la clase L2 a,T tal que F = E(F) + Z T 0 usdBs. Demostración: Supongamos primero que la variable F es de la forma exp µZ T 0 hsdBs − 1 2 Z T 0 h2 sds ¶ , donde h es una función determinista tal que R T 0 h2 sds < ∞. Definimos Yt = exp µZ t 0 hsdBs − 1 2 Z t 0 h2 sds ¶ . Por la fórmula de Itô aplicada a la función f(x) = ex y al proceso Xt = R t 0 hsdBs− 1 2 R t 0 h2 sds, obtenemos dYt = Yt µ h(t)dBt − 1 2 h2 (t)dt ¶ + 1 2 Yt(h(t)dBt)2 = Yth(t)dBt, es decir, Yt = 1 + Z t 0 Ysh(s)dBs. Por lo tanto, F = YT = 1 + Z T 0 Ysh(s)dBs 56
  • 57. y se cumple la representación buscada porque E(F) = 1, E µZ T 0 Y 2 s h2 (s)ds ¶ = Z T 0 E ¡ Y 2 s ¢ h2 (s)ds ≤ exp µZ T 0 h2 sds ¶ Z T 0 h2 sds < ∞ ya que E ¡ Y 2 t ¢ = E · exp µ 2 Z t 0 hsdBs − Z t 0 h2 sds ¶¸ = exp µZ t 0 h2 sds ¶ . Por linealidad, la representación se cumplirá en el caso en que F sea una com- binación lineal de exponenciales del tipo (29). En el caso general, el Lema 12 nos permite aproximar una variable arbitraria F de L2 (Ω, FT , P) por una sucesión Fn de combinaciones lineales de exponenciales de la forma (29). Tendremos, entonces, Fn = E(Fn) + Z T 0 u(n) s dBs. Por la propiedad de isometrı́a de la integral estocástica E £ (Fn − Fm)2¤ = E "µ E(Fn − Fm) + Z T 0 ¡ u(n) s − u(m) s ¢ dBs ¶2 # = (E(Fn − Fm))2 + E "µZ T 0 ¡ u(n) s − u(m) s ¢ dBs ¶2 # ≥ E ·Z T 0 ¡ u(n) s − u(m) s ¢2 ds ¸ . La sucesión Fn es de Cauchy en L2 (Ω, FT , P). Por lo tanto, E £ (Fn − Fm)2¤ n,m→∞ −→ 0 y, en consecuencia, E ·Z T 0 ¡ u(n) s − u(m) s ¢2 ds ¸ n,m→∞ −→ 0. 57
  • 58. Esto nos dice que la sucesión u(n) es de Cauchy en L2 ([0, T] × Ω). Por lo tanto será convergente hacia un proceso u de L2 ([0, T] × Ω). Por otra parte, puede comprobarse que u pertenece a la clase L2 a,T , teniendo en cuenta que una sucesión parcial de u(n) (t, ω) converge casi por todo (t, ω) hacia u(t, ω). Aplicando de nuevo la propiedad de isometrı́a, y teniendo en cuenta que E(Fn) converge hacia E(F), se obtiene F = lim n→∞ Fn = lim n→∞ µ E(Fn) + Z T 0 u(n) s dBs ¶ = E(F) + Z T 0 usdBs. Finalmente, la unicidad sale también de la propiedad de isometrı́a: Supong- amos que u(1) y u(2) fuesen dos procesos de L2 a,T tales que F = E(F) + Z T 0 u(1) s dBs = E(F) + Z T 0 u(2) s dBs. Entonces 0 = E "µZ T 0 ¡ u(1) s − u(2) s ¢ dBs ¶2 # = E ·Z T 0 ¡ u(1) s − u(2) s ¢2 ds ¸ y, por lo tanto, u (1) s (t, ω) = u (2) s (t, ω) casi por todo (t, ω). ¤ Teorema 14 (Teorema de representación de martingalas) Supongamos que {Mt, t ∈ [0, T]} es una martingala respecto de la filtración Ft, tal que E(M2 T ) < ∞ . Entonces existe un único proceso estocástico u de la claseL2 a,T tal que Mt = E(M0) + Z t 0 usdBs para todo t ∈ [0, T]. Demostración: Aplicando el teorema de representación de Itô a F = MT obtenemos que existe un único proceso u ∈ L2 T tal que MT = E(MT ) + Z T 0 usdBs = E(M0) + Z T 0 usdBs. 58
  • 59. Supongamos que 0 ≤ t ≤ T. Tendremos Mt = E[MT |Ft] = E(M0) + E[ Z T 0 usdBs|Ft] = E(M0) + Z t 0 usdBs. ¤ 2.8 Teorema de Girsanov El teorema de Girsanov nos dice que el movimiento browniano con deriva Bt + λt puede verse como un movimiento browniano sin deriva, cambiando la probabilidad. Analizaremos primero como funcionan los cambios de prob- abilidad mediante densidades. Si en un espacio de probabilidad (Ω, F, P) consideramos una variable aleatoria L ≥ 0 de esperanza uno, entonces, Q(A) = E (1AL) define una nueva probabilidad. Que la esperanza de L sea igual a 1 nos garantiza que Q(Ω) = E(L) = 1. Se dice que L es la densidad de Q respecto de P y se escribe formalmente dQ dP = L. La esperanza de una variable aleatoria X en el espacio de probabilidad (Ω, F, Q) se calcula de la forma siguiente EQ(X) = E(XL). La probabilidad Q es absolutamente continua respecto de P, lo que significa que P(A) = 0 =⇒ Q(A) = 0. 59
  • 60. Si la variable L es estrictamente positiva, entonces las probabilidades P y Q son equivalentes (o sea, mutuamente absolutamente continuas), lo que significa P(A) = 0 ⇐⇒ Q(A) = 0. Veamos seguidamente un ejemplo simple de cambio de probabilidades que representa una versión sencilla del teorema de Girsanov: Ejemplo 20 Sea X una variable aleatoria con ley normal N(m, σ2 ). Existe una probabilidad Q respecto de la cual la variable X tenga ley N(0, σ2 )? Consideremos la variable L = e− m σ2 X+ m2 2σ2 . Es fácil comprobar que tiene esperanza uno E(L) = 1. Por otra parte, en el espacio de probabilidad (Ω, F, Q) la variable X tiene por función carac- terı́stica: EQ(eitX ) = E(eitX L) = 1 √ 2πσ2 Z ∞ −∞ e− (x−m)2 2σ2 −mx σ2 + m2 2σ2 +itx dx = 1 √ 2πσ2 Z ∞ −∞ e− x2 2σ2 +itx dx = e−σ2t2 2 , es decir, X tiene una ley N(0, σ2 ). Veremos que en el caso del movimiento browniano se obtiene un resultado similar. Teniendo en cuenta que el movimiento browniano es el lı́mite de paseos aleatorios, analizaremos primero el problema de la eliminación de la deriva en un paseo aleatorio: Consideremos una succesión {Xn, n ≥ 1} de variables aleatorias indepen- dientes tales que Xn = ½ +1, con probabilidad 1/2 −1, con probabilidad 1/2 . Pongamos S0 = 0, y Sn = X1 + · · · + Xn + na, donde a > 0. La succesión Sn representa un paseo aleatorio con deriva igual a a, y no es una martingala ya que E(Sn|Fn−1) = Sn−1 + a, 60
  • 61. donde Fn es la σ-álgebra generada por X1, ..., Xn si n ≥ 1, y F0 = {∅, Ω}. Podemos cambiar la asignación de probabilidades de manera que Sn sea una martingala. Si suponemos que P(Xn = +1) = p, P(Xn = −1) = 1 − p, necesitaremos que E(a + Xn) = 0, es decir, p = 1 − a 2 , suponiendo que a < 1. Multipliquemos los valores de la constante a por ∆t y los valores de las variables Xn por σ √ ∆t. O sea supondremos que S0 = 0, ∆Sn = a∆t + σXn, P(Xn = ± √ ∆t) = 1 2 . En tal caso el valor de la probabilidad p respecto de la cual las Sn forman una martingala es P(Xn = √ ∆t) = p = 1 2 − a 2σ √ ∆t, P(Xn = − √ ∆t) = 1 − p = 1 2 + a 2σ √ ∆t. Podemos escribir P(Xn = ± √ ∆t) = 1 2 ³ 1 − a σ Xn ´ . Si consideramos un camino de longitud N formado por los sucesivos valores que toman las variables Xn, la probabilidad P de este camino seria 2−N , mientras que la probabilidad Q seria 2−N QN n=1 ¡ 1 − a σ Xn ¢ . Es decir, pode- mos escribir Q(camino) P(camino) = N Y n=1 ³ 1 − a σ Xn ´ . 61
  • 62. Observamos que la probabilidad Q está bien definida si ∆t < ³σ a ´2 , lo cual es cierto siempre que ∆t sea suficientement pequeño. Supongamos ahora que las variables aleatorias Sn se observan en instantes que distan ∆t. Si ∆t tiende a cero y N tiende a infinito de manera que N∆t = t, entonces, Sn converge hacia un movimiento browniano con deriva at + σBt. Por otra parte, el cociente entre las probabilidades Q y P converge hacia un término exponencial: Q(camino) P(camino) = N Y n=1 ³ 1 − a σ Xn ´ = exp à N X n=1 log ³ 1 − a σ Xn ´ ! w exp à N X n=1 µ − a σ Xn − a2 2σ2 X2 n ¶! = exp à − a σ N X n=1 Xn − a2 2σ2 t ! . Es decir, en el lı́mite se obtiene Q(camino) P(camino) = exp µ − a σ Bt − a2 2σ2 t ¶ . Sea{Bt, t ∈ [0, T]} un movimiento browniano. Fijemos un número real λ. Consideremos la martingala Lt = exp ³ −λBt − λ2 2 t ´ . (30) Observemos que el proceso estocástico {Lt, t ∈ [0, T]} es una martingala pos- itiva de esperanza uno que satisface la ecuación diferencial estocástica Lt = 1 − Z t 0 λLsdBs. 62
  • 63. La variable LT es una densidad de probabilidad en el espacio (Ω, FT , P) que define una probabilidad Q dada por Q(A) = E (1ALT ) , para todo A ∈ FT . La propiedad de martingala del proceso Lt implica que en el espacio (Ω, Ft, P), la probabilidad Q tiene densidad igual a Lt. En efecto, si A pertenece a la σ-álgebra Ft se tiene Q(A) = E (1ALT ) = E (E (1ALT |Ft)) = E (1AE (LT |Ft)) = E (1ALt) . Teorema 15 (Teorema de Girsanov) En el espacio de probabilidad (Ω, FT , Q) el proceso estocástico Wt = Bt + λt, es un movimiento browniano. Antes de demostrar este teorema probaremos un resultado técnico: Lema 16 Supongamos que X es una variable aleatoria real y G es una σ- álgebra tales que E ¡ eiuX |G ¢ = e−u2σ2 2 . Entonces, la variable X es independiente de la σ-álgebra G y tiene una ley normal N(0, σ2 ). Demostración: Para todo suceso A ∈ G se cumplirá E ¡ 1AeiuX ¢ = P(A)e−u2σ2 2 . Por lo tanto, eligiendo A = Ω obtenemos la función caracterı́stica de X, y en consecuencia, X tiene una ley N(0, σ2 ). Por otra parte, fijado un suceso A ∈ G, la función caracterı́stica de la variable X respecto de la probabilidad condicionada por A será también EA ¡ eiuX ¢ = e−u2σ2 2 . 63
  • 64. Es decir, la ley de X condicionada por A es también una ley normal N(0, σ2 ). Por consiguiente, tendremos PA(X ≤ x) = Φ(x/σ) , y P ((X ≤ x) ∩ A) = P(A)Φ(x/σ) = P(A)P(X ≤ x), (31) donde Φ representa la función de distribución de la ley N(0, 1). La igualdad (31) nos da la independencia entre la variable X y la σ-álgebra G . ¤ Demostración del teorema de Girsanov: Será suficiente con demostrar que, en el espacio de probabilidad (Ω, FT , Q), para todo s < t ≤ T el incremento Wt − Ws es independiente de Fs y tiene ley normal N(0, t − s). Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen de la fórmula siguiente, para todo s < t, A ∈ Fs, u ∈ R, EQ ¡ 1Aeiu(Wt−Ws) ¢ = Q(A)e−u2 2 (t−s) . (32) Para demostrar la fórmula (32) ponemos EQ ¡ 1Aeiu(Wt−Ws) ¢ = E ¡ 1Aeiu(Wt−Ws) Lt ¢ = E ³ 1Aeiu(Bt−Bs)+iuλ(t−s)−λ(Bt−Bs)−λ2 2 (t−s) Ls ´ = E(1ALs)E ¡ e(iu−λ)(Bt−Bs) ¢ eiuλ(t−s)−λ2 2 (t−s) = Q(A)e (iu−λ)2 2 (t−s)+iuλ(t−s)−λ2 2 (t−s) = Q(A)e−u2 2 (t−s) . ¤ El teorema de Girsanov admite la siguiente generalización: Teorema 17 Sea {θt, t ∈ [0, T]} un proceso adaptado y tal que cumple la denominada condición de Novikov: E µ exp µ 1 2 Z T 0 θ2 t dt ¶¶ < ∞. (33) Entonces, el proceso Wt = Bt + Z t 0 θsds 64
  • 65. es un movimiento browniano respecto de la probabilidad Q definida por Q(A) = E (1ALT ) , donde Lt = exp µ − Z t 0 θsdBs − 1 2 Z t 0 θ2 sds ¶ . Observemos que de nuevo Lt es satisface la ecuación diferencial estocástica Lt = 1 − Z t 0 θsLsdBs. Para que el proceso Lt sea una martingala y tengamos E(Lt) = 1, necesitamos que θsLs pertenezca a la clase L2 a,T . La condición (33) sirve para asegurar esta propiedad. Como aplicación del teorema de Girsanov deduciremos la ley del instante de llegada del movimiento browniano con deriva a un nivel a. Sea {Bt, t ≥ 0} un movimiento browniano. Fijado un valor λ, definimos la martingala Lt como en (30). Sea Q la probabilidad en ∪t≥0Ft tal que para todo t ≥ 0 dQ dP |Ft = Lt. Por el teorema de Girsanov, para todo T > 0, en el espacio de probabili- dad (Ω, FT , Q) el proceso Bt + λt := e Bt es un movimiento browniano en el intervalo de tiempo [0, T]. Es decir, en este espacio Bt es un movimiento browniano con deriva −λt. Sea τa = inf{t ≥ 0, Bt = a}, donde a 6= 0. Para cada t ≥ 0 el suceso {τa ≤ t} pertenece a la σ-álgebra Fτa∧t ya que para todo s ≥ 0 {τa ≤ t} ∩ {τa ∧ t ≤ s} = {τa ≤ t} ∩ {τa ≤ s} = {τa ≤ t ∧ s} ∈ Fs∧t ⊂ Fs. 65
  • 66. Por consiguiente, utilizando la propiedad de martingala respecto de los tiem- pos de paro obtenemos Q{τa ≤ t} = E ¡ 1{τa≤t}Lt ¢ = E ¡ 1{τa≤t}E(Lt|Fτa∧t) ¢ = E ¡ 1{τa≤t}Lτa∧t ¢ = E ¡ 1{τa≤t}Lτa ¢ = E ³ 1{τa≤t}e−λa−1 2 λ2 τa ´ = Z t 0 e−λa−1 2 λ2 s f(s)ds, donde f es la densidad de la variable τa. Sabemos que f(s) = |a| √ 2πs3 e−a2 2s . Por lo tanto, respecto de Q la variable aleatoria τa tiene una densidad igual a |a| √ 2πs3 e− (a+λs)2 2s , s > 0. Haciendo, t ↑ ∞ obtenemos Q{τa < ∞} = e−λa E ³ e−1 2 λ2 τa ´ = e−λa−|λa| . Si λ = 0 (movimiento browniano sin deriva), la probabilidad de llegar alguna vez a un nivel dado es igual a uno. Si −λa > 0 (la deriva −λ y el nivel a tienen el mismo signo) esta probabilidad es también igual a uno. Si −λa < 0 (la deriva −λ y el nivel a tienen signo distinto) la probabilidad vale e−2λa . Ejercicios 2.1 Consideremos una función f tal que Z T 0 f(s)2 ds < ∞. Definimos la sucesión de funciones continuas fn(t) = Z t t− 1 n f(s)ds, 66
  • 67. con la convención f(s) = 0 si s < 0. Demostrar que se cumple Z T 0 (f(s) − fn(s))2 ds −→ 0 n→∞ −→ 0. Indicación: Sabemos que para cada ε > 0 podemos encontrar una función continua g tal que Z T 0 (f(s) − g(s))2 ds < ε. 2.2 Consideremos un proceso estocástico M = {Mt, t ≥ 0} que es una mar- tingala respecto de una filtración {Mt, t ≥ 0}. Demostrar que el pro- ceso M también es una martingala respecto de la filtración natural FM t = σ (Ms, 0 ≤ s ≤ t) ⊂ Mt. 2.2 Consideremos una martingala M = {Mt, t ≥ 0} respecto de una fil- tración {Mt, t ≥ 0} tal que E(M2 t ) < ∞ para todo t ≥ 0. Demostrar que si s < t E((Mt − Ms)2 |Ms) = E(M2 t − M2 s |Ms). 2.3 Demostrar que si τ es un tiempo de paro, Fτ definida en (18) es una σ- álgebra y τ es Fτ -medible. Si X = {Xt, t ≥ 0} es un proceso adaptado con trayectorias continuas, y τ es finito, demostrar que la variable Xτ es Fτ -medible. 2.4 Sea Y una variable aleatoria integrable y {Mt, t ≥ 0} una familia cre- ciente de σ-álgebras. Demostrar que Mt = E(Y |Mt) es una martingala. 2.5 Comprobar si los siguientes procesos estocásticos, definidos a partir de 67
  • 68. un movimiento browniano Bt, son martingalas: Xt = B3 t − 3tBt Xt = t2 Bt − 2 Z s 0 sBsds Xt = et/2 cos Bt Xt = et/2 sin Bt Xt = (Bt + t) exp(−Bt − 1 2 t) Xt = B1(t)B2(t). En el último caso, B1 y B2 son dos movimientos brownianos indepen- dientes. 2.6 Supongamos que Bt es un movimiento browniano n-dimensional y sea f : Rn → R una función de clase C2 . Utilizando la fórmula de Itô demostrar que f(Bt) = f(0) + Z t 0 ∇f(Bs)ds + 1 2 Z t 0 ∆f(Bs)ds. 2.7 Encontrar el proceso u que nos proporciona la representación integral F = E(F) + Z T 0 usdBs en los ejemplos siguientes: F = BT F = B2 T F = eBT F = Z T 0 Btdt F = B3 T F = sin BT 2.8 Sea p(t, x) = 1/ √ 1 − t exp(−x2 /2(1 − t)), para 0 ≤ t < 1 y x ∈ R, y p(1, x) = 0. Definimos Mt = p(t, Bt), donde {Bt, 0 ≤ t ≤ 1} es un movimiento browniano. 68
  • 69. a) Demostrar que Mt = M0 + Z t 0 ∂p ∂x (s, Bs)dBs. b) Sea Ht = ∂p ∂x (t, Bt). Probar que R 1 0 H2 t dt < ∞ casi seguramente, pero E ³R 1 0 H2 t dt ´ = ∞. 2.9 Sean Yt y Xt procesos de Itô. Demostrar la siguiente fórmula de inte- gración por partes: XtYt = X0Y0 + Z t 0 XsdYs + Z t 0 YsdXs + Z t 0 dXsdYs. 3 Ecuaciones diferenciales estocásticas Queremos resolver ecuaciones diferenciales del tipo dXt = b(t, Xt)dt + σ(t, Xt)dBt. (34) Los coeficientes b(t, x) y σ(t, x) se denominan, respectivamente, coefi- ciente de deriva y coeficiente de difusión. Si el coeficiente de difusión se anula, entonces, tendremos una ecuación diferencial ordinaria: dXt dt = b(t, Xt), que puede resolverse, si conocemos la condición inicial X0. Por ejemplo, en el caso lineal b(t, x) = b(t)x, la solución es Xt = X0 + e R t 0 b(s)ds . Una ecuación diferencial del tipo (34) se denomina una ecuación diferen- cial estocástica. La solución será un proceso estocástico {Xt, t ≥ 0} con trayectorias continuas adaptado a la filtración browniana. Los procesos solución se denominan procesos de difusión. Una interpretación heurı́stica de la ecuación diferencial (34) serı́a la sigu- iente: El incremento ∆Xt = Xt+∆t − Xt se expresa como una suma de b(t, Xt)∆t más un término que depende del incremento del movimiento brow- niano: σ(t, Xt)∆Bt y que se interpreta como una impulso aleatorio. Por 69
  • 70. tanto, el incremento ∆Xt tendrá una ley normal de media b(t, Xt)∆t y vari- anza σ(t, Xt)2 ∆t. La formalización de estas ecuaciones se realiza transformándolas en ecua- ciones integrales y utilizando integrales estocásticas: Xt = X0 + Z t 0 b(s, Xs)ds + Z t 0 σ(s, Xs)dBs. (35) El resultado fundamental sobre la existencia y unicidad de soluciones es el siguiente: Teorema 18 Fijemos un intervalo de tiempo [0, T]. Supongamos que los coeficientes de la ecuación (34) verifican: |b(t, x) − b(t, y)| ≤ D1|x − y| (36) |σ(t, x) − σ(t, y)| ≤ D2|x − y| (37) |b(t, x)| ≤ C1(1 + |x|) (38) |σ(t, x)| ≤ C2(1 + |x|), (39) para todo x, y ∈ R, t ∈ [0, T]. Supongamos que Z es una variable aleatoria independiente de la σ-álgebra FT generada por el movimiento browniano en [0, T], tal que E(Z2 ) < ∞. Entonces, existe un único proceso {Xt, t ∈ [0, T]} continuo, adaptado, solución de (35) y tal que E µZ T 0 |Xs|2 ds ¶ < ∞. Observaciones: 1.- Este resultado es cierto en dimensión superior, cuando Bt es un movimiento browniano m-dimensional, la solución Xt es un proceso estocástico n- dimensional, y los coeficientes son funciones b : [0, T] × Rn → Rn , σ : [0, T] × Rn → Rn×m . 2.- La condición de crecimiento lineal (38,39) garantiza que la solución no explota antes del tiempo final T. Por ejemplo, la ecuación diferencial determinista dXt dt = X2 t , X0 = 1, 70
  • 71. tiene por única solución la función Xt = 1 1 − t , 0 ≤ t < 1, que diverge en el instante t = 1. 3.- La condición de Lipschitz (36,37) garantiza que no exista más de una solución. Por ejemplo, la ecuación diferencial determinista dXt dt = 3X 2/3 t , X0 = 0, tiene infinitas soluciones ya que para cada a > 0, la función Xt = ½ 0 si t ≤ a (t − a)3 si t > a es solución. En este ejemplo la función b(x) = 3x2/3 no cumple la condición de Lipschitz ya que la derivada de b no está acotada. 4.- Si los coeficientes b(t, x) y σ(t, x) son diferenciables en la variable x, la condición de Lipschitz significa que las derivadas parciales ∂b ∂x y ∂σ ∂x están acotadas por las constantes D1 y D2, respectivamente. Demostración del Teorema 18: Consideremos el espacio L2 a,T de los procesos adaptados a la filtración FZ t = σ(Z) ∨ Ft y tales que E ³R T 0 |Xs|2 ds ´ < ∞. En este espacio introducimos la siguiente norma kXk = µZ T 0 e−λs E £ X2 s ¤ ds ¶1/2 , donde λ es una constante tal que λ > 2 (TD2 1 + D2 2). Definimos un operador en este espacio de la forma siguiente (LX)t = X0 + Z t 0 b(s, Xs)ds + Z t 0 σ(s, Xs)dBs. Este operador está bien definido debido a la propiedad de crecimiento lineal (38,39) de los coeficientes de la ecuación. 71
  • 72. La desigualdad de Schwartz y la isometrı́a de la integral estocástica nos per- miten escribir E £ |(LX)t − (LY )t|2¤ ≤ 2E "µZ t 0 (b(s, Xs) − b(s, Ys)) ds ¶2 # +2E "µZ t 0 (σ(s, Xs) − σ(s, Xs)) dBs ¶2 # ≤ 2TE ·Z t 0 (b(s, Xs) − b(s, Ys))2 ds ¸ +2E ·Z t 0 (σ(s, Xs) − σ(s, Xs))2 ds ¸ . Utilizando la propiedad de Lipschitz (36,37) se obtiene E £ |(LX)t − (LY )t|2¤ ≤ 2 ¡ TD2 1 + D2 2 ¢ E ·Z t 0 (Xs − Ys)2 ds ¸ . Pongamos C = 2 (TD2 1 + D2 2). Por consiguiente, multiplicando por el factor e−λt e integrando en [0, T] se obtiene Z T 0 e−λt E £ |(LX)t − (LY )t|2¤ dt ≤ C Z T 0 e−λt E ·Z t 0 (Xs − Ys)2 ds ¸ dt ≤ C Z T 0 µZ T s e−λt dt ¶ E £ (Xs − Ys)2¤ ds ≤ C λ Z T 0 e−λs E £ (Xs − Ys)2¤ ds. Por lo tanto, kLX − LY k ≤ r C λ kX − Y k y como q C λ < 1. Esto nos dice que el operador L es una contracción en el espacio L2 a,T . El teorema del punto fijo nos asegura que este operador tiene un único punto fijo, lo que implica la unicidad y existencia de solución de la ecuación (35). ¤ 72
  • 73. 3.1 Soluciones explı́citas de ecuaciones diferenciales es- tocásticas La fórmula de Itô permite resolver explı́citamente algunas ecuaciones difer- enciales estocásticas. Veamos algunos ejemplos. A) Ecuaciones lineales. El movimiento browniano geométrico Xt = X0e µ−σ2 2 t+σBt satisface la ecuación lineal dXt = µXtdt + σXtdBt. Más generalmente, la solución de la ecuación lineal homogénea dXt = b(t)Xtdt + σ(t)XtdBt será Xt = X0 exp hR t 0 ¡ b(s) − 1 2 σ2 (s) ¢ ds + R t 0 σ(s)dBs i B) El proceso de Ornstein-Uhlenbeck. Consideremos la ecuación diferencial estocástica dXt = a (m − Xt) dt + σdBt X0 = x, donde a, σ 0 y m es un número real. Como se trata de una ecuación lineal no homogénea, utilizaremos el método de variación de las con- stantes. La solución de la ecuación homogénea dxt = −axtdt x0 = x es xt = xe−at . Entonces hacemos el cambio de variable Xt = Yte−at , es decir, Yt = Xteat . El proceso Yt satisface dYt = aXteat dt + eat dXt = ameat dt + σeat dBt. 73
  • 74. Por tanto, Yt = x + m(eat − 1) + σ Z t 0 eas dBs, lo que implica Xt = m + (x − m)e−at + σe−at R t 0 eas dBs El proceso estocástico Xt es gaussiano. La media y varianza de cada variable Xt pueden calcularse fácilmente: E(Xt) = m + (x − m)e−at , V arXt = σ2 e−2at E µZ t 0 eas dBs ¶2 # = e−2at Z t 0 e2as ds = σ2 2a ¡ 1 − e−2at ¢ . La distribución de Xt cuando t tiende a infinito converge hacia la ley normal N(m, σ2 2a ). Esta ley se denomina la ley invariante o estacionaria. En el caso m = 0 este proceso se denomina el proceso de Ornstein-Uhlenbeck. C) Consideremos una ecuación diferencial estocástica del tipo dXt = f(t, Xt)dt + c(t)XtdBt, X0 = x, (40) donde f(t, x) y c(t) son funciones deterministas continuas, tales que f satisface las condiciones de crecimiento lineal y propiedad de Lipschitz en la variable x. Esta ecuación se puede resolver siguiendo los pasos siguientes: a) Se considera el “factor integrante” Ft = exp µ − Z t 0 c(s)dBs + 1 2 Z t 0 c2 (s)ds ¶ , tal que F−1 t es solución de la ecuación (40) si f = 0 y x = 1. El proceso Yt = FtXt cumple dYt = Ftf(t, F−1 t Yt)dt, Y0 = x. (41) 74
  • 75. b) La ecuación (41) es una ecuación diferencial determinista, parametrizada por ω ∈ Ω, que podrá resolverse mediante métodos habituales. Por ejemplo, supongamos que f(t, x) = f(t)x. En tal caso la ecuación (41) es dYt = f(t)Ytdt, de lo que se deduce Yt = x exp µZ t 0 f(s)ds ¶ y, por lo tanto, Xt = x exp ³R t 0 f(s)ds + R t 0 c(s)dBs − 1 2 R t 0 c2 (s)ds ´ D) Ecuación diferencial estocástica lineal general. Consideremos la ecuación dXt = (a(t) + b(t)Xt) dt + (c(t) + d(t)Xt) dBt, con condición inicial X0 = x, donde a, b, c y d son funciones continuas. Utilizando el método de variación de las constantes propondremos una solución de la forma Xt = UtVt (42) donde dUt = b(t)Utdt + d(t)UtdBt y dVt = α(t)dt + β(t)dBt, con U0 = 1 y V0 = x. Por el apartado C sabemos que Ut = exp µZ t 0 b(s)ds + Z t 0 d(s)dBs − 1 2 Z t 0 d2 (s)ds ¶ . Por otra parte, diferenciando la igualdad (42) obtenemos a(t) = Utα(t) + β(t)d(t)Ut c(t) = Utβ(t) 75
  • 76. es decir β(t) = c(t) U−1 t α(t) = [a(t) − c(t)d(t)] U−1 t . Finalmente, Xt = Ut ³ x + R t 0 [a(s) − c(s)d(s)] U−1 s ds + R t 0 c(s) U−1 s dBs ´ La ecuación diferencial estocástica de Itô Xt = X0 + Z t 0 b(s, Xs)ds + Z t 0 σ(s, Xs)dBs, puede transformarse en una ecuación de Stratonovich, utilizando la fórmula (27) que nos relaciona ambos tipos de integral. Ası́, se obtiene Xt = X0 + Z t 0 b(s, Xs)ds − Z t 0 1 2 (σσ0 ) (s, Xs)ds + Z t 0 σ(s, Xs) ◦ dBs, ya que la expresión del proceso σ(s, Xs) como proceso de Itô serı́a σ(t, Xt) = σ(0, X0) + Z t 0 µ σ0 b − 1 2 σ00 σ2 ¶ (s, Xs)ds + Z t 0 (σσ0 ) (s, Xs)dBs. Yamada y Watanabe demostraron en 1971 que la condición de Lipschitz podı́a debilitarse de la forma siguiente, en el caso de ecuaciones diferenciales estocásticas unidimensionales. Supongamos que los coeficientes b y σ no de- penden del tiempo, el coeficiente b es Lipschitz, pero el coeficiente σ satisface la condición de Hölder |σ(x) − σ(y)| ≤ D|x − y|α , donde α ≥ 1 2 . En tal caso existe una única solución de la ecuación. Por ejemplo, la ecuación ½ dXt = |Xt|r dBt X0 = 0 tiene una solución única si r ≥ 1/2. 76
  • 77. 3.2 Soluciones fuertes y soluciones débiles La solución Xt que hemos encontrado antes es una solución fuerte porque es un proceso adaptado a la familia de σ-álgebras FZ t = σ(Bs, s ≤ t, Z). Podemos plantear el problema de forma diferente. Nos dan los coeficientes b(t, x) y σ(t, x) y nos piden que encontremos un par de procesos Xt, Bt en un espacio de probabilidad (Ω, F, P) tales que Bt es un movimiento browniano relativo a una filtración Ht y Xt satisface la ecuación (34) en este espacio. Di- remos entonces que (Ω, F, P, Ht, Xt, Bt) es una solución débil de la ecuación (34). Pueden demostrarse los siguientes resultados: • Toda solución fuerte es también una solución débil. • Una ecuación con coeficientes b(t, x) y σ(t, x) se dice que tiene unicidad débil si dos soluciones débiles tienen la misma ley (las mismas distribu- ciones en dimensión finita). Si los coeficientes satisfacen las condiciones del Teorema (18) entonces se satisface la unicidad débil. • La existencia de soluciones débiles puede asegurarse suponiendo sola- mente que los coeficientes b(t, x) y σ(t, x) son funciones continuas y acotadas. La ecuación de Tanaka dXt = sign (Xt) dBt, X0 = 0, no tiene ninguna solución fuerte pero tiene una solución débil única. 3.3 Aproximaciones numéricas Muchas ecuaciones diferenciales estocásticas no pueden resolverse explı́citamente. Por ello es conveniente disponer de métodos numéricos que permiten la sim- ulación de soluciones. 77
  • 78. Consideremos la ecuación diferencial estocástica con coeficientes indepen- dientes del tiempo dXt = b(Xt)dt + σ(Xt)dBt, (43) con condición inicial X0 = x. Fijemos un intervalo de tiempo [0, T] y consideremos la subdivisión for- mada por los puntos tj = iT n , i = 0, 1, . . . , n. La longitud de cada subintervalo será δn = T n . El método de Euler consiste en el esquema recursivo siguiente: X(n) (ti) = X(n) (ti−1) + b(X(n) (ti−1))δn + σ(X(n) (ti−1))∆Bi, i = 1, . . . , n, donde ∆Bi = Bti − Bti−1 . El valor inicial será X (n) 0 = x. En los puntos de cada intervalo (titi+1) el valor del proceso X(n) se deduce por interpolación lineal. El proceso X(n) es una función del movimiento browniano y podemos medir el error comerido al aproximar X por X(n) : en = E ·³ XT − X (n) T ´2 ¸ . Puede demostrarse que en es del orden δ1/2 n es decir, en ≤ cδ1/2 n si n ≥ n0. Para simular una solución mediante el método de Euler, basta con obtener valores de n variables aleatorias ξ1, . . . ., ξn independientes con ley N(0, 1), y substituir ∆Bi por √ δnξi. El método de Euler puede mejorarse mediante una corrección adicional. Esto nos lleva a introducir el método de Milstein. El valor exacto del incremento entre dos puntos de la partición es X(ti) = X(ti−1) + Z ti ti−1 b(Xs)ds + Z ti ti−1 σ(Xs)dBs. (44) En el método de Euler se basa en aproximar las integrales de la forma sigu- iente: Z ti ti−1 b(s)ds ≈ b(X(n) (ti−1))δn, Z ti ti−1 σ(s)dBs ≈ σ(X(n) (ti−1))∆Bi. 78