2. 1 Probabilidades y procesos estocásticos
1.1 Conceptos básicos del cálculo de probabilidades
Recordemos en primer lugar algunas definiciones generales del cálculo de
probabilidades.
Un espacio de probabilidad es una terna (Ω, F, P) formada por:
(i) Un conjunto Ω que representa el conjunto de los posibles resultados de
una cierta experiencia aleatoria.
(ii) Una familia F de subconjuntos de Ω que tiene estructura de σ-álgebra:
a) ∅ ∈ F
b) Si A ∈ F, su complementario Ac
también pertenece a F
c) A1, A2, . . . ∈ F =⇒ ∪∞
i=1Ai ∈ F
(iii) Una aplicación P : F → [0, 1] que cumple:
a) P(∅) = 0, P(Ω) = 1
b) Si A1, A2, . . . ∈ F son conjuntos disjuntos dos a dos (es decir, Ai ∩
Aj = ∅ si i 6= j), entonces
P (∪∞
i=1Ai) =
P∞
i=1 P(Ai)
Los elementos de la σ-álgebra F se denominan sucesos y la aplicación P se
denomina una probabilidad, de forma que tenemos la siguiente interpretación
de este modelo:
P(F)=“probabilidad de que el suceso F se realice”
Si P(F) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi
seguramente.
Las propiedades a) y b) permiten deducir algunas reglas básicas del
cálculo de probabilidades:
P(A ∪ B) = P(A) + P(B) si A ∩ B = ∅
P(Ac
) = 1 − P(A)
A ⊂ B =⇒ P(A) ≤ P(B).
2
3. Ejemplo 1 Lanzamos un dado.
Ω = {1, 2, 3, 4, 5, 6}
F = P(Ω) (F contiene todos los subconjuntos de Ω)
P({ωi}) =
1
6
, para i = 1, . . . , 6
Ejemplo 2 Elegimos un número al azar en el intervalo [0, 2]. Ω = [0, 2], F es
la σ-álgebra de Borel (generada por los intervalos de [0, 2]). La probabilidad
de cualquier intervalo [a, b] ⊂ [0, 2] será
P([a, b]) =
b − a
2
.
Se dice que un espacio de probabilidad (Ω, F, P) es completo si dado un
suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la
σ-álgebra F. Un espacio de probabilidad siempre se puede completar substi-
tuyendo la σ-álgebra F por una σ-álgebra mayor formada por los conjuntos
de la forma F ∪ A, donde F ∈ F y A es un subconjunto de un conjunto de
F de probabilidad cero.
Si U es una familia de subconjuntos de Ω, la más pequeña σ-álgebra que
contiene a U es, por definición,
σ(U) = ∩ {G, G es una σ-álgebra, U ⊂ G} ,
y se denomina la σ-álgebra generada por U. Por ejemplo, la σ-álgebra gen-
erada por los conjuntos abiertos (o por los rectángulos) de Rn
se denomina
la σ-álgebra de Borel de Rn
y la representaremos por BRn .
Ejemplo 3 Consideremos una partición finita P = {A1, . . . , An} de Ω. La σ-
álgebra generada por P está formada por todas las uniones de los elementos
de la partición (2n
en total).
Una variable aleatoria es una aplicación
Ω
X
−→ R
ω → X(ω)
que es F-medible, es decir, X−1
(B) ∈ F, para todo conjunto B de la σ-
álgebra de Borel de R.
3
4. • Una variable aleatoria determina una σ-álgebra {X−1
(B), B ∈ BR} ⊂
F que se denomina la σ-álgebra generada por X.
• Una variable aleatoria determina una probabilidad en la σ-álgebra de
Borel BR definida por PX = P ◦ X−1
, es decir,
PX(B) = P(X−1
(B)) = P({ω : X(ω) ∈ B})
La probabilidad PX se denomina la ley o distribución de la variable X.
Diremos que una variable aleatoria X tiene densidad de probabilidad fX
si fX(x) es una función positiva, medible respecto de la σ-álgebra de Borel
y tal que
P(a < X < b) =
Z b
a
fX(x)dx,
para todo a < b.
Las variables discretas (que toman un conjunto finito o numerable de
valores distintos xk) no tienen densidad y su ley está determinada por la
función de probabilidad:
pk = P(X = xk).
Ejemplo 4 Una variable aleatoria tiene ley normal N(m, σ2
) si
P (a < X < b) =
1
√
2πσ2
Z b
a
e−
(x−m)2
2σ2
dx
para todo par de números reales a < b.
Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si
P (X = k) =
µ
n
k
¶
pk
(1 − p)n−k
,
para k = 0, 1, . . . , n.
La distribución de una variable aleatoria X puede caracterizarse mediante
su función de distribución definida como la probabilidad acumulada:
FX(x) = P (X ≤ x) = PX ((−∞, x])
4
5. • La función FX : R →[0, 1] es creciente, continua por la derecha y con
lı́mites iguales a cero en −∞ y 1 en +∞.
• Si la variable X tiene densidad fX, entonces,
FX(x) =
Z x
−∞
fX(y)dy,
y si la densidad es continua, F0
X(x) = fX(x).
La esperanza matemática de una variable aleatoria X se define como la
integral de X respecto de la probabilidad P, considerada como una medida
en el espacio (Ω, F). En particular, si X es una variable elemental que toma
los valores α1, . . . , αn en los conjuntos A1, . . . , An, su esperanza valdrá
E(X) =
n
X
i=1
αiP(Ai).
El cálculo de la esperanza de una variable aleatoria se efectua integrando la
función x respecto de la ley de probabilidad de la variable. Es decir, si X es
una variable que tiene esperanza (o sea E(|X|) < ∞) se tiene
E(X) =
Z
Ω
X(ω)dP(ω) =
Z ∞
−∞
xdPX(x).
Más generalmente, si g : R → R es una función medible respecto de la σ-
álgebra de Borel y E(|g(X)|) < ∞, entonces la esperanza de la variable g(X)
se puede calcular integrando la función g respecto de la ley de la variable X:
E(g(X)) =
Z
Ω
g(X(ω))dP(ω) =
Z ∞
−∞
g(x)dPX(x).
La integral
R ∞
−∞
g(x)dPX(x) se calcula utilizando la densidad o función de
probabilidad de la variable X:
Z ∞
−∞
g(x)dPX(x) =
½ R ∞
−∞
g(x)fX(x)dx, fX(x) es la densidad de X
P
k g(xk)P(X = xk), X variable discreta
5
6. Ejemplo 6 Si X es una variable aleatoria con ley normal N(0, σ2
) y λ es un
número real,
E(exp (λX)) =
1
√
2πσ2
Z ∞
−∞
eλx
e− x2
2σ2
dx
=
1
√
2πσ2
e
σ2λ2
2
Z ∞
−∞
e−
(x−σ2λ)2
2σ2
dx
= e
σ2λ2
2 .
La varianza de una variable aleatoria X se define por
σ2
X = Var(X) = E((X − E(X))2
) = E(X2
) − [E(X)]2
.
La varianza nos mide el grado de dispersión de los valores de la variable
respecto de su esperanza. Por ejemplo, si X es una variable con ley normal
N(m, σ2
) se tiene
P(m − 1.96σ ≤ X ≤ m + 1.96σ) = P(−1.96 ≤
X − m
σ
≤ 1.96)
= Φ(1.96) − Φ(−1.96) = 0.95,
donde Φ es la función de distribución de la ley N(0, 1). Es decir, la probabil-
idad de que la variable X tome valores en el intervalo [m − 1.96σ, m + 1.96σ]
es igual a 0.95.
Diremos que X = (X1, . . . , Xn) es un vector aleatorio n-dimensional si
sus componentes son variables aleatorias.
La esperanza de un vector aleatorio n-dimensional X será el vector
E(X) = (E(X1), . . . , E(Xn))
La matriz de covarianzas de un vector aleatorio n-dimensional X es, por
definición, la matriz ΓX = (cov(Xi, Xj))1≤i,j≤n, donde
cov(Xi, Xj) = E [(Xi − E(Xi)) (Xj − E(Xj))] .
Es decir, los elementos de la diagonal de esta matriz son las varianzas de las
variables Xj y fuera de la diagonal encontramos las covarianzas entre dos
variables Xi y Xj.
6
7. Como en el caso de variables aleatorias se introduce la ley o distribución
de un vector aleatorio n-dimensional X como la probabilidad definida en la
σ-álgebra de Borel BRn por
PX(B) = P(X−1
(B)) = P(X ∈ B).
Diremos que un vector aleatorio n-dimensional X tiene una ley normal
N = (m, Γ), donde m ∈ Rn
, y Γ es una matriz simétrica y definida positiva,
si
P (ai ≤ Xi ≤ bi, i = 1, . . . , n)
=
Z bn
an
· · ·
Z b1
a1
(2π det Γ)−n
2 e−1
2
Pn
i,j=1(xi−mi)(xj−mj)Γ−1
ij dx1 · · · dxn.
En tal caso, se tiene, m = E(X) y Γ = ΓX.
Si la matrix Γ es una matriz diagonal
Γ =
σ2
1 · · · 0
.
.
.
...
.
.
.
0 · · · σ2
n
entonces la densidad del vector X será el producto de n densidades normales
unidimensionales:
fX(x1, . . . , xn) =
n
Y
i=1
Ã
1
p
2πσ2
i
e
−
(x−mi)2
2σ2
i
!
.
Existen también leyes normales degeneradas, en las que la matriz Γ es
singular. En este caso, no existe la densidad de probabilidad, y la ley de X
queda determinada por su función caracterı́stica:
E
³
eit0X
´
= exp
µ
it0
m −
1
2
t0
Γt
¶
,
donde t ∈ Rn
. En esta fórmula t0
es un vector lı́nea (matriz 1 × n) y t es un
vector columna (matriz n × 1).
Si X es un vector normal n-dimensional con ley N(m, Γ) y A es una
matriz m × n, entonces AX es un vector normal m-dimensional con ley
N(Am, AΓA0
).
7
8. Diremos que una variable tiene media de orden p ≥ 1 si E(|X|p
) < ∞.
En tal caso, se define el momento de orden p de la variable aleatoria X como
mp = E(Xp
).
El conjunto de las variables que tienen media de orden p se representa por
Lp
(Ω, F, P).
Sea X una variable aleatoria con función caracterı́stica
ϕX(t) = E(eitX
).
Los momentos de la variable aleatoria puede calcularse a partir de las derivadas
de la función caracterı́stica en el origen
mn =
1
in
ϕ
(n)
X (t)|t=0.
Recordemos algunas desigualdades importantes en el cálculo de probabil-
idades:
• Desigualdad de Tchebychev: Si λ > 0
P(|X| > λ) ≤
1
λp E(|X|p
).
• Desigualdad de Schwartz:
E(XY ) ≤
p
E(X2)E(Y 2).
• Desigualdad de Hölder:
E(XY ) ≤ [E(|X|p
)]
1
p [E(|Y |q
)]
1
q ,
donde p, q > 1 y 1
p
+ 1
q
= 1.
• Desigualdad de Jensen: Si ϕ : R → R es una función convexa tal que las
variables X y ϕ(X) tienen esperanza, entonces,
ϕ(E(X)) ≤ E(ϕ(X)).
En particular si ϕ(x) = |x|p
, con p ≥ 1, tendremos
|E(X)|p
≤ E(|X|p
).
8
9. Recordemos los diferentes modos de convergencia de una sucesión de vari-
ables aleatorias Xn, n = 1, 2, 3, . . .:
Convergencia casi segura: Xn
c.s.
−→ X, si
lim
n→∞
Xn(ω) = X(ω),
para todo ω /
∈ N, donde P(N) = 0.
Convergencia en probabilidad: Xn
P
−→ X, si
lim
n→∞
P(|Xn − X| > ε) = 0,
para todo ε > 0.
Convergencia en media de orden p ≥ 1: Xn
Lp
−→ X, si
lim
n→∞
E(|Xn − X|p
) = 0.
Convergencia en ley: Xn
L
−→ X, si
lim
n→∞
FXn (x) = FX(x),
para todo punto x de continuidad de la función de distribución FX.
• La convergencia en media de orden p implica la convergencia en prob-
abilidad ya que, debido a la desigualdad de Tchebychev tendremos
P(|Xn − X| > ε) ≤
1
εp
E(|Xn − X|p
).
• La convergencia casi segura implica la convergencia en probabilidad
(esto es más difı́cil de demostrar).
• La convergencia casi segura implica la convergencia en media de orden
p ≥ 1, si las variables aleatorias Xn están acotadas por una variable
aleatoria integrable Y (teorema de convergencia dominada):
|Xn| ≤ Y, E(Y ) < ∞.
9
11. 1.2 Procesos estocásticos
Un proceso estocástico és una familia de variables aleatorias reales {Xt, t ≥ 0}
definidas en un espacio de probabilidad (Ω, F, P).
El conjunto de parámetros [0, ∞) representa el tiempo y en algunos casos
supondremos que es un intervalo acotado [0, T], o el conjunto los números
naturales (procesos a tiempo discreto).
Per cada ω ∈ Ω, la aplicación
t −→ Xt(ω)
se dnomina una trayectoria del proceso estocástico.
Si fijamos un conjunto finito de instantes {0 ≤ t1 < · · · < tn} tendremos
un vector aleatorio
(Xt1 , . . . , Xtn ) : Ω −→ Rn
.
Las distribuciones de probabilidad Pt1,...,tn = P ◦ (Xt1 , . . . , Xtn )−1
se denom-
inan las distribuciones en dimensión finita del proceso.
El siguiente teorema debido a Kolmogorov asegura la existencia de un
proceso estocástico asociado a una familia de distribuciones en dimensión
finita que satisfagan una condición de compatibilidad.
Teorema 1 Consideremos una familia de probabilidades
{Pt1,...,tn , 0 ≤ t1 < · · · < tn, n ≥ 1}
tales que:
1. Pt1,...,tn es una probabilidad en Rn
2. (Condición de compatibilidad): Si {0 ≤ s1 < · · · < sm} ⊂ {0 ≤ t1 <
· · · < tn}, entonces
Pt1,...,tn ◦ π−1
= Ps1,...,sm
donde π : Rn
→ Rm
es la proyección natural asociada a los dos con-
juntos de ı́ndices.
Entonces, existe un proceso estocástico {Xt, t ≥ 0} que tiene la familia
{Pt1,...,tn } como distribuciones en dimensión finita.
11
12. La media y la autocovarianza de un proceso estocástico se definen como
sigue:
mX(t) = E(Xt)
ΓX(s, t) = Cov(Xs, Xt)
= E((Xs − mX(s))(Xt − mX(t)).
La varianza del proceso X se define por
σ2
X(t) = ΓX(t, t) = Var(Xt).
Ejemplo 7 Consideremos el proceso estocástico
Xt = A cos(ϕ + λt),
donde A y ϕ son variables aleatorias independientes tales que E(A2
) < ∞ y
ϕ tiene ley uniforme en [0, 2π]. En este caso,
mX(t) = 0
ΓX(s, t) =
1
2
E(A2
) cos λ(t − s).
Se dice que un proceso estocástico {Xt, t ≥ 0} es gaussiano o normal si
sus distribuciones en dimensión finita son leyes normales multidimensionales.
Observamos que en el caso de un proceso gaussiano, la media mX(t) y
la autocovarianza ΓX(s, t) determinan las distribuciones en dimensión finita
del proceso.
La media mX(t) y la varianza σ2
X(t) nos permiten conocer donde se
concentran los valores de la variable Xt ası́ como su grado de dispersión,
para cada instante t fijo. Por ejemplo, en el caso de un proceso gaussiano,
P(mX(t) − 2σX(t) ≤ Xt ≤ mX(t) + 2σX(t)) w 0.95.
Notemos que la probabilidad de que las trayectorias del proceso estén
comprendidas entre las curvas mX(t) − 2σX(t) y mX(t) − 2σX(t) es mucho
más difı́cil de calcular.
12
13. Ejemplo 8 Consideremos un proceso gaussiano {Xt, t ∈ [0, 1]} tal que las
variables aleatorias Xt son independientes y con ley N(0, σ2
). La media y
autocovarianza de este proceso son
mX(t) = 0
ΓX(s, t) =
½
1 si s = t
0 si s 6= t
Se dice que un proceso estocástico {Xt, t ≥ 0} es una versión de otro
proceso {X0
t, t ≥ 0} si para cada t ≥ 0
P{Xt = X0
t} = 1.
Se dice también que ambos procesos son equivalentes. Dos procesos equiva-
lentes puede tener trayectorias diferentes (véase el Ejercicio 1.6).
Diremos que el proceso {Xt, t ≥ 0} es continuo en probabilidad si para
todo ε > 0 y todo t ≥ 0
lim
s→t
P(|Xt − Xs| > ε) = 0.
Consideremos un proceso estocástico {Xt, t ≥ 0} tal que E (|Xt|p
) < ∞,
para todo t ≥ 0, donde p ≥ 1. Diremos que el proceso {Xt, t ≥ 0} es continuo
en media de orden p si
lim
s→t
E (|Xt − Xs|p
) = 0.
La continuidad en media de orden p implica la continuidad en probabilidad.
Sin embargo, la continuidad en media de orden p no implica necesariamente
la continuidad de las trayectorias.
Ejemplo 9 El proceso de Poisson {Nt, t ≥ 0} es un proceso estocástico car-
acterizado por la ssiguientes propiedades:
i) Nt = 0,
ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn −Ntn−1 , . . . , Nt2 −
Nt1 , son variables aleatorias independientes,
13
14. iii) Si s < t, el incremento Nt − Ns tiene una ley de Poisson de parámetro
λ(t − s), es decir
P(Nt − Ns = k) = e−λ(t−s) [λ(t − s)]k
k!
,
k = 0, 1, 2, . . .
Se puede construir un proceso de Poisson de la forma siguiente. Consid-
eremos una sucesión {Yn, n ≥ 1} de variables aleatorias independientes y con
ley geométrica de parámetro λ. Es decir, para todo x ≥ 0,
P(Yn ≥ x) = e−λx
.
Pongamos T0 = 0 y para n ≥ 1,
Tn = Y1 + · · · + Yn.
Entonces, el proceso Nt definido por
Nt = n si Tn ≤ t < Tn+1
es un proceso de Poisson de parámetro λ.
Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de
amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada
par de saltos son variables aleatorias independientes con leyes exponenciales
de parámetro λ. Por tanto, las trayectorias no son continuas, aunque si que
los son en media cuadrática:
E
£
(Nt − Ns)2¤
=
∞
X
k=1
e−λ(t−s) k2
[λ(t − s)]k
k!
= λ(t − s) + [λ(t − s)]2 s→t
−→ 0.
Acotaciones adecuadas de los momentos de los incrementos del proceso,
permiten deducir la continuidad de las trayectorias. Este es el contenido del
siguiente criterio de continuidad, debido a Kolmogorov.
14
15. Proposición 2 (Criterio de continuidad) Supongamos que un proceso es-
tocástico {Xt, t ≥ 0} cumple la condición siguiente:
E (|Xt − Xs|p
) ≤ cT |t − s|α
(1)
para todo 0 ≤ s < t ≤ T, donde a > 1 y p > 0. Entonces existe una versión
del proceso estocástico Xt que tiene trayectorias continuas.
Ejemplo 10 El proceso de Poisson no cumple la condición (1).
La condición (1) nos permide además tener información sobre la regu-
laridad de las trayectorias. En efecto, fijemos un intervalo de tiempo [0, T].
Entonces, para cada ε > 0 existe una variable aleatoria Gε,T tal que, con
probabilidad uno,
|Xt(ω) − Xs(ω)| ≤ Gε,T (ω)|t − s|
α
p
−ε
, (2)
para todo s, t ∈ [0, T]. Además, E(Gp
ε,T ) < ∞ para todo p ≥ 1.
1.3 Movimiento browniano
En 1828 el botánico inglés Robert Brown observó que los granos de polen en
suspensión se movı́an de forma irregular. Posteriormente se descubrió que
este fenómeno es debido a los choques aleatorios de las partı́culas de polen
con las moléculas del lı́quido. En los años 20 Norbert Wiener presentó un
modelo matemático para este movimiento basado en la teorı́a de los procesos
estocásticos. La posición de una partı́cula en cada instante t ≥ 0 es un vector
variable aleatorio 3-dimensional Bt.
En el caso unidimensional la definición del movimiento browniano como
proceso estocástico es la siguiente:
Definición 3 Un proceso estocástico {Bt, t ≥ 0} es un movimiento browni-
ano si se cumplen las condiciones siguientes:
i) B0 = 0
ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn −Btn−1 , . . . , Bt2 −
Bt1 , son variables aleatorias independientes
15
16. iii) Si s < t, el incremento Bt − Bs tiene una ley normal N(0, t − s)
iv) Las trayectorias del proceso son funciones continuas.
Observaciones
1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un
vector aleatorio (Bt1 , . . . , Btn ) es normal ya que este vector es una trans-
formación lineal del vector
¡
Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1
¢
que tiene
ley normal ya que tiene las componentes independientes y normales.
2) La media y la autocovarianza del movimiento browniano se calculan facil-
mente:
E(Bt) = 0
E(BsBt) = E(Bs(Bt − Bs + Bs))
= E(Bs(Bt − Bs)) + E(B2
s ) = s = min(s, t)
si s ≤ t. Puede comprobarse fácilmente que si un proceso gaussiano
tiene media cero y función de autocovarianza ΓX(s, t) = min(s, t), en-
tonces cumple las condiciones i), ii) y iii) de la Definición anterior.
3) Puede demostrarse que existe un proceso estocástico que cumple las
condiciones anteriores. Para ello, se parte de sus distribuciones en
dimensión finita, que son leyes normales N(0, Γ) donde Γ es la la ma-
triz
t1 t1 · · · t1
t1 t2 · · · t2
.
.
.
.
.
.
...
.
.
.
t1 t2 · · · tn
.
El teorema de extensión de Kolmogorov permite construir un proceso
estocástico fijadas las distribuciones en dimensión finita, siempre que
sean compatibles, lo que aquı́ es cierto. Finalmente hay que demostrar
que se pueden modificar las variables Bt conjuntos de probabilidad
cero de forma que las trayectorias sean continuas. Para ello se aplica el
criterio de continuidad de Kolmogorov. Como los incrementos Bt − Bs
tienen ley normal N(0, t − s), para todo número entero k tendremos
E
h
(Bt − Bs)2k
i
=
(2k)!
2kk!
(t − s)k
. (3)
16
17. Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una
versión continua, ya que
E
£
(Bt − Bs)4¤
= 3(t − s)2
.
4) En la definición de movimiento bronwiano, se supone que el espacio de
probabilidad (Ω, F, P) es arbitrario. Sin embargo, mediante la apli-
cación
Ω → C ([0, ∞), R)
ω → B·(ω)
podemos suponer que el espacio de probabilidad es el conjunto de
las funciones continuas C ([0, ∞), R) con la σ-álgebra de Borel (gen-
erada por los conjuntos abiertos relativos a la estructura de espacio
métrico separable y completo) y con una probabilidad igual a la ley del
movimiento browniano: P ◦ B−1
. En tal caso las variables aleatorias
son las evaluaciones ω(t) y este espacio de probabilidad se denomina
espacio canónico.
Regularidad de las trayectorias
Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo
p = 2k y utilizando (3), tendremos α = k. Por lo tanto, para todo ε > 0
existe una variable aleatoria Gε,T tal que
|Bt − Bs| ≤ Gε,T |t − s|
1
2
−ε
, (4)
para cada s, t ∈ [0, T]. Es decir, las trayectorias del movimiento Browniano
son Hölder continuas de orden 1
2
− ε para todo ε > 0. Intuitivamente, esto
significa que
∆Bt = Bt+∆t − Bt w (∆t)
1
2 .
En media esta aproximación es exacta: E
£
(∆Bt)2¤
= ∆t.
Variación cuadrática del movimiento browniano
Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisión π de
este intervalo
0 = t0 < t1 < · · · < tn = t.
17
18. La norma de la subdivisión π se define como |π| = maxk ∆tk, donde ∆tk =
tk − tk−1 . Pongamos ∆Bk = Btk
− Btk−1
. Entonces, si tj = jt
n
tendremos
n
X
k=1
|∆Bk| w n
µ
t
n
¶1
2
−→ ∞,
mientras que
n
X
k=1
(∆Bk)2
w n
t
n
= t. (5)
Esas propiedades pueden formularse de manera rigurosa como sigue:
En primer lugar, puede demostrarse que las sumas de los cuadrados de
los incrementos convergen en media cuadrática hacia la longitud del intervalo
de tiempo considerado:
E
à n
X
k=1
(∆Bk)2
− t
!2
= E
à n
X
k=1
£
(∆Bk)2
− ∆tk
¤
!2
=
n
X
k=1
E
³£
(∆Bk)2
− ∆tk
¤2
´
=
n
X
k=1
£
4 (∆tk)2
− 2 (∆tk)2
+ (∆tk)2¤
= 3
n
X
k=1
(∆tk)2
≤ 3t|π|
|π|→0
−→ 0.
Por otra parte, la variación total de las trayectorias del movimiento brow-
niano, definida como
V = sup
π
n
X
k=1
|∆Bk|
es infinita con probabilidad uno. En efecto, utilizando la continuidad de las
trayectorias del movimiento browniano, tendremos
n
X
k=1
(∆Bk)2
≤ sup
k
|∆Bk|
à n
X
k=1
|∆Bk|
!
≤ V sup
k
|∆Bk|
|π|→0
−→ 0 (6)
si V < ∞, lo cual contradice que
Pn
k=1 (∆Bk)2
converja en media cuadrática
hacia t cuando |π| → 0.
18
20. Simulación del movimiento browniano
El movimiento browniano puede considerarse como el lı́mite de los paseos
aleatorios. Fijemos un intervalo de tiempo [0, T]. Consideremos n variables
aleatorias ξ1, . . . , ξn independientes, idénticamente distribuidas, centradas y
de varianza T
n
. Formemos las sumas parciales
Rk = ξ1 + · · · + ξk, k = 1, . . . , n.
El Teorema Central del Lı́mite nos dice que cuando n tiende a infinito, la
sucesión Rn converge en ley hacia la ley N(0, T).
Consideremos ahora el proceso estocástico continuo Sn(t) construido por
interpolación lineal a partir de los valores
Sn(
kT
n
) = Rk k = 0, . . . , n.
Es decir, colocamos las sumas parciales R1, R2, . . . en los instantes T
n
, 2T
n
, 3T
n
, . . .
.
Se verifica una versión funcional del Teorema Central del Lı́mite, conocida
con el nombre de Principio de Invariancia de Donsker, que nos dice que la
sucesión de procesos estocásticos Sn(t) convege en ley hacia el movimiento
browniano en [0, T].
También puede hacerse una simulación de las trayectorias brownianas
mediante series de Fourier con coeficientes aleatorios. La representación de
Paley-Wiener del movimiento browniano es
Bt = Z0
t
√
2π
+
2
√
π
∞
X
n=1
Zn
sin(nt/2)
n
, t ∈ [0, 2π],
donde las Zn, n = 0, 1, . . . son variables aleatorias independientes y con
ley N(0, 1). La serie converge uniformemente en [0, 2π], para cada ω, casi
seguramente.
Para utilizar esta fórmula en la simulación de las trayectorias brownianas
debemos elegir el número M de funciones trigonométricas y el número N de
puntos de discretización de las funciones:
Z0
tj
√
2π
+
2
√
π
M
X
n=1
Zn
sin(ntj/2)
n
,
20
21. donde tj = 2πj
N
, j = 0, 1, . . . , N.
1.4 Esperanza condicionada
La probabilidad condicionada de un suceso A por un suceso B (suponiendo
P(B) > 0) se define como
P(A|B) = P(A∩B)
P(B)
.
Vemos que A y B son independientes sı́ y solo si P(A|B) = P(A). La
probabilidad condicionada P(A|B) representa la probabilidad del suceso A
suponiendo que sabemos que B ha ocurrido. La aplicación
A 7−→ P(A|B)
define una nueva probabilidad en la σ-álgebra F que se concentra en el con-
junto B. Se puede calcular entonces la esperanza condicionada por B de una
variable aleatoria integrable X:
E(X|B) =
1
P(B)
E(X1B),
donde 1B representa la función indicatriz del suceso B definida por
1B(ω) =
½
1 si ω ∈ B
0 si ω /
∈ B
Un concepto más complicado es el condicionamiento por una σ-álgebra
de sucesos. Consideremos una σ-àlgebra B ⊂ F y una variable aleatoria
integrable X.
Una variable aleatoria Z se denomina la esperanza condicionada de la
variable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dos
propiedades siguientes:
• Z es medible respecto de B.
• Para todo suceso A ∈ B
E (Z1A) = E (X1A) .
21
22. Puede demostrarse que la esperanza condicionada existe y es única casi se-
guramente, de manera que si e
Z fuese otra variable con las mismas propiedades,
entonces Z = e
Z, P-casi seguramente.
En el caso particular en que la σ-álgebra B está generada per una partición
finita {B1, ..., Bm}, entonces E(X|B) es una variable aleatoria elemental que
en cada conjunto Bj toma el valor constante E(X|Bj), es decir,
E(X|B) =
m
X
j=1
E
¡
X1Bj
¢
P(Bj)
1Bj
.
Reglas para el cálculo de esperanzas condicionadas:
Regla 1 La esperanza condicionada es lineal:
E(aX + bY |B) = aE(X|B) + bE(Y |B)
Regla 2 La variable y su esperanza condicionada tienen la misma esperanza:
E (E(X|B)) = E(X)
Esta propiedad es una consecuencia inmediata de la definición, tomando
A = Ω.
Regla 3 Si la variable aleatoria X y la σ-álgebra B son independientes,
entonces E(X|B) = E(X).
En efecto, para todo suceso A ∈ B tendremos
E (X1A) = E (X)E(1A) = E(E(X)1A).
Regla 4 Si X es B-medible, entonces E(X|B) = X.
Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces
E(ZX|B) = ZE(X|B).
Es decir, las variables aleatorias B-medibles se comportan como con-
stantes y pueden sacarse fuera de la esperanza condicionada.
Regla 6 Si C ⊂ B, entonces
E (E(X|B)|C) = E (E(X|C)|B) = E(X|C)
22
23. Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es B-
medible y X es independiente de B. Consideremos una función h(x, z)
tal que h(X, Z) es integrable. Entonces, se tiene
E (h(X, Z)|B) = E (h(X, z)) |z=Z
Es decir, primero calculamos la esperanza E (h(X, z)) para un valor
arbitrario z de la variable Z y luego substituimos z por Z.
La esperanza condicionada tiene propiedades similares a la esperanza or-
dinaria. Por ejempo se cumple la siguiente propiedad de monotonı́a:
X ≤ Y ⇒ E(X|B) ≤ E(Y |B),
que implica la desigualdad |E(X|B) | ≤ E(|X| |B). También se cumple la
desigualdad de Jensen: Si ϕ es una función convexa tal que E(|ϕ(X)|) < ∞,
entonces
ϕ (E(X|B)) ≤ E(ϕ(X)|B). (7)
En particular, si tomamos ϕ(x) = |x|p
con p ≥ 1, se obtiene
|E(X|B)|p
≤ E(|X|p
|B),
por lo tanto, tomando esperanzas, deducimos que si E(|X|p
) < ∞, entonces,
E(|E(X|B)|p
) < ∞, y
E(|E(X|B)|p
) ≤ E(|X|p
).
Si la σ-álgebra B está generada por las variables aleatorias Y1, . . . , Ym,
entonces, la esperanza condicionada se representa por E(X|Y1, . . . , Ym) y
es una cierta función g(Y1, . . . , Ym) de estas variables. En particular, si las
variables X, Y1, . . . , Ym tienen una ley conjunta con densidad f(x, y1, . . . , ym),
entonces, la esperanza condicionada se puede calcular como la esperanza de
la densidad condicionada:
f(x|y1, . . . , ym) =
f(x, y1, . . . , ym)
R +∞
−∞
f(x, y1, . . . , ym)dy1 · · · dym
,
es decir,
E(X|Y1, . . . , Ym) =
Z +∞
−∞
xf(x|Y1, . . . , Ym)dx.
23
24. En el caso en que la σ-álgebra B esté generada por un conjunto infinito
de variables aleatorias {Yj}, escribiremos también
E(X|B) = E(X| {Yj}),
pero el cálculo no se puede efectuar mediante una fórmula como la anterior
y necesitaremos utilizar las reglas que hemos introducido antes.
Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt, t ≥
0}. Para cada instante t, definimos la σ-álgebra Ft generada por las variables
aleatorias {Bs, s ≤ t}. La σ-álgebra Ft contiene la historia del movimiento
browniano hasta el instante t. Esto quiere decir que:
i) Los sucesos F de Ft serán conocidos (se sabrá si han ocurrido o no) en el
instante t.
ii) El valor de una variable aleatoria X(ω) medible respecto de la σ-álgebra
Ft será una función de la trayectoria del movimiento browniano
{Bs(ω), s ∈ [0, t]} .
Observemos que Fs ⊂ Ft si s ≤ t, es decir, la familia de σ-álgebras
{Ft, t ≥ 0} es creciente. Diremos que {Ft, t ≥ 0} es una filtración en el es-
pacio de probabilidad (Ω, F, P).
Queremos calcular
E(Bt|Fs) = E(Bt|Br, r ≤ s).
• Si s ≥ t, la variable Bt es Fs-medible, y por la Regla 4 obtenemos
E(Bt|Fs) = Bt.
• Si s < t, por la propiedad de linealidad (Regla 1):
E(Bt|Fs) = E(Bt − Bs + Bs|Fs)
= E(Bt − Bs |Fs) + E( Bs|Fs).
Como Bt − Bs es independiente de Fs, la Regla 3 nos da
E(Bt − Bs |Fs) = E(Bt − Bs ) = 0,
y, por lo tanto, obtenemos
E(Bt|Fs) = Bs. (8)
24
25. El conjunto de las variables aleatorias Z que son medibles respecto de una
σ-álgebra B y que son de cuadrado integrable (E(Z2
) < ∞), lo representare-
mos por L2
(Ω, B, P). Puede demostrarse que L2
(Ω, F, P) es un espacio de
Hilbert con el producto escalar
hZ, Y i = E(ZY ),
y que L2
(Ω, B, P) es un subespacio cerrado de L2
(Ω, F, P).
En este contexto, si X es una variable tal que E(X2
) < ∞, la esperanza
condicionada E(X|B) es la variable del espacio L2
(Ω, B, P) más próxima a
X en media cuadrática:
E
£
(X − E(X|B))2¤
= min
Z∈L2(Ω,B,P)
E
£
(X − Z)2¤
. (9)
Es decir, E(X|B) es la proyección de X en el subespacio L2
(Ω, B, P).
Desde el punto de vista de la teorı́a de la estimación, la esperanza condi-
cionada E(X|B) es el mejor predictor de la variable X a partir de la σ-álgebra
B (estimador óptimo).
Demostración de (9): Sea X una variable tal que E(X2
) < ∞. La
desigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B)
también es de cuadrado integrable ya que
E
¡
(E(X|B))2¢
≤ E
¡
E(X2
|B)
¢
= E(X2
).
La regla 5 nos permite demostrar que la diferencia X − E(X|B) es ortogonal a
L2
(Ω, B, P). En efecto, si Z es una variable de L2
(Ω, B, P) tendremos
E [(X − E(X|B))Z] = E(XZ) − E(E(X|B)Z)
= E(XZ) − E(E(XZ|B)) = 0.
Finalmente, esta ortogonalidad implica que
E
£
(X − Y )2¤
= E
£
(X − E(X|B))2¤
+ E
£
(E(X|B) − Z)2¤
,
de lo que se deduce (9). ¤
Ejercicios
25
26. 1.1 Supongamos que {Hi, i ∈ I} es una familia de σ-álgebras en un conjunto
Ω. Demostrar que
H = ∩{Hi, i ∈ I}
es también una σ-álgebra.
1.2 Supongamos que X es una variable aleatoria real tal que
M = E[exp(k|X|)] < ∞
para un cierto k > 0. Probar que P(|X| > λ) ≤ Me−kλ
, para todo
λ ≥ 0.
1.3 Sea (Ω, F, P) un espacio de probabilidad y consideremos una sucesión
de sucesos A1, A2, . . . tales que
∞
X
k=1
P(Ak) < ∞.
Demostrar el lema de Borel-Cantelli:
P (∩∞
m=1 ∪∞
k=m Ak) = 0,
es decir, la probabilidad que ocurran infinitos sucesos de la sucesión es
nula.
1.4 Sea Z una variable aleatoria con ley N(0, σ2
). A partir de la fórmula
E(eλZ
) = e
1
2
λ2
σ2
,
y desarrollando en serie de potencias la función exponencial deducir
que para todo k ≥ 1
E(Z2k
) =
(2k)!
2kk!
σ2k
,
E(Z2k−1
) = 0.
1.5 Sea Z una variable aleatoria con ley de Poisson de parámetro λ. Com-
probar que la función caracterı́stica de Z vale
ϕZ(t) = exp
£
λ
¡
eit
− 1
¢¤
.
Como aplicación calcular E(Z2
), Var(Z) y E(Z3
).
26
27. 1.6 Sea (Ω, F, P) = ([0, ∞), B[0,∞), µ), donde µ es una probabilidad en [0, ∞)
con función de distribución continua. Consideremos en este espacio de
probabilidad los procesos estocásticos
Xt(ω) =
½
1 si t = ω
0 si t 6= ω
Yt(ω) = 0.
Comprobar que estos procesos tienen las mismas distribuciones en di-
mensión finita, pero las trayectorias del proceso X son todas discontin-
uas.
1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 ≥ 0. De-
mostrar que el proceso
n
e
Bt = Bt0+t − Bt0 , t ≥ 0
o
es también un movimiento browniano.
1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular
P (|Bt| < ρ)
donde ρ > 0.
1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una
matriz U cuadrada de dimensión n, ortogonal (es decir, UU0
= I).
Demostrar que el proceso
e
Bt = UBt
es también un movimiento browniano.
1.10 Calcular la media y la autocovarianza del movimiento browniano geométrico.
Es un proceso gaussiano?
27
28. 2 Integración estocástica
Supongamos que {Bt, t ≥ 0} es un movimiento browniano definido en un es-
pacio de probabilidad (Ω, F, P). Consideremos la familia creciente {Ft, t ≥ 0}
de σ-álgebras generadas por este proceso. Supondremos además que Ft con-
tiene los conjuntos de probabilidad cero. Esto significa que Ft es la mı́nima
σ-álgebra que contiene los conjuntos de la forma
{Bs ∈ A} ∪ N
donde s ∈ [0, t], A pertenece a la σ-álgebra de Borel BR, y N es un conjunto
de probabilidad cero.
Diremos que un proceso estocástico {ut, u ≥ 0} es adaptado (a la familia
de σ-álgebras Ft) si para cada t la variable aleatoria ut es Ft-medible.
La inclusión de los sucesos de probabilidad cero en cada σ-álgebra Ft
tiene las siguientes consecuencias interesantes:
a) Toda versión de un proceso adaptado es también adaptado.
b) La familia de σ-álgebras es continua por la derecha, es decir, para todo
t ≥ 0
∩s>tFs = Ft.
Demostración de b): Consideremos las σ-álgebras Ft
= σ{Br − Bt, r ≥
s}. Si B ∈ ∩s>tFs, la σ-álgebra generada por B y por Ft , es independiente de
Ft+ 1
n para todo n. Por tanto, σ(B, Ft) será independiente de Ft
, y tendemos
E(1B|Ft) = E(1B|Ft ∨ Ft
) = 1B,
de lo que se deduce 1B ∈ Ft. ¤
La σ-álgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto
implica que las variables aleatorias F0-medibles serán constantes, casi segu-
ramente.
Nuestro objetivo es la definición de integrales estocásticas de la forma
R T
0
utdBt .
Una posibilidad consiste en utilizar la definición de integral de Riemann
Stieltjes:
28
29. Consideremos una partición del intervalo [0, T]:
τn : 0 = t0 < t1 < · · · < tn−1 < tn = T
ası́ como una partición intermedia:
σn : ti ≤ sileqti+1 , i = 0, . . . , n − 1.
Dadas dos funciones f y g en el intervalo [0, T], la integral de Riemann
Stieltjes
R T
0
fdg se define como el lı́mite
lim
n→∞
n
X
i=1
f(si−1)∆gi
cuando supi(ti − ti−1)
n→∞
−→ 0, suponiendo que este lı́mite existe y es indepen-
diente de la sucesión de particiones τn y de sus particiones intermedias σn,
con la notación ∆gi = g(ti) − g(ti−1).
Se sabe que la integral de Riemann Stieltjes
R T
0
fdg existe si la función f
es continua y la función g tiene variación total acotada, es decir:
sup
τ
X
i
|∆gi| < ∞.
Como las trayectorias del movimiento browniano tienen variación total
infinita (véase (6)) no podemos utilizar este criterio para asegurar que la
integral de Riemann-Stieltjes
R T
0
ut(ω)dBt(ω) existe para cada ω, si u es un
proceso arbitrario con trayectorias continuas.
Obsevemos, si embargo, que si las trayectorias del proceso u son difer-
enciables con derivadas acotadas, entonces, la integral de Riemann Stielt-
jes
R T
0
ut(ω)dBt(ω) existe y puede calcularse mediante una integración por
partes:
R T
0
utdBt = uT BT −
R T
0
u0
tBtdt.
En este apartado presentaremos una construcción de la integral
R T
0
utdBt
mediante un procedimiento global de tipo probabilı́stico. En primer lugar
definiremos la clase de procesos que integraremos:
Designaremos por L2
a,T el conjunto de los procesos estocásticos
u = {ut, t ∈ [0, T]}
tales que:
29
30. a) Para cada t ∈ [0, T], la aplicación (s, ω) −→ us(ω) definida en [0, t] × Ω
es medible respecto de la σ-álgebra producto B[0,t] × Ft.
b) E
³R T
0
u2
t dt
´
< ∞.
Un proceso que verifica la condición a) se dice que es progresivamente
medible. En general, que un proceso estocástico u sea medible significa que la
función de dos variables (s, ω) −→ us(ω) es medible en la σ-álgebra producto
B[0,T]×F. La propiedad a) require la medibilidad de la restricción del proceso
u a cada conjunto [0, t] × Ω. Esta propiedad implica que el proceso u sea
adaptado, ya que si una función es medible en un espacio producto, al fijar
una coordenada resulta medible como función de la segunda coordenada. Por
otra parte, la propiedad a) es esencial para garantizar que variables aleatorias
del tipo
R t
0
usds sean Ft-medibles.
La condición b) significa que el momento de segundo orden es integrable
en [0, T], ya que, el teorema de Fubini nos permite escribir
E
µZ T
0
u2
t dt
¶
=
Z T
0
E
¡
u2
t
¢
dt.
La propiedad b) nos dice que el proceso u como función de las dos variables
(t, ω) pertenece al espacio L2
([0, T] × Ω).
Definiremos la integral estocástica
R T
0
utdBt para procesos u de la clase
L2
a,T como el lı́mite en L2
(Ω) de la integral de procesos elementales. Por
definición un proceso u de L2
a,T es elemental si se puede expresar de la forma
ut =
n
X
j=1
φj1(tj−1,tj](t), (10)
donde 0 = t0 < t1 < · · · < tn = T y las φj son variables aleatorias de
cuadrado integrable Ftj−1
-medibles.
Si u es un proceso elemental de la forma (10) se define la integral es-
tocástica de u respecto del movimiento browniano B como
Z T
0
utdBt =
n
X
j=1
φj
¡
Btj
− Btj−1
¢
. (11)
30
31. La integral estocástica definida en el espacio E de los procesos elementales
tiene las siguiente propiedad de isometria:
E
·³R T
0
utdBt
´2
¸
= E
³R T
0
u2
t dt
´
(12)
Demostración de la isometrı́a: Pongamos ∆Bj = Btj
−Btj−1
. Entonces
E
¡
φiφj∆Bi∆Bj
¢
=
½
0 si i 6= j
E
¡
φ2
j
¢
(tj − tj−1) si i = j
ya que si i < j las variables aleatorias φiφj∆Bi y ∆Bj son independientes y si
i = j las variables aleatorias φ2
i y (∆Bi)2
son independientes. Por lo tanto se
obtiene
E
µZ T
0
utdBt
¶2
=
n
X
i,j=1
E
¡
φiφj∆Bi∆Bj
¢
=
n
X
i=1
E
¡
φ2
i
¢
(ti − ti−1)
= E
µZ T
0
u2
t dt
¶
.
¤
La extensión de la integral estocástica a todos los procesos de la clase
L2
a,T se basa en el siguiente resultado de aproximación:
Lema 4 Si u es un proceso de la clase L2
a,T existe una sucesión de procesos
elementales u(n)
tales que
lim
n→∞
E
µZ T
0
¯
¯
¯ut − u
(n)
t
¯
¯
¯
2
dt
¶
= 0. (13)
Demostración: La demostración de este resultado la haremos en dos etapas:
1. Supongamos que el proceso u es continuo en media cuadrática. En tal caso,
podemos tomar la sucesión aproximadora
u
(n)
t =
n
X
j=1
utj−1
1(tj−1,tj](t),
31
32. siendo tj = jT
n
. La continuidad en media cuadrática del proceso u nos
garantiza que
E
µZ T
0
¯
¯
¯ut − u
(n)
t
¯
¯
¯
2
dt
¶
=
Z T
0
E
µ¯
¯
¯ut − u
(n)
t
¯
¯
¯
2
¶
dt
≤ T sup
|t−s|≤T/n
E
¡
|ut − us|2
¢
converge hacia cero cuando n tiende a infinito.
2. Supongamos que u es un proceso arbitrario de la clase L2
a,T . En tal caso,
existe una sucesión de procesos v(n)
, pertenecientes a la clase L2
a,T , continuos
en media cuadrática y tales que
lim
n→∞
E
µZ T
0
¯
¯
¯ut − v
(n)
t
¯
¯
¯
2
dt
¶
= 0. (14)
En efecto, definimos
v
(n)
t = n
Z t
t− 1
n
usds = n
µZ t
0
usds −
Z t
0
us− 1
n
ds
¶
,
con la convención u(s) = 0 si s < 0. Estos procesos son continuos en media
cuadrática (también tienen trayectorias continuas), y pertenecen a la clase
L2
a,T , debido a la propiedad a). Además se cumple (14) ya que para cada
(t, ω) tenemos
Z T
0
¯
¯u(t, ω) − v(n)
(t, ω)
¯
¯2
dt
n→∞
−→ 0
(véase Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia
dominada en el espacio producto [0, T] × Ω ya que
Z T
0
¯
¯v(n)
(t, ω)
¯
¯2
dt ≤
Z T
0
|u(t, ω)|2
dt.
¤
Definición 5 Si u es un proceso de la clase L2
a,T , la integral estocástica se
define como el lı́mite en L2
(Ω)
Z T
0
utdBt = lim
n→∞
Z T
0
u
(n)
t dBt, (15)
donde u(n)
es una sucesión de procesos elementales tales que cumplen (13).
32
33. Que el lı́mite (15) existe es debido a que la sucesión de variables aleato-
rias
R T
0
u
(n)
t dBt es de Cauchy en el espacio L2
(Ω), debido a la propiedad de
isometrı́a (12):
E
"µZ T
0
u
(n)
t dBt −
Z T
0
u
(m)
t dBt
¶2
#
= E
µZ T
0
³
u
(n)
t − u
(m)
t
´2
dt
¶
≤ 2E
µZ T
0
³
u
(n)
t − ut
´2
dt
¶
+2E
µZ T
0
³
ut − u
(m)
t
´2
dt
¶
n,m→∞
→ 0.
También puede demostrarse que el lı́mite (15) no depende de la sucesión u(n)
siempre que esta sucesión cumpla (13).
La integral estocástica tiene las siguientes propiedades importantes:
1.- Isometrı́a:
E
"µZ T
0
utdBt
¶2
#
= E
µZ T
0
u2
t dt
¶
.
2.- Media cero:
E
·µZ T
0
utdBt
¶¸
= 0.
3.- Linealidad:
Z T
0
(aut + bvt) dBt = a
Z T
0
utdBt + b
Z T
0
vtdBt.
4.- Localidad: Se cumple
R T
0
utdBt = 0 casi seguramente, en el conjunto
G =
nR T
0
u2
t dt = 0
o
.
La propiedad de localidad es una consecuencia de que en el conjunto G
la sucesión aproximadora
u
(n,m,N)
t =
n
X
j=1
m
"Z (j−1)T
n
(j−1)T
n
− 1
m
usds
#
1((j−1)T
n
,jT
n ](t)
se anula.
33
34. Ejemplo 12 Z T
0
BtdBt =
1
2
B2
T −
1
2
T.
Como el proceso Bt es continuo en media cuadrática podemos tomar como
sucesión aproximadora
u
(n)
t =
n
X
j=1
Btj−1
1(tj−1,tj](t),
donde tj = jT
n
, y tendremos
Z T
0
BtdBt = lim
n→∞
n
X
j=1
Btj−1
¡
Btj
− Btj−1
¢
=
1
2
lim
n→∞
³
B2
tj
− B2
tj−1
´
−
1
2
lim
n→∞
n
X
j=1
¡
Btj
− Btj−1
¢2
=
1
2
B2
T −
1
2
T. (16)
Si xt es una función derivable, las reglas del cálculo diferencial e integral nos
dicen que Z T
0
xtdxt =
Z T
0
xtx0
tdt =
1
2
¡
x2
T − x2
0
¢
.
Observemos que en el caso del movimiento browniano nos aparece un término
adicional igual a −1
2
T.
Ejemplo 13 Consideremos una función determinista g tal que
R T
0
g(s)2
ds <
∞. En este caso, la integral estocástica
R T
0
gsdBs es una variable aleatoria
con ley normal
N(0,
Z T
0
g(s)2
ds).
34
35. 2.1 Integrales estocásticas indefinidas
Consideremos un proceso u de la clase L2
a,T . El proceso u1[0,t] también
pertenece a L2
a,T , y por lo tanto, podemos definir su integral:
Z t
0
usdBs :=
Z T
0
us1[0,t](s)dBs.
De esta forma hemos construido un nuevo proceso estocástico
½Z t
0
usdBs, 0 ≤ t ≤ T
¾
que es la integral indefinida del proceso u respecto de B. En este apartado
estudiaremos las propiedades de las integrales indefinidas. En primer lugar,
debido a la linealidad de la integral estocástica, tenemos la propiedad de
aditividad siguiente:
Z b
a
usdBs +
Z c
b
usdBs =
Z c
a
usdBs,
si a ≤ b ≤ c.
Si a < b y A es un suceso de la σ-álgebra Fa entonces,
Z b
a
1AusdBs = 1A
Z b
a
usdBs.
En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable
acotada y Fa-medible.
Una propiedad importante de las integrales indefinidas es la propiedad de
martingala.
Definición 6 Un proceso estocástico {Mt, t ≥ 0} diremos que es una martin-
gala respecto de una familia creciente de σ-álgebras {Mt, t ≥ 0}, contenidas
en F, si se cumplen las propiedades siguientes:
(i) Mt es medible respecto de Mt, para todo t ≥ 0.
(ii) E(|Mt|) < ∞ para todo t ≥ 0.
(iii) E(Mt|Ms) = Ms, si s ≤ t.
35
36. La propiedad (iii) puede expresarse de forma equivalente como sigue
E(Mt − Ms|Ms) = 0
y ello significa que la esperanza condicionada de los incrementos de una mar-
tingala es cero. Las martingalas se introduden para modelizar las ganancias
de un jugador que juega una partida equitativa en un juego de azar. En he-
cho de que la ganancia esperada tenga valor medio cero representa el carácter
equitativo del juego.
De forma análoga se puede introducir el concepto de martingala para un
proceso {Mt, 0 ≤ t ≤ T } respecto de una familia creciente de σ-álgebras
{Mt, 0 ≤ t ≤ T }. En tal caso, la propiedad de martingala nos dice que
Mt = E(MT |Mt).
Fijémonos en que la variable terminal MT determina la martingala ya que
las variables Mt se obtinenen tomando la esperanza condicionada de MT
respecto de la familia creciente de σ-álgebras.
Como consecuencia de la propiedad de martingala tendremos que la es-
peranza de una martingala es consante:
E(Mt) = E(M0).
Ejemplo 14 Si Bt es un movimiento browniano y Ft es la filtración generada
por Bt, entonces, los procesos:
Bt
B2
t − t
exp(aBt −
a2
t
2
)
son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido
demostrada en (8). Para B2
t − t, la propiedad de martingala se deduce del
siguiente cálculo de esperanzas condicionadas, si s < t
E(B2
t |Fs) = E((Bt − Bs + Bs)2
|Fs)
= E((Bt − Bs )2
|Fs) + 2E((Bt − Bs ) Bs|Fs)
+E(B2
s |Fs)
= E (Bt − Bs )2
+ 2BsE((Bt − Bs ) |Fs) + B2
s
= t − s + B2
s .
36
37. Finalmente, para el proceso exp(aBt − a2t
2
) tendremos
E(eaBt−a2t
2 |Fs) = eaBs
E(ea(Bt−Bs)−a2t
2 |Fs)
= eaBs
E(ea(Bt−Bs)−a2t
2 )
= eaBs
e
a2(t−s)
2
−a2t
2 = eaBs−a2s
2 .
Las martingalas con trayectorias continuas cumplen la desigualdad fun-
damental siguiente debida a Doob:
Desigualdad de Doob: Supongamos que {Mt, 0 ≤ t ≤ T } es una martin-
gala con trayectorias continuas. Entonces, para todo p ≥ 1 y todo λ > 0 se
cumple
P
µ
sup
0≤t≤T
|Mt| > λ
¶
≤
1
λp E(|MT |p
).
Obsevamos que se trata de una generalización de la desigualdad de Tcheby-
chev. Como consecuencia de la desigualdad de Doob puede demostrarse que
las integrales estocásticas indefinidas tienen trayectorias continuas.
Proposición 7 Supongamos que u es un proceso de la clase L2
a,T . Entonces,
la integral estocástica
R t
0
usdBs tiene una versión con trayectorias continuas.
Demostración: Consideremos una sucesión de procesos elementales u(n)
tal
que
lim
n→∞
E
µZ T
0
¯
¯
¯ut − u
(n)
t
¯
¯
¯
2
dt
¶
= 0.
Pongamos
I(t) =
Z t
0
usdBs,
In(t) =
Z t
0
u(n)
s dBs.
El proceso In tiene trayectorias continuas y es una martingala respecto de la familia
creciente de σ-álgebras Ft. En efecto, si s < t y φj es el valor del proceso
37
39. Jt(ω) =
R t
0
usdBs casi seguramente, para todo t ∈ [0, T], y ello nos dice que la
integral indefinida tiene una versión con trayectorias continuas. ¤
La integral indefinida Mt =
R t
0
usdBs es una martingala respecto de la
familia de σ-álgebras Ft y se cumple la desigualdad siguiente, para todo
λ > 0,
P
µ
sup
0≤t≤T
|Mt| > λ
¶
≤
1
λ2 E
µZ T
0
u2
t dt
¶
. (17)
En efecto, la propiedad de martingala de
R t
0
usdBs de deduce de la propiedad
de martingala de las integrales indefinidas
R t
0
u
(n)
s dBs que hemos obtenido en
la demostración anterior. La desigualdad (17) se deduce de la desigualdad
de Doob y de la propiedad de isometrı́a de la integral estocástica.
La martingala Mt =
R t
0
usdBs tiene trayectorias continuas, pero son ir-
regulares como las del movimiento browniano. En particular, las trayectorias
de las integrales indefinidas tienen variación cuadrática finita como nos dice
la propiedad siguiente:
Proposición 8 (Variación cuadrática ) Sea u un proceso de la clase L2
a,T .
Entonces,
n
X
j=1
ÃZ tj
tj−1
usdBs
!2
L1(Ω)
−→
Z t
0
u2
sds
cuando n tiende a infinito, donde tj = jt
n
.
Demostración: Observemos en primer lugar que si el proceso u es elemen-
tal, el resultado es una consecuencia de la propiedad de variación cuadrática del
movimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valor
constante φ aparecerá una contribución del tipo
φ2
X
a≤tj−1≤tj≤b
(∆Bj)2 n→∞
−→ φ2
(b − a) .
Supongamos que u es un proceso arbitrario de la clase L2
a,T . Existe una sucesión
u(k)
de procesos elementales tal que
lim
k→∞
E
µZ T
0
¯
¯
¯ut − u
(k)
t
¯
¯
¯
2
dt
¶
= 0.
39
40. Utilizando la notación
Vn(u) =
n
X
j=1
ÃZ tj
tj−1
usdBs
!2
tendremos
E
µ¯
¯
¯
¯Vn(u) −
Z t
0
u2
sds
¯
¯
¯
¯
¶
≤ E
¡¯
¯Vn(u) − Vn(u(k)
)
¯
¯
¢
+E
µ¯
¯
¯
¯ Vn(u(k)
) −
Z t
0
¡
u(k)
s
¢2
ds
¯
¯
¯
¯
¶
+E
µ¯
¯
¯
¯
Z t
0
¡
u(k)
s
¢2
ds −
Z t
0
u2
sds
¯
¯
¯
¯
¶
.
El primer sumando puede acotarse como sigue, utilizando la desigualdad de
Schwartz y la isometrı́a de la integral estocástica:
E
¡¯
¯Vn(u) − Vn(u(k)
)
¯
¯
¢
= E
" n
X
j=1
ÃZ tj
tj−1
¡
us + u(k)
s
¢
dBs
! ÃZ tj
tj−1
¡
us − u(k)
s
¢
dBs
!#
≤
£
E
¡
Vn(u + u(k)
)
¢
E
¡
Vn(u − u(k)
)
¢¤1/2
=
·
E
µZ t
0
¡
us + u(k)
s
¢2
ds
¶
E
µZ t
0
¡
us − u(k)
s
¢2
ds
¶¸1/2
.
Observemos que la acotación obtenida no depende de n y converge hacia cero
cuando k tiende a infinito. Por tanto, fijado ε > 0 existe un k0 tal que
E
µ¯
¯
¯
¯Vn(u) −
Z t
0
u2
sds
¯
¯
¯
¯
¶
≤ ε + E
µ¯
¯
¯
¯ Vn(u(k)
) −
Z t
0
¡
u(k)
s
¢2
ds
¯
¯
¯
¯
¶
para todo k ≥ k0 y para todo n. Finalmente basta tomar el lı́mite n → ∞. ¤
2.2 Tiempos de paro
Un tiempo de paro relativo a una familia creciente de σ-álgebras {Ft, t ≥ 0}
es una variable aleatoria
τ : Ω −→ [0, ∞]
40
41. tal que para todo t ≥ 0, {τ ≤ t} ∈ Ft. Es decir, podemos decidir si nos
paramos o no antes de un instante t a partir de la información contenida en
Ft.
Ejemplo 15 El tiempo de llegada de un proceso continuo y adaptado {Xt, t ≥ 0}
a un nivel a definido como
τa := inf{t > 0 : Xt = a}
es un tiempo de paro. En efecto,
{τa ≤ t} =
½
sup
0≤s≤t
Xs ≥ a
¾
=
½
sup
0≤s≤t,s∈Q
Xs ≥ a
¾
∈ Ft.
Más generalmente, el tiempo de llegada de un proceso n-dimensional con-
tinuo y adaptado {Xt, t ≥ 0} a un conjunto de Borel U de Rn
es un tiempo
de paro siempre que la familia de σ-álgebras {Ft, t ≥ 0} sea continua por la
derecha.
Podemos asociar a todo tiempo de paro τ la σ-álgebra Fτ formada por
los conjuntos G tales que
G ∩ {τ ≤ t} ∈ Ft (18)
para todo t ≥ 0.
Los tiempos de paro satisfacen las dos propiedades siguientes:
• Si {Mt, t ∈ [0, T]} es una martingala continua y y τ es un tiempo de
paro acotado por T, entonces
E(MT |Fτ ) = Mτ . (19)
• Si u es un proceso de la clase L2
a,T y τ es un tiempo de paro acotado por
T, el proceso u1[0,τ] también pertenece a L2
a,T y se verifica la relación
siguiente: Z T
0
ut1[0,τ](t)dBt =
Z τ
0
ut dBt. (20)
41
42. Demostración de (20): La demostración se hará en dos etapas:
1. Supongamos primero que el proceso u es de la forma ut = F1(a,b](t),
donde 0 ≤ a < b ≤ T y F ∈ L2
(Ω, Fa, P). Los tiempos de paro
τn =
P2n
i=1 ti
n1Ai
n
, donde ti
n = iT
2n , Ai
n =
n
(i−1)T
2n
≤ τ < iT
2n
o
forman una
sucesión decreciente que converge hacia τ. Para cada n tendremos
Z τn
0
ut dBt = F(Bb∧τn − Ba∧τn )
Z T
0
ut1[0,τn](t)dBt =
2n
X
i=1
1Ai
n
Z T
0
1(a∧ti
n,b∧ti
n](t)FdBt
=
2n
X
i=1
1Ai
n
F(Bb∧ti
n
− Ba∧ti
n
)
= F(Bb∧τn − Ba∧τn ).
Tomando el lı́mite cuando n tiende a infinito se deduce la igualdad en el
caso de un proceso elemental.
2. En el caso general, basta con aproximar el proceso u por procesos elemen-
tales. La convergencia del miembro de la derecha de (20) se deduce de la
desigualdad maximal de Doob. ¤
La siguiente aplicación de los tiempos de parada permite el cálculo de la
ley del instante de llegada del movimiento browniano a un cierto nivel.
Ejemplo 16 Sea Bt un movimiento browniano y Ft la filtración generada
por Bt. Consideremos el tiempo de paro
τa = inf{t ≥ 0 : Bt = a},
donde a > 0. Consideremos la martingala Mt = eλBt−
λ2t
2 que cumple
E(Mt) = E(M0) = 1.
La propiedad (19) nos permite obtener
E(Mτa∧N ) = 1,
42
43. para todo N ≥ 1. Observemos que
Mτa∧N = exp
µ
λBτa∧N −
λ2
(τa ∧ N)
2
¶
≤ eaλ
.
Por otra parte,
limN→∞ Mτa∧N = Mτa si τa < ∞
limN→∞ Mτa∧N = 0 si τa = ∞
y el teorema de convergencia dominada implica
E
¡
1{τa<∞}Mτa
¢
= 1,
es decir
E
µ
1{τa<∞} exp
µ
−
λ2
τa
2
¶¶
= e−λa
.
Haciendo λ ↓ 0 obtenemos
P (τa < ∞ ) = 1,
y, por consiguiente
E
µ
exp
µ
−
λ2
τa
2
¶¶
= e−λa
.
Con el cambio de variable λ2
2
= α, tendremos
E ( exp (−ατa)) = e−
√
2αa
. (21)
A partir de esta expresión puede calcularse la densidad de probabildad de la
variable τa:
P (τa ≤ t ) =
Z t
0
ae−a2/2s
√
2πs3
ds.
Por otra parte, la esperanza de τa puede obtenerse calculando la derivada en
α = 0 de la expresión (21):
E ( τa exp (−ατa)) =
ae−
√
2αa
√
2α
,
y haciendo α ↓ 0 se obtiene E(τa) = +∞.
43
44. 2.3 Extensiones de la integral estocástica
La integral estocástica de Itô
R T
0
usdBs puede definirse para clases de pro-
cesos mas amplias que L2
a,T .
A) En primer lugar, podemos substituir la familia creciente de σ-álgebras
Ft por una familia mayor Ht tal que el movimiento browniano Bt sea una
martingala respecto de Ht. En efecto, en todas las demostraciones anteriores
solo se ha utilizado la propiedad
E(Bt − Bs|Fs) = 0.
Como ejemplo de esta situación, consideremos el caso en que F
(n)
t es
la familia creciente de σ-álgebras generadas por un movimiento browniano
n-dimensional Bt. Cada componente Bk(t) es una martingala respecto de
F
(n)
t , pero F
(n)
t no es la familia de σ-álgebras generada por Bk(t). De esta
forma, con la extensión indicada antes, se pueden definir integrales como
Z T
0
B2(s)dB1(s),
Z T
0
sin(B2
1(s) + B2
1(s))dB2(s).
B) La segunda extensión consiste en substituir la propiedad E
³R T
0
u2
t dt
´
<
∞ por la hipótesis más débil siguiente:
b’) P
³R T
0
u2
t dt < ∞
´
= 1.
La clase de procesos que cumplen las propiedades a) y b’) la designaremos
por La,T . Extenderemos la integral estocástica a la clase La,T mediante un
argumento de localización.
Consideremos un proceso estocástico u de La,T . Para cada n ≥ 1 defini-
mos el tiempo de paro
τn = inf
½
t ≥ 0 :
Z t
0
u2
sds = n
¾
, (22)
donde suponemos que τn = T si
R T
0
u2
sds < n. De esta forma tendremos una
sucesión creciente de tiempos de paro tal que τn ↑ T. Además,
t < τn ⇐⇒
Z t
0
u2
sds < n.
44
45. Los procesos
u
(n)
t = ut1[0,τn](t)
pertenecen a L2
a,T ya que E
µ
R T
0
³
u
(n)
s
´2
ds
¶
≤ n. Para cada n ≤ m, en el
conjunto {t ≤ τn} se cumple
Z t
0
u(n)
s dBs =
Z t
0
u(m)
s dBs
ya que las trayectorias en el intervalo [0, t] de los procesos u(n)
y u(m)
coinciden
en este conjunto. Por consiguiente, existirá un proceso continuo y adaptado
que denotaremos por
R t
0
usdBs tal que
Z t
0
u(n)
s dBs =
Z t
0
usdBs
si t ≤ τn.
La integral estocástica de procesos de la clase La,T satisface las propiedades
de linealidad y continuidad de trayectorias de la integral indefinida. En cam-
bio, la integral de procesos de la clase La,T puede no tener esperanza ni
varianza finitas.
Proposición 9 Consideremos un proceso u ∈ La,T . Para todo K, δ > 0 se
cumple la desigualdad siguiente:
P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K
¶
≤ P
µZ T
0
u2
sds ≥ δ
¶
+
δ
K2
.
Demostración: Consideremos el tiempos de paro definido por
τn = inf
½
t ≥ 0 :
Z t
0
u2
sds = δ
¾
,
con la convención τn = T si
R T
0
u2
sds < δ.Tendemos
P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K
¶
≤ P
µZ T
0
u2
sds ≥ δ
¶
+P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K,
Z T
0
u2
sds < δ
¶
,
45
46. por otra parte
P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K,
Z T
0
u2
sds < δ
¶
= P
µ¯
¯
¯
¯
Z T
0
usdBs
¯
¯
¯
¯ ≥ K, τ = T
¶
= P
µ¯
¯
¯
¯
Z τ
0
usdBs
¯
¯
¯
¯ ≥ K, τ = T
¶
≤
1
K2
E
ï
¯
¯
¯
Z τ
0
usdBs
¯
¯
¯
¯
2
!
=
1
K2
E
µZ τ
0
u2
sds
¶
≤
δ
K2
.
¤
Como consecuencia de la proposición anterior, si u(n)
es una sucesión
de procesos de la clase La,T que converge hacia un proceso u ∈ La,T en
probabilidad: Z T
0
¡
u(n)
s − us
¢2
ds
P
→ 0
entonces, Z T
0
u(n)
s dBs
P
→
Z T
0
usdBs.
2.4 Fórmula de Itô
La fórmula de Itô es la versión estocástica de la clásica regla de la cadena en
el cálculo diferencial ordinario.
Consideremos el ejemplo
Z t
0
BsdBs =
1
2
B2
t −
1
2
t,
que podemos escribir en la forma
B2
t =
Z t
0
2BsdBs + t.
Podemos comprobar que la igualdad es cierta tomando esperanzas y uti-
lizando la propiedad de media nula de la integral estocástica: E(B2
t ) = t. En
notación diferencial podemos escribir
dB2
t = 2BtdBt + dt.
46
47. Vemos que el proceso estocástico B2
t es la suma de una integral estocástica
y de una función diferenciable. Más generalmente cualquier función f(Bt),
donde f es dos veces continuamente diferenciable, puede expresarse como
una suma de una integral estocástica y de un proceso con trayectorias difer-
enciables. Esto nos lleva a introducir la noción de proceso de Itô que será
una suma de una integral estocástica más una integral ordinaria. La clase
de los procesos de Itô será invariante por transformaciones funcionales reg-
ulares. Designaremos por L1
a,T la clase de los procesos v que satisfacen las
propiedades a) y
b”) P
³R T
0
|vt| dt < ∞
´
= 1.
Definición 10 Un proceso de Itô Xt será un proceso estocástico de la forma
Xt = X0 +
Z t
0
usdBs +
Z t
0
vsds, (23)
donde u pertenece a la clase La,T y v pertenece a la clase L1
a,T .
En notación diferencial escribiremos
dXt = utdBt + vtdt.
Teorema 11 (Fórmula de Itô) Supongamos que X es un proceso de Itô
de la forma (23). Sea f(t, x) una función dos veces derivable respecto de la
variable x y una vez respecto de la variable t, con todas las derivadas parciales
continuas (diremos que f es de clase C1,2
). Entonces el proceso Yt = f(t, Xt)
es también un proceso de Itô con la representación
Yt = f(0, X0) +
Z t
0
∂f
∂t
(s, Xs)ds +
Z t
0
∂f
∂x
(s, Xs)usdBs
+
Z t
0
∂f
∂x
(s, Xs)vsds +
1
2
Z t
0
∂2
f
∂x2
(s, Xs)u2
sds.
1.- En notación diferencial la fórmula de Itô puede escribirse de la forma
df(t, Xt) =
∂f
∂t
(t, Xt)dt +
∂f
∂x
(t, Xt)dXt +
1
2
∂2
f
∂x2
(s, Xs) (dXt)2
,
donde (dXt)2
se calcula mediante la convención
× dBt dt
dBt dt 0
dt 0 0
47
48. 2.- El proceso Yt es un proceso de Itô con la representación
Yt = Y0 +
Z t
0
e
usdBs +
Z t
0
e
vsds,
donde
Y0 = f(0, X0),
e
ut =
∂f
∂x
(t, Xt)ut,
e
vt =
∂f
∂t
(t, Xt) +
∂f
∂x
(t, Xt)vt +
1
2
∂2
f
∂x2
(t, Xt)u2
t .
3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es pre-
cisamente el movimiento browniano Bt, y la fórmula de Itô adopta la
expresión más simple siguiente
f(t, Bt) = f(0, 0) +
Z t
0
∂f
∂x
(s, Bs)dBs +
Z t
0
∂f
∂t
(s, Bs)ds
+
1
2
Z t
0
∂2
f
∂x2
(s, Bs)ds.
4.- En el caso particular en que la función f no depende del tiempo se obtiene
la fórmula
f(Xt) = f(0) +
Z t
0
f0
(Xs)usdBs +
Z t
0
f0
(Xs)vsds +
1
2
Z t
0
f00
(Xs)u2
sds.
La fórmula de Itô se deduce del desarrollo de Taylor hasta el orden dos.
Indicaremos seguidamente, de forma heurı́stica, las ideas principales que con-
ducen a la fórmula de Itô. Supongamos v = 0. Fijemos un instante de tiempo
t > 0.
Consideremos los instantes tj = jt
n
. La fórmula de Taylor hasta el segundo
orden nos da
f(Xt) − f(0) =
n
X
j=1
£
f(Xtj
) − f(Xtj−1
)
¤
=
n
X
j=
f0
(Xtj−1
)∆Xj +
1
2
n
X
j=1
f00
(Xj) (∆Xj)2
, (24)
48
49. donde ∆Xj = Xtj
− Xtj−1
y Xj es un valor comprendido entre Xtj−1
y Xtj
.
El primer sumando de la expresión anterior converge en probabilidad
hacia
R t
0
f0
(Xs)usdBs, mientras que el segundo sumando converge en proba-
bilidad hacia 1
2
R t
0
f00
(Xs)u2
sds.
Veamos algunos ejemplos de aplicación de la fómula de Itô.
Ejemplo 17 Si f(x) = x2
y Xt = Bt, tendremos
B2
t = 2
Z t
0
BsdBs + t,
ya que f0
(x) = 2x y f00
(x) = 2.
Ejemplo 18 Si f(x) = x3
y Xt = Bt, tendremos
B3
t = 3
Z t
0
B2
s dBs + 3
Z t
0
Bsds,
ya que f0
(x) = 3x2
y f00
(x) = 6x. Más generalmente, si n ≥ 2 es un número
natural,
Bn
t = n
Z t
0
Bn−1
s dBs +
n(n − 1)
2
Z t
0
Bn−2
s ds.
Ejemplo 19 Si f(t, x) = eax−a2
2
t
, Xt = Bt, y Yt = eaBt−a2
2
t
, tendremos
Yt = 1 + a
Z t
0
YsdBs
ya que
∂f
∂t
+
1
2
∂2
f
∂x2
= 0. (25)
Este importante ejemplo nos permite deducir las observaciones siguientes:
1.- Si una función f(t, x) satisface la igualdad (25), entonces, el proceso
estocástico f(t, Bt) será una integral estocástica indefinida (más un
49
50. término constante), y por lo tanto, será una martingala, suponiendo
que f satisface la propiedad:
E
"Z t
0
µ
∂f
∂x
(s, Bs)
¶2
ds
#
< ∞
2.- La solución de la ecuación diferencial estocástica
dYt = aYtdBt
no es Yt = eaBt
, como en el caso del cálculo diferencial ordinario, sino
Yt = eaBt−a2
2
t
.
Como consecuencia de la fórmula de Itô, podemos deducir la siguiente
fórmula de integración por partes:
Supongamos que f(t) es una función continuamente diferenciable en [0, T].
En tal caso tendremos
Z t
0
fsdBs = f(t)Bt −
Z t
0
Bsf0
sds.
En efecto, aplicando la fórmula de Itô a la función f(t)x se obtiene
f(t)Bt =
Z t
0
fsdBs +
Z t
0
Bsf0
sds.
Veamos seguidamente la versión multidimensional de la fórmula de Itô.
Supongamos que Bt = (B1
t , B2
t , . . . , Bm
t ) es un movimiento browniano m-
dimensional, es decir, las componentes son movimientos brownianos inde-
pendientes. Consideremos un proceso de Itô n-dimensional de la forma
X1
t = X1
0 +
R t
0
u11
s dB1
s + · · · +
R t
0
u1m
s dBm
s +
R t
0
v1
s ds
.
.
.
Xn
t = Xn
0 +
R t
0
un1
s dB1
s + · · · +
R t
0
unm
s dBm
s +
R t
0
vn
s ds
.
En notación diferencial y vectorial podemos escribir
dXt = utdBt + vtdt,
50
51. donde Xt, vt, son procesos n-dimensionales, y ut es un proceso con valores
en el conjunto de las matrices n × m. Supondremos que las componentes de
u pertenecen a La,T y las de v pertenecen a L1
a,T .
Entonces, si f : [0, ∞)×Rn
→ Rp
es una función de clase C1,2
, el proceso
Yt = f(t, Xt) es también un proceso de Itô con la representación (en notación
diferencial)
dY k
t =
∂fk
∂t
(t, Xt)dt +
n
X
i=1
∂fk
∂xi
(t, Xt)dXi
t
+
1
2
n
X
i,j=1
∂2
fk
∂xi∂xj
(t, Xt)dXi
t dXj
t .
El producto de los diferenciales dXi
t dXj
t se calcula aplicando las reglas sigu-
ientes:
dBi
tdBj
t =
½
0 si i 6= j
dt si i = j
dBi
tdt = 0
(dt)2
= 0.
De esta forma se obtiene
dXi
t dXj
t =
à m
X
k=1
uik
t ujk
t
!
dt = (utu0
t)ij dt.
2.5 Integrales estocásticas de Stratonovich
En las sumas de Riemann-Stieltjes que elegimos para definir la integral es-
tocástica
R t
0
usdBs de un proceso continuo u, se toman siempre los valores
del proceso u en el punto tj−1 de cada intervalo [tj−1, tj] . De esta forma la
integral estocástica tiene media cero y su varianza puede calcularse a partir
de la propiedad de isometrı́a. También, la integral indefinida es una mar-
tingala. El inconveniente de esta elección consiste en que en la regla de la
cadena nos aparece un término correctivo.
La integral de Stratonovich
R T
0
us ◦ dBs se define como el lı́mite en prob-
abilidad de la sucesión
n
X
i=1
1
2
(uti−1
+ uti
)∆Bi,
51
52. suponiendo ti = iT
n
. Supongamos que el proceso u es un proceso de Itô de la
forma
ut = u0 +
Z t
0
αsdBs +
Z t
0
βsds. (26)
Utilizando la descomposición
1
2
(uti−1
+ uti
)(Bti
− Bti−1
) = uti−1
(Bti
− Bti−1
)
+
1
2
(uti
− uti−1
)(Bti
− Bti−1
),
se obtiene la siguiente fórmula que relaciona las integrales de Itô y de Stratonovich:
Z T
0
us ◦ dBs =
Z t
0
usdBs +
1
2
Z t
0
αsds. (27)
En efecto, las sumas de Riemann-Stieltjes
n
X
i=1
(uti
− uti−1
)(Bti
− Bti−1
)
convergen hacia la integral
Z t
0
dusdBs =
Z t
0
αs (dBs)2
+
Z t
0
βs dsdBs =
Z t
0
αsds.
Puede comprobarse que la integral estocástica de Stratonovich sigue las
reglas del cálculo diferencial ordinario. Es decir, si u es un proceso de la
forma (26) y
Xt = X0 +
Z t
0
us ◦ dBs +
Z t
0
vsds
= X0 +
Z t
0
usdBs +
Z t
0
µ
vs +
1
2
αs
¶
ds,
entonces,
df(Xt) = f0
(Xt)dXt +
1
2
f00
(Xt)(dXt)2
= f0
(Xt)utdBt + f0
(Xt)
µ
vt +
1
2
αt
¶
dt
+
1
2
f00
(Xt)u2
t dt. (28)
52
53. Por otra parte,
f0
(Xt)utdBt = f0
(Xt)ut ◦ dBt −
1
2
d [f0
(Xt)ut] dBt.
En el cálculo de d [f0
(Xt)ut] dBt hemos de tener en cuenta solo los diferen-
ciales estocásticos de d [f0
(Xt)ut] que son
f0
(Xt)αtdBt + f00
(Xt)u2
t dBt.
Por consiguiente, se obtiene
f0
(Xt)utdBt = f0
(Xt)ut ◦ dBt −
1
2
¡
f0
(Xt)αt + f00
(Xt)u2
t
¢
dt
y substituyendo esta expresión en (28) obtenemos
df(Xt) = f0
(Xt)ut ◦ dBt + f0
(Xt)vtdt
= f0
(Xt) ◦ dXt.
2.6 Tiempo local
Consideremos la función siguiente para cada ε > 0
gε(x) =
(
|x| si |x| ≥ ε
1
2
³
ε + x2
ε
´
si |x| < ε
.
La derivada de esta función vale
g0
ε(x) =
½
sign(x) si |x| ≥ ε
x
ε
si |x| < ε
.
La segunda derivada existe excepto si x = ∓ε y vale
g00
ε (x) =
½
0 si |x| ≥ ε
1
ε
si |x| < ε
.
Siempre que una función sea de clase C2
excepto en un número finito de
puntos y la segunda derivada esté acotada se verifica todavı́a la fórmula de
Itô. Por ello, tendremos
gε(Bt) =
ε
2
+
Z t
0
g0
ε(Bs)dBs +
1
2ε
Z t
0
1(−ε,ε)(Bs)ds.
53
54. Cuando ε tiende a cero, gε(Bt) converge en media cuadrática hacia |Bt|. Por
otra parte, g0
ε(Bs) converge en L2
([0, t] × Ω) hacia sign(Bs). En efecto,
E
Z t
0
|sign(Bs) − g0
ε(Bs)|
2
ds
≤ 2E
µZ t
0
·
(sign(Bs))2
+
B2
s
ε2
¸
1(−ε,ε)(Bs)ds
¶
≤ 4E
µZ t
0
1(−ε,ε)(Bs)ds
¶
= 4
Z t
0
P(|Bs| < ε)ds
ε↓0
−→ 4
Z t
0
P(|Bs| = 0)ds = 0.
Denotaremos por Lt(0) el lı́mite en media cuadrática de
1
2ε
Z t
0
1(−ε,ε)(Bs)ds =
1
2ε
|{s ∈ [0, t] : |Bs| < ε}|.
De esta forma obtenemos la fórmula de Itô para el valor absoluto del movimiento
browniano, conocida como fórmula de Tanaka:
|Bt| =
Z t
0
sign(Bs)dBs + Lt(0).
Observaciones:
• Más generalmente, para todo x se tiene
|Bt − x| =
Z t
0
sign(Bs − x)dBs + Lt(x).
• El proceso {Lt(x), t ≥ 0, x ∈ R} se denomina el tiempo local del movimiento
browniano. Para cada t ≥ 0, Lt(x) es la densidad de la medida de ocu-
pación, es decir,
Z b
a
Lt(x)dx =
Z t
0
1[a,b](Bs)ds.
Puede demostrarse que existe una versión del tiempo local que es con-
tinua en las dos variables (t, x).
54
55. • En el caso de una función diferenciable b(t), se tiene
d|b(t)| = sign(b(s))b0
(s)ds,
y la densidad de la medida de ocupación en [0, t] vale
Lt(x) =
X
s∈[0,t]:b(s)=x
1
b0(s)
.
2.7 Representación integral de martingalas
Consideremos un proceso u de la clase L2
a,T . Sabemos que la integral in-
definida
Xt =
Z t
0
usdBs
es una martingala respecto de la filtración Ft. En este apartado demostraremos
que todas las martingalas de cuadrado integrable respecto de esta filtración
son de este tipo.
Veamos un resultado preliminar.
Lema 12 El conjunto de variables que son combinaciones lineales de expo-
nenciales de la forma
exp
µZ T
0
hsdBs −
1
2
Z T
0
h2
sds
¶
, (29)
donde h es una función determinista tal que
R T
0
h2
sds < ∞, es denso en
L2
(Ω, FT , P).
Demostración: Sea Y una variable de L2
(Ω, FT , P) ortogonal a todas las
exponenciales de la forma (29). Queremos demostrar que Y = 0. Fijados m
instantes 0 ≤ t1 < · · · tm ≤ T y m números reales λ1, . . . , λm sabemos que
E
¡
Y eλ1Bt1 +···+λmBtm
¢
= 0.
Esto implica que la medida
ν(A) = E (Y 1A(Bt1 , . . . , Btm ))
55
56. tiene una transformada de Laplace idénticamente nula. Por lo tanto,
E(Y 1G) = 0
para todo suceso G de la σ-álgebra generada por las variables Bt1 , . . . , Btm . Por
un argumento de clases monótonas, esto será cierto para todo G de la σ-álgebra
FT , y por lo tanto, Y = 0. ¤
Teorema 13 (Teorema de representación de Itô) Consideremos una vari-
able aleatoria F de L2
(Ω, FT , P). Entonces existe un único proceso es-
tocástico u de la clase L2
a,T tal que
F = E(F) +
Z T
0
usdBs.
Demostración: Supongamos primero que la variable F es de la forma
exp
µZ T
0
hsdBs −
1
2
Z T
0
h2
sds
¶
,
donde h es una función determinista tal que
R T
0
h2
sds < ∞. Definimos
Yt = exp
µZ t
0
hsdBs −
1
2
Z t
0
h2
sds
¶
.
Por la fórmula de Itô aplicada a la función f(x) = ex
y al proceso Xt =
R t
0
hsdBs−
1
2
R t
0
h2
sds, obtenemos
dYt = Yt
µ
h(t)dBt −
1
2
h2
(t)dt
¶
+
1
2
Yt(h(t)dBt)2
= Yth(t)dBt,
es decir,
Yt = 1 +
Z t
0
Ysh(s)dBs.
Por lo tanto,
F = YT = 1 +
Z T
0
Ysh(s)dBs
56
57. y se cumple la representación buscada porque E(F) = 1,
E
µZ T
0
Y 2
s h2
(s)ds
¶
=
Z T
0
E
¡
Y 2
s
¢
h2
(s)ds
≤ exp
µZ T
0
h2
sds
¶ Z T
0
h2
sds < ∞
ya que
E
¡
Y 2
t
¢
= E
·
exp
µ
2
Z t
0
hsdBs −
Z t
0
h2
sds
¶¸
= exp
µZ t
0
h2
sds
¶
.
Por linealidad, la representación se cumplirá en el caso en que F sea una com-
binación lineal de exponenciales del tipo (29). En el caso general, el Lema 12 nos
permite aproximar una variable arbitraria F de L2
(Ω, FT , P) por una sucesión Fn
de combinaciones lineales de exponenciales de la forma (29). Tendremos, entonces,
Fn = E(Fn) +
Z T
0
u(n)
s dBs.
Por la propiedad de isometrı́a de la integral estocástica
E
£
(Fn − Fm)2¤
= E
"µ
E(Fn − Fm) +
Z T
0
¡
u(n)
s − u(m)
s
¢
dBs
¶2
#
= (E(Fn − Fm))2
+ E
"µZ T
0
¡
u(n)
s − u(m)
s
¢
dBs
¶2
#
≥ E
·Z T
0
¡
u(n)
s − u(m)
s
¢2
ds
¸
.
La sucesión Fn es de Cauchy en L2
(Ω, FT , P). Por lo tanto,
E
£
(Fn − Fm)2¤ n,m→∞
−→ 0
y, en consecuencia,
E
·Z T
0
¡
u(n)
s − u(m)
s
¢2
ds
¸
n,m→∞
−→ 0.
57
58. Esto nos dice que la sucesión u(n)
es de Cauchy en L2
([0, T] × Ω). Por lo tanto
será convergente hacia un proceso u de L2
([0, T] × Ω). Por otra parte, puede
comprobarse que u pertenece a la clase L2
a,T , teniendo en cuenta que una sucesión
parcial de u(n)
(t, ω) converge casi por todo (t, ω) hacia u(t, ω). Aplicando de
nuevo la propiedad de isometrı́a, y teniendo en cuenta que E(Fn) converge hacia
E(F), se obtiene
F = lim
n→∞
Fn = lim
n→∞
µ
E(Fn) +
Z T
0
u(n)
s dBs
¶
= E(F) +
Z T
0
usdBs.
Finalmente, la unicidad sale también de la propiedad de isometrı́a: Supong-
amos que u(1)
y u(2)
fuesen dos procesos de L2
a,T tales que
F = E(F) +
Z T
0
u(1)
s dBs = E(F) +
Z T
0
u(2)
s dBs.
Entonces
0 = E
"µZ T
0
¡
u(1)
s − u(2)
s
¢
dBs
¶2
#
= E
·Z T
0
¡
u(1)
s − u(2)
s
¢2
ds
¸
y, por lo tanto, u
(1)
s (t, ω) = u
(2)
s (t, ω) casi por todo (t, ω). ¤
Teorema 14 (Teorema de representación de martingalas) Supongamos
que {Mt, t ∈ [0, T]} es una martingala respecto de la filtración Ft, tal que
E(M2
T ) < ∞ . Entonces existe un único proceso estocástico u de la claseL2
a,T
tal que
Mt = E(M0) +
Z t
0
usdBs
para todo t ∈ [0, T].
Demostración: Aplicando el teorema de representación de Itô a F = MT
obtenemos que existe un único proceso u ∈ L2
T tal que
MT = E(MT ) +
Z T
0
usdBs = E(M0) +
Z T
0
usdBs.
58
59. Supongamos que 0 ≤ t ≤ T. Tendremos
Mt = E[MT |Ft] = E(M0) + E[
Z T
0
usdBs|Ft]
= E(M0) +
Z t
0
usdBs.
¤
2.8 Teorema de Girsanov
El teorema de Girsanov nos dice que el movimiento browniano con deriva
Bt + λt puede verse como un movimiento browniano sin deriva, cambiando
la probabilidad. Analizaremos primero como funcionan los cambios de prob-
abilidad mediante densidades.
Si en un espacio de probabilidad (Ω, F, P) consideramos una variable
aleatoria L ≥ 0 de esperanza uno, entonces,
Q(A) = E (1AL)
define una nueva probabilidad. Que la esperanza de L sea igual a 1 nos
garantiza que
Q(Ω) = E(L) = 1.
Se dice que L es la densidad de Q respecto de P y se escribe formalmente
dQ
dP
= L.
La esperanza de una variable aleatoria X en el espacio de probabilidad
(Ω, F, Q) se calcula de la forma siguiente
EQ(X) = E(XL).
La probabilidad Q es absolutamente continua respecto de P, lo que significa
que
P(A) = 0 =⇒ Q(A) = 0.
59
60. Si la variable L es estrictamente positiva, entonces las probabilidades P y
Q son equivalentes (o sea, mutuamente absolutamente continuas), lo que
significa
P(A) = 0 ⇐⇒ Q(A) = 0.
Veamos seguidamente un ejemplo simple de cambio de probabilidades que
representa una versión sencilla del teorema de Girsanov:
Ejemplo 20 Sea X una variable aleatoria con ley normal N(m, σ2
). Existe
una probabilidad Q respecto de la cual la variable X tenga ley N(0, σ2
)?
Consideremos la variable
L = e− m
σ2 X+ m2
2σ2
.
Es fácil comprobar que tiene esperanza uno E(L) = 1. Por otra parte, en
el espacio de probabilidad (Ω, F, Q) la variable X tiene por función carac-
terı́stica:
EQ(eitX
) = E(eitX
L) =
1
√
2πσ2
Z ∞
−∞
e−
(x−m)2
2σ2 −mx
σ2 + m2
2σ2 +itx
dx
=
1
√
2πσ2
Z ∞
−∞
e− x2
2σ2 +itx
dx = e−σ2t2
2 ,
es decir, X tiene una ley N(0, σ2
).
Veremos que en el caso del movimiento browniano se obtiene un resultado
similar. Teniendo en cuenta que el movimiento browniano es el lı́mite de
paseos aleatorios, analizaremos primero el problema de la eliminación de la
deriva en un paseo aleatorio:
Consideremos una succesión {Xn, n ≥ 1} de variables aleatorias indepen-
dientes tales que
Xn =
½
+1, con probabilidad 1/2
−1, con probabilidad 1/2
.
Pongamos S0 = 0, y Sn = X1 + · · · + Xn + na, donde a > 0. La succesión Sn
representa un paseo aleatorio con deriva igual a a, y no es una martingala ya
que
E(Sn|Fn−1) = Sn−1 + a,
60
61. donde Fn es la σ-álgebra generada por X1, ..., Xn si n ≥ 1, y F0 = {∅, Ω}.
Podemos cambiar la asignación de probabilidades de manera que Sn sea una
martingala. Si suponemos que
P(Xn = +1) = p,
P(Xn = −1) = 1 − p,
necesitaremos que E(a + Xn) = 0, es decir,
p =
1 − a
2
,
suponiendo que a < 1.
Multipliquemos los valores de la constante a por ∆t y los valores de las
variables Xn por σ
√
∆t. O sea supondremos que
S0 = 0,
∆Sn = a∆t + σXn,
P(Xn = ±
√
∆t) =
1
2
.
En tal caso el valor de la probabilidad p respecto de la cual las Sn forman
una martingala es
P(Xn =
√
∆t) = p =
1
2
−
a
2σ
√
∆t,
P(Xn = −
√
∆t) = 1 − p =
1
2
+
a
2σ
√
∆t.
Podemos escribir
P(Xn = ±
√
∆t) =
1
2
³
1 −
a
σ
Xn
´
.
Si consideramos un camino de longitud N formado por los sucesivos valores
que toman las variables Xn, la probabilidad P de este camino seria 2−N
,
mientras que la probabilidad Q seria 2−N
QN
n=1
¡
1 − a
σ
Xn
¢
. Es decir, pode-
mos escribir
Q(camino)
P(camino)
=
N
Y
n=1
³
1 −
a
σ
Xn
´
.
61
62. Observamos que la probabilidad Q está bien definida si
∆t <
³σ
a
´2
,
lo cual es cierto siempre que ∆t sea suficientement pequeño.
Supongamos ahora que las variables aleatorias Sn se observan en instantes
que distan ∆t. Si ∆t tiende a cero y N tiende a infinito de manera que
N∆t = t, entonces, Sn converge hacia un movimiento browniano con deriva
at + σBt.
Por otra parte, el cociente entre las probabilidades Q y P converge hacia
un término exponencial:
Q(camino)
P(camino)
=
N
Y
n=1
³
1 −
a
σ
Xn
´
= exp
à N
X
n=1
log
³
1 −
a
σ
Xn
´
!
w exp
à N
X
n=1
µ
−
a
σ
Xn −
a2
2σ2
X2
n
¶!
= exp
Ã
−
a
σ
N
X
n=1
Xn −
a2
2σ2
t
!
.
Es decir, en el lı́mite se obtiene
Q(camino)
P(camino)
= exp
µ
−
a
σ
Bt −
a2
2σ2
t
¶
.
Sea{Bt, t ∈ [0, T]} un movimiento browniano. Fijemos un número real λ.
Consideremos la martingala
Lt = exp
³
−λBt − λ2
2
t
´
. (30)
Observemos que el proceso estocástico {Lt, t ∈ [0, T]} es una martingala pos-
itiva de esperanza uno que satisface la ecuación diferencial estocástica
Lt = 1 −
Z t
0
λLsdBs.
62
63. La variable LT es una densidad de probabilidad en el espacio (Ω, FT , P) que
define una probabilidad Q dada por
Q(A) = E (1ALT ) ,
para todo A ∈ FT .
La propiedad de martingala del proceso Lt implica que en el espacio
(Ω, Ft, P), la probabilidad Q tiene densidad igual a Lt. En efecto, si A
pertenece a la σ-álgebra Ft se tiene
Q(A) = E (1ALT ) = E (E (1ALT |Ft))
= E (1AE (LT |Ft))
= E (1ALt) .
Teorema 15 (Teorema de Girsanov) En el espacio de probabilidad (Ω, FT , Q)
el proceso estocástico
Wt = Bt + λt,
es un movimiento browniano.
Antes de demostrar este teorema probaremos un resultado técnico:
Lema 16 Supongamos que X es una variable aleatoria real y G es una σ-
álgebra tales que
E
¡
eiuX
|G
¢
= e−u2σ2
2 .
Entonces, la variable X es independiente de la σ-álgebra G y tiene una ley
normal N(0, σ2
).
Demostración: Para todo suceso A ∈ G se cumplirá
E
¡
1AeiuX
¢
= P(A)e−u2σ2
2 .
Por lo tanto, eligiendo A = Ω obtenemos la función caracterı́stica de X, y en
consecuencia, X tiene una ley N(0, σ2
). Por otra parte, fijado un suceso A ∈ G,
la función caracterı́stica de la variable X respecto de la probabilidad condicionada
por A será también
EA
¡
eiuX
¢
= e−u2σ2
2 .
63
64. Es decir, la ley de X condicionada por A es también una ley normal N(0, σ2
).
Por consiguiente, tendremos
PA(X ≤ x) = Φ(x/σ) ,
y
P ((X ≤ x) ∩ A) = P(A)Φ(x/σ) = P(A)P(X ≤ x), (31)
donde Φ representa la función de distribución de la ley N(0, 1). La igualdad (31)
nos da la independencia entre la variable X y la σ-álgebra G . ¤
Demostración del teorema de Girsanov: Será suficiente con demostrar
que, en el espacio de probabilidad (Ω, FT , Q), para todo s < t ≤ T el incremento
Wt − Ws es independiente de Fs y tiene ley normal N(0, t − s).
Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen de la
fórmula siguiente, para todo s < t, A ∈ Fs, u ∈ R,
EQ
¡
1Aeiu(Wt−Ws)
¢
= Q(A)e−u2
2
(t−s)
. (32)
Para demostrar la fórmula (32) ponemos
EQ
¡
1Aeiu(Wt−Ws)
¢
= E
¡
1Aeiu(Wt−Ws)
Lt
¢
= E
³
1Aeiu(Bt−Bs)+iuλ(t−s)−λ(Bt−Bs)−λ2
2
(t−s)
Ls
´
= E(1ALs)E
¡
e(iu−λ)(Bt−Bs)
¢
eiuλ(t−s)−λ2
2
(t−s)
= Q(A)e
(iu−λ)2
2
(t−s)+iuλ(t−s)−λ2
2
(t−s)
= Q(A)e−u2
2
(t−s)
.
¤
El teorema de Girsanov admite la siguiente generalización:
Teorema 17 Sea {θt, t ∈ [0, T]} un proceso adaptado y tal que cumple la
denominada condición de Novikov:
E
µ
exp
µ
1
2
Z T
0
θ2
t dt
¶¶
< ∞. (33)
Entonces, el proceso
Wt = Bt +
Z t
0
θsds
64
65. es un movimiento browniano respecto de la probabilidad Q definida por
Q(A) = E (1ALT ) ,
donde
Lt = exp
µ
−
Z t
0
θsdBs −
1
2
Z t
0
θ2
sds
¶
.
Observemos que de nuevo Lt es satisface la ecuación diferencial estocástica
Lt = 1 −
Z t
0
θsLsdBs.
Para que el proceso Lt sea una martingala y tengamos E(Lt) = 1, necesitamos
que θsLs pertenezca a la clase L2
a,T . La condición (33) sirve para asegurar
esta propiedad.
Como aplicación del teorema de Girsanov deduciremos la ley del instante
de llegada del movimiento browniano con deriva a un nivel a.
Sea {Bt, t ≥ 0} un movimiento browniano. Fijado un valor λ, definimos
la martingala Lt como en (30). Sea Q la probabilidad en ∪t≥0Ft tal que para
todo t ≥ 0
dQ
dP
|Ft = Lt.
Por el teorema de Girsanov, para todo T > 0, en el espacio de probabili-
dad (Ω, FT , Q) el proceso Bt + λt := e
Bt es un movimiento browniano en el
intervalo de tiempo [0, T]. Es decir, en este espacio Bt es un movimiento
browniano con deriva −λt. Sea
τa = inf{t ≥ 0, Bt = a},
donde a 6= 0. Para cada t ≥ 0 el suceso {τa ≤ t} pertenece a la σ-álgebra
Fτa∧t ya que para todo s ≥ 0
{τa ≤ t} ∩ {τa ∧ t ≤ s} = {τa ≤ t} ∩ {τa ≤ s}
= {τa ≤ t ∧ s} ∈ Fs∧t ⊂ Fs.
65
66. Por consiguiente, utilizando la propiedad de martingala respecto de los tiem-
pos de paro obtenemos
Q{τa ≤ t} = E
¡
1{τa≤t}Lt
¢
= E
¡
1{τa≤t}E(Lt|Fτa∧t)
¢
= E
¡
1{τa≤t}Lτa∧t
¢
= E
¡
1{τa≤t}Lτa
¢
= E
³
1{τa≤t}e−λa−1
2
λ2
τa
´
=
Z t
0
e−λa−1
2
λ2
s
f(s)ds,
donde f es la densidad de la variable τa. Sabemos que
f(s) =
|a|
√
2πs3
e−a2
2s .
Por lo tanto, respecto de Q la variable aleatoria τa tiene una densidad igual
a
|a|
√
2πs3
e−
(a+λs)2
2s , s > 0.
Haciendo, t ↑ ∞ obtenemos
Q{τa < ∞} = e−λa
E
³
e−1
2
λ2
τa
´
= e−λa−|λa|
.
Si λ = 0 (movimiento browniano sin deriva), la probabilidad de llegar alguna
vez a un nivel dado es igual a uno. Si −λa > 0 (la deriva −λ y el nivel a
tienen el mismo signo) esta probabilidad es también igual a uno. Si −λa < 0
(la deriva −λ y el nivel a tienen signo distinto) la probabilidad vale e−2λa
.
Ejercicios
2.1 Consideremos una función f tal que
Z T
0
f(s)2
ds < ∞.
Definimos la sucesión de funciones continuas
fn(t) =
Z t
t− 1
n
f(s)ds,
66
67. con la convención f(s) = 0 si s < 0. Demostrar que se cumple
Z T
0
(f(s) − fn(s))2
ds −→ 0
n→∞
−→ 0.
Indicación: Sabemos que para cada ε > 0 podemos encontrar una
función continua g tal que
Z T
0
(f(s) − g(s))2
ds < ε.
2.2 Consideremos un proceso estocástico M = {Mt, t ≥ 0} que es una mar-
tingala respecto de una filtración {Mt, t ≥ 0}. Demostrar que el pro-
ceso M también es una martingala respecto de la filtración natural
FM
t = σ (Ms, 0 ≤ s ≤ t) ⊂ Mt.
2.2 Consideremos una martingala M = {Mt, t ≥ 0} respecto de una fil-
tración {Mt, t ≥ 0} tal que E(M2
t ) < ∞ para todo t ≥ 0. Demostrar
que si s < t
E((Mt − Ms)2
|Ms) = E(M2
t − M2
s |Ms).
2.3 Demostrar que si τ es un tiempo de paro, Fτ definida en (18) es una σ-
álgebra y τ es Fτ -medible. Si X = {Xt, t ≥ 0} es un proceso adaptado
con trayectorias continuas, y τ es finito, demostrar que la variable Xτ
es Fτ -medible.
2.4 Sea Y una variable aleatoria integrable y {Mt, t ≥ 0} una familia cre-
ciente de σ-álgebras. Demostrar que
Mt = E(Y |Mt)
es una martingala.
2.5 Comprobar si los siguientes procesos estocásticos, definidos a partir de
67
68. un movimiento browniano Bt, son martingalas:
Xt = B3
t − 3tBt
Xt = t2
Bt − 2
Z s
0
sBsds
Xt = et/2
cos Bt
Xt = et/2
sin Bt
Xt = (Bt + t) exp(−Bt −
1
2
t)
Xt = B1(t)B2(t).
En el último caso, B1 y B2 son dos movimientos brownianos indepen-
dientes.
2.6 Supongamos que Bt es un movimiento browniano n-dimensional y sea
f : Rn
→ R una función de clase C2
. Utilizando la fórmula de Itô
demostrar que
f(Bt) = f(0) +
Z t
0
∇f(Bs)ds +
1
2
Z t
0
∆f(Bs)ds.
2.7 Encontrar el proceso u que nos proporciona la representación integral
F = E(F) +
Z T
0
usdBs
en los ejemplos siguientes:
F = BT
F = B2
T
F = eBT
F =
Z T
0
Btdt
F = B3
T
F = sin BT
2.8 Sea p(t, x) = 1/
√
1 − t exp(−x2
/2(1 − t)), para 0 ≤ t < 1 y x ∈ R, y
p(1, x) = 0. Definimos Mt = p(t, Bt), donde {Bt, 0 ≤ t ≤ 1} es un
movimiento browniano.
68
69. a) Demostrar que
Mt = M0 +
Z t
0
∂p
∂x
(s, Bs)dBs.
b) Sea Ht = ∂p
∂x
(t, Bt). Probar que
R 1
0
H2
t dt < ∞ casi seguramente,
pero E
³R 1
0
H2
t dt
´
= ∞.
2.9 Sean Yt y Xt procesos de Itô. Demostrar la siguiente fórmula de inte-
gración por partes:
XtYt = X0Y0 +
Z t
0
XsdYs +
Z t
0
YsdXs +
Z t
0
dXsdYs.
3 Ecuaciones diferenciales estocásticas
Queremos resolver ecuaciones diferenciales del tipo
dXt = b(t, Xt)dt + σ(t, Xt)dBt. (34)
Los coeficientes b(t, x) y σ(t, x) se denominan, respectivamente, coefi-
ciente de deriva y coeficiente de difusión. Si el coeficiente de difusión se
anula, entonces, tendremos una ecuación diferencial ordinaria:
dXt
dt
= b(t, Xt),
que puede resolverse, si conocemos la condición inicial X0. Por ejemplo, en
el caso lineal b(t, x) = b(t)x, la solución es
Xt = X0 + e
R t
0 b(s)ds
.
Una ecuación diferencial del tipo (34) se denomina una ecuación diferen-
cial estocástica. La solución será un proceso estocástico {Xt, t ≥ 0} con
trayectorias continuas adaptado a la filtración browniana. Los procesos
solución se denominan procesos de difusión.
Una interpretación heurı́stica de la ecuación diferencial (34) serı́a la sigu-
iente: El incremento ∆Xt = Xt+∆t − Xt se expresa como una suma de
b(t, Xt)∆t más un término que depende del incremento del movimiento brow-
niano: σ(t, Xt)∆Bt y que se interpreta como una impulso aleatorio. Por
69
70. tanto, el incremento ∆Xt tendrá una ley normal de media b(t, Xt)∆t y vari-
anza σ(t, Xt)2
∆t.
La formalización de estas ecuaciones se realiza transformándolas en ecua-
ciones integrales y utilizando integrales estocásticas:
Xt = X0 +
Z t
0
b(s, Xs)ds +
Z t
0
σ(s, Xs)dBs. (35)
El resultado fundamental sobre la existencia y unicidad de soluciones es
el siguiente:
Teorema 18 Fijemos un intervalo de tiempo [0, T]. Supongamos que los
coeficientes de la ecuación (34) verifican:
|b(t, x) − b(t, y)| ≤ D1|x − y| (36)
|σ(t, x) − σ(t, y)| ≤ D2|x − y| (37)
|b(t, x)| ≤ C1(1 + |x|) (38)
|σ(t, x)| ≤ C2(1 + |x|), (39)
para todo x, y ∈ R, t ∈ [0, T]. Supongamos que Z es una variable aleatoria
independiente de la σ-álgebra FT generada por el movimiento browniano en
[0, T], tal que E(Z2
) < ∞. Entonces, existe un único proceso {Xt, t ∈ [0, T]}
continuo, adaptado, solución de (35) y tal que
E
µZ T
0
|Xs|2
ds
¶
< ∞.
Observaciones:
1.- Este resultado es cierto en dimensión superior, cuando Bt es un movimiento
browniano m-dimensional, la solución Xt es un proceso estocástico n-
dimensional, y los coeficientes son funciones b : [0, T] × Rn
→ Rn
,
σ : [0, T] × Rn
→ Rn×m
.
2.- La condición de crecimiento lineal (38,39) garantiza que la solución no
explota antes del tiempo final T. Por ejemplo, la ecuación diferencial
determinista
dXt
dt
= X2
t , X0 = 1,
70
71. tiene por única solución la función
Xt =
1
1 − t
, 0 ≤ t < 1,
que diverge en el instante t = 1.
3.- La condición de Lipschitz (36,37) garantiza que no exista más de una
solución. Por ejemplo, la ecuación diferencial determinista
dXt
dt
= 3X
2/3
t , X0 = 0,
tiene infinitas soluciones ya que para cada a > 0, la función
Xt =
½
0 si t ≤ a
(t − a)3
si t > a
es solución. En este ejemplo la función b(x) = 3x2/3
no cumple la
condición de Lipschitz ya que la derivada de b no está acotada.
4.- Si los coeficientes b(t, x) y σ(t, x) son diferenciables en la variable x, la
condición de Lipschitz significa que las derivadas parciales ∂b
∂x
y ∂σ
∂x
están
acotadas por las constantes D1 y D2, respectivamente.
Demostración del Teorema 18: Consideremos el espacio L2
a,T de los
procesos adaptados a la filtración FZ
t = σ(Z) ∨ Ft y tales que E
³R T
0
|Xs|2
ds
´
<
∞. En este espacio introducimos la siguiente norma
kXk =
µZ T
0
e−λs
E
£
X2
s
¤
ds
¶1/2
,
donde λ es una constante tal que λ > 2 (TD2
1 + D2
2).
Definimos un operador en este espacio de la forma siguiente
(LX)t = X0 +
Z t
0
b(s, Xs)ds +
Z t
0
σ(s, Xs)dBs.
Este operador está bien definido debido a la propiedad de crecimiento lineal (38,39)
de los coeficientes de la ecuación.
71
72. La desigualdad de Schwartz y la isometrı́a de la integral estocástica nos per-
miten escribir
E
£
|(LX)t − (LY )t|2¤
≤ 2E
"µZ t
0
(b(s, Xs) − b(s, Ys)) ds
¶2
#
+2E
"µZ t
0
(σ(s, Xs) − σ(s, Xs)) dBs
¶2
#
≤ 2TE
·Z t
0
(b(s, Xs) − b(s, Ys))2
ds
¸
+2E
·Z t
0
(σ(s, Xs) − σ(s, Xs))2
ds
¸
.
Utilizando la propiedad de Lipschitz (36,37) se obtiene
E
£
|(LX)t − (LY )t|2¤
≤ 2
¡
TD2
1 + D2
2
¢
E
·Z t
0
(Xs − Ys)2
ds
¸
.
Pongamos C = 2 (TD2
1 + D2
2). Por consiguiente, multiplicando por el factor e−λt
e integrando en [0, T] se obtiene
Z T
0
e−λt
E
£
|(LX)t − (LY )t|2¤
dt ≤ C
Z T
0
e−λt
E
·Z t
0
(Xs − Ys)2
ds
¸
dt
≤ C
Z T
0
µZ T
s
e−λt
dt
¶
E
£
(Xs − Ys)2¤
ds
≤
C
λ
Z T
0
e−λs
E
£
(Xs − Ys)2¤
ds.
Por lo tanto,
kLX − LY k ≤
r
C
λ
kX − Y k
y como
q
C
λ
< 1. Esto nos dice que el operador L es una contracción en el espacio
L2
a,T . El teorema del punto fijo nos asegura que este operador tiene un único punto
fijo, lo que implica la unicidad y existencia de solución de la ecuación (35). ¤
72
73. 3.1 Soluciones explı́citas de ecuaciones diferenciales es-
tocásticas
La fórmula de Itô permite resolver explı́citamente algunas ecuaciones difer-
enciales estocásticas. Veamos algunos ejemplos.
A) Ecuaciones lineales. El movimiento browniano geométrico
Xt = X0e
µ−σ2
2
t+σBt
satisface la ecuación lineal
dXt = µXtdt + σXtdBt.
Más generalmente, la solución de la ecuación lineal homogénea
dXt = b(t)Xtdt + σ(t)XtdBt
será
Xt = X0 exp
hR t
0
¡
b(s) − 1
2
σ2
(s)
¢
ds +
R t
0
σ(s)dBs
i
B) El proceso de Ornstein-Uhlenbeck. Consideremos la ecuación diferencial
estocástica
dXt = a (m − Xt) dt + σdBt
X0 = x,
donde a, σ 0 y m es un número real. Como se trata de una ecuación
lineal no homogénea, utilizaremos el método de variación de las con-
stantes. La solución de la ecuación homogénea
dxt = −axtdt
x0 = x
es xt = xe−at
. Entonces hacemos el cambio de variable Xt = Yte−at
, es
decir, Yt = Xteat
. El proceso Yt satisface
dYt = aXteat
dt + eat
dXt
= ameat
dt + σeat
dBt.
73
74. Por tanto,
Yt = x + m(eat
− 1) + σ
Z t
0
eas
dBs,
lo que implica
Xt = m + (x − m)e−at
+ σe−at
R t
0
eas
dBs
El proceso estocástico Xt es gaussiano. La media y varianza de cada
variable Xt pueden calcularse fácilmente:
E(Xt) = m + (x − m)e−at
,
V arXt = σ2
e−2at
E
µZ t
0
eas
dBs
¶2
#
= e−2at
Z t
0
e2as
ds =
σ2
2a
¡
1 − e−2at
¢
.
La distribución de Xt cuando t tiende a infinito converge hacia la ley
normal
N(m,
σ2
2a
).
Esta ley se denomina la ley invariante o estacionaria. En el caso m = 0
este proceso se denomina el proceso de Ornstein-Uhlenbeck.
C) Consideremos una ecuación diferencial estocástica del tipo
dXt = f(t, Xt)dt + c(t)XtdBt, X0 = x, (40)
donde f(t, x) y c(t) son funciones deterministas continuas, tales que f
satisface las condiciones de crecimiento lineal y propiedad de Lipschitz
en la variable x. Esta ecuación se puede resolver siguiendo los pasos
siguientes:
a) Se considera el “factor integrante”
Ft = exp
µ
−
Z t
0
c(s)dBs +
1
2
Z t
0
c2
(s)ds
¶
,
tal que F−1
t es solución de la ecuación (40) si f = 0 y x = 1. El
proceso Yt = FtXt cumple
dYt = Ftf(t, F−1
t Yt)dt, Y0 = x. (41)
74
75. b) La ecuación (41) es una ecuación diferencial determinista, parametrizada
por ω ∈ Ω, que podrá resolverse mediante métodos habituales.
Por ejemplo, supongamos que f(t, x) = f(t)x. En tal caso la ecuación
(41) es
dYt = f(t)Ytdt,
de lo que se deduce
Yt = x exp
µZ t
0
f(s)ds
¶
y, por lo tanto,
Xt = x exp
³R t
0
f(s)ds +
R t
0
c(s)dBs − 1
2
R t
0
c2
(s)ds
´
D) Ecuación diferencial estocástica lineal general. Consideremos la ecuación
dXt = (a(t) + b(t)Xt) dt + (c(t) + d(t)Xt) dBt,
con condición inicial X0 = x, donde a, b, c y d son funciones continuas.
Utilizando el método de variación de las constantes propondremos una
solución de la forma
Xt = UtVt (42)
donde
dUt = b(t)Utdt + d(t)UtdBt
y
dVt = α(t)dt + β(t)dBt,
con U0 = 1 y V0 = x. Por el apartado C sabemos que
Ut = exp
µZ t
0
b(s)ds +
Z t
0
d(s)dBs −
1
2
Z t
0
d2
(s)ds
¶
.
Por otra parte, diferenciando la igualdad (42) obtenemos
a(t) = Utα(t) + β(t)d(t)Ut
c(t) = Utβ(t)
75
76. es decir
β(t) = c(t) U−1
t
α(t) = [a(t) − c(t)d(t)] U−1
t .
Finalmente,
Xt = Ut
³
x +
R t
0
[a(s) − c(s)d(s)] U−1
s ds +
R t
0
c(s) U−1
s dBs
´
La ecuación diferencial estocástica de Itô
Xt = X0 +
Z t
0
b(s, Xs)ds +
Z t
0
σ(s, Xs)dBs,
puede transformarse en una ecuación de Stratonovich, utilizando la fórmula
(27) que nos relaciona ambos tipos de integral. Ası́, se obtiene
Xt = X0 +
Z t
0
b(s, Xs)ds −
Z t
0
1
2
(σσ0
) (s, Xs)ds +
Z t
0
σ(s, Xs) ◦ dBs,
ya que la expresión del proceso σ(s, Xs) como proceso de Itô serı́a
σ(t, Xt) = σ(0, X0) +
Z t
0
µ
σ0
b −
1
2
σ00
σ2
¶
(s, Xs)ds
+
Z t
0
(σσ0
) (s, Xs)dBs.
Yamada y Watanabe demostraron en 1971 que la condición de Lipschitz
podı́a debilitarse de la forma siguiente, en el caso de ecuaciones diferenciales
estocásticas unidimensionales. Supongamos que los coeficientes b y σ no de-
penden del tiempo, el coeficiente b es Lipschitz, pero el coeficiente σ satisface
la condición de Hölder
|σ(x) − σ(y)| ≤ D|x − y|α
,
donde α ≥ 1
2
. En tal caso existe una única solución de la ecuación.
Por ejemplo, la ecuación
½
dXt = |Xt|r
dBt
X0 = 0
tiene una solución única si r ≥ 1/2.
76
77. 3.2 Soluciones fuertes y soluciones débiles
La solución Xt que hemos encontrado antes es una solución fuerte porque es
un proceso adaptado a la familia de σ-álgebras
FZ
t = σ(Bs, s ≤ t, Z).
Podemos plantear el problema de forma diferente. Nos dan los coeficientes
b(t, x) y σ(t, x) y nos piden que encontremos un par de procesos Xt, Bt en un
espacio de probabilidad (Ω, F, P) tales que Bt es un movimiento browniano
relativo a una filtración Ht y Xt satisface la ecuación (34) en este espacio. Di-
remos entonces que (Ω, F, P, Ht, Xt, Bt) es una solución débil de la ecuación
(34).
Pueden demostrarse los siguientes resultados:
• Toda solución fuerte es también una solución débil.
• Una ecuación con coeficientes b(t, x) y σ(t, x) se dice que tiene unicidad
débil si dos soluciones débiles tienen la misma ley (las mismas distribu-
ciones en dimensión finita). Si los coeficientes satisfacen las condiciones
del Teorema (18) entonces se satisface la unicidad débil.
• La existencia de soluciones débiles puede asegurarse suponiendo sola-
mente que los coeficientes b(t, x) y σ(t, x) son funciones continuas y
acotadas.
La ecuación de Tanaka
dXt = sign (Xt) dBt, X0 = 0,
no tiene ninguna solución fuerte pero tiene una solución débil única.
3.3 Aproximaciones numéricas
Muchas ecuaciones diferenciales estocásticas no pueden resolverse explı́citamente.
Por ello es conveniente disponer de métodos numéricos que permiten la sim-
ulación de soluciones.
77
78. Consideremos la ecuación diferencial estocástica con coeficientes indepen-
dientes del tiempo
dXt = b(Xt)dt + σ(Xt)dBt, (43)
con condición inicial X0 = x.
Fijemos un intervalo de tiempo [0, T] y consideremos la subdivisión for-
mada por los puntos
tj =
iT
n
, i = 0, 1, . . . , n.
La longitud de cada subintervalo será δn = T
n
.
El método de Euler consiste en el esquema recursivo siguiente:
X(n)
(ti) = X(n)
(ti−1) + b(X(n)
(ti−1))δn + σ(X(n)
(ti−1))∆Bi,
i = 1, . . . , n, donde ∆Bi = Bti
− Bti−1
. El valor inicial será X
(n)
0 = x.
En los puntos de cada intervalo (titi+1) el valor del proceso X(n)
se deduce
por interpolación lineal. El proceso X(n)
es una función del movimiento
browniano y podemos medir el error comerido al aproximar X por X(n)
:
en = E
·³
XT − X
(n)
T
´2
¸
.
Puede demostrarse que en es del orden δ1/2
n es decir,
en ≤ cδ1/2
n
si n ≥ n0.
Para simular una solución mediante el método de Euler, basta con obtener
valores de n variables aleatorias ξ1, . . . ., ξn independientes con ley N(0, 1), y
substituir ∆Bi por
√
δnξi.
El método de Euler puede mejorarse mediante una corrección adicional.
Esto nos lleva a introducir el método de Milstein.
El valor exacto del incremento entre dos puntos de la partición es
X(ti) = X(ti−1) +
Z ti
ti−1
b(Xs)ds +
Z ti
ti−1
σ(Xs)dBs. (44)
En el método de Euler se basa en aproximar las integrales de la forma sigu-
iente:
Z ti
ti−1
b(s)ds ≈ b(X(n)
(ti−1))δn,
Z ti
ti−1
σ(s)dBs ≈ σ(X(n)
(ti−1))∆Bi.
78