El uso de las tic en la vida ,lo importante que son
Presentacion Mov Browniano úLtima EdicióN De Julia
1. Presentación #2 Integrantes del grupo:
MATH 5400 Probabilidad Wadi Adames Román
Dr. Balbino García Julia Crespo Rodríguez
24 de octubre de 2009 Joane De Jesús Dátiz
Resumen del Capítulo 10: Movimiento Browniano y Procesos Estacionarios
Libro: “Introduction to Probability Models”
Autor: Sheldon M. Ross
MOVIMIENTO BROWNIANO
Los procesos de Movimiento Browniano, a veces llamados procesos de Wiener, son de
los más importantes procesos estocásticos en la teoría de probabilidad aplicada. Su origen se
encuentra en la Física pero su nombre se debe a Robert Brown, botánico del siglo XIX que lo
descubrió. Dicho movimiento es el que exhibe una partícula pequeña que se encuentra
totalmente inmersa en un líquido o gas. La primera explicación del fenómeno la dio Albert
Einstein en el año 1905. El mostró que el Movimiento Browniano se podría explicar asumiendo
que la partícula era continuamente sujeta al bombardeo de moléculas que se encuentran en su
entorno. Sin embargo la primera definición concisa la presentó Wiener en el 1918.
Empecemos considerando una caminata simétrica al azar en la cual, en cada unidad de
tiempo es igualmente probable que se de un paso hacia la izquierda o hacia la derecha. Esto es
una cadena de Markov con
Pi,i+1= ½ = Pi,i-1, i = 0, + 1,….
Ahora supongamos que aceleramos este proceso dando pasos cada vez más cortos en intervalos
de tiempo más corto. Si tomamos el límite de la manera correcta obtenemos el Movimiento
Browniano.
Si X (t ) denota la posición en el tiempo t cuando
X (t ) = ∆x ( X 1 + ... + X [ t / ∆t ] )
+ 1 si el i − ésimo paso de tamaño ∆x es a la derecha
donde Xi =
− 1 si el i − ésimo paso es a la ixquierda
2. y [ t / ∆t ] es el entero mayor que es menor o igual a t / ∆t y donde las X i son independientes
1
con P{ X i = 1} = P{ X i = −1} = .
2
[ ]
Como E [ X i ] = 0 y Var ( X i ) = E X 12 = 1 obtenemos que
E [ X (t )] = 0
t
Var ( X (t )) = (∆x) 2
∆t
Ahora pasaremos a definir formalmente el movimiento Browniano.
Definición Un proceso estocástico { X (t ), t ≥ 0} se dice que es un movimiento Browniano si
cumple las siguientes condiciones:
1. X(0) = 0
2. { X (t ), t ≥ 0} tiene incrementos estacionarios e independientes.
3. Para cada t > 0, X(t) está normalmente distribuida con media 0 y varianza σ 2t.
La interpretación del Movimiento Browniano como el limite de caminatas al azar sugiere que
X(t) debería ser una función continua de t. Como X(t) es normal con media 0 y varianza t, su
función densidad está dada por
1 2
f t ( x) = e − x 2t
2πt
La función densidad conjunta de X (t1 ),... X (t n ) para t1 < ... < t n es
1 x2 ( x − x )2
( xn − xn−1 ) 2
exp− + 1 2 1
++
2 t1
t 2 − t1 t n − t n−1
f ( x1 ,..., xn ) =
(2π ) [ t1 (t 2 − t1 ) (t n − t n−1 )]
n/ 2 1/ 2
A partir de esta función de densidad, se puede calcular cualquier probabilidad deseada.
Supongamos que se requiere una distribución condicional de X(s) dada por X(t) = B donde s < t.
La densidad condicional está dada por
3. f s ( x) f t −s ( B − x)
f s t ( x B) =
ft ( B)
{
= K1 exp − x 2 / 2 s − ( B − x) 2 / 2(t − s ) }
1 1 Bx
= K 2 exp− x 2 +
2 s 2(t − s ) + t − s
( x − Bs / t ) 2
= K 3 exp−
2 s (t − s ) / t
donde K1, K2 y K3 no dependen de x. Por lo tanto,
E [ X ( s) X (t ) = B ] = B
s
t
Var [ X ( s ) X (t ) = B ] = (t − s )
s
t
“HITTING TIMES”, VARIABLE MÁXIMA, Y EL PROBLEMA DE LA RUINA DEL
JUGADOR
Sea Ta el primer momento en que el proceso del Movimiento Browniano golpea a.
Cuando a > 0 calcularemos P{Ta < t} considerando P{X(t) > a} y considerando cuando Ta < t ó Ta
> t. Entonces,
P{ X (t ) ≥ a} = P{ X (t ) ≥ a Ta ≤ t}P{Ta ≤ t} + P{ X (t ) ≥ a Ta > t}P{Ta > t}
Ahora, si Ta < t entonces el proceso golpea a en algún punto en [0,t] y por simetría es
igualmente probable que esté por encima de a o por debajo de a en el tiempo t. Por tanto,
1
P{ X (t ) ≥ a Ta ≤ t} =
2
Como P{ X (t ) ≥ a T > t}P{T > t} = 0 entonces,
a a
2 ∞
∫
2
P{Ta ≤ t} = 2 P{ X (t ) ≥ a} = e−x / 2t
dx
2πt a
2 ∞
∫
2
= e − y / 2 dy
2π a/ t
4. a -a
donde a > 0. Para a < 0, la distribución de T es, por simetría, la misma que en T . Por tanto,
obtenemos que
2 ∞
∫
2
P{Ta ≤ t} = e − y / 2 dy
2π a/ t
VARIACIONES EN EL MOVIMIENTO BROWNIANO
Movimiento Browniano con coeficiente de difusión
Se dice que {X(t), t > 0} es un proceso de Movimiento Browniano con coeficiente de
difusión d y parámetro de varianza y2, si
(i) X(0) = 0
(ii) {X(t), t > 0} tiene incremento estacionario e independiente
(iii) X(t) está normalmente distribuido con media t y varianza t 2.
Una definición equivalente es establecer que {B(t), t > 0} sea un Movimiento Browniano
estándar y definir
X (t ) = σB (t ) + µt
Movimiento Browniano Geométrico
Si {Y(t), t > 0} es un proceso de Movimiento Browniano con coeficiente de difusión y
parámetro de varianza p2 entonces el proceso {X(t), t > 0} definido por X(t) = eY(t) se conoce
como Movimiento Browniano Geométrico.
Para s < t consideremos E [ X (t ) X (u ),0 ≤ u ≤ s ] . Entonces
5. [ ] [
E [ X (t ) X (u ),0 ≤ u ≤ s ] = E eY ( t ) Y (u ),0 ≤ u ≤ s = X ( s ) E eY ( t )−Y ( s ) ]
Ahora, la función generadora de momentos de una variable aleatoria normal W está dada por
[ ]
E e aW = e aE [W ]+a
2
Var (W ) / 2
Ya que Y(t) – Y(s) es normal con media (t – s) y varianza (t – s)( 2, si a = 1 tenemos que
[ ]
E eY ( t )−Y ( s ) = e µ ( t −s )+( t −s )σ
2
/2
De esta forma se obtiene que
E [ X (t ) X (u ),0 ≤ u ≤ s ] = X ( s)e ( t −s )( µ +σ
2
/ 2)
VALORACIÓN DE OPCIONES
(“Pricing Stock Options”)
Un ejemplo de valoración de opciones
En situaciones en las que el dinero va a ser recibido o pagado en periodos de tiempo
distintos, uno toma en cuenta el tiempo de valor del dinero. Esto es, darle a la cantidad v un
tiempo t en el futuro no es peor que dar v inmediatamente. La razón para esto es que si v es dado
a uno inmediatamente, luego esto puede ser prestado con interés y sería peor que si v al tiempo t.
Para tomar esto en cuenta, supongamos que el valor de tiempo 0, también llamado valor
presente, de la cantidad v al ser ganado en el tiempo t es ve − at . La cantidad α también es
conocida como el factor de descuento. En términos de economía, la suposición de la función de
descuento e − at es equivalente a la suposición de que uno puede ganar interés a una razón
compuesta continua de 100α por ciento por unidad de tiempo.
El Teorema del Arbitraje
6. Considere un experimento cuyo conjunto de posibles resultados es S = {1,2,...m} .
Suponga que hay n pagas disponibles. Si la cantidad x es apostada sobre la paga i, entonces el
retorno xri ( j ) es devengado si el resultado del experimento es j. En otras palabras ri (⋅) es la
función de retorno para la unidad apostada sobre la paga i. La cantidad apostada sobre una paga
puede ser positiva, negativa o cero. Un esquema de apuesta es un vector x = ( x1 ,..., x n ) con la
interpretación de que x1 es apostado sobre el activo 1, x 2 sobre el activo 2 y x n sobre el activo n.
Si el resultado del experimento es j, entonces el retorno del esquema de apuesta de x es:
n
x = ∑ xi ri ( j )
i =1
El siguiente teorema establece que existe la probabilidad del vector p = ( p1 ,.... pm ) en el
conjunto de posibles resultados del experimento en el que cada uno de los activos tiene un
retorno esperado igual a 0, o hay un esquema de apuesta que garantiza ganar la apuesta.
Teorema: Exactamente una sola de las siguientes proposiciones es verdadera:
1. Existe un vector de probabilidad p = (p1,….,pm) para el cual
m
∑ p r ( j ) = 0 , para toda
j =1
j i i = 1,…,m
2. Existe un esquema de apuestas x= ( x1 ,..., xn ) para el cual
n
∑ x r ( j ) > 0 , para toda i=1,…,n
i =1
i i
En otras palabras si X es el resultado del experimento el teorema nos dice que existe un
vector de probabilidad p para x tal que:
E p [ri ( X )] = 0 , para toda i=1,…,n
o hay un esquema de apuestas que asegura que se gana la apuesta.
Fórmula de Valoración de Opciones Black-Scholes
7. Asumamos que el precio actual de una reserva es X(0)= x0 , y sea X(t) su precio en el
tiempo t. Nos interesa la reserva en el intervalo de tiempo de 0 a T. Asumamos que el factor de
descuento es α y por lo tanto el valor presente del precio de la reserva es e − at X (t ) .
Podemos pensar en el cambio del precio de la reserva en el tiempo como nuestro
experimento. Por lo tanto el resultado del experimento sería la función X(t), donde 0 ≤ t ≤ T .
Además, supongamos que podemos adquirir cualquiera de las N diferentes opciones en el tiempo
0. La opción i que cuesta ci por cada parte, nos da la opción de adquirir partes de la reserva en el
tiempo ti para el precio fijo de K i por cada parte, donde i=1,…, N.
Vamos a asumir que queremos determinar los valores de ci para los cuales no existe una
estrategia de apuesta que nos asegure ganar. Si generalizamos el Teorema del Arbitraje, notamos
que no habrá forma segura de ganar si y solo si existe una medida de probabilidad sobre el
conjunto de resultados mediante la cual todos los activos tengan un retorno esperado igual a 0.
Sea P una medida de probabilidad sobre el conjunto de los resultados y consideremos el activo
de observar la reserva durante un tiempo s para entonces adquirir (o vender) una parte con la
intención de venderla (o adquirirla) en el tiempo t, donde 0 ≤ s < t ≤ T . El valor presente del
activo para la reserva es:
EP [e −αt X (t ) | X (u ),0 ≤ u ≤ s ] = e −αs X ( s)
Supongamos que,
X (t ) = x0 eY ( t )
donde {Y (t ), t ≤ 0} es un proceso de movimiento Browniano con coeficiente de difusión µ y
parámetro de varianza σ 2 . Por lo que,
2
E[ X (t ) X (u ),0 ≤ u ≤ s ] = X ( s )e ( t −s )( µ +σ / 2)
Si escogemos µ y σ 2 de forma que,
µ +σ 2 / 2 =α
entonces las ecuaciones anteriores se satisfacen.
8. Se deduce de lo anterior que si ponemos un precio a una opción para comprar una
porción del inventario en el tiempo t para un precio arreglado K, entonces
c = EP [e −εt ( X (t ) − K ) + ]
donde c es la opción para comprar una porción del inventario. Sin embargo ningún arbitraje es
posible. Como X (t ) = x0 e , donde Y(t) es normal con media µt y varianza tσ 2 , obtenemos
Y (t )
que
∞ 1
ceαt = ∫
2
/ 2 tσ 2
( x0 e y − K ) e −( y −µt ) dy
log( K / x0 )
2πtσ 2
Haciendo el cambio de variable w = ( y − µt )(σt 1/ 2 ) obtenemos,
1 ∞ 1 ∞
∫ ∫
2 2
ceαt = x0 e µt eσw t e −w / 2 dw − K e −w / 2 dw
2π a 2π a
donde,
log( K / x0 ) − µt
a=
σ t
Ahora,
1 ∞
∫
2 2
eσw t e −w / 2 dw = e tσ / 2φ (σ t − a )
2π a
donde φ es la función estándar de distribución normal.
Utilizando
µ +σ 2 / 2 =α
para la ecuación
2
ceαt = x0 e µt +σ t/2
φ (σ t − a ) − Kφ (−a )
y dado que b = −a , podemos escribir lo anterior como:
c = x0φ (σ t + b) − Ke −αtφ (b)
donde
αt − σ 2t / 2 − log( K / x0 )
b=
σ t
9. La fórmula anterior depende del precio inicial del inventario x0 , la opción de tiempo t , la
opción de precio K , el factor de descuento α y el valor σ 2 , donde para cualquier valor de σ 2
no hay arbitraje posible. Sin embargo esta no es la única ecuación para la que esto es posible.
Supongamos que { X (t ),0 ≤ t ≤ T } es un proceso estocástico cualquiera que satisface s < t ,
E[e −αt X (t ) X (u ),0 ≤ u ≤ s] = e −αs X ( s )
Dado que
c = E[e −αt ( X (t ) − K ) + ]
se comprueba que ningún arbitraje es posible.
Otro ejemplo de un proceso estocástico en el que no hay arbitraje posible es el siguiente.
Supongamos que tenemos una sucesión de variables aleatorias independientes que tienen en
común la media µ y supongamos que este es un proceso independiente de {N (t ), t ≥ 0} , el cual
es un proceso de Poisson con razón λ . Dado que utilizando la propiedad de la identidad,
tenemos que,
N (s) N (t )
X (t ) = x0 ∏ Yi ∏Y j
i =1 j = N ( s ) +1
y asumiendo el incremento independiente de un proceso de Poisson, tenemos que para s < t ,
N (t )
E [ X (t ) X (u ),0 ≤ u ≤ s ] = X ( s ) E ∏ Y j
j = N ( s )+1
Condicionando la cantidad de eventos entre s y t obtenemos que,
N (t )
E ∏ Y j = e −λ ( t − s )(1− µ )
j = N ( s )+1
Por lo tanto si seleccionamos λ y µ tales que
λ (1 − µ ) = −α ,
las ecuaciones anteriores se satisfacen.
“WHITE NOISE”
10. Sea { X (t ), t ≥ 0} un proceso de movimiento Browniano y f una función que tiene una
b
derivada continua en la región [a, b]. El integral ∫a
f (t )dX (t ) se define como:
n
f (ti −1)[ X (ti )− X (ti −1)]
b
∫a
f (t )dX (t ) ≡ lim ∑
n → ∞ i =1
max(t i −ti −1 ) →0
donde a = t 0 < t1 < ... < t n = b es una partición de la región [a, b]. Usando la identidad
n n
∑ f (ti −1)[ X (ti ) − X (ti −1)] = f (b) X (b) − f (a ) X (a ) − ∑ X (ti )[ f (ti ) − f (ti −1)]
i =1 i =1
vemos que:
b b
∫
a
f (t )dX (t ) = f (b) X (b) − f (a ) X (a ) − ∫ X (t )df (t )
a
Utilizando el lado derecho de la ecuación anterior obtenemos, asumiendo el intercambio
de expectación y del límite, que:
E ∫ f (t )dX (t ) = 0
b
a
Además,
n n
Var ∑ f (t i −1 )[ X (t i ) − X (t i −1 )] = ∑ f 2 (t i −1 )(t i − t i −1 )
t =1 i =1
donde la igualdad se debe a los incrementos independientes del movimiento Browniano.
Tomando los limites de lo anterior tenemos que,
Var ∫ f (t )dX (t ) = ∫ f 2 (t )dt
b b
a
a
PROCESOS GAUSSIANOS
Un proceso estocástico X (t ), t ≥ 0 es llamado Proceso Gaussiano o Normal, si
X (t1 ),..., X (t n ) es una distribución normal multivariable para toda t1 ,..., t n . Si X (t1 ),..., X (t n ) es
11. un Proceso de Movimiento Browniano entonces, X (t1 ), X (t 2 ),..., X (t n ) puede ser expresado
como una combinación linear de variables independientes normales aleatorias
X (t1 ), X (t 2 ) − X (t1 ), X (t3 ) − X (t 2 ),..., X (t n ) − X (t n−1 ) por lo que el Movimiento Browniano es un
Proceso Gaussiano.
Una distribución normal multivariable es determinada completamente por el valor de la
media marginal y el valor de la covarianza siguiendo un movimiento Browniano estándar que
puede ser definido como un Proceso Gaussiano con E [ X (t )] = 0 y s ≤ t donde,
Cov( X ( s ), X (t )) = Cov( X ( s), X ( s) + X (t ) − X ( s)
= Cov ( X ( s ), X ( s) + Cov( X ( s), X (t ) − X ( s)) = Cov ( X ( s ), X ( s )) = s
considerando que Var ( X ( s )) = s .
Sea { X (t ), t ≥ 0} un proceso de movimiento Browniano estándar y consideremos los
valores del proceso entre 0 y 1 condicional en X (1) = 0 . Observemos un proceso estocástico
condicional { X (t ),0 ≤ t ≤ 1 X (1) = 0} . Como la distribución condicional es multivariable normal
se sigue que este proceso condicional, conocido como un puente Browniano, es a su vez un
proceso Gaussiano. Podemos calcular la función de varianza de la siguiente manera:
E [ X ( s) X (1) = 0] = 0 para s < 1 obteniendo para s < t < 1
Cov[( X ( s ), X (t )) X (1) = 0] = E[ X ( s ) X (t ) X (1) = 0] = s(1 − t )
Un puente Browniano puede ser definido como un proceso Gaussiano con valor de media
0 y función de covarianza s (1 − t ), s ≤ t . Si { X (t ), t ≥ 0} es un Movimiento Browniano, entonces
el proceso {Z (t ), t ≥ 0} definido por
t
Z (t ) = ∫ X ( s)ds
0
es llamado Movimiento Browniano Integrado.
PROCESOS ESTACIONARIOS Y PROCESOS ESTACIONARIOS DÉBILES
(“Stationary and Weakly Stationary Processes”)
12. Un proceso estocástico { X (t ), t ≥ 0} es un proceso estacionario si para toda n, s, t ,..., t n
el vector aleatorio X (t1 ),..., X (t n ) y X (t1 + s ),..., X (t n + s) tiene la misma distribución
conjunta. En otras palabras, un proceso es estacionario si en la búsqueda de cualquier punto s
como el origen, el proceso tiene las mismas leyes de probabilidad. Dos ejemplos de procesos
estacionarios son:
(i) Una cadena de Markov ergódica de tiempo continuo { X (t ), t ≥ 0} cuando
P{ X (0) = j} = Pj , j ≥ 0 donde {Pj , p ≥ 0} son los límites de probabilidad.
(ii) { X (t ), t ≥ 0} cuando X (t ) = N (t + L) − N (t ), t ≥ 0 donde L > 0 es una
constante fija y N (t ), t ≥ 0} es un proceso de Poisson con razón λ.
Algunos de los ejemplos en los cuales se ven reflejados los procesos estacionarios son:
(i) “The Random Telegraph Signal Process”
Con una media E[ X (t )] = E[ X 0 (−1) N ( t ) = 0
y una función de covarianza Cov[ X (t ), X (t + s)] = E[ X (t ) X (t + s )] = e −2λs
(ii) Proceso de Ornstein – Uhlenbeck
(iii) Sea { X (t ), t ≥ 0} un proceso de movimiento Browniano estándar y definido para
α >0 , V (t ) = e −αt / 2 X (eαt ) con una media E[V (t )] = 0 y una función de
covarianza Cov[V (t ),V (t + s )] = e −αs / 2 . A {V(t), t > 0} se le conoce como Proceso
de Ornstein – Uhlenbeck.
La condición para que un proceso sea estacionario es bastante estricta y se define el
proceso { X (t ), t ≥ 0} como un proceso estacionario de segundo orden o un proceso estacionario
débil si E[ X (t )] = c y Cov[ X (t ), X (t + s)] , lo cual no depende del tiempo t. Un proceso
estacionario es de segundo orden si los primeros dos momentos de X(t) son el mismo para toda t
y la covarianza entre X(s) y X(t) dependen solamente de t − s . Para dicho proceso tenemos,
R ( s) = Cov[ X (t ), X (t + s)] . La distribución finita dimensional de un proceso Gaussiano es
determinada por su media y varianza si está dado que el proceso Gaussiano estacionario de
segundo orden es estacionario.
13. Por otro lado, se encuentran los procesos estacionarios de segundo orden no
estacionarios. Un ejemplo de estos es el Proceso Auto-regresivo. Sea Z 0 , Z1 ,..., una variable
aleatoria incorrelativa con E[ Z n ] = 0, n ≥ 0 y
σ 2 /(1 − λ2 ) n = 0
Var ( Z n ) =
σ 2 n ≥1
donde λ2 < 1 . Se define
X 0 = Z0 ,
X n = λX n−1 + Z n , n ≥ 1
El proceso { X n , n ≥ 0} es llamado un proceso auto-regresivo de primer orden. Este indica que
el estado en el tiempo n (esto es Xn) es un múltiplo constante del estado de tiempo n - 1 más
un error aleatorio llamado Zn .
ANÁLISIS ARMÓNICO DE PROCESOS ESTACIONARIOS DÉBILES
(“Harmonic Analysis of Weakly Stationary Processes”)
Sean { X (t ),−∞ < t < ∞} y {Y (t ),−∞ < t < ∞} procesos estocásticos tales que
∞
Y (t ) = ∫ X (t − s )h( s) ds .
−∞
Al { X (t )} se le conoce como el proceso de entrada y a {Y (t )} como el proceso de salida. La
función h se llama la función de respuesta a impulsos. Esta ecuación es un tipo de filtro lineal
invariante, donde la palabra filtro se debe a que podemos pensar que el proceso de entrada {X(t)}
está pasando a través de algún medio y luego es filtrado para así resultar en el proceso de salida
{Y(t)}. Es un filtro lineal ya que si los procesos de entrada { X 1 (t )} , { X 2 (t )} resultan en los
procesos de salida {Y1 (t )} , {Y2 (t )} entonces el proceso de entrada { aX 1 (t ) + bX 2 (t )} resulta en el
proceso de salida { aY1 (t ) + bY2 (t )} . Por último, es de tiempo invariante pues el proceso
14. { X (t + τ )} , donde τ es una constante, resulta en el proceso {Y (t + τ )} , i.e. si atrasamos (o
adelantamos) el proceso de entrada un tiempo τ, entonces el proceso de salida se atrasa (o
adelanta) un tiempo τ.
Supongamos que { X (t ),−∞ < t < ∞} es un proceso estacionario débil donde E[ X (t )] = 0
y con una función de covarianza R X ( s ) = Cov [ X (t ), X (t + s )] . Queremos ahora determinar el
valor esperado y la covarianza correspondientes al proceso de salida {Y (t ),−∞ < t < ∞} . Ahora,
∞
como ∫−∞
h( s ) ds < ∞ y como se puede demostrar que existe alguna M < ∞ lo suficientemente
grande tal que E X (t ) < M , entonces
E[Y (t )] = E ∫ X (t − s )h( s )ds = ∫ E [ X (t − s)]h( s )ds = 0 .
∞ ∞
−∞
−∞
De manera análoga, se sigue que
RY (t 2 − t1 ) = Cov [Y (t1 ), Y (t 2 )] = ∫∫ R X (t 2 − s 2 − t1 + s1 )h( s1 )h( s 2 ) ds1 ds 2 (*)
Nótese que esto significa que Cov [Y (t1 ), Y (t 2 )] depende de t1 y t2 solo a través de t2 – t1. Por lo
tanto {Y (t )} es un proceso estacionario débil.
Ahora, esta última ecuación para RY (t 2 − t1 ) es mejor expresarla en términos de
transformadas de Fourier para RX y RY. Sean
~
R X ( w) = ∫ e −iws R X ( s) ds ,
~
R Y ( w) = ∫ e −iws RY ( s )ds
y
~
h( w) = ∫ e −iws h( s )ds
~
las transformadas de Fourier de RX, RY y h respectivamente. La función R X ( w) se conoce
como la densidad espectral de poder del proceso { X (t )} . De (*) se obtiene que
~ ~ ~ ~
R Y ( w) = R X ( w) h( w) h(− w) .
Ahora mediante la fórmula e ix = cos x + i sin x y e −ix = cos x − i sin x se tiene que
15. [ ∫ h(s) cos(ws) ds ] + [ ∫ h(s) sin(ws) ds ]
~ ~ ~ 2
2 2 2
∫ h ( s )e
−iws
h( w) h(− w) = = ds = h( w) .
Por lo tanto
~ ~ ~ 2
R Y ( w) = R X ( w) h( w) .
BIBLIOGRAFÍA
Ross, Sheldon M. (2000). Introduction to Probability Models. Seventh Edition. Academic Press.
Págs. 549 - 584.