Este documento presenta una revisión del estado del arte en el análisis de series de tiempo. Comienza con una introducción y objetivos, luego presenta conceptos fundamentales como series de tiempo, tendencias, modelos estacionarios y no estacionarios. Explica métodos para especificar, estimar parámetros y construir modelos autorregresivos, de medias móviles e integrados para series de tiempo. El documento concluye revisando métodos de especificación, estimación e identificación de modelos para series de tiempo.
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Análisis de series de tiempo usando R
1. REVISIÓN DEL ESTADO DEL ARTE EN EL ANÁLISIS DE
SERIES DE TIEMPO
Por:
Hernán Camilo Yate Támara
camilo_yate@yahoo.fr
Director:
Mat. Leonardo Jiménez Moscovitz
Investigador Grupo de Investigación PROMENTE
KONRAD LORENZ-FUNDACIÓN UNIVERSITARIA
FACULTAD DE MATEMÁTICAS E INGENIERÍAS
PROGRAMA DE MATEMÁTICAS
JUNIO DE 2011
2. Nota:
Este trabajo nace de la confluencia entre el interés del estudiante Hernán Camilo Yate
Támara y los intereses académicos del grupo de investigación PROMENTE, alrededor del
análisis de series de tiempo utilizando el software libre R, y consta de dos partes: la primera
desarrollada como parte del trabajo del Grado y la otra desarrollada dentro de la práctica
investigativa, la cual se anexa al final de este documento.
3. e mi m—dre
v— que nun™— me nieg— sus m—nos t—n ti˜i—s
v— que se™— mis lágrim—s y entreg— ™—ri™i—s
v— que —mp—r— tristez—s y reg—l— sonris—s
v— que ™on dul™es p—l—˜r—s —lient— mis dí—s
v— que me dio l— vid— y me h— enseñ—do — vivirl—
5. Índice general
Introducción ix
Objetivos xi
Alcance y Limitaciones xiii
1. Preliminares 1
IFIF isp—™io de €ro˜—˜ilid—d F F F F F F F F F F F F F F F F F F F F F F F I
IFIFIF isp—™io wuestr—l de iventos F F F F F F F F F F F F F F F F I
IFIFPF Álge˜r— de iventos F F F F F F F F F F F F F F F F F F F F F F P
IFIFQF pun™ión de €ro˜—˜ilid—d F F F F F F F F F F F F F F F F F F F P
IFPF †—ri—˜les ele—tori—s F F F F F F F F F F F F F F F F F F F F F F F F F Q
IFPFIF †—lor isper—do de un— †—ri—˜le ele—tori— F F F F F F F F F Q
IFPFPF †—ri—nz— de un— †—ri—˜le ele—tori— F F F F F F F F F F F F F Q
IFQF †e™tores ele—torios F F F F F F F F F F F F F F F F F F F F F F F F F F R
IFQFIF †—lor esper—do de un †e™tor ele—torio F F F F F F F F F F F S
IFQFPF †—ri—nz— de un †e™tor ele—torio F F F F F F F F F F F F F F S
IFQFQF pun™ión qener—dor— de womentos gonjunt— F F F F F F F F T
IFQFRF gov—ri—nz— y goe(™iente de gorrel—™ión F F F F F F F F F F T
IFQFSF isper—nz— gondi™ion—l F F F F F F F F F F F F F F F F F F F F U
IFQFTF †—ri—˜les ele—tori—s sndependientes F F F F F F F F F F F F V
IFRF histri˜u™ión xorm—l F F F F F F F F F F F F F F F F F F F F F F F F F V
2. Conceptos Fundamentales 9
PFIF ente™edentes ristóri™os F F F F F F F F F F F F F F F F F F F F F F F W
PFIFIF y˜serv—™iónD medi™ión y gener—liz—™ión F F F F F F F F F F W
PFIFPF porm—liz—™ión F F F F F F F F F F F F F F F F F F F F F F F F F IH
PFPF ƒeries de „iempo y €ro™esos isto™ásti™os F F F F F F F F F F F F F IH
PFQF wedi—sD †—ri—nz—s y gov—ri—nz—s F F F F F F F F F F F F F F F F F F II
PFQFIF v— 4g—min—t— ele—tori—4 @‚—ndom ‡—lkA F F F F F F F F F IP
PFQFPF €romedios wóviles F F F F F F F F F F F F F F F F F F F F F F IQ
PFRF ist—™ion—ried—d F F F F F F F F F F F F F F F F F F F F F F F F F F F F IR
PFRFIF ‚uido fl—n™o @‡hite xoiseA F F F F F F F F F F F F F F F F IS
v
6. vi ÍNDICE GENERAL
3. Tendencias 17
QFIF „enden™i—s heterminísti™—s ™ontr— „enden™i—s isto™ásti™—s F F F IU
QFPF istim—™ión de l— wedi— gonst—nte F F F F F F F F F F F F F F F F F IU
QFQF wétodos de ‚egresión F F F F F F F F F F F F F F F F F F F F F F F F IW
QFQFIF „enden™i—s vine—les y gu—dráti™—s F F F F F F F F F F F F F IW
QFQFPF „enden™i—s ™í™li™—sF F F F F F F F F F F F F F F F F F F F F F F PH
QFQFQF „enden™i—s del goseno F F F F F F F F F F F F F F F F F F F F PH
QFRF gon(—˜ilid—d y i(™ien™i— de l—s istim—™iones de l— ‚egresión F F PI
QFSF enálisis de ‚esidu—les F F F F F F F F F F F F F F F F F F F F F F F F PQ
QFSFIF pun™ión de euto™orrel—™ión wuestr—l F F F F F F F F F F F F PQ
4. Modelos para Series de Tiempo Estacionarias 25
RFIF €ro™esos qener—les vine—les F F F F F F F F F F F F F F F F F F F F F PS
RFPF €ro™esos de €romedios wóviles F F F F F F F F F F F F F F F F F F F PU
RFPFIF €ro™esos de €romedios wóviles de €rimer yrden F F F F F PU
RFPFPF €ro™esos de €romedios wóviles de ƒegundo yrden F F F F PV
RFPFQF €ro™esos de €romedios wóviles de yrden q F F F F F F F F PW
RFQF €ro™esos eutorregresivos F F F F F F F F F F F F F F F F F F F F F F F PW
RFQFIF €ro™esos eutorregresivos de €rimer yrden F F F F F F F F PW
RFQFIFIF †ersión qener—l vine—l de un wodelo AR (1) F F QH
RFQFIFPF ist—™ion—ried—d de un €ro™eso AR (1) F F F F F F QI
RFQFPF €ro™esos eutorregresivos de ƒegundo yrden F F F F F F F F QI
RFQFPFIF ist—™ion—ried—d de un €ro™eso AR (2) F F F F F F QI
RFQFPFPF v— pun™ión de euto™orrel—™ión del €ro™eso AR (2) QQ
RFQFQF †—ri—nz— del wodelo AR (2) F F F F F F F F F F F F F F F F F QQ
RFQFRF €ro™eso eutorregresivo qener—l F F F F F F F F F F F F F F F QR
RFRF wodelos wixtos eutorregresivos de €romedios wóviles F F F F F F QS
RFRFIF il modelo ARMA (1, 1) F F F F F F F F F F F F F F F F F F F QS
RFRFPF v— pun™ión de euto™orrel—™ión p—r— un €ro™eso ARMA (p, q)
gryer —nd gh—n ‘PHHV“ F F F F F F F F F F F F F F F F F F F F QT
RFRFQF snverti˜ilid—d F F F F F F F F F F F F F F F F F F F F F F F F F QU
5. Modelos para Series de Tiempo No Estacionarias 39
SFIF ist—™ion—ried—d — tr—vés de los yper—dores hiferen™i— F F F F F F QW
SFPF wodelos sntegr—dos eutorregresivos de €romedios wóviles F F F F RP
SFPFIF il wodelo IMA (1, 1) F F F F F F F F F F F F F F F F F F F F RQ
SFPFPF il wodelo IMA (2, 2) F F F F F F F F F F F F F F F F F F F F RR
SFPFQF il wodelo ARI (1, 1) F F F F F F F F F F F F F F F F F F F F F RR
SFPFRF „érminos gonst—ntes en modelos ARIMA F F F F F F F F F RS
SFPFSF ytr—s „r—nsform—™iones F F F F F F F F F F F F F F F F F F F RT
SFPFSFIF g—m˜ios de €or™ent—jes y vog—ritmos F F F F F F RU
SFPFSFPF „r—nsform—™iones de €oten™i— F F F F F F F F F F RU
7. ÍNDICE GENERAL vii
6. Construcción del Modelo 49
TFIF ispe™i(™—™ión del wodelo F F F F F F F F F F F F F F F F F F F F F F RW
TFIFIF €ropied—des de l— pun™ión de euto™orrel—™ión wuestr—l F SH
TFIFPF v— pun™ión de euto™orrel—™ión €—r™i—l y l— pun™ión de
euto™orrel—™ión ixtendid— F F F F F F F F F F F F F F F F F SP
TFIFPFIF v— pun™ión de euto™orrel—™ión €—r™i—l wuestr—l SR
TFIFPFPF wodelos wixtos y l— pun™ión de euto™orrel—™ión
ixtendid— F F F F F F F F F F F F F F F F F F F F F SS
TFIFQF ispe™i(™—™ión p—r— wodelos xo ist—™ion—rios F F F F F F F ST
TFIFQFIF il pro˜lem—s de l— ƒo˜rediferen™i—™ión F F F F F SU
TFIFQFPF v— prue˜— de l— r—íz unit—ri— de hi™key puller F SU
TFIFRF ytros wétodos de ispe™i(™—™ión F F F F F F F F F F F F F F SV
TFIFRFIF griterio de l— snform—™ión de ek—ike F F F F F F SV
TFIFRFPF griterio de l— snform—™ión f—yesi—no F F F F F F SV
TFPF istim—™ión de €—rámetros F F F F F F F F F F F F F F F F F F F F F F SW
TFPFIF il wétodo de los womentos F F F F F F F F F F F F F F F F F SW
TFPFIFIF wodelos eutorregresivos F F F F F F F F F F F F F SW
TFPFIFPF wodelos de €romedios wóviles F F F F F F F F F F TH
TFPFIFQF wodelos wixtos F F F F F F F F F F F F F F F F F F TI
TFPFIFRF istim—™ión de l— †—ri—nz— del ‚uido F F F F F F F TI
TFPFPF istim—™ión por wínimos gu—dr—dos F F F F F F F F F F F F TP
TFPFPFIF wodelos eutorregresivos F F F F F F F F F F F F F TP
TFPFPFPF wodelos de €romedios wóviles F F F F F F F F F F TR
TFPFPFQF wodelos wixtos F F F F F F F F F F F F F F F F F F TS
TFPFQF istim—™iones de wáxim— †erosimilitud y wínimos gu—E
dr—dos sn™ondi™ion—les F F F F F F F F F F F F F F F F F F F F TT
TFPFQFIF istim—™ión de wáxim— †erosimilitud F F F F F F TT
TFPFQFPF wínimos gu—dr—dos sn™ondi™ion—les F F F F F F F TV
TFPFRF €ropied—des de l—s istim—™iones F F F F F F F F F F F F F F TV
TFQF hi—gnósti™o del wodelo F F F F F F F F F F F F F F F F F F F F F F F TW
TFQFIF enálisis de residu—les F F F F F F F F F F F F F F F F F F F F F TW
TFQFIFIF euto™orrel—™ión de los ‚esidu—les F F F F F F F F UH
TFQFPF ƒo˜re—juste y ‚edund—n™i— de €—rámetros F F F F F F F F F UI
7. Pronósticos 73
UFHFQF €ronósti™o por el wétodo de irror gu—dráti™o wedio F F UQ
UFHFRF „enden™i—s heterminísti™—s F F F F F F F F F F F F F F F F F UT
UFHFSF €ronósti™os de modelos ARIMA F F F F F F F F F F F F F F UT
UFHFSFIF AR (1) F F F F F F F F F F F F F F F F F F F F F F F UU
UFHFSFPF MA (1) F F F F F F F F F F F F F F F F F F F F F F F UW
UFHFSFQF ARMA (p, q) F F F F F F F F F F F F F F F F F F F F VH
UFHFTF wodelos no ist—™ion—rios F F F F F F F F F F F F F F F F F F VP
UFHFUF vímites de l— €redi™™ión F F F F F F F F F F F F F F F F F F F VQ
UFHFUFIF „enden™i—s heterminísti™—s F F F F F F F F F F F F VR
UFHFUFPF wodelos ARIMA F F F F F F F F F F F F F F F F F VR
UFHFVF e™tu—liz—™ión de los €ronósti™os ARIMA F F F F F F F F F VS
8. viii ÍNDICE GENERAL
UFHFWF €esos de €ronósti™os y €romedios wóviles ixponen™i—lE
mente €onder—dosF F F F F F F F F F F F F F F F F F F F F F F VS
UFHFIHF €ronósti™os de ƒeries de „iempo „r—nsform—d—s F F F F F VU
UFHFIHFIF yper—dor hiferen™i— F F F F F F F F F F F F F F F F VU
UFHFIHFPF „r—nsform—™iones vog—rítmi™—s F F F F F F F F F F VU
8. Modelos de Estado y Espacio y el Filtro Kalman 89
VFIF iv—lu—™ión de l— pun™ión de †erosimilitud y el piltro u—lm—n F F WH
VFPF ist—do sni™i—l de l— w—triz de gov—ri—nz—s F F F F F F F F F F F F F WP
Conclusiones 95
Bibliografía 97
9. Introducción
vos d—tos o˜tenidos de o˜serv—™iones se™uen™i—les — tr—vés del tiempo son
muy ™omunes en diferentes dis™iplin—sF €or ejemploD en (n—nz—sD se o˜serv—n
™—m˜ios de los pre™ios de un— —™™ión en un dí—D índi™es de pre™ios en un mesD
in)—™iones —nu—lesD et™F in meteorologí—D se o˜serv—n )u™tu—™iones de temper—E
tur— di—ri—D pre™ipit—™iones —nu—lesD est—dos de los suelosD entre otrosF v— list—
de dis™iplin—s en l—s que se estudi—n series de tiempoD prá™ti™—mente no tiene (nD
por lo que el —nálisis de l—s series ™ronológi™—s h— tom—do gr—n import—n™i—F he
he™ho l— teorí— m—temáti™— en l— que se ˜—s— el —nálisis de series de tiempo h—
sidoD quizáD un— de l—s áre—s ™on m—yor —™tivid—dD en los últimos —ñosD ™onvirE
tiéndose —sí en un— herr—mient— de mu™ho peso — l— hor— de resolver pro˜lem—s
sin import—r en l— dis™iplin— que se esté us—ndoF
ƒin em˜—rgoD l— —pli™—™ión de los métodos inherentes — los pro˜lem—s de
series de tiempo requiere un tr—sfondo est—dísti™o fuerteF in el presente texto
se des™ri˜irá l— teorí— ˜ási™— p—r— el —nálisis de series de tiempoD —˜—r™—ndoD
desde los ™on™eptos fund—ment—les de pro˜—˜ilid—d h—st— lleg—r — los modelos
de m—yor estudio @e‚D weD e‚weD e‚sweAD ™on el (n de poder pronosti™—r
est—dísti™—mente los v—lores de l— serie de tiempo de estudioF
v— revisión de l— teorí— propi— de l—s series ™ronológi™—s es de gr—n import—nE
™i— p—r— los le™tores de este textoD y— que tendrán l— oportunid—d de poseer un
texto teóri™o re™opil—do de l—s más import—ntes fuentes ˜i˜liográ(™—sD teniendo
en ™uent— l— fund—ment—™ión m—temáti™— de ™iertos —lgoritmos y métodosF is
de™irD un texto que re™opil— los ™on™eptos y métodos de m—yor fre™uen™i— de uso
en el —nálisis de series tempor—lesD teniendo en ™uent— l— rigurosid—d m—temáti™—
requerid—F
ix
11. Objetivos
Objetivo General
il o˜jetivo gener—l del presente do™umento es present—r l— teorí— referente —l
estudio de l—s series ™ronológi™—sD y est—˜le™er un do™umento teóri™o ˜—se p—r—
futur—s investig—™ionesF
Objetivos Especícos
IF ‚e™opil—r y present—r l— teorí— de vi—rios textos re™ono™idos en el áre— del
—nálisis de series de tiempoF
PF ‚eseñ—r un— de l—s más import—ntes —pli™—™iones de l— m—temáti™— — proE
˜lem—s que se present—n en diferentes ™—mpos del ™ono™imientoF
QF gonstruir un texto el ™u—l h—g— l—s ve™es de texto introdu™torio —l —nálisis
de series de tiempoF
xi
13. Alcance y Limitaciones
il tr—˜—jo pretende present—r l—s f—mili—s de modelos de m—yor utiliz—™iónD
™omo lo son los modelos —utorregresivos @ARAD modelos de promedios móviles
@MAAD modelos —utorregresivos mixtos de promedios móviles @ARMA A y los
modelos —utorregresivos integr—dos de promedios móviles @ARIMAAD —demás de
los modelos de est—do y esp—™io y el (ltro u—lm—nF „odos los tem—s men™ion—dos
—nteriormente se ™onstituyen ™omo l— ˜—se teóri™— p—r— ™u—lquier des—rrollo de
tr—˜—jos de series de tiempoF
eunque un— de l—s pretensiones más import—ntes del tr—˜—jo es des™ri˜ir un
número signi(™—tivo de métodos y modelosD solo se tendrán en ™uent— el ™—so
univ—ri—doD p—r—métri™o es de™ir se ex™luirán por ejemplo l— f—mili— de modelos
eutorregresivos de …m˜r—l @„e‚AD l— f—mili— de modelos †e™tori—les eutorreE
gresivos @†e‚AD entre otros y —lgunos métodos de estim—™iones de tenden™i—s
™omo l— regresión us—ndo ƒplinesD el piltro de ƒmirnov entre otrosF
xiii
15. Capítulo 1
Preliminares
1.1. Espacio de Probabilidad
v— pro˜—˜ilid—d es un m—r™o ™on™eptu—l que permite —n—liz—r l— o™urren™i—
de su™esos —le—toriosD es de™irD f—™ilit— el estudio de su™esos en los ™u—les no es
posi˜le prede™ir ™on ex—™titud el result—do de un experimentoF v— ™onstru™™ión
del m—r™o ™on™eptu—l de l— pro˜—˜ilid—d se ini™i— ™on el de esp—™io de pro˜—˜iE
lid—d (Ω; A; p) —so™i—do — un experimento EF gon este o˜jetivoD se des—rroll—n
los siguientes tem—sX
ixperimentoF
isp—™io wuestr—lF
Álge˜r— de iventosF
pun™ión de €ro˜—˜ilid—dF
1.1.1. Espacio Muestral de Eventos
Denición 1 Un experimento E es la realización de una tarea bien denida y
de la cual se ha establecido la codicación o forma de tabulación de los posibles
resultados. El experimento se dice aleatorio cuando el resultado no es predecible
con exactitud.
Denición 2 Al conjunto de todos los posibles resultados obtenidos al realizar
un experimento se denomina espacio muestral de eventos y se denota por Ω. Los
elementos a ∈ Ω se denominan puntos muestrales.Rincón [2011]
Denición 3 Un espacio muestral Ω se denomina discreto si es nito o enu-
merable, en tal caso E se dice experimento discreto. Rincón [2011]
I
16. P CAPÍTULO 1. PRELIMINARES
1.1.2. Álgebra de Eventos
in un experimento ED ™—d— punto muestr—l en el esp—™io muestr—l Ω se
denomin— evento simple y —l evento result—nte de l— uniónD interse™™ión u otr—
oper—™ión de ™onjuntos de(nid— en el ™onjunto de eventos simples se denomin—
evento ™ompuestoF
Denición 4 Para E un experimento discreto y Ω su espacio muestral de even-
tos se dene un álgebra de eventos a cualquier colección de conjuntos A que
satisfaga las siguientes propiedades Rincón [2011]:
Ω ∈ A.
Si A ∈ A entonces Ac
∈ A
Si A ∈ A y B ∈ A entonces A∪ B ∈ A.
1.1.3. Función de Probabilidad
Denición 5 Sea E un experimento discreto, Ω su espacio muestral de posibles
resultados y A un álgebra de eventos denida para Ω, una función p : A → [0; 1]
es una función de probabilidad si satisface los siguientes axiomasCanavos [1998]:
p(B) ≥ 0, Para todo B ∈ A
P(Ω) = 1
Si A1, A2, . . . , An es una colección de conjuntos mutuamente disyuntos y
k
i=1
Ai ∈ A entonces
p
k
i=1
Ai =
k
i=1
p(Ai) Para todo k ≤ n
Denición 6 Un espacio de probabilidad para un experimento E está confor-
mado por la tripleta (Ω; A; p) Rincón [2011]
snteres— ™onstruir el esp—™io de pro˜—˜ilid—d p—r— un experimento E ™on el
álge˜r— de eventos A = ℘(Ω) y un— fun™ión de pro˜—˜ilid—d p de(nid— so˜re
sus eventos simplesF v— fun™ión de pro˜—˜ilid—d p se de(ne so˜re los eventos
simples y p—r— ello existen v—ri—s posi˜ilid—des que gener—n diferentes esp—™ios
de pro˜—˜ilid—dF v— más fre™uente es ™ono™id— ™omo pro˜—˜ilid—d ™lási™—D en ell—
los eventos simples son equipro˜—˜lesD l— pro˜—˜ilid—d de ™—d— evento simple está
d—d— por
1
η(Ω)
,donde η(Ω) es el ™—rdin—l del esp—™io muestr—lD y en este ™—so el
esp—™io de pro˜—˜ilid—d se denomin— esp—™io de pro˜—˜ilid—d l—pl—™i—noF
17. 1.2. VARIABLES ALEATORIAS Q
1.2. Variables Aleatorias
e ™ontinu—™ión se mostr—rán elementos del modelo de distri˜u™ión de proE
˜—˜ilid—d p—r— un— v—ri—˜le —le—tori—D que ˜ien puede se dis™ret— o ™ontinu—D X
de(nid— en (Ω; A; p)
Denición 7 En un espacio de probabilidad (Ω; A; p) una función X : A −→ R
es una variable aleatoria si para cualquier valor de r ∈ R el conjunto
Ar = {W × W ≤ r} pertenece a A. X se dice discreta si su rango RX es con-
table y continua en caso contrario. Rincón [2011]
v— de(ni™ión de un— v—ri—˜le —le—tori— X en un esp—™io de pro˜—˜ilid—d
(Ω; A; p)D permite ™—r—™teriz—r todos los eventos del experimentoD en expresiones
m—temáti™—s en fun™ión de los v—lores de X
1.2.1. Valor Esperado de una Variable Aleatoria
e ™ontinu—™ión se present—rán l—s de(ni™iones de v—lor esper—do o esper—nz—
m—temáti™— p—r— un— v—ri—˜le —le—tori—D t—nto dis™ret— ™omo ™ontinu—F
Denición 8 Para una variable aleatoria discreta X, el valor esperado E (X),
se dene comoWalpole et al. [1998]
E (X) = µx =
x∈Rx
xp(X)
in gener—lD el v—lor esper—do X de un— v—ri—˜le —le—tori— dis™ret— X es
el promedio de X ponder—do ™on los v—lores de p(x)D se interpret— igu—l que el
promedio ponder—do —ritméti™o y es el v—lor referente p—r— ™—l™ul—r l— dispersión
de los d—tos y p—r— ™—r—™teriz—r l— —simetrí— de l— distri˜u™ión de pro˜—˜ilid—dF
Denición 9 Para una variable aleatoria continua X, el valor esperado E (X),
se dene como Walpole et al. [1998]
E (X) = µx =
∞ˆ
−∞
xf (x) dx
honde l— fun™ión f (x) es ™ono™id— ™omo l— fun™ión de densid—d de pro˜—˜iE
lid—dF
1.2.2. Varianza de una Variable Aleatoria
he l— mism— m—ner— que ™on el v—lor esper—doD se present—rán l—s de(ni™iones
de v—ri—nz— y desvi—™ión estánd—r p—r— v—ri—˜les —le—tori—s dis™ret—s y ™ontinu—s
Denición 10 La varianza σ2
X, para X variable aleatoria discreta se dene
como Walpole et al. [1998]
V (X) = σ2
X =
x∈Rx
(x − µx)
2
p (x)
18. R CAPÍTULO 1. PRELIMINARES
Denición 11 La varianza σ2
X, para X variable aleatoria continua se dene
como Walpole et al. [1998]
V (X) = σ2
X =
∞ˆ
−∞
(x − µx)
2
f (x) dx
Denición 12 La desviación estándar σX, para X una variable aleatoria, bien
sea, discreta o continua se dene como la raíz cuadrada positiva de la varianza
σ2
X. Walpole et al. [1998]
1.3. Vectores Aleatorios
…n ve™tor —le—torio se origin— ™u—ndo en el mismo esp—™io de pro˜—˜ilid—d
(Ω; A; p) se de(nen X1, X2, ..., Xn v—ri—˜les —le—tori—sD e interes— o˜serv—r y
—n—liz—r su ™omport—miento pro˜—˜ilísti™o ™onjuntoF
Denición 13 Sean X1, X2, ..., Xn variables aleatorias discretas denidas en
(Ω; A; p), al vector X = {X1, X2, ..., Xn} se denomina vector aleatorio de di-
mensión n. El rango o conjunto de valores del vector X está contenido en el
conjunto Rincón [2011]
R = RX1
× RX2
× · · · × RX1
™on RXi
el r—ngo de Xi p—r— i = 1, 2, ..., n.
ƒe di™e que el ve™tor —le—torio es dis™reto si ™—d— Xi es un— v—ri—˜le —le—tori—
dis™ret— y se di™e ve™tor —le—torio ™ontinuo si ™—d— Xi es n— v—ri—˜le —le—tori—
™ontinu—F
Denición 14 Dado un vector aleatorio X = {X1, X2, ..., Xn} con p(x1, x2, ...xn)
la función de probabilidad conjunta, para cada variable Xi existe la función de
probabilidad marginal p (x) denida comoRincón [2011]
p (x) =
x1∈Rx1 x2∈Rx2
· · ·
x2∈Rx2
p(x1, x2, ...xn) Si Xes discreto
∞ˆ
−∞
∞ˆ
−∞
· · ·
∞ˆ
−∞
p(x1, x2, ...xn)dΩ Si Xes continuo
honde
dΩ = dx1dx2 · · · dxi−1dxi+1 · · · dxn
Denición 15 Sea X = {X1, X2, ..., Xn} un vector aleatorio denido en (Ω; A; p)
y p(x1, x2, ...xn) la función de probabilidad conjunta. La función de probabilidad
acumulada de X está dada por Rincón [2011]
19. 1.3. VECTORES ALEATORIOS S
F (x) =
A
p(k1, k2, ...kn) Si Xes discreto
ˆ
A
p(k1, k2, ...kn)dΩ Si Xes continuo
donde
A = {x1, x2, ...xn : x1 ≤ k1;x2 ≤ k2; ...; xn ≤ kn}
y
dΩ = dx1dx · · · dxn
1.3.1. Valor esperado de un Vector Aleatorio
„eniendo de(nid—s l—s fun™iones de pro˜—˜ilid—d ™onjunt— es posi˜le de(nir
el v—lor esper—do de un— ve™tor —le—torio dis™reto o ™ontinuoD según se— el ™—soF
Denición 16 Sea X = {X1, X2, ..., Xn} un vector aleatorio denido en (Ω; A; p)
y p(x1, x2, ...xn) la función de probabilidad conjunta. El vector de medias de X
es el vector de los valores esperados de las variables Xi, i = 1, 2, ..., n y está
dado por Canavos [1998]
E (X) = µX = (µX1
, µX2
, ...µXn)
donde
µXi =
x1∈Rx1
xpXi (x) i = 1, 2, ...n Si Xes discreto
∞ˆ
−∞
xpXi
(x) dx i = 1, 2, ...n Si Xes continuo
1.3.2. Varianza de un Vector Aleatorio
Denición 17 Sea X = {X1, X2, ..., Xn} un vector aleatorio denido en (Ω; A; p)
y p(x1, x2, ...xn) la función de probabilidad conjunta. El vector de varianzas de
X es el vector de varianzas de las variables Xi i = 1, 2, ...n y está dado por
Canavos [1998]
V (X) = σ2
X = σ2
X1
, σ2
X2
, ...σ2
Xn
donde
Denición 18
σ2
Xi =
x1∈Rx1
(x − µXi
)
2
pXi
(x) i = 1, 2, ...n Si Xes discreto
∞ˆ
−∞
(x − µXi
)
2
pXi
(x) dx i = 1, 2, ...n Si Xes continuo
20. T CAPÍTULO 1. PRELIMINARES
1.3.3. Función Generadora de Momentos Conjunta
Denición 19 Sea X = {X1, X2, . . . , Xn} un vector aleatorio denido en (Ω; A; p)
con probabilidad conjunta p (x1, x2, ..., xn) . La función generadora de momentos
conjunta de X está dada por Rincón [2011]
Mx (t) = E etX
€—r— t ∈ R
v— fun™ión gener—dor— de momentos re™i˜e su nom˜re gr—™i—s — que sus
deriv—d— ™—l™ul—d—s en ™ero gener—n los momentos de ve™tor X, es de™ir
Mx (0) = M1 = µx
Mx (0) = M2 = µ2
x
FFF
1.3.4. Covarianza y Coeciente de Correlación
Denición 20 [Covarianza]Sea (X, Y ) un vector aleatorio denido en (Ω; A; p)
y p (x, y) la función de probabilidad conjunta. La covarianza de X y Y está dada
por: Koopman [1964]
Cov (X, Y ) =
x,y
(x − µx) (y − µy) p (x, y) = σ2
XY
Denición 21 Sea X = {X1, X2, ...Xn} un vector aleatorio denido en (Ω; A; p)
y p (x1, x2, ..., xn) la función de probabilidad conjunta. La matriz de varianzas y
covarianzas está dada por Koopman [1964]
XY =
σ2
X1
σ2
X1X2
· · · σ2
X1Xn
σ2
X2X1
σ2
X2
· · · σ2
X2Xn
...
...
...
...
σ2
XnX1
σ2
XnX2
· · · σ2
Xn
Denición 22 [Coeciente de Correlación]Sea (X, Y ) un vector aleatorio de-
nido en (Ω; A; p) y p(x, y) la función de probabilidad conjunta. el coeciente de
correlación de X y Y está dado por: Koopman [1964]
ρXY =
Cov (X, Y )
σXσY
Denición 23 Sea X = {X1, X2, ...Xn} un vector aleatorio denido en (Ω; A; p)
y p (x1, x2, ..., xn) la función de probabilidad conjunta. La matriz de de correla-
ciones de X está dada por Koopman [1964]
RXY =
1 ρX1X2
· · · ρX1Xn
ρX2X1
1 · · · ρX2Xn
FFF
FFF
FFF
FFF
ρXnX1
ρXnX2
· · · 1
21. 1.3. VECTORES ALEATORIOS U
1.3.5. Esperanza Condicional
ƒe—n X y Y ve™tores —le—torios
Denición 24 Si X y Y tienen función de probabilidad conjunta f (x, y) , y
sea f (x) la función de probabilidad marginal de X. La función de probabilidad
condicional de Y dado X = x, es Koopman [1964]
f (y | x) =
f (x, y)
f (x)
€—r— un v—lor d—do de x, l— fun™ión de pro˜—˜ild—d ™ondi™ion—l tiene tod—s l—s
propied—des usu—les de un— fun™ión de densid—d de pro˜—˜ilid—dF in p—rti™ul—rD
Denición 25 La esperanza condicional de Y dado x = x es denida como
Koopman [1964]
E (Y | X = x) =
y∈Ry
yf (y | x) Si Xy Y son discretos
∞ˆ
−∞
yf (y | x) dy Si Xy Y son continuos
gomo un v—lor esper—doD l— esper—nz— ™ondi™ion—l goz— de tod—s l—s propieE
d—des usu—lesF €or ejemplo
E (aY + bZ + c | X = x) = aE (Y | X = x) + bE (Z | X = x) @IFIA
y
E [h (Y ) | X = x] =
x∈Rx
yf (y | x) ƒi Xy Y son dis™retos
∞ˆ
−∞
yf (y | x) dx ƒi Xy Y son ™ontinuos
@IFPA
edemás
E [h (x) | X = x] = h (x) @IFQA
is de™ir queD d—do X = x l— v—ri—˜le —le—tori— h (x) puede ser tr—t—d— ™omo
un— ™onst—nteF in gener—l
E [h (X, Y ) | X = x] = E [h (x, Y ) | X = x] @IFRA
ƒe— E (Y | X = x) = g (x) , enton™es g (x) es un— v—ri—˜le —le—tori— y se
puede ™onsider—r E [g (x)] , donde
E [g (x)] = E (Y )
vo que usu—lmente se es™ri˜e ™omo
E [E (Y | X)] = E (Y ) @IFSA
22. V CAPÍTULO 1. PRELIMINARES
1.3.6. Variables Aleatorias Independientes
ƒe— X = {X1, X2, . . . , Xn} un ve™tor —le—torio de(nido en (Ω; A; p) ™on
pro˜—˜ilid—d ™onjunt— p (x1, x2, ..., xn) Xi se di™en mutu—mente independientes
si ™umple —lgun— de l—s siguientes ™ondi™iones ‚in™ón ‘PHII“
p (Xi | Xj) = pxi ∀i = j
p (x1, x2, ..., xn) =
n
i=1
pxi (xi)
F (x1, x2, ..., xn) =
n
i=1
Fxi (xi)
1.4. Distribución Normal
Denición 26 Una variable continua X con Rx = (−∞, ∞) se tiene distribu-
ción normal con parámetros µ, σ2
, si su función de densidad de probabilidad
está dada por Canavos [1998]
f x, µ, σ2
=
1
√
2πσ
e−
1
2
x−µ
σ
2
v— distri˜u™ión norm—l es quizá l— más import—nte en l— teorí— est—dísti™—
y— que mu™hos des—rrollos teóri™os se ™onstruyen so˜re este supuestoF ƒe denot—
por X ∼ N µ, σ2
y se utiliz— ™u—ndo el polígono de fre™uen™i—s de los v—lores
de X tiene form— —™—mp—n—d—D ™on X = µX ™omo eje de simetrí—F „—m˜ién es
import—nte señ—l—r l—s siguientes ™—r—™terísti™—s de l— distri˜u™ión norm—lF
µx se denomin— p—rámetro de lo™—liz—™ión y l— fun™ión de densid—d es
simétri™— en X = µx es de™ir p (X ≤ µX) = p (X ≥ µX) = 0,5.
σ2
X se denomin— p—rámetro de es™—l— y est—˜le™e l— dispersión de los v—lores
de X ™on respe™to — µx.
Denición 27 Cuando X se distribuye normal con parámetros (0, 1) , se deno-
mina normal estándar, se denota por Z ∼ N (0, 1) y su función de densidad de
probabildad está dada por Canavos [1998]
f (z) =
1
√
2π
e
z2
2
23. Capítulo 2
Conceptos Fundamentales
in este ™—pítulo se des™ri˜irán los ™on™eptos fund—ment—les en l— teorí— refeE
rente — l— series de tiempoF €—rti™ul—rmente se tr—t—rán los ™on™eptos de pro™eso
esto™ásti™oD fun™iones de medi— y ™ov—ri—nz—D pro™esos est—™ion—riosD y l—s funE
™iones de —uto™orrel—™iónD —sí ™omo un— ˜reve des™rip™ión históri™—F
2.1. Antecedentes Históricos
v— histori— de l—s series de tiempo se puede dividir en dos épo™—s @y˜E
serv—™iónD wedi™ión y qener—liz—™ión y porm—liz—™iónA teniendo en ™uent— los
métodos p—r— —˜ord—r los diferentes fenómenos que motiv—ron el estudio del
™omport—miento de ™iertos elementos respe™to —l tiempoF
2.1.1. Observación, medición y generalización
il —nte™edente más —ntiguo de l—s series de tiempo se remont— — IVRT ™u—ndo
el —strónomo reinri™h ƒ™hw—˜eD o˜servó l— —™tivid—d periódi™— de l—s m—n™h—s
sol—res @sunspotsAF ƒeguido de dé™—d—s de investig—™iónD no solo en l— físi™—
sol—r sino en el m—gnetismo terrestreD meteorologí— e in™luso e™onomí—D donde
se ex—min—˜—n l—s series p—r— ™ompro˜—r si su periodi™id—d ™oin™idí— ™on los
diferentes fenómenos —nteriormente men™ion—dosD por ejemploD ƒimon v—pl—™e
y t—™ques ueteletD h—˜í—n —n—liz—do d—tos meteorológi™os y ‡illi—m rers™hel
h—˜í— es™rito un li˜ro —l respe™toF „odos estudios ˜—s—dos en l— o˜serv—™ión
empíri™—F
v—s té™ni™—s en uso v—ri—˜—n desde l—s más simplesD ™omo l— t—˜l— de fuys
f—llotD l— ™u—l permití— ™ono™er l— disposi™ión de los ™entros de —lt— y ˜—j—
presión respe™to de l— dire™™ión en que sopl— el vientoD — form—s más so(sti™—d—s
™omo el —nálisis —rmóni™oD es el ™—so del físi™o erthur ƒ™huster quien introdujo
en IVVW el periodogr—m—D el ™u—l permite ™—l™ul—r l— densid—d espe™tr—l de un—
señ—lF
W
24. IH CAPÍTULO 2. CONCEPTOS FUNDAMENTALES
ƒin em˜—rgoD por ese enton™esD un— form— riv—l del —nálisis de series tempoE
r—lesD ˜—s—d— en l— ™orrel—™ión y promovid— por €e—rsonD ‰uleD rooker y otrosD
fue tom—ndo form—F
2.1.2. Formalización
il —nálisis est—dísti™o de l—s series de tiempo tienen sus ini™ios form—les ™on
el texto es™rito por qeorge …dny ‰ule en IWPU ll—m—do yn — wethod of snE
vestig—ting €eriodi™ities in histur˜ed ƒeriesD with ƒpe™i—l ‚eferen™e to ‡olfer9s
ƒunspot xum˜ersD dondeD ˜—s—do en el ™on™epto de ™orrel—™ión intent— expli™—r
l—s m—n™h—s sol—res ™on otros fenómenos —stronómi™osF
e pes—r de los —v—n™es propuestos por v—rios est—dísti™os in)uyentes de l—s
primer—s dé™—d—s del siglo ˆˆD no fue sino h—st— IWUHD ™on l— pu˜li™—™ión de
4„ime ƒeries en—lysisX pore™—sting —nd gontrol4 por fox y tenkins en IWUHD que
se ™onstituyó un— herr—mient— ˜i˜liográ(™—D que permití— —pli™—r los métodos
de series de tiempo de m—ner— sistemáti™—D y —demás logro uni(™—r el o˜jetivo
de investig—™iónF
is import—nte men™ion—r queD el des—rrollo teóri™o y prá™ti™o del —nálisis de
series de tiempo está estre™h—mente rel—™ion—do ™on el des—rrollo informáti™oD
y— que esteD provee l—s herr—mient—s ne™es—ri—s p—r— los extensos ™ál™ulos que
dem—nd—n los métodos inherentes —l —nálisis de series de tiempoF …no de los m—s
import—ntes ™onsiste en l— p—r—metriz—™ión de los modelos de est—do y esp—™io
y el (ltro u—lm—n des—rroll—dos en su m—yorí— en el (n—l de l— dé™—d— de IWUHF1
2.2. Series de Tiempo y Procesos Estocásticos
v— se™uen™i— de v—ri—˜les —le—tori—s {Yt : t = 0, ±1, ±2, ±3, ...} se ™ono™e ™oE
mo pro™eso esto™ásti™oD y sirve ™omo modelo p—r— un— serie de tiempo o˜serv—d—F
ƒe s—˜e que l— estru™tur— pro˜—˜ilísti™— de di™ho pro™eso es determin—do por el
™onjunto de l—s distri˜u™iones de tod—s l—s ™ole™™iones (nit—s de XiF ƒin em˜—rE
goD l— m—yorí— de inform—™ión de l—s fun™iones de pro˜—˜ilid—d ™onjunt— puede
ser des™rit— en términos de sus medi—sD v—ri—nz—s y ™ov—ri—nz—sF €or lo ™u—l
di™hos p—rámetros @primer y segundo momentoA serán el o˜jetivo prin™ip—l @ƒi
l—s distri˜u™iones de X son distri˜u™iones norm—les multiv—ri—d—sD el primer y
segundo momento determin—n ™omplet—mente tod— l— distri˜u™ión ™onjunt—A
1Cada uno de los métodos mencionados en este apartado serán ampliados, mientras se
desarrollan los conceptos.
25. 2.3. MEDIAS, VARIANZAS Y COVARIANZAS II
2.3. Medias, Varianzas y Covarianzas
Denición 28 (Función de la Media) Para un proceso estocástico
{Yt : t = 0, ±1, ±2, ±3, ...} la función de la media se dene como Fuller [1996]
µt = E (Yt) Para t = 0, ±1, ±2, ... @PFIA
is de™ir que el v—lor de µt, es simplemente el v—lor esper—do del pro™eso en
el tiempo t. in gener—l el v—lor de µt puede diferir p—r— ™—d— tiempo t.
Denición 29 (Función de Autocovarianza)La función γt,sse dene como:
γt,s = Cov (Yt, Ys) Para t, s = 0, ±1, ±2, ... @PFPA
Fuller [1996]
honde Cov (Yt, Yt) está ™ontempl—d— en l— de(ni™ión PHF v— fun™ión ρt,s está
d—d— porX
Denición 30
ρt,s = Corr (Yt, Ys) Para t, s = 0, ±1, ±2, ... @PFQA
Fuller [1996]
honde según l— de(ni™ión PP se puede ™on™luir queX
Corr (Yt, Ys) =
γt,s
√
γt,tγs,s
@PFRA
„eniendo en ™uent— que t—nto l— ™ov—ri—nz— y l— ™orrel—™ión son medid—s de
dependen™i— line—l entre dos v—ri—˜les —le—tori—sD se enun™i—r—n l—s siguientes
propied—des que serán se gr—n utilid—d — lo l—rgo del des—rrollo del tem—F
γt,t = V ar (Yt) ρt,t = 1
γt,s = γs,t ρt,s = ρs,t
|γt,s| =
√
γt,tγs,s |ρt,s| ≤ 1
@PFSA
is import—nte re™ord—r que v—lores de ρt,s ™er™—nos — ±1 indi™—n un— fuerte
dependen™i— line—lD por otr— p—rte v—lores ™er™—nos — 0 indi™—n dependen™i—
line—l dé˜ilD y si ρt,s = 0 se di™e que Yt y Ys no están ™orrel—™ion—d—sF
gon el (n de investig—r l—s propied—des de l— ™ov—ri—nz— de v—rios modelos
de series de tiempoD el siguiente result—do gryer —nd gh—n ‘PHHV“ será us—do
repetid—meteX ƒi c1, c2, , cm y d1, d2, , dn son ™onst—tes y t1, t2, , tm y s1, s2, , sn
son puntos tempor—les enton™es
Cov
m
i=1
ciYti ,
m
j=1
djYsj
=
m
i=1
m
j=1
cidiCov Yti , Ysj @PFTA
gomo ™—so espe™i—l se o˜tiene
V ar
n
i=1
ciYti =
n
i=1
c2
i V ar (Yti ) + 2
n
i=2
i−1
j=1
cicjCov Yti , Ytj @PFUA
26. IP CAPÍTULO 2. CONCEPTOS FUNDAMENTALES
2.3.1. La Caminata Aleatoria (Random Walk)
ƒe—n e1, e2, ... un— se™uen™i— de v—ri—˜les —le—tori—s idénti™—mente distri˜uiE
d—s ™—d— un— ™on medi— ™ero y v—ri—nz— σ2
e . ƒe ™onstruye l— serie de tiempo
{Yt : t = 1, 2, ...} de l— siguiente m—ner—
Y1 = e1 @PFVA
Y2 = e1 + e2
FFF
Y = e1 + e2 + · · · + et
he form— —ltern—tiv— se puede es™ri˜ir
Yt = Yt−1 + et
gon l— ™ondi™ión ini™i—l Y1 = e1. ƒi ei es ™onsider—do ™omo el t—m—ño de
los 4p—sos4 d—dos — lo l—rgo de l— re™t— numéri™— @˜ien se— h—™i— —del—nte o
—trásAF inton™es Yt es l— posi™ión del g—min—nte —le—torio en el tiempo t F he
l— e™u—™ión PFV se puede dedu™ir l— fun™ión de l— medi—X
µt = E (Yt) = E (e1 + e2 + · · · + et) = E (e1) + E (e2) + ...E (et)
= 0 + 0 + · · · + 0
inton™es
µt = 0 €—r— todo t
„—m˜iénD se ™onsider—
V ar (Yt) = V ar (e1 + e2 + · · · + et) = V ar (e1) + V ar (e2) + ...V ar (et)
= σ2
e + σ2
e + · · · + σ2
e
inton™es
V ar (Yt) = tσ2
e @PFWA
€—r— ™—l™ul—r l— fun™ión de ™ov—ri—nz—D se —sume que 1 ≤ t ≤ s inton™es
γt,s = Cov (Yt, Ys) = Cov (e1 + e2 + · · · et, e1 + e2 + · · · + et + et+1 + · · · es)
€or propied—des de l— ™ov—ri—nz— se —(rm— queX
γt,s =
s
i=j
t
j=1
Cov (ei, ej)
ƒin em˜—rgoD est—s ™ov—ri—nz—s son ™ero menos ™u—ndo i = j, y en ese ™—so
V ar (ei) = σ2
e y existen ex—™t—mente t ™—sos de di™h— igu—ld—dD luego γt,s = tσ2
e .
y de˜ido — que γt,s = γs,t es posi˜le es™ri˜ir l— fun™ión de ™ov—ri—nz— de l—
siguiente m—ner—X
γt,s = tσ2
e €—r— 1 ≤ t ≤ s @PFIHA
27. 2.3. MEDIAS, VARIANZAS Y COVARIANZAS IQ
v— fun™ión de —uto™orrel—™ión p—r— l— ™—min—t— —le—tori— se o˜tiene de l—
siguiente m—ner—
ρt,s =
γt,s
√
γt,tγs,s
=
t
s
€—r— 1 ≤ t ≤ s @PFIIA
2.3.2. Promedios Móviles
ƒupong— que {Yt} es ™onstruido ™omo
Yt =
et + et−1
2
@PFIPA
he˜ido — que ei se —sumen ™omo v—ri—˜les —le—tori—s idénti™—mente distriE
˜uid—s ™on medi— ™ero y v—ri—nz— σ2
e , enton™es
µt = E (Yt) = E
et + et−1
2
=
E (et) + E (et−1)
2
= 0
y
V ar (Yt) = V ar
et + et−1
2
=
V ar (et) + V ar (et−1)
4
= 0,5σ2
e
„—m˜ién
Cov (Yt, Yt−1) = Cov
et + et−1
2
,
et−1 + et−2
2
=
Cov (et, et−1) + Cov (et, et−2) + Cov (et−1, et−1) + Cov (et−1, et−2)
4
=
Cov (et−1, et−1)
4
= 0,25σ2
e
o
γt,t−1 = 0,25σ2
e €—r— todo t @PFIQA
edemás
Cov (Yt, Yt−2) = Cov
et + et−1
2
,
et−1 + et−2
2
= 0 €or ser e independientes
hel mismo modoD Cov (Yt − Yt−k) = 0 p—r— k 1 enton™es se gener—liz— de
l— siguiente m—ner—
γt,s =
0,25σ2
e €—r— |t − s| = 0
0,5σ2
e €—r— |t − s| = 1
H €—r— |t − s| 1
28. IR CAPÍTULO 2. CONCEPTOS FUNDAMENTALES
€—r— l— fun™ión de —uto™orrel—™iónD —pli™—ndo l— e™u—™ión PFR se o˜tiene
ρt,s =
1 €—r— |t − s| = 0
0,5 €—r— |t − s| = 1
H €—r— |t − s| 1
is de gr—n import—n™i— not—r que ρ2,1 = ρ3,2 = ρ5,6 = ρ9,8 = 0,5. is de™ir
que v—lores de Y sep—r—dos por un— unid—d de tiempo tiene l— mism— ™orrel—™iónF
wás —ún ρ3,1 = ρ5,3 = ρt,t−2 y más gener—l ρt,t−k es el mismo p—r— todo v—lor
de t. iste he™ho ™ondu™e —l import—nte ™on™epto de est—™ion—ried—d
2.4. Estacionariedad
gon el (n de inferir —™er™— de l— estru™tur— de un pro™eso esto™ásti™o ˜—E
s—do en d—tos o˜serv—dosD se de˜eD usu—lmenteD —sumir ™iert—s ™ondi™iones que
simpli(™—n el pro™esoF il más import—nte de di™hos supuestos es el de l— est—E
™ion—ried—dF v— ide— prin™ip—l de l— est—™ion—ried—d ™onsiste en que l—s regl—s
de pro˜—˜ilid—d que rigen el pro™eso no ™—m˜i—n respe™to —l tiempoF
Denición 31 Especícamente, un proceso {Yt}, se dice que es estrictamente
estacionario si la distribución conjunta de Yt1
, Yt2
, . . . , Ytn
es la misma que la
distribución conjunta de Yt1−k, Yt2−k, . . . , Ytn−k, para cada elección de puntos
t1, t2, ..., tn y todo rezago de tiempo k. Cryer and Chan [2008]
…n— de(ni™ión simil—r — l— estri™t—mente est—™ion—l pero m—temáti™—mente
m—s dé˜il es l— siguienteX
Denición 32 Un proceso {Yt}, se dice que es débilmente estacionario o
estacionario de segundo orden si Cryer and Chan [2008]
IF v— fun™ión de l— medi— es ™onst—nte — tr—vés del tiempoD y
PF γt,t−k = γ0,k p—r— todo tiempo t y todo rez—go k
Denición 33 Para procesos estacionarios usualmente se considera k ≥ 0.
Teorema 34 Sea {Yi} una serie de tiempo estacionaria con función de auto-
covarianza γk =
1
n
n
k=t
Yt pruebe que:
V ar( ¯Y ) =
γ0
n
+
2
n
n−1
k=1
1 +
k
n
γk
=
1
n
n−1
k=−n+1
1 −
k
n
γk
29. 2.4. ESTACIONARIEDAD IS
2.4.1. Ruido Blanco (White Noise)
…n ejemplo ˜—st—nte import—nte de lo que es un pro™eso est—™ion—l es lo que
™omúnmente se ™ono™e ™omo ruido
˜l—n™o wontgomery et —lF ‘PHHV“F
Denición 35 El ruido blanco (White Noise) se dene como una secuencia de
variables aleatorias, independientes idénticamente distribuidas {et}
v— import—n™i— del ruido ˜l—n™o r—di™— en el he™ho de que mu™hos pro™esos
útiles pueden ser ™onstruidos — p—rtir de ruido ˜l—n™oF
il término ruido ˜l—n™o se ˜—s— en el he™ho que en un —nálisis de fre™uen™i—
del modelo muestr—lD en —n—logí— ™on l— luz ˜l—n™—D tod—s l—s fre™uen™i—s entr—n
—l modelo equiv—lentementeF …su—lmente se tiene que —sumir que los pro™esos
de ruido ˜l—n™o tienen medi— igu—l — ™ero y v—ri—nz— σ2
e .
Teorema 36 Sea {Yi} una serie de tiempo estacionaria con función de auto-
covarianza γk =
1
n
n
k=t
Yt pruebe que:
V ar( ¯Y ) =
γ0
n
+
2
n
n−1
k=1
1 +
k
n
γk
=
1
n
n−1
k=−n+1
1 −
k
n
γk
31. Capítulo 3
Tendencias
in un— serie de tiempo gener—lD l— fun™ión de l— medi— es un— fun™ión —rE
˜itr—ri— respe™to —l tiempoF in un— serie de tiempo est—™ion—lD l— fun™ión de
l— medi— de˜e ser ™onst—nte — tr—vés del tiempo gryer —nd gh—n ‘PHHV“F preE
™uentemente se de˜e est—˜le™er un punto medio entre l—s dos series de tiempo y
™onsider—r fun™iones de l— medi— rel—tiv—mente simples @no ™onst—ntesA — tr—vés
del tiempoF is—s tenden™i—s serán tr—t—d—s en el siguiente ™—pítuloF
3.1. Tendencias Determinísticas contra Tenden-
cias Estocásticas
v—s tenden™i—s en un— serie de tiempo pueden ser su˜jetiv—sD dependiendo
del punto de vist— del investig—dorF he he™hoD en diferentes simul—™iones de l—
mism— v—ri—˜le —le—tori— l—s tenden™i—s pueden v—ri—rY — este tipo de tenden™i—s
se les denomin— tenden™i—s esto™ásti™—sD teniendo en ™uent— que est— de(ni™ión
no h— sido gener—lmente —™ept—d—F
€or otro l—doD p—r— un— serie de tiempo ™on p—rámetro ™í™li™o determinísti™o
se di™e que l— tenden™i— es determinísti™— y su model—miento se estudi—rá en
este ™—pítuloF
3.2. Estimación de la Media Constante
gomo primer— medid— se ™onsider—rá l— situ—™ión donde se —sume un— funE
™ión de l— medi— ™onst—nteD enton™es el modelo est—rí— d—do porX
Yt = µ + Xt @QFIA
honde E (Xt) = 0 p—r— todo t. ƒe dese— estim—r µ ™on ˜—se en l— serie de
tiempo o˜serv—d— Y1, Y2, ..., Yn F v— estim—™ión más ™omún de µ es l— medi—
IU
32. IV CAPÍTULO 3. TENDENCIAS
muestr—l de(nid— ™omo
¯Y =
1
n
n
t=1
Yt @QFPA
f—jo el supuesto de l— e™u—™ión QFID se puede ™on™luir que E ¯Y = µ; por lo
t—nto ¯Y es un— estim—™ión imp—r™i—l de µ. €—r— o˜tener l— pre™isión de ¯Y ™omo
estim—dor de µ, es ne™es—rio h—™er supuestos respe™to — Xt.
ƒupóng—se que {Yt} es un— serie de tiempo est—™ion—ri— ™on fun™ión de —uE
to™orrel—™ión ρk. inton™es por el teorem— PH se tiene gryer —nd gh—n ‘PHHV“
V ar( ¯Y ) =
γ0
n
n−1
k=−n+1
1 +
|k|
n
ρk @QFQA
=
γ0
n
1 + 2
n−1
k=−n+1
1 −
k
n
ρk
ƒi l— serie de tiempo {Xt} de l— e™u—™ión QFI es simplemente ruido ˜l—n™oD
enton™esD ρk = 0 ¡p—r— k 0 y V ar ¯Y se redu™e simplemente —
γ0
n
.
in el modelo est—™ion—rio de promedios móviles Yt =
et − et−1
2
, se en™uentr—
que ρ1 = −0,4 y ρk = 0 p—r— k 1 en este ™—so se o˜tiene
V ar( ¯Y ) =
γ0
n
1 + 2 1 −
1
n
(−0,4)
=
γ0
n
1 − 0,8
n − 1
n
€—r— v—lores de n, usu—lmente m—yores que 50 el f—™torD
n − 1
n
es ™er™—no
— 1, enton™es
V ar( ¯Y ) ≈ 0,2
γ0
n
he esto se puede ™on™luir que l— ™orrel—™ión neg—tiv— en el rez—go k, h—
mejor—do l— estim—™ión de l— medi—D ™omp—r—d— ™on l— estim—™ión o˜tenid— en
el modelo de ruido ˜l—n™o @muestr— —le—tori—AF he˜ido — que l— serie tiende —
os™il—r —lrededor de l— medi—D l— medi— muestr—l o˜tenid— es más pre™is—F
€or otr— p—rteD si ρk ≥ 0 p—r— todo k ≥ 1, se puede o˜serv—rD gr—™i—s — l—
e™u—™ión QFQD que V ar( ¯Y )
γ0
n
. in estos ™—sos l— ™orrel—™ión positiv— h—™e que
l— estim—™ión de l— medi— se h—g— más ™ompli™—d— que ™on los modelos de ruido
˜l—n™oF in gener—l l— e™u—™ión QFQ de˜e ser us—d— p—r— ev—lu—r el efe™to en l—
serie de tiempoF
€—r— mu™hos pro™esos est—™ion—riosD l— fun™ión de —uto™orrel—™iónD de™re™e
lo su(™ientemente rápidoD ™on rez—gos ™re™ientes t—l que
∞
k=0
|ρk| ∞ @QFRA
33. 3.3. MÉTODOS DE REGRESIÓN IW
„eniendo en ™uent— el supuesto de l— e™u—™ión QFRD y teniendo un— v—lor
de n signi(™—tiv—mente —ltoD l— e™u—™ión QFQ puede —proxim—rse de l— siguiente
m—ner— gryer —nd gh—n ‘PHHV“
V ar( ¯Y ) ≈
γ0
n
∞
k=−∞
ρk €—r— n su(™ientemente gr—nde @QFSA
€—r— pro™esos no est—™ion—rios @pero ™on medi— ™onst—nteAD l— pre™isión de
l— medi— muestr—l ™omo un— estim—™ión de µ puede ser sorprendentemente diE
ferenteF €or ejemploD supóng—se que l— v—ri—˜le {Xt} en l— e™u—™ión QFI es un
pro™eso de ™—min—t— —le—tori— luego utiliz—ndo l— e™u—™ión PFVF
V ar( ¯Y ) =
1
n2
V ar
n
i=1
Yi
=
1
n2
V ar
n
i=j
i
j=1
ej
=
1
n2
V ar (e1 + 2e2 + 3e3 + · · · nen)
=
σ2
e
n2
n
K=1
k2
luego
V ar( ¯Y ) = σ2
e (2n + 1)
(n + 1)
6n
ƒe ™on™luye que este es un ™—so espe™i—lD l— v—ri—nz— de l— estim—™ión de
l— medi— —ument— ™u—ndo el t—m—ño de l— muestr— t—m˜ién lo h—™eD lo que
impli™— que se ne™esit— ™onsider—r otro método de estim—™ión p—r— series no
est—™ion—ri—sF
3.3. Métodos de Regresión
vos métodos est—dísti™os ™lási™os de regresión ˜rind—n un— herr—mient— de
sum— import—n™i— p—r— estim—r los p—rámetros de los modelos ™on tenden™i—
medi— v—ri—˜leD en el des—rrollo de este —p—rt—doD se ™onsider—r—n los más útilesX
line—lD ™u—dráti™—D medi—s est—™ion—lesD y tenden™i—s del ™osenoF
3.3.1. Tendencias Lineales y Cuadráticas
gonsidérese l— tenden™i— determinísti™— expres—d— ™omo
µt = β0 + β1t @QFTA
34. PH CAPÍTULO 3. TENDENCIAS
honde l— pendiente y el inter™epto β1 y β0 respe™tiv—menteD son p—rámeE
tros des™ono™idosF il método ™lási™o de mínimos ™u—dr—dos ™onsiste en elegir
estim—™iones de β1 y β0 t—les que minimi™en
Q (β0, β1) =
n
t=1
[Yt − (β0 + β1t)]
2
he est— form—D después de deriv—r p—r™i—lmente e igu—l—r — ™eroD se o˜tieneX
ˆβ1 =
n
t=1
Yt − ¯Y (t − ¯t)
n
t=1
(t − ¯t)
2
@QFUA
ˆβ0 = ¯Y − ˆβ1¯t
donde t =
(n + 1)
2
es el promedio de 1, 2, ...n. gryer —nd gh—n ‘PHHV“
3.3.2. Tendencias cíclicas.
ƒe ™onsider—ránD — ™ontinu—™iónD el model—miento de tenden™i—s est—™ion—E
lesD por ejemploD l— temper—tur— mensu—lF ƒe —sumirá que l— serie de tiempo
o˜serv—d— se puede es™ri˜ir ™omo
Yt = µt + Xt
honde E (Xt) = 0 €—r— todo t.
il supuesto más gener—l p—r— µt ™on d—tos est—™ion—les mensu—lesD es que
existen IP ™onst—ntes o p—rámetros β1, β2, ..., β12, y teniendo el promedio espeE
r—do de temper—tur— p—r— ™—d— uno de los meses se puede es™ri˜ir
µt =
β1 €—r— t = 1, 13, 25, ...
β2 €—r— t = 2, 14, 26, ...
FFF
β12, €—r— t = 12, 24, 36, ...
@QFVA
gryer —nd gh—n ‘PHHV“
3.3.3. Tendencias del Coseno
v—s medi—s est—™ion—les del modelo p—r— d—tos mensu—les ™onsiste IP p—ráE
metros independientesD y no tiene en ™uent— l— form— de l— tenden™i— est—™ion—lF
€or ejemploD el he™ho de que l—s medi—s de w—rzo y e˜ril son simil—res no se
re)ej—n (elmente en el modeloF in —lgunos ™—sosD l—s tenden™i—s est—™ion—les
pueden ser model—d—s ™on ™osenos D que propor™ion—n un— ™urv— su—ve entre un
periodo y otroD ™onserv—ndo l— est—™ion—ried—dF
35. 3.4. CONFIABILIDAD Y EFICIENCIA DE LAS ESTIMACIONES DE LA REGRESIÓNPI
gonsidérese l— ™urv— ™on l— e™u—™iónX
µt = β cos (2πft + Φ) @QFWA
ƒe le ll—m— — β 0 l— —mplitudD — f l— fre™uen™i—D y Φ l— f—se de l— ™urv—F
he˜ido — que t v—rí—D l— ™urv— os™il— entre un máximo de β y un minimo de
−β. he˜ido — que l— ™urv— se repite — sí mism— ™—d—
1
f
unid—des de tiempoF
1
f
es ™ono™ido ™omo el periodo de l— ™urv—F esimismo Φ es útil p—r— est—˜le™er el
origen —r˜itr—rio en el eje del tiempoF
v— e™u—™ión QFW no es muy ™onveniente p—r— efe™tos de l—s estim—™ionesD y—
queD los p—rámetros β y ΦD no inter(eren en l— fórmul— de un— m—ner— line—lF
efortun—d—menteD us—ndo un— identid—d trigonométri™— l— e™u—™ión QFW puede
ser es™rit— de l— siguiente m—ner—X
β cos (2πft + Φ) = β1 cos (2πft) + β2sen (2πft)
honde
β = β2
1 + β2
2, Φ = a tan
−β2
β1
y
β1 = β cos (Φ) , β2 = βsen (Φ)
€—r— estim—r los p—rámetros β1 y β2 ™on té™ni™—s de regresiónD simplemente
se us— cos (2πft) y sen (2πft) ™omo v—ri—˜les regresor—sF il modelo más sen™illoD
teniendo en ™uent— l— tenden™i—D es el siguiente
µt = β0 + β1 cos (2πft) + β2sen (2πft) @QFIHA
in este ™—so l— ™onst—nteD β0, puede ser pens—d— ™omo un ™oseno ™on freE
™uen™i— igu—l — ™eroF gryer —nd gh—n ‘PHHV“
3.4. Conabilidad y Eciencia de las Estimacio-
nes de la Regresión
esúm—se que l— serie de tiempo es represent—d— por Yt = µt + Xt, donde µt
es un— tenden™i— determinísti™— y {Xt} es un pro™eso est—™ion—rio de medi— ™ero
™on fun™iones de —uto™ov—ri—nz— y —uto™orrel—™ión γk y ρk respe™tiv—menteF
€—r— medi—s est—™ion—lesD l—s estim—™iones por mínimos ™u—dr—dos de l—s
medi—s est—™ion—les sonD simplemente promedios est—™ion—lesD enton™esD si se
tiene N —ños de d—tos mensu—les se puede es™ri˜ir l— estim—™ión p—r— l— medi—
en l— tempor—d— j ™omo
ˆβj =
1
N
N−1
i=0
Yi + 12i
36. PP CAPÍTULO 3. TENDENCIAS
‰— que ˆβj es un promedio ™omo ¯Y ex™epto que solo us— ™—d— do™e—v— o˜serE
v—™iónF v— e™u—™ión QFQ puede ser modi(™—d— p—r— o˜tener l— v—ri—nz— de ˆβjF ƒe
reempl—z— n por N y ρk por ρ12k p—r— o˜tener
V ar ˆβj =
γ0
N
1 + 2
N−1
k=0
1 −
k
n
ρ12k €—r— j = 1, 2, ..., 12 @QFIIA
ƒe pude not—r que si {Xt} es un pro™eso de ruido ˜l—n™oD V ar ˆβj =
γ0
N . edemás si v—rios ρk son diferentes de ™ero pero ρ12k = 0 enton™es V ar ˆβj =
γ0
N . in ™u—lquier ™—soD solo l—s ™orrel—™iones est—™ion—les ρ12,ρ24, ... serán utiliE
z—d—s en l— e™u—™ión QFIIF
€—r— l—s tenden™i—s del ™oseno expres—d—s en l— e™u—™ión QFIHF €—r— ™u—lquier
fre™uen™i— de l— form— f = m
n donde m es un entero que s—tisf—™e 1 ≤ m ≤ n
2 ,
se pueden us—r expresiones expli™it—s p—r— los v—lores de l—s estim—™iones ˆβ1 y
ˆβ2.
ˆβ1 =
2
n
n
t=1
cos
2πmt
n
Yt , ˆβ2 =
2
n
n
t=1
sen
2πmt
n
Yt @QFIPA
‰— que l—s —nteriores e™u—™iones son e™u—™iones line—les de {Yt} , se ev—lu—rán
sus v—ri—nz—s us—ndo l— e™u—™ión PFTD y teniendo en ™uent— que gryer —nd gh—n
‘PHHV“
n
t=1
= cos
2πmt
n
2
=
n
2
se o˜tiene
V ar ˆβ1 =
2γ0
n
1 +
4
n
n
s=2
s−1
t=1
cos
2πmt
n
cos
2πms
n
ρs−t
y
V ar ˆβ1 =
2γ0
n
1 +
4
n
n
s=2
s−1
t=1
sen
2πmt
n
sen
2πms
n
ρs−t
ƒi {Xt} es un pro™eso de ruido ˜l—n™oD se o˜tiene implemente 2γ0
n . ƒi ρ1 = 0,
ρk = 0 p—r— k 1 y m
n = 1
12 l— v—ri—nz— se redu™e — gryer —nd gh—n ‘PHHV“
V ar ˆβ1 =
2γ0
n
1 +
4ρ1
n
n−1
t=1
cos
πt
6
cos
πt + 1
6
ρs−t @QFIQA
€—r— l—s tenden™i—s line—les es más ™onveniente utiliz—r un— formul— —ltern—E
tiv— — l— e™u—™ión QFU p—r— ™—l™ul—r ˆβ1. ƒegún gryer —nd gh—n ‘PHHV“ l— estim—E
™ión de l— pendiente por medio de mínimos ™u—dr—dos puede ser es™rit— de l—
37. 3.5. ANÁLISIS DE RESIDUALES PQ
siguiente m—ner—
ˆβ1 =
n
t=1
(t − ¯t) Yt
n
t=1
(t − ¯t)
2
@QFIRA
‰— que l— estim—™iónD ˆβ1D es un— ™om˜in—™ión line—l de los v—lores de Y, y
us—ndo
n
t=1
(t − ¯t)
2
=
n n2
− 1
12
l— v—ri—nz— se puede es™ri˜ir ™omo
V ar ˆβ1 =
12γ0
n (n2 − 1)
n
s=2
s−1
t=1
(t − ¯t) (s − ¯t) ρs−t @QFISA
3.5. Análisis de Residuales
gomo y— se h— des™rito —nteriormenteD l— ™omponente esto™ásti™— {Xt} puede
ser estim—d— medi—nte el residual
ˆXt = Yt − ˆµt
ƒe ™ono™e — ˆXt ™omo el residu—l ™orrespondiente — l— t − ´esima o˜serv—E
™ión frillinger ‘PHHI“F ƒi el modelo de l— tenden™i— es r—zon—˜lemente ™orre™toD
enton™es los residu—les de˜erí—n ™omport—rse ™omo un ™omponente esto™ásti™o
y se pueden est—˜le™er v—rios supuestosF ƒi el ™omponente esto™ásti™o es ruido
˜l—n™oD enton™es los residu—les de˜erí—n ™omport—rse ™omo v—ri—˜les —le—tori—s
independientes norm—lmente distri˜uid—s ™on medi— ™ero y desvi—™ión estánd—r
s. he˜ido — que —l —juste medi—nte mínimos ™u—dr—dos de ™u—lquier tendenE
™i— ™on términos ™onst—ntes produ™en residu—les ™on medi— ™eroD es import—nte
est—nd—riz—r los residu—les ™omo ˆX t
s
.„eniendo los residu—les est—nd—riz—dosD el
p—so — seguir es ™omp—r—r los residu—les ™on l— tenden™i— ™orrespondiente del
v—lor —just—do y por medio de softw—re espe™i—liz—do veri(™—r l—s ™—r—™terísti™—s
del pro™eso esto™ásti™o @norm—lid—dD independen™i—D et™FA @†é—se ‰—te ‘PHII“AF
3.5.1. Función de Autocorrelación Muestral
…n— import—nte herr—mient— ™on l— ™u—l se puede ex—min—r l— dependen™i—
es l— fun™ión de —uto™orrel—™ión muestr—lF gonsidérese un— se™uen™i— de d—E
tos Y1, Y2, . . . , Yn @˜ien se— residu—lesD d—tos origin—les o d—tos tr—nsform—dosAF
esumiendo tent—tiv—mente est—™ion—ried—dD se dese— estim—r l— fun™ión de —utoE
™orrel—™ión ρk p—r— un— v—ried—d de rez—gos k = 1, 2, . . . . v— form— más evidente
de re—liz—r di™ho ™ál™uloD es ™—l™ul—r l— fun™ión de ™orrel—™ión muestr—l entre ™—E
d— p—r de d—tos (Y1, Y1+k) , (Y2, Y2+k) , . . . , (Yn−k, Yn) . ƒin em˜—rgoD teniendo
38. PR CAPÍTULO 3. TENDENCIAS
en ™uent— el supuesto de l— est—™ion—ried—dD l— ™u—l impli™— un— medi— y un—
v—ri—nz— ™omún p—r— l— serie de tiempoF v— fun™ión de —uto™orrel—™ión muestr—l
de l— siguiente m—ner— gryer —nd gh—n ‘PHHV“
Denición 37 La función de autocorrelación muestral, rk en el rezago k es
rk =
n
t=k+1
Yt − ¯Y Yt−k − ¯Y
n
t=1
Yt − ¯Y
2
@QFITA
39. Capítulo 4
Modelos para Series de
Tiempo Estacionarias
in el siguiente ™—pítulo se dis™utirán los ™on™eptos ˜ási™os de un— —mpli—
g—m— de modelos de series de tiempo p—r—métri™—s ™ono™id—s ™omo modelos
—utorregresivos de promedios móviles o e‚weD de˜ido — sus sigl—s en inglésF
g—˜e not—r que este tipo de modelos tiene un— gr—n import—n™i— en los pro™esos
de l— vid— ™otidi—n—D en v—rios ™—mpos del ™ono™imientoF
4.1. Procesos Generales Lineales
r—st— el momentoD siempre se h— ™onsider—do — {Yt} ™ómo l— serie de tiempo
o˜serv—d—F e p—rtir de este ™—pítuloD t—m˜ién se denot—rá — {et} ™omo un ruido
˜l—n™o no o˜serv—doD es de™irD un— se™uen™i— de v—ri—˜les —le—tori—sD idénti™—E
mente distri˜uid—s ™on medi— ™eroF „—m˜iénD en mu™hos ™—sosD el supuesto de
independen™i— puede ser sustituido por el supuesto @más dé˜ilA que {et}, es un—
se™uen™i— de v—ri—˜les —le—tori—s no ™orrel—™ion—d—sF
Denición 38 Un proceso general lineal {Yt}, es aquel que puede ser represen-
tado como una combinación lineal ponderada, de los términos del pasado y del
presente de un proceso de ruido blanco de la siguiente manera.
Yt = et + ψ1et−1 + ψ2et−2 + · · · @RFIA
Cryer and Chan [2008]
ƒi l— expresión de l— dere™h— es ™iert—mente un— serie in(nit—D de˜en est—E
˜le™er™e ™ondi™iones so˜re los pesos ψ, ™on el (n de que di™h— expresión teng—
sentidoD m—temáti™—mente h—˜l—ndoF is su(™iente —sumir queX
∞
i=1
ψ2
i ∞ @RFPA
PS
40. PTCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
„—m˜ién de˜e not—rse que d—do que {et} es un pro™eso de ruido ˜l—n™o no
o˜serv—˜leD no se pierde l— gener—lid—d de l— e™u—™ión RFPY si se —sume que el
™oe(™iente de et es 1; efe™tiv—mente ψ0 = 1.
…n ejemplo de sum— import—n™i— en el des—rrollo del textoD es l— ™—so en el
™u—l los ψ form—n un— se™uen™i— exponen™i—lmente de™re™iente
ψj = φj
honde −1 ≤ φ ≤ 1, enton™es
Yt = et + φet−1 + φ2
et−2 + · · ·
€—r— este ejemplo
E (Yt) = E et + φet−1 + φ2
et−2 + · · · = 0
es de™ir que {Yt} tiene un— medi— ™onst—nte igu—l — ™eroF „—m˜ién
V ar (Yt) = V ar et + φet−1 + φ2
et−2 + · · ·
= V ar (et) + φ2
V ar (et−1) + φ4
V ar (et−2) + · · ·
= σ2
e 1 + φ2
+ φ4
+ · · ·
=
σ2
e
1 − φ2
@ƒum—ndo l— serie geométri™—A
edemás
Cov (Yt, Yt−1) = Cov et + φet−1 + φ2
et−2 + · · · , et−1 + φet−2 + φ2
et−3 + · · ·
= Cov (φet−1, et−1) + Cov φ2
et−2, φet−2 + · · ·
= φσ2
e + φ3
σ2
e + φ5
σ2
e + · · ·
= φσ2
e 1 + φ2
+ φ4
+ · · ·
=
φσ2
e
1 − φ2
@ƒum—ndo l— serie geométri™—A
inton™es
Corr (Yt, Yt−1) =
φσ2
e
1 − φ2
σ2
e
1 − φ2
= φ
he m—ner— —nálog—D se puede ™—l™ul—r
Cov (Yt, Yt−k) =
φk
σ2
e
1 − φ2
por lo t—nto
Corr (Yt, Yt−k) = φk
@RFQA
41. 4.2. PROCESOS DE PROMEDIOS MÓVILES PU
is import—nte señ—l—r que el pro™eso es est—™ion—rioD y— que l— —uto™ov—ri—nE
z— depende sol—mente del rez—go de tiempo y no del tiempo —˜solutoF €—r— un
pro™eso gener—l line—l
Yt = et + ψ1et−1 + ψ2et−2 + · · ·
se sigue un pro™edimiento —nálogo —l —nteriormente re—liz—do p—r— o˜tener
E (Yt) = 0 γk = Cov (Yt, Yt−k) = σ2
e
∞
i=0
ψiψi+k k ≥ 0 @RFRA
™on ψ0 = 1. …n pro™eso ™on medi—D diferente de ™eroD µ puede ser o˜tenido
—ñ—diendo el término µ — l— p—rte dere™h— de l— e™u—™ión RFIF he˜ido — que l—
medi— no —fe™t— l—s propied—des de l— ™ov—ri—nz—D se sumirá que l— medi— es ™eroD
h—st— que se —justen modelos — un— serie de d—tos
4.2. Procesos de Promedios Móviles
in el ™—soD donde solo existe un número (nito de pesos ψ diferentes de ™eroD
se tiene lo que se ™ono™e ™omo un pro™eso de promedios móviles
Denición 39 Una proceso {Yt} se dice que es promedios móviles cuando existe
un número nito de pesos θ, y tiene la siguiente forma:
Yt = et − θ1et−1 − θ2et−2 − · · · − θqet−q @RFSA
La ecuación 4.5 se conoce como una serie de promedios móviles de orden q
y se abrevia con las siglas MA(q). Box and Jenkins [1976]
il término €romedios wóviles se ˜—s— en el he™ho que Yt se o˜tiene —pli™—nE
do los pesos 1, −θ1, −θ2, · · · , −θq — l—s v—ri—˜les et, et−1, et−2, · · · , et−q y luego
se mueven los pesos y se —pli™—n — l—s v—ri—˜les et + 1, et, et−1, · · · , et−q+1 ™on
(n de o˜tener Yt+1F
4.2.1. Procesos de Promedios Móviles de Primer Orden
e ™ontinu—™ión se ™onsider—ráD el más simpleD de los modelosD sin dej—r de
ser import—nteF il pro™eso de promedios móviles de orden 1D es de™irD MA(1).
ƒegún l— e™u—™ión RFS el modelos es de l— form—X
Yt = et − θet−1
is import—nte —™l—r—r que p—r— los modelos de primer orden θ1 se suele not—r
simplemente ™omo θF
gl—r—mente E (Y1) = 0 y V ar (Yt) = σ2
e 1 + θ2
, edemás
Cov (Yt, Yt−1) = Cov (et − θet−1, θet−1 − θet−2)
= Cov (−θet−1, et−1) = −θσ2
e
42. PVCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
y
Cov (Yt, Yt−2) = Cov (et − θet−1, θet−2 − θet−3)
= 0
he˜ido — que no existen v—ri—˜les e ™omunes entre Yt y Yt−2, Cov (Yt, Yt−k) =
0 siempre y ™u—ndo k ≥ 2, es de™ir que el pro™eso no tiene ™orrel—™ión p—r—
rez—gos m—yores — 1.
in resumenD p—r— un modelo MA (1) Y = et − θet−1
E (Yt) = 0 @RFTA
γ0 = V ar (Yt) = σ2
e 1 + θ2
γ1 = −θσ2
e
ρ1 =
−θ
(1 + θ2)
γk = ρk = 0 €—r— k ≥ 2
4.2.2. Procesos de Promedios Móviles de Segundo Orden
ƒegún l— e™u—™ión RFS un— serie de tiempo de promedios móviles de orden
dos es de l— form—X
Yt = et − θ1et−1 − θ2et−2
in este g—so
γ0 = V ar (Yt) = V ar (et − θ1et−1 − θ2et−2) = 1 + θ2
1 + θ2
2 σ2
e
γ1 = Cov (Yt, Yt−1) = Cov (et − θ1et−1 − θ2et−2, et−1 − θ1et−2 − θ2et−3)
= Cov (−θ1et−1, et−1) + Cov (−θ1et−2, −θ2et−2)
= [−θ1 + (−θ1) (−θ2)] σ2
e
= (−θ1 + θ1θ2) σ2
e
y
γ1 = Cov (Yt, Yt−2) = Cov (et − θ1et−1 − θ2et−2, et−2 − θ1et−3 − θ2et−4)
= Cov (−θ2et−2, et−2)
= −θ2σ2
e
inton™esD p—r— un modelo MA (2)
ρ1 =
−θ1 + θ1θ2
1 + θ2
1 + θ2
2
ρ2 =
−θ2
1 + θ2
1 + θ2
2
@RFUA
ρk = 0 €—r— k = 3, 4, ...
43. 4.3. PROCESOS AUTORREGRESIVOS PW
4.2.3. Procesos de Promedios Móviles de Orden q
€—r— el pro™eso gener—l MA (q)
Yt = et − θ1et−1 − θ2et−2 − · · · − θqet−q
ƒiguiendo un pro™eso —nálogo —l de los pro™esos MA (1) y MA (2) se o˜tiene
γ0 = V ar (Yt) = 1 + θ2
1 + θ2
2 + · · · + θ2
q σ2
e @RFVA
y
ρk =
−θk+1 + θ1θk+1 + θ2θk+2 + · · · + θq−kθq
1 + θ2
1 + θ2
2 + · · · + θ2
q
€—r— k = 1, 2, ..., q
H €—r— k q
@RFWA
fox —nd tenkins ‘IWUT“
4.3. Procesos Autorregresivos
Denición 40 Un proceso Autorregresivo {Yt} de orden p satisface la ecuación
Box and Jenkins [1976]
Yt = φ1Yt−1 + φ1Yt−2 + · · · + φpYt−p + et @RFIHA
il v—lor —™tu—l de l— serie {Yt} es un— ™om˜in—™ión line—l del v—lor p—s—do
más re™iente de p m—s un término de innov—™ión et, el ™u—l in™orpor— todo lo
que no es expli™—do por l—s v—ri—˜les p—s—d—s en l— serie en el tiempo tF €or lo
t—ntoD se —sume que ™—d— t es independiente — Yt−1, Yt−2, Yt−3, ..
4.3.1. Procesos Autorregresivos de Primer Orden
il pro™eso —utorregresivo de primer orden AR (1) , teniendo en ™uent— l—
e™u—™ión RFIHD es de l— form—
Yt = φYt−1 + et @RFIIA
gomo es usu—lD se —sume que l— medi— del pro™esoD h— sido extr—íd—D luego
l— medi— de l— serie es ™eroF
„eniendo en ™uent— el pro™edimiento propuesto por gryer —nd gh—n ‘PHHV“
gomo primer— medid— se ev—lu—rá l— v—ri—nz—F „om—ndo l— e™u—™ión RFII y
s—™—ndo l— v—ri—nz— — —m˜os l—dos de l— igu—ld—d se o˜tiene
γ0 = φ2
γ0 + σ2
e
vuego
γ0 = φ
σ2
e
1 − φ2
44. QHCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
he los ™u—l se puede ™on™luir que φ2
1 o lo que es equiv—lente |φ| 1.
ehor— tom—ndo l— e™u—™ión RFII y multipli™—ndo —m˜os l—dos de l— igu—ld—d
por Yt−k ™on k = 1, 2, ..., y tom—ndo el v—lor esper—do se o˜tieneX
E (Yt−kYt) = φ2
E (Yt−kYt−1) + E (etYt−k)
o
γk = φγk−1 + E (etYt−k) = 0
he˜ido — que l— serie se h— supuesto est—™ion—ri— ™on medi— ™eroD y teniendo
en ™uent— que et es independiente de Yt−k se o˜tieneX
E (etYt−k) = E (et) E (Yt−k) = 0
inton™es
γk = φγk−1
ƒustituyendo k = 1 se o˜tiene γ1 = φγ0 es de™ir
γ1 =
σ2
e
1 − φ2
ƒustituyendo k = 2 se o˜tiene
γ2 =
φ2
σ2
e
1 − φ2
vuego se puede ™on™luir que en gener—l
γk = φk σ2
e
1 − φ2
€or ™onsiguiente
ρk =
γk
γ0
= φk
€—r— k = 1, 2, 3, ...
gomo |φ| 1, l— m—gnitud de l— fun™ión de ™orrel—™ión de™re™e exponen™i—lE
mente según —ument— el número de rez—gos k
4.3.1.1. Versión General Lineal de un Modelo AR (1)
v— de(ni™ión re™ursiv— del modelo AR (1) d—d— en l— e™u—™ión RFII es de gr—n
utilid—d p—r— l— interpret—™ión del modeloF ƒin em˜—rgoD p—r— otros propósitosD
es ™onveniente expres—r el modelo AR (1) ™omo un pro™eso gener—l line—l ™omo
en l— e™u—™ión RFIF v— de(ni™ión re™ursiv— es válid— p—r— todo t. ƒi se us— l—
e™u—™ión reempl—z—ndo t por t − 1, se tiene Yt−1 = φYt−2 + et−1. ƒustituyendo
en l— e™u—™ión gener—l se o˜tiene
Yt = φ (φYt−2 + et−1) + et
= et + φet−1 + φ2
Yt−2
45. 4.3. PROCESOS AUTORREGRESIVOS QI
ƒi se repite el pro™eso h—™i— el p—s—doD k − 1 ve™esD se o˜tiene
Yt = et + φet−1 + φ2
et−2 + +φk−1
et−k+1 + φk
Yt−k @RFIPA
esumiendo que |φ| 1, y permitiendo que k ™rez™—D se o˜tiene l— represenE
t—™ión in(nit—X
Yt = et + φet−1 + φ2
et−2 + φ3
et−3 + · · · @RFIQA
fox —nd tenkins ‘IWUT“
4.3.1.2. Estacionariedad de un Proceso AR (1)
ƒujeto — l—s restri™™iones que et es independiente — Yt−1, Yt−2, Yt−3, .. y que
σ2
e 0, l— solu™ión de l— re™ursivid—d del modelo AR (1)
Yt = φYt−1 + et
es est—™ion—l si y solo si |φ| 1. iste requisito gener—lmente se ™ono™e ™omo
l— Condición de estacionariedad (fox —nd tenkins ‘IWUT“ pF SRA
4.3.2. Procesos Autorregresivos de Segundo Orden
gonsidérese l— serie que s—tisf—™e l— siguiente e™u—™ión
Yt = φ1Yt−1 + φ2Yt−2 + et @RFIRA
hondeD ™omo es usu—lD se —sume que et es independiente de Yt−1, Yt−2, Yt−3, ... €—r—
tener en ™uent— l— est—™ion—ried—d se introdu™e el Polinomio Característico
AR
φ (x) = 1 − φ1x − φ2x2
‰ su respe™tiv— Ecuación Característica AR
1 − φ1x − φ2x2
= 0
„eniendo en ™uent— que un— e™u—™ión ™u—dráti™— tiene dos r—í™esD posi˜leE
mente ™omplej—sF
4.3.2.1. Estacionariedad de un Proceso AR (2)
ƒujeto — l— ™ondi™ión que et es independiente de Yt−1, Yt−2, Yt−3, ...…n— soE
lu™ión est—™ion—ri— — l— e™u—™ión RFIRD existeD si y solo si l—s r—í™es de l— e™u—™ión
™—r—™terísti™— e‚D son m—yores que I en v—lor —˜solutoD o eventu—lmente se diE
™e que l—s r—í™es están en el exterior del ™ir™ulo unit—rio en el pl—no ™omplejo
@foxD tenkinsD —nd ‚einselD IWWRDpF SRAF iste ™on™epto se gener—liz— — modelos
de orden p sin ™—m˜io —lgunoF vo que siguiere el siguiente teorem—X
46. QPCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
Teorema 41 Cryer and Chan [2008] En el caso del modelo de segundo orden
AR(2) , las raíces de la ecuación característica son de la forma
φ1 ± φ2
1 − 4φ2
−2φ2
Un modelo AR (2) es estacionario si y solo si se satisfacen las siguientes con-
diciones
φ1 + φ2 1 φ2 − φ1 1 |φ2| 1
Demostración ƒe—n G1 y G2 los números re™ípro™os de l—s r—í™es de l—
e™u—™ión ™—r—™terísti™— e‚D enton™es
G1 =
2φ2
−φ1 − φ2
1 + 4φ2
‚—™ion—liz—ndo
G1 =
2φ2 −φ1 + φ2
1 + 4φ2
−φ2
1 − (φ2
1 + 4φ2)
G1 =
−φ1 − φ2
1 + 4φ2
2
hel mismo modo
G2 =
φ1 + φ2
1 + 4φ2
2
ehor—D teniendo en ™uent— el dis™rimin—nte de un— fun™ión ™u—dráti™— se
puede ™on™luir que
v— r—íz es re—l si y solo si φ2
1 + 4φ2 ≥ 0
|Gi| 1 p—r— i = 1 y 2 si y solo si
−1
φ1 − φ2
1 + 4φ2
2
φ1 + φ2
1 + 4φ2
2
1
o
2 φ1 − φ2
1 + 4φ2 φ1 + φ2
1 + 4φ2 2
„om—ndo l— primer— p—rte de l— desigu—ld—dF
2 φ1 − φ2
1 + 4φ2 si y solo si
φ2
1 + 4φ2 φ1 + 2 si y solo si
φ2
1 + 4φ2 φ2
1 + 4φ1 + 4 si y solo si
φ2 φ1 + 1 o
φ2 − φ1 1
enálog—mente l— segund— desigu—ld—d φ1 + φ2
1 + 4φ2 2 nos llev— —
φ2 + φ1 1
v— r—íz es ™omplej— si y solo si φ2
1 + 4φ2 0
honde G1 y G2 son ™omplej—s ™onjug—d—s y
|G1| = |G2| 1
|G1|
2
=
φ2
1 + −φ2
1 − 4φ2
4
= −φ2
47. 4.3. PROCESOS AUTORREGRESIVOS QQ
φ2 −1
iso junto ™on l— desigu—ld—d φ2
1 + 4φ2 0 nos llev— —
|φ2| 1 gryer —nd gh—n ‘PHHV“
4.3.2.2. La Función de Autocorrelación del Proceso AR (2)
€—r— ™—l™ul—r l— fun™ión de —uto™orrel—™ión p—r— los modelos AR (2) se tom—
l— e™u—™ión RFIR se multipli™—n —m˜os l—dos por Yt−k, y se tom—n los v—lores
esper—dosF esumiendo est—™ion—ried—dD medi—s igu—les — ™ero y l— independen™i—
de et respe™to — Yt−1, Yt−2, Yt−3, .... vo que ™ondu™e —
γk = φ1γk + φ2γk−2 €—r— k = 1, 2, 3, ... @RFISA
o dividiendo por γ0
ρk = φ1ρk−1 + φ2ρk−2 €—r— k = 1, 2, 3, ... @RFITA
v—s e™u—™iones RFIS y RFIT son ™ono™id—s ™omo l—s e™u—™iones ‰uleE‡—lkerD
espe™i—lmente el ™onjunto de dos e™u—™iones o˜tenid—s ™u—ndo k = 1 y k = 2.
r—™iendo k = 1 us—ndo — ρ0 = 1 y ρ−1 = ρ1, se o˜tiene ρ1 = φ1 + φ2ρ1, luego
ρ1 =
φ1
1 − φ2
us—ndo los v—lores ™ono™idos de ρ1, se us— l— e™u—™ión RFIT ™on k = 2 p—r—
o˜tener
ρ2 = φ2ρ2 + φ2ρ2
=
φ2 (1 − φ2) + φ2
1
1 − φ2
‰ de un— m—ner— —nálog— y su™esiv— se podrí— ™—l™ul—r ρk
4.3.3. Varianza del Modelo AR (2)
v— v—ri—nz— γ0 puede ser expres—d— en términos de los p—rámetros del modelo
φ1 D φ2 y σ2
e de l— siguiente m—ner—X „om—ndo l— e™u—™ión RFIR y ev—lu—ndo l—
v—ri—nz— — —m˜os l—dos de l— igu—ld—d se o˜tiene
γ0 = φ2
1 + φ2
2 γ0 + 2φ1φ2γ1 + σ2
e @RFIUA
iv—lu—ndo l— e™u—™ión RFIS ™on k = 1 se o˜tiene un— e™u—™ión line—l p—r— γ0
y γ1
γ1 = φ1γ0 + φ2γ1
l— ™u—l se puede resolver simult—ne—mente ™on l— e™u—™ión RFIU p—r— o˜tener
γ0 =
(1 − φ2) σ2
e
(1 − φ2) (1 − φ2
1 − φ2
2) − 2φ2φ2
1
=
1 − φ2
1 + φ2
σ2
e
(1 − φ2)
2
− φ2
1
@RFIVA
48. QRCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
4.3.4. Proceso Autorregresivo General
gonsidere el modelo —utorregresivo de orden p
Yt = φ1Yt−1 + φ1Yt−2 + · · · + φpYt−p + et @RFIWA
gon su polinomio ™—r—™terísti™o e‚
φ (x) = 1 − φ1x − φ2x2
− · · · − φpxp
@RFPHA
‰ su respe™tiv— e™u—™ión ™—r—™terísti™—
1 − φ1x − φ2x2
− · · · − φpxp
= 0 @RFPIA
gomo se men™ionó —ntesD —sumiendo que et es independiente de Yt−1, Yt−2, Yt−3, ...
un— solu™ión est—™ion—ri— — l— e™u—™ión RFPI existe si y solo si l—s p r—í™es de l—
e™u—™ión son m—yores que 1 en v—lor —˜solutoF
hel mismo modoD —sumiendo l— est—™ion—ried—d y que l—s medi—s son igu—les
— ™eroD se puede multipli™—r l— e™u—™ión RFIW p—r— o˜tener l— siguiente e™u—™ión
re™ursiv—F
ρk = φ1ρk−1 + φ2ρk−2 + φ3ρk−3 + · · · + φpρk−p €—r— k ≥ 1 @RFPPA
he(niendo k = 1, 2, ... y valores de p en l— e™u—™ión D y us—ndo ρ0 = 1 y
ρ−k = ρk se o˜tienen l—s e™u—™iones gener—les de ‰uleE‡—lker
ρ1 = φ1 + φ2ρ1 + φ3ρ2 + · · · + φpρp−1 @RFPQA
ρ2 = φ1ρ1 + φ2 + φ3ρ1 + · · · + φpρp−2 @RFPRA
FFF
ρp = φ1ρp−1 + φp−2 + φ3ρp−3 + · · · + φp
edemásD ™onsider—ndo que
E (etYt) = E [et (φ1Yt−1 + φ2Yt−2 + · · · + φpYt−p + et)] = E e2
t = σ2
e
se puede multipli™—r l— e™u—™ión RFIW por Yt tom—r v—lores esper—dos y o˜E
tener
γ0 = φ1γ1 + φ2γ2 + · · · + φpγp + σ2
e
ue tom—ndo — ρk =
γk
γ0
puede ser es™rit— de l— siguiente m—ner— fox —nd
tenkins ‘IWUT“
γ0 =
σ2
e
1 − φ1ρ1 − φ2ρ2 − · · · − φpρp
@RFPSA
i™u—™ión que expres— l— v—ri—nz— γ0 en términos de σ2
e , φ1, φ2, ..., φp y los
v—lores ™ono™idos de ρ1, ρ2, ..., ρp.
49. 4.4. MODELOS MIXTOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESQS
4.4. Modelos Mixtos Autorregresivos de Prome-
dios Móviles
ƒi se —sume que l— serie de tiempo es p—r™i—lmente —utorregresiv— y p—r™i—lE
mente de promedios móviles se puede o˜tener lo siguienteF
Denición 42 Una serie {Yt} se dice que es un proceso mezclado autorregre-
sivo de promedios móviles de ordenes p y q, si satisface la siguiente ecuación
Yt = φ1Yt−1 +φ2Yt−2 +· · ·+φpYt−p +et −θ1et−1 −θ2et−2 −· · ·−θqet−q @RFPTA
gon el (n de —˜revi—rD se utiliz—rá l— not—™ión ARMA (p, q) . esumiendo
que en los modelo mixtos no existen f—™tores ™omunes en los polinomiosD t—nto
—utorregresivos ™omo de promedios móvilesF is ™l—ro que si existier—n se podrí—n
™—n™el—r y en ese ™—so el orden del modelo disminuirí— fox —nd tenkins ‘IWUT“
4.4.1. El modelo ARMA (1, 1)
ƒegún l— e™u—™ión RFPT el modelo ARMA (1, 1) se puede es™ri˜ir de l— siE
guiente m—ner—
Yt = φYt−1 + et − θet−1 @RFPUA
gon el (n de o˜tener l—s e™u—™iones de ‰uleE‡—lkerD primeroX
E (et, Yt) = E [et (φYt−1 + et − θet−1)]
= σ2
e
y
E (et−1Yt) = E [et−1 (φYt−1 + et − θet−1)]
= φσ2
e − θσ2
e
= (φ − θ) σ2
e
ƒi se multipli™— l— e™u—™ión RFPU por Yt−k y se ™—l™ul— el v—lor esper—do se
o˜tiene el siguiente sistem— de e™u—™iones
γ0 = φγ0 + [1 − θ (φ − θ)] σ2
e
γ1 = φγ0 − θσ2
e @RFPVA
γk = φγk−1 €—r— k ≥ 2
‚esolviendo l—s dos primer—s e™u—™iones
γ0 =
1 − φθ + θ2
1 + φ2
σ2
e @RFPWA
ƒolu™ion—ndo l— e™u—™ión re™ursiv—
ρk =
(1 − θφ) (φ − θ)
1 − θφ + θ2
φk−1
€—r— k ≥ 1 @RFQHA
50. QTCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
ƒe puede ™on™luir que l— fun™ión de —uto™orrel—™ión de™re™e — medid— que
los rez—gos k ™re™enF
v— form— del pro™eso line—l gener—l del modelo puede ser o˜tenid— de l—
mism— m—ner— que l— o˜tenid— gr—™i—s — l— e™u—™ión RFIQ
Yr = et + (φ − θ)
∞
j=1
φj−1
et−j @RFQIA
is de™ir
ψj = (φ − θ) φj−1
€—r— j ≥ 1
honde l— ™ondi™ión de est—™ion—ried—d |φ| 1 se tiene que ™umplirF
4.4.2. La Función de Autocorrelación para un Proceso
ARMA (p, q) Cryer and Chan [2008]
€—r— un modelo gener—l ARMA (p, q) , teniendo en ™uent— que et es indeE
pendiente de Yt−1, Yt−2, Yt−3, . . . , un— solu™ión est—™ion—ri— — l— e™u—™ión RFPT
existe si y solo si tod—s l—s r—í™es en v—lor —˜soluto de l— e™u—™ión ™—r—™terísti™—
AR son m—yores que 1.
ƒi l— ™ondi™ión de est—™ion—ried—d se s—tisf—™eD el modelo puede ser es™rito
™omo un pro™eso gener—l line—l ™on ψ ™oe(™ientes determin—dos gr—™i—s —
ψ0 = 1 @RFQPA
ψ1 = −θ1 + φ1
ψ2 = −θ2 + φ2 + φ1ψ1
FFF
ψj = −θj + φpψj−p + φp−1ψj−p+1 + · · · + φ1ψj−1
dondeD por pr—™ti™id—d se tom— ψj = 0 p—r— j 0 y θj = 0 p—r— j q.
„eniendo en ™uent— l— ™ondi™ión de est—™ion—ried—dD l— fun™ión de —uto™oE
rrel—™ión s—tisf—™e
ρk = φ1ρk−1 + φ2ρk−2 + +φpρk−p €—r— k q @RFQQA
edemásD se— {Yt} un pro™eso ARMA (p, q) inverti˜leD teniendo en ™uent—
que di™ho pro™eso se puede es™ri˜ir en un— form— gener—l line—l de l— siguiente
form—
Yt =
∞
j=0
ψjet−j @RFQRA
donde los pesos ψ pueden ser o˜tenidos re™ursiv—mente gr—™i—s — l— e™u—™ión
RFQPD luego
E (Yt+ket) = E
∞
j=0
ψjet+k−jet
= ψkσ2
e €—r— k ≥ 0 @RFQSA
51. 4.4. MODELOS MIXTOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESQU
inton™es l— —uto™ov—ri—nz— de˜e s—tisf—™er
γk = E (Yt+kYt) = E
p
j=1
φjYt+k−j −
q
j=0
θjet+k−j
Yt
@RFQTA
=
p
j=1
φjγk−j − σ2
e
q
j=0
θψj−k
honde θ0 = 1 y l— ultim— sum— se ™—n™el— si k q. ƒi se est—˜le™e k =
0, 1, , p y γ−k = γk se puede ™on™luir que existen p + 1 e™u—™iones line—les en
γ0, γ1, . . . , γp.
γ0 = φ1γ1 + φ2γ2 + · · · + φpγp − σ2
e (θ0 + θ1ψ1 + · · · + θ1ψ1)
γ1 = φ1γ0 + φ2γ1 + · · · + φpγp−1 − σ2
e (θ1 + θ2ψ1 + · · · + θqψq−1)
FFF
γp = φ1γp−1 + φ2γp−2 + · · · + φpγ0 − σ2
e (θp + θp+1ψ1 + · · · + θqψq−p)
@RFQUA
donde θj = 0 si j q.
€—r— un ™onjunto d—do de p—rámetros σ2
e , φ y θ @y por ende ψA se pueden
solu™ion—r l—s e™u—™iones ™on el (n de o˜tener γ0, γ1, . . . , γp. vos v—lores de γk
p—r— k p pueden ser ev—lu—dos en l— e™u—™ión re™ursiv— RFQQF pin—lmente ρk
es o˜tenido por medio de l— e™u—™iónF
ρk =
γk
γ0
4.4.3. Invertibilidad
enteriormente se h— expuesto que p—r— un pro™eso MA (1) se o˜tiene ex—™E
t—mente l— mism— fun™ión de ™orrel—™ión si θ es reempl—z—do por 1
θ . v— f—lt—
de uni™id—d de los modelos MA, d—d— su fun™ión de —uto™orrel—™iónD de˜e ser
tenid— en ™uent— —ntes de intent—r inferir los v—lores de los p—rámetros ™on ˜—se
en l— serie de tiempo o˜serv—d—F
…n pro™eso —utorregresivo puede ser expres—do ™omo un pro™eso line—l geE
ner—l por medio de los ™oe(™ientes ψ, es de™ir que un pro™eso AR puede ser
pens—do ™omo un pro™eso de promedios móviles MA de orden in(nitoF
gonsidérese un modelo MA (1)
Yt = et − θet−1 @RFQVA
‚ees™ri˜iendo l— e™u—™ión RFQV de l— form— et = Yt + θet−1D reempl—z—ndo t
por t − 1 y sustituyendo por et−1 se o˜tiene
et = Yt + θ (Yt−1 + θet−2)
= Yt + θYt−1 + θ2
et−2
52. QVCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
ƒi |θ| 1, se puede ™ontinu—r l— —nterior sustitu™ión in(nit—mente ™on el (n
de o˜tener l— siguiente e™u—™ión
et = Yt + θYt−1 + θ2
Yt−2 + · · ·
o
Yt = −θYt−1 − θ2
Yt−2 − θ3
Yt−3 − · · · + et @RFQWA
ƒi |θ| 1, se puede ver que el modelo MA (1) puede ser invertido en un
modelo —utorregresivo de orden in(nitoF is de™irD se di™e que el modelo MA (1)
es inverti˜le si y solo si |θ| 1.
€—r— un pro™eso gener—l MA (q) o ARMA (p, q) , se de(ne el polinomio ™—E
r—™terísti™o ™omo
θ (x) = 1 − θ1x − θ2x2
− θ3x3
− · · · − θqxq
@RFRHA
y l— ™orrespondiente e™u—™ión ™—r—™terísti™— MA
1 − θ1x − θ2x2
− θ3x3
− · · · − θqxq
= 0 @RFRIA
inton™es el modelo MA (q) es invertible fox —nd tenkins ‘IWUT“Y es de™irD
existen ™oe(™ientes πj t—les que
Yt = π1Yt−1 + π2Yt−2 + π3Yt−3 + · · · + et @RFRPA
ƒi y solo si l—s r—í™es de l— e™u—™ión ™—r—™terísti™— son m—yoresD en v—lor
—˜solutoD — 1.
53. Capítulo 5
Modelos para Series de
Tiempo No Estacionarias
in el siguiente ™—pítulo se introdu™irá el ™on™epto de diferen™i—™ión u oper—E
dor diferen™i— de orden pD ™on el (n de indu™ir l— est—™ion—ried—d de un— serie de
tiempo no est—™ion—ri—F „eniendo este ™on™eptoD es posi˜le lleg—r —l import—nte
™on™epto de los modelos integr—dos —utorregresivos de promedios móvilesF
edemásD se explor—rán otro tipo de tr—nsform—™iones que tienen el mismo
o˜jetivoD t—les tr—nsform—™iones son los ™—m˜ios de por™ent—jeD log—ritmos y de
form— más gener—l l—s tr—nsform—™iones de poten™i— o tr—nsform—™iones foxE
goxF
5.1. Estacionariedad a través de los Operadores
Diferencia
gonsidérese el modelo AR (1)
Yt = φYt−1 + et @SFIA
ƒe h— di™ho en los ™—pítulos —nterioresD que si et no est— ™orrel—™ion—d— ™on
Yt−1, Yt−2, ..., se tiene que tener |φ| 1. ƒin em˜—rgo surge l— pregunt—X ¾ué
podrí— p—s—r si di™h— ™ondi™ión no se ™umplecF
gonsidérese l— siguiente e™u—™ión
Yt = 3Yt−1 + et @SFPA
ster—ndo respe™to —l p—s—doD ™omo y— se h— he™ho en ™—pítulos —nterioresD se
o˜tieneX
Yt = et + 3et−1 + 32
et−2 + · · · + 3t−1
ei + 3t
Y0 @SFQA
ƒe puede o˜serv—r que l— in)uen™i— de los v—lores dist—ntes del p—s—do de Yt
y et, no se —nul—D de he™hoD los pesos —pli™—dos — Y0 y e1 ™re™en de un— m—ner—
exponen™i—lF
QW
54. RHCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
iste fenómeno t—m˜ién se re)ej— en l—s fun™iones de v—ri—nz— y ™ov—ri—nz—D
™omo se muestr— — ™ontinu—™ión
V ar (Yt) =
1
8
9t
− 1 σ2
e @SFRA
y
Cov (Yt, Yt−k) =
3k
8
9t−k
− 1 σ2
e @SFSA
he l— mism— m—ner—
Corr (Yt, Yt−k) = 3k 9t−k
− 1
9t − 1
≈ 1
gu—ndo t tiende — in(nitoD y ™u—ndo los v—lores de k son moder—dos
iste mismo fenómeno de ™re™imiento exponen™i—l o gomport—miento ixE
plosivo (™iteX gryer) o™urrirá p—r— ™u—lquier φ t—l que |φ| 1.
ytro tipo de modelos no est—™ion—rios son los que ™umplen ™on l— ™ondi™ión
|φ| = 1. …n modelo de di™h—s ™—r—™terísti™—s es de l— form—X
Yt = Yt−1 + et @SFTA
hi™h— e™u—™ión se puede es™ri˜ir de un— form— —ltern—tiv—X
Yt = et @SFUA
honde Yt = Yt − Yt−1 se ™ono™e ™omo l— primera diferencia de YtD u
operador diferencia de primer orden querrero ‘IWWV“F
he est— de(ni™ión se pueden h—™er supuestos —™er™— de los modelos ™uyos
oper—dores diferen™i— son modelos est—™ion—riosF €or ejemploD supóng—se
Yt = Mt + Xt @SFVA
honde Mt es un— serie ™—m˜i—nte respe™to —l tiempoF in este ™—so Mt puede
serD ˜ien se—D esto™ásti™—D o determinísti™—F ƒi se supone que Mt es —proxim—d—E
mente ™onst—nte en dos puntos ™onse™utivos de tiempoD se podrí— estim—r Mt si
se elige un β0 de t—l form— que gryer —nd gh—n ‘PHHV“
1
j=0
(Yt−j − β0,t)
2
ƒe minimi™eD ™on lo que se o˜tiene
ˆMt =
1
2
(Yt + Yt−1)
y l— serie de tiempo sin tenden™i— en el tiempo t esX
Yt − ˆMt = Yt −
1
2
(Yt + Yt−1) =
1
2
(Yt − Yt−1) =
1
2
Yt
55. 5.1. ESTACIONARIEDAD A TRAVÉS DE LOS OPERADORES DIFERENCIARI
is de™ir un— ™onst—nte múltiple del oper—dor diferen™i— Yt.
ytro supuesto de gr—n import—n™i— es que Mt en l— e™u—™ión SFV es un pro™eso
esto™ásti™oD ™ondi™ion—do por un pro™eso de 4™—min—t— —le—tori—4D supong— por
ejemplo queX
Yt = Mt + et ™on Mt = Mt−1 + εt @SFWA
honde {et} y {εt} son series de tiempo de ruido ˜l—n™o independientesD
enton™es
Yt = Mt + et
= εt + et − et−1
v— ™u—l tendrí— l— fun™ión de —uto™orrel—™ión de un modelo MA (1) ™on
ρ1 = −
1
2 +
σ2
ε
σ2
e
@SFIHA
en ™u—lquier— de est—s situ—™ionesD se tiene que estudi—r el oper—dor diferen™i—
Yt ™omo un pro™eso est—™ion—rioF
v— suposi™ión que ™ondu™e — un he™ho ˜—st—nte import—nteD es en l— que teE
niendo en ™uent— l— e™u—™ión SFVD y —sumiendoD en este ™—so que Mt es de ™—rá™ter
line—l en tres puntos de tiempo ™onse™utivosF in este ™—so se puede estim—r Mt
en el punto de tiempo medio t eligiendo β0,t y β1,tD t—les que minimi™en
1
j=−1
(Yt−j − (β0,t + jβ1,t))
2
y˜teniendo
ˆMt =
1
3
(Yt+1 + Yt + Yt−1)
€or ™onsiguiente l— serie de tiempo sin tenden™i— es
Yt − ˆMt = Yt −
Yt+1 + Yt + Yt−1
3
= −
1
3
(Yt+1 − 2Yt + Yt−1)
= −
1
3
2
(Yt+1)
…n— múltiple ™onst—nte del oper—dor diferen™i— ™entr—do de segundo orden
de Yt. xótese que se h— —pli™—do l— diferen™i— dos ve™esD peroD —m˜—s diferen™i—s
en el rez—go 1. del mismo modo es posi˜le —sumir que gryer —nd gh—n ‘PHHV“
Yt = Mt +et, honde Mt = Mt−1 +Wt y Wt = Wt−1 +εt @SFIIA
56. RPCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
gon {et} y {εt} series de tiempo independientes de ruido ˜l—n™oF in este
™—so l— tenden™i— Mt es —quell— ™uy— 4t—s— de ™—m˜io4 Mt, está ™—m˜i—ndo
™on respe™to —l tiempo lent—menteF inton™es
Yt = Mt + et = Wt + et
y
2
Yt = Wt + 2
et
= εt + (et − et−1) − (et−1 − et−2)
= εt + et − 2et−1 + et−2
v— ™u—lD tiene l— fun™ión de —uto™orrel—™ión de un pro™eso MA (2) . vo imE
port—nte es el he™ho que el oper—dor diferen™i— de segundo orden de un pro™eso
no est—™ion—rio {Yt} es est—™ion—rioF iste he™ho permite de(nir los modelos
integr—dos —utorregresivos de promedios móvilesF
5.2. Modelos Integrados Autorregresivos de Pro-
medios Móviles
Denición 43 Una serie de tiempo {Yt} se dice que sigue un modelo integrado
autorregresivo de promedios móviles ARIMA si el operador diferencia de or-
den d Wt = d
Yt es un proceso ARMA estacionario. Si {Wt} es un proceso
ARMA (p, q) , se dice que {Yt} es un modelo ARIMA (p, d, q) . Box and Jenkins
[1976]
efortun—d—menteD p—r— efe™tos prá™ti™osD se puede tom—r d = 1 o l— sumo 2.
gonsidérese un pro™eso ARIMA (p, 1, q) ™on Wt = Yt − Yt−1 enton™esX
Wt = φ1Wt−1+φ2Wt−2+· · ·+φpWt−p+et−θ1et−1−θ2et−2−· · ·−θqet−q @SFIPA
vo que en términos de l— serie de tiempo o˜serv—d— equiv—le —X
Yt − Yt−1 = φ1 (Yt−1 − Yt−2) + φ2 (Yt−2 − Yt−3) + · · · + φp (Yt−p − Yt−p−1)
+ et − θ1et−1 − θ2et−2 − · · · − θqet−q @SFIQA
vo ™u—l se puede es™ri˜irX
Yt = (1 + φ1) Yt−1 + (φ2 − φ1) Yt−2 + (φ3 − φ2) Yt−3 + · · · @SFIRA
+ (φp − φp−1) Yt−p − φpYt−p−1 + et − θ1et−1 − θ2et−2 − · · · − θqet−q
ist— últim— e™u—™ión se ™ono™e ™omo la forma de la ecuación diferencia del
modeloF fox —nd tenkins ‘IWUT“
v—s represent—™iones explí™it—s de l— serie de tiempo o˜serv—d—D ˜ien se—D
en términos de Wt o en términos del pro™eso de ruido ˜l—n™oD son mu™ho más
™ompli™—dos que en los pro™esos est—™ion—riosF isto se de˜e — que los pro™esos
57. 5.2. MODELOS INTEGRADOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESRQ
no est—™ion—rios no están en un 4equili˜rio est—dísti™o4D no se puede —sumir l—
serie tieneD por de™irlo de —lgun— m—ner—D un p—s—do in(nitoF ƒin em˜—rgoD se
puede —sumir que l—s series ™omienz—n en un t = −m.
€or ™onvenien™i—D se tom—rán Yt = 0 p—r— t −m. v— e™u—™ión del oper—dor
diferen™i— Yt − Yt−1 = Wt, se puede solu™ion—r sum—ndo desde t = −m h—st—
t = t p—r— o˜tenerX
Yt =
t
j=−m
Wj @SFISA
€—r— el pro™eso ARIMA (p, 1, q) .
il pro™eso ARIMA (p, 2, q) puede ser resuelto simil—rmenteD sum—ndo dos
ve™es p—r— o˜tener l— represent—™ión
Yt =
t
j=−m
j
i=−m
Wi @SFITA
=
t+m
j=0
(j + 1) Wt−j
eunque est—s represent—™iones tiene usos limit—dosD pueden ser us—dos p—r—
o˜tener l—s propied—des de l— ™ov—ri—nz— del modelo ARIMA y t—m˜ién p—r—
expres—r Yt en términos de l— serie de ruido ˜l—n™o {et} .
ƒi el pro™eso ™ontiene términos no —utorregresivosD se le ll—m—rá un modelo
integr—do de promedios móviles y se —˜revi—rá IMA (d, q) . €or otro l—do si l—
serie no tiene términos de promedios móviles se le denomin— ARI (p, d) .
5.2.1. El Modelo IMA (1, 1)
il modelo simple IMA (1, 1) , s—tisf—™tori—menteD represent— numeros—s seE
ries de tiempoD espe™í(™—menteD —quell—s que surgen en pro˜lem—s e™onómi™os
querrero ‘IWWV“F in l— form— de l— e™u—™ión diferen™i— el modelo tiene l— form—X
Yt = Yt−1 + et − θet−1 @SFIUA
gon el (n de es™ri˜ir Yt explí™it—mentementeD ™omo un— fun™ión de v—lores
del ruido ˜l—n™o t—nto del futuro ™omo del presenteD se us—rá l— e™u—™ión SFIS y
el he™ho que Wt = et − θet−1F in este ™—soD se puede es™ri˜ir
Yt = et + (1 − θ) et−1 + (1 − θ) et−2 + · · · + (1 − θ) e−m − θe−m−1 @SFIVA
in ™ontr—ste — los modelos est—™ion—rios ARMAD los pesos de los términos
del ruido ˜l—n™oD perm—ne™enD sin import—r que se tomen v—lores del p—s—doF
he˜ido — que se —sumió que −m 1 y 0 t, se de˜e pens—r — Yt ™omo
un— —™umul—™ión igu—lmente ponder—d— de un gr—n número de v—lores de ruido
˜l—n™oF
58. RRCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
he l— e™u—™ión SFIV se pueden ™—l™ul—r l—s v—ri—nz—s y l—s ™orrel—™iones de l—
siguiente m—ner—
V ar (Yt) = 1 + θ2
+ (1 − θ)
2
(t + m) σ2
e @SFIWA
y
Corr (Yt, Yt−k) =
1 − θ + θ2
+ (1 − θ)
2
(t + m − k)
V ar (Yt) V ar (Yt−k)
≈
t + m − k
t + m
@SFPHA
ƒe puede not—r que ™onforme que t —ument—D V ar (Yt) —ument—F „—m˜ién l—
™orrel—™ión entre Yt y Yt−k será fuertemente positiv— p—r— los rez—gos k = 1, 2, ...
5.2.2. El Modelo IMA (2, 2)
vos supuestos de l— e™u—™ión SFIID ™ondu™e — un modelo IMA (2, 2) . in l—
form— de l— e™u—™ión diferen™i— el modelo tiene l— form—X
2
Yt = et − θ1et−1 − θ2et−2
o
Yt = 2Yt−1 − Yt−2 + et − θ1et−1 − θ2et−2 @SFPIA
v— represent—™ión de l— e™u—™ión SFIT puede ser us—d— p—r— expres—r Yt en
términos de et, et−1, ... de l— siguiente form—X
Yt = et +
t+m
j=1
ψjet−j − [(t + m + 1) θ1 + (t + m) θ2] e−m−1 @SFPPA
− (t + m + 1) θ2e−m−2
honde ψ = 1 + θ2 + (1 − θ1 − θ2) j p—r— j = 1, 2, 3, .., t + m, donde los pesos
ψ perm—ne™en y form—n un— fun™ión line—l de j.
5.2.3. El Modelo ARI (1, 1)
il pro™eso ARI (1, 1) s—tisf—™e l— siguiente e™u—™ión puller ‘IWWT“
Yt − Yt−1 = φ (Yt−1 − Yt−2) + et @SFPQA
o
Yt = (1 + φ) Yt−1 − φYt−2 + et @SFPRA
honde |φ| 1
€—r— en™ontr—r los pesos ψ se us—rá un— té™ni™— que se puede gener—liz—r —
™u—lquier modelo ARIMA,
59. 5.2. MODELOS INTEGRADOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESRS
vos pesos ψ pueden ser o˜tenidos igu—l—ndo l—s poten™i—s de x en l— identid—d
1 − φ1x − φ2x2
− · · · − φpxp
(1 − x)
d
1 + ψ1x + ψ2x2
+ ψ3x3
+ · · · @SFPSA
= 1 − θ1x − θ2x2
− θ3x3
− · · · − θqxq
in el ™—so del modelo ARI (1, 1) l— rel—™ión se redu™e —X
(1 − φx) (1 − x) 1 + ψ1x + ψ2x2
+ ψ3x3
+ · · · = 1
o
1 − (1 + φ) x + φx2
1 + ψ1x + ψ2x2
+ ψ3x3
+ · · · = 1
sgu—l—ndo l—s poten™i—s semej—ntes — —m˜—s p—rtes de l— igu—ld—dD se o˜tiene
− (i + φ) + ψ = 0
φ − (1 + φ) ψ1 + ψ2 = 0
y en gener—l
ψk = (1 + φ) ψk−1 − φψk−2 €—r— k ≥ 2 @SFPTA
gon ψ0 = 1 y ψ1 = 1 + φ. ist— fun™ión re™ursiv— permite ™—l™ul—r t—ntos
pesos ψ ™omo se— ne™es—rioF
5.2.4. Términos Constantes en modelos ARIMA
€—r— un modelo ARIMA (p, d, q) , d
Yt = Wt es un pro™eso ARMA (p, q) esE
t—™ion—rioD teniendo en ™uent— el supuesto que un modelo est—™ion—rio tiene meE
di— igu—l — ™eroD es de™ir que se tr—˜—j—rá ™on desvi—™iones de l—s medi— ™onst—nE
tesF …n— medi— diferente de ™ero ™onst—nte µD en un modelo ARMA est—™ion—rio
{Wt} puede ser —™omod—do en ™u—lquier— de los dos ™—sosF ƒe puede —sumir que
fox —nd tenkins ‘IWUT“X
Wt−µ = φ1 (Wt−1 − µ) + φ2 (Wt−2 − µ) + · · · + φp (Wt−p − µ)
+ et − θ1et−1 − θ2et−2 − · · · − θqet−q
eltern—tiv—menteD se puede introdu™ir un término ™onst—nte θ0 en el modelo
de l— siguiente m—ner—
Wt = θ0 + φ1Wt−1 + φ2Wt−2 + · · · + φpWt−p
+ et − θ1et−1 − θ2et−2 − · · · − θqet−q
„om—ndo los v—lores esper—dos en —m˜—s p—rtes de l— igu—ld—d
µ = θ0 + (φ1 + φ2 + · · · + φn) µ
inton™es
µ =
θ0
1 − φ1 − φ2 − · · · − φp
@SFPUA
60. RTCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
o
θ0 = µ (1 − φ1 − φ2 − · · · − φp) @SFPVA
e ™ontinu—™ión se ev—lu—rá el ™—so de un— medi— diferente de ™eroF
gonsidere el modelo IMA (1, 1) ™on un término ™onst—nteD enton™es se tiene
Yt = Yt−1 + θ0 + et − θet−1
o
Wt = θ0 + et − θet−1
ƒustituyendo en l— e™u—™ión SFIR de l— págin— RP se puede ™on™luir que
Yt = et + (1 − θ) et−1 + et + (1 − θ) et−2 + · · · + et + (1 − θ) e−m − e−m−1
@SFPWA
+ (t + m + 1) θ0
5.2.5. Otras Transformaciones
r—st— el momento se h— des™rito ™omo el oper—dor diferen™i—D puede ser un—
útil tr—nsform—™ión p—r— o˜tener est—™ion—ried—dF ƒin em˜—rgoD l— tr—nsform—E
™ión por log—ritmo t—m˜ién es muy útil en —lgunos ™—sosF pre™uentemente se
pueden en™ontr—r series de tiempo dondeD el in™remento de l— dispersión p—re™e
est—r —so™i—d— — —ltos niveles de l— serieD lo que impli™— m—yor dispersión en el
nivel gryer —nd gh—n ‘PHHV“F
ispe™í(™—mente supong— que Yt 0 p—r— todo t y que
E (Yt) = µt y V ar (Yt) = µtσ @SFQHA
inton™es
E [log (Yt)] ≈ log (µt) y V ar [log (Yt)] ≈ σ2
@SFQIA
il siguiente result—do se o˜tiene tom—ndo v—lores esper—dos y v—ri—nz—s —
—m˜os l—dos de l— exp—nsión de „—ylor
log (Yt) = log (µt) +
Yt − µt
µt
is de™irD que si l— desvi—™ión estánd—r de l— serie de tiempo es propor™ion—l —l
nivel de l— serieD l— tr—nsform—™ión log—rítmi™— produ™irá un— serie ™on v—ri—nz—
—proxim—d—mente ™onst—nte — lo l—rgo del tiempoF edemásD si el nivel de l— serie
™—m˜i— exponen™i—lmenteD l— serie logEtr—nsform—d— tendrá un— tenden™i— line—lD
por lo que se utiliz—rá el oper—dor diferen™i— de primer ordenF
61. 5.2. MODELOS INTEGRADOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESRU
5.2.5.1. Cambios de Porcentajes y Logaritmos
ƒupóng—se que Yt tiende — tener un por™ent—je de ™—m˜ios rel—tiv—mente
est—˜le de un periodo de tiempo —l siguienteF ispe™í(™—mente se —sume queX
Yt = (1 + Xt) Yt−1
honde 100Xt es el por™ent—je de ™—m˜io de Yt−1 — Yt enton™es
log (Yt) − log (Yt−1) = log
Yt
Yt−1
= log (1 + Xt)
ƒi se restringe Xt — |Xt| 0,2 @es de™irD que el por™ent—je de ™—m˜ios son — lo
más ±20 %A p—r— un— ˜uen— —proxim—™ión log (1 + Xt) ≈ XtF gonse™uentemente
[log (Yt)] ≈ Xt
ƒerá rel—tiv—mente est—˜le y lo más pro˜—˜le es que se— un pro™eso est—™ioE
n—rio ˜ien model—do fox —nd tenkins ‘IWUT“F
5.2.5.2. Transformaciones de Potencia
Denición 44 Para un parámetro dado λ, la transformación se dene como
Box and Jenkins [1976]
g (x) =
xλ
−1
λ Para λ = 0
log x Para λ = 0
v—s tr—nsform—™iones de poten™i—s solo se pueden —pli™—r — d—tos m—yores
— ™eroF ƒi —lguno de los v—lores no ™umple l— ™ondi™ión —nteriorD se tiene que
sum—r un— ™onst—nte positiv— — todos los v—lores de l— serieD ™on el (n de h—™erlos
positivos —ntes de h—™er l— tr—nsform—™iónF hi™ho ™—m˜ioD gener—lmenteD se h—™e
de m—ner— —r˜itr—ri—F
ƒe puede ™onsider—r — λ ™omo un p—rámetro —di™ion—l en el modeloD que tiene
que ser estim—doF ƒin em˜—rgoD un— estim—™ión pre™is— de λ no está usu—lmente
g—r—ntiz—d—D y p—r— di™hos efe™tos los softw—re est—dísti™os ofre™en un— —mplio
r—ngo de posi˜ilid—des p—r— efe™tu—r di™h— estim—™iónF
63. Capítulo 6
Construcción del Modelo
in los ™—pítulos —nteriores se h—n des—rroll—do modelos p—r—métri™osD t—nto
est—™ion—rios ™omo no est—™ion—rios p—r— series de tiempoD los modelos ARIMA.
in este ™—pítulo se estudi—rán y se implement—rán los métodos p—r— h—™er inE
feren™i— est—dísti™— so˜re di™hos modelosD teniendo en ™uent— los siguientes —sE
pe™tosF
IF v— m—ner— de es™oger v—lores —propi—dos p—r— p, d y q p—r— un— serie de
tiempo d—d—F
PF l— m—ner— de estim—r los p—rámetros de un modelo ARIMA (p, d, q) .
QF v— m—ner— de veri(™—r si un modelo es —propi—doD o mejor—rlo en ™—so de
ser ne™es—rioF
v— estr—tegi— gener—l — tener en ™uent— ™onsisteD en primer— medid—D en elegir
v—lores tent—tivos pero r—zon—˜les p—r— p, d y qF vuegoD se estim—r—n los p—rámeE
tros φD θ y σe más e(™ientes p—r— el modeloF €or últimoD se veri(™—r— el modelo
o˜tenidoD ™on el (n de ™ompro˜—r su e(™—™i—F ƒi el modelo p—re™e ser in—de™u—do
en —lgún sentidoD se ™onsider—rá — di™ho modelo ™omo un— ˜—se p—r— elegir un
nuevo modelo más —de™u—doD y repetir el pro™esoF
gon un—s ™u—nt—s iter—™iones de est— estr—tegi— p—r— l— ™onstru™™ión del
modeloD se esper—D que se llegue —l mejor modelo posi˜le p—r— un— serie de
tiempo d—d—F qr—n p—rte de l— liter—tur— inherente — l—s series de tiempo ll—m—n
— est— estr—tegi— el método 4foxEtenkins4 fox —nd tenkins ‘IWUT“
6.1. Especicación del Modelo
in primer— medid—D y ™on el (n de est—˜le™er los mejores v—lores p—r— p, d y
q se estudi—rán l—s propied—des de l— fun™ión de —uto™orrel—™ión
RW
64. SH CAPÍTULO 6. CONSTRUCCIÓN DEL MODELO
6.1.1. Propiedades de la Función de Autocorrelación Mues-
tral
„eniendo en ™u—nt— l— de(ni™ión de l— fun™ión de —uto™orrel—™ión muestr—l
o estim—d— p—r— un— serie o˜serv—˜— Y1, Y2, ...Yn de l— págin— PRD se tieneX
rk =
n
t=k+1
Yt − ¯Y Yt−k − ¯Y
n
t=1
Yt − ¯Y
2
@TFIA
il o˜jetivo prin™ip—l es re™ono™erD ™omport—mientos de rk que son ™—r—™E
terísti™os de los ™omport—mientos ™ono™idos de ρf p—r— modelos ARMA. €or
ejemploD y— se h— dis™utido que ρk = 0 p—r— k q
en un modelo MA (q) . ƒin em˜—rgoD ™omo rk es un— estim—™ión de ρkD se
de˜en enun™i—r l—s propied—des muestr—les ™on el (n de f—™ilit—r l— ™omp—r—™ión
de l—s ™orrel—™iones estim—d—s ™on l—s ™orrel—™iones teóri™—sF
„eniendo en ™uent— que según l— de(ni™ión de rk, rk es un— f—mili— de e™u—™ioE
nes ™u—dráti™—sD de v—ri—˜les posi˜lemente dependientesD l—s propied—des muesE
tr—les de rk no son sen™ill—s de estim—rD de modo que se tendrán en ™uent— los
result—dos gener—les de un— muestr— numeros— y ™onsider—r sus impli™—™iones en
™—sos espe™i—les frillinger ‘PHHI“D —demásD se tendrá en ™uent— un result—do más
gener—l tom—do de ƒhumw—y —nd ƒto'er ‘PHHT“ @págin— SIWA
ƒupóng—se queX
Yt = µ +
∞
j=0
ψjet−j
honde et son v—ri—˜les —le—tori—s idénti™—mente distri˜uid—s ™on medi— igu—l
— ™ero y v—ri—nz—s (nit—s diferentes de ™eroF edemás se —sume queX
∞
j=0
|ψj| ∞ y
∞
j=0
jψ2
j ∞
@gondi™iones que se s—tisf—™en en un modelo ARMA est—™ion—rioA
inton™esD p—r— ™u—lquier m (joD l— distri˜u™ión ™onjunt— de
√
n (r1 − ρ1) ,
√
n (r2 − ρ2) , ...,
√
n (rm − ρm)
ƒe —proxim—D ™u—ndo n tiende — in(nitoD — un— distri˜u™ión norm—l ™on medi—
™eroD v—ri—nz—s cjj, y ™ov—ri—nz—s cij donde
cij =
∞
k=−∞
ρk + iρk+j + ρk−iρk+j − 2ρiρkρk+j − 2ρjρkρk+i + 2ρiρjρ2
k @TFPA
€—r— t—m—ños de muestr— n signi(™—tiv—mente gr—ndesD se puede de™ir que rk
sigue un— distri˜u™ión —proxim—d—mente norm—l ™on medi— ρk y v—ri—nz— ckk
n .
65. 6.1. ESPECIFICACIÓN DEL MODELO SI
edemásD Corr (rk, rj) ≈
ckj
√
ckkcjj
. „eniendo en ™uent— que l— v—ri—nz— —proxim—E
d— de rk es invers—mente propor™ion—l —l t—m—ño de l— muestr—D ƒin em˜—rgoD
Corr (rk, rj) es —proxim—d—mente ™onst—nte p—r— t—m—ños de muestr— gr—ndesF
h—do que l— interpret—™ión de l— e™u—™ión TFP es ™ompli™—d—D se ™onsider—rán
—lgunos ™—sos espe™i—les ™on el (n de simpli(™—r l— expresiónF
ƒupóng—seD en primer— medid—D que {Yt} es un pro™eso de ruido ˜l—n™oF
inton™esD l— e™u—™ión TFPD se redu™e ™onsider—˜lemente —X
V ar ≈
1
n
y Corr (rk, rj) ≈ 0 €—r— k = j @TFQA
ehor—D supóng—se que {Yt} es gener—do por un pro™eso AR (1) ™on ρk = φk
p—r— k 0. l— e™u—™ión TFP ™ondu™e —F
V ar (rk) ≈
1
n
1 + φ2
1 − φ2k
1 − φ2
− 2kφ2k
@TFRA
in p—rti™ul—r
V ar (r1) ≈
1 − φ2
n
@TFSA
xótese queD ™u—ndo φ es ™er™—no — ±1, l— estim—™ión de ρ = φ es más pre™is—F
€—r— gr—ndes rez—gos kD los términos de l— e™u—™ión TFR los φk
pueden ser
ignor—dosD enton™es
V ar (rk) ≈
1
n
1 + φ2
1 − φ2
€—r— gr—ndes rez—gos k @TFTA
in ™ontr—ste ™on l— e™u—™ión TFSD si φ es ™er™—no — ±1 l— v—ri—nz— de rk
™re™eD por lo que no se ™onsider— ™onveniente esper—r estim—™iones pre™is—s de
ρk = φk
≈ 0, p—r— rez—gos gr—ndes ™omo se esper—n p—r— rez—gos pequeñosF
€—r— el modelo AR (1) l— e™u—™ión TFPD t—m˜ién puede ser simpli(™—d— p—r—
0 i j de l— siguiente m—ner—F
cij =
φj−i
− φj+i
1 + φ2
1 − φ2
+ (j − i) φj−i
− (j + i) φj+i
@TFUA
€—rti™ul—rmente se en™uentr— queX
Corr (r1, r2) ≈ 2φ
1 − φ2
1 + 2φ2 − 3φ4
@TFVA
€—r— el ™—so MA (1) l— e™u—™ión TFP puede ser simpli(™—d— de l— siguiente
m—ner—
c11 = 1 − 3ρ2
1 + 4ρ4
1 y ckk = 1 + 2ρ2
1 €—r— k 1 @TFWA
edemás
c12 = 2ρ 1 − ρ2
1 @TFIHA