SlideShare una empresa de Scribd logo
1 de 147
Descargar para leer sin conexión
REVISIÓN DEL ESTADO DEL ARTE EN EL ANÁLISIS DE
SERIES DE TIEMPO
Por:
Hernán Camilo Yate Támara
camilo_yate@yahoo.fr
Director:
Mat. Leonardo Jiménez Moscovitz
Investigador Grupo de Investigación PROMENTE
KONRAD LORENZ-FUNDACIÓN UNIVERSITARIA
FACULTAD DE MATEMÁTICAS E INGENIERÍAS
PROGRAMA DE MATEMÁTICAS
JUNIO DE 2011
Nota:
Este trabajo nace de la confluencia entre el interés del estudiante Hernán Camilo Yate
Támara y los intereses académicos del grupo de investigación PROMENTE, alrededor del
análisis de series de tiempo utilizando el software libre R, y consta de dos partes: la primera
desarrollada como parte del trabajo del Grado y la otra desarrollada dentro de la práctica
investigativa, la cual se anexa al final de este documento.
e mi m—dre
v— que nun™— me nieg— sus m—nos t—n ti˜i—s
v— que se™— mis lágrim—s y entreg— ™—ri™i—s
v— que —mp—r— tristez—s y reg—l— sonris—s
v— que ™on dul™es p—l—˜r—s —lient— mis dí—s
v— que me dio l— vid— y me h— enseñ—do — vivirl—
iv
Índice general
Introducción ix
Objetivos xi
Alcance y Limitaciones xiii
1. Preliminares 1
IFIF isp—™io de €ro˜—˜ilid—d F F F F F F F F F F F F F F F F F F F F F F F I
IFIFIF isp—™io wuestr—l de iventos F F F F F F F F F F F F F F F F I
IFIFPF Álge˜r— de iventos F F F F F F F F F F F F F F F F F F F F F F P
IFIFQF pun™ión de €ro˜—˜ilid—d F F F F F F F F F F F F F F F F F F F P
IFPF †—ri—˜les ele—tori—s F F F F F F F F F F F F F F F F F F F F F F F F F Q
IFPFIF †—lor isper—do de un— †—ri—˜le ele—tori— F F F F F F F F F Q
IFPFPF †—ri—nz— de un— †—ri—˜le ele—tori— F F F F F F F F F F F F F Q
IFQF †e™tores ele—torios F F F F F F F F F F F F F F F F F F F F F F F F F F R
IFQFIF †—lor esper—do de un †e™tor ele—torio F F F F F F F F F F F S
IFQFPF †—ri—nz— de un †e™tor ele—torio F F F F F F F F F F F F F F S
IFQFQF pun™ión qener—dor— de womentos gonjunt— F F F F F F F F T
IFQFRF gov—ri—nz— y goe(™iente de gorrel—™ión F F F F F F F F F F T
IFQFSF isper—nz— gondi™ion—l F F F F F F F F F F F F F F F F F F F F U
IFQFTF †—ri—˜les ele—tori—s sndependientes F F F F F F F F F F F F V
IFRF histri˜u™ión xorm—l F F F F F F F F F F F F F F F F F F F F F F F F F V
2. Conceptos Fundamentales 9
PFIF ente™edentes ristóri™os F F F F F F F F F F F F F F F F F F F F F F F W
PFIFIF y˜serv—™iónD medi™ión y gener—liz—™ión F F F F F F F F F F W
PFIFPF porm—liz—™ión F F F F F F F F F F F F F F F F F F F F F F F F F IH
PFPF ƒeries de „iempo y €ro™esos isto™ásti™os F F F F F F F F F F F F F IH
PFQF wedi—sD †—ri—nz—s y gov—ri—nz—s F F F F F F F F F F F F F F F F F F II
PFQFIF v— 4g—min—t— ele—tori—4 @‚—ndom ‡—lkA F F F F F F F F F IP
PFQFPF €romedios wóviles F F F F F F F F F F F F F F F F F F F F F F IQ
PFRF ist—™ion—ried—d F F F F F F F F F F F F F F F F F F F F F F F F F F F F IR
PFRFIF ‚uido fl—n™o @‡hite xoiseA F F F F F F F F F F F F F F F F IS
v
vi ÍNDICE GENERAL
3. Tendencias 17
QFIF „enden™i—s heterminísti™—s ™ontr— „enden™i—s isto™ásti™—s F F F IU
QFPF istim—™ión de l— wedi— gonst—nte F F F F F F F F F F F F F F F F F IU
QFQF wétodos de ‚egresión F F F F F F F F F F F F F F F F F F F F F F F F IW
QFQFIF „enden™i—s vine—les y gu—dráti™—s F F F F F F F F F F F F F IW
QFQFPF „enden™i—s ™í™li™—sF F F F F F F F F F F F F F F F F F F F F F F PH
QFQFQF „enden™i—s del goseno F F F F F F F F F F F F F F F F F F F F PH
QFRF gon(—˜ilid—d y i(™ien™i— de l—s istim—™iones de l— ‚egresión F F PI
QFSF enálisis de ‚esidu—les F F F F F F F F F F F F F F F F F F F F F F F F PQ
QFSFIF pun™ión de euto™orrel—™ión wuestr—l F F F F F F F F F F F F PQ
4. Modelos para Series de Tiempo Estacionarias 25
RFIF €ro™esos qener—les vine—les F F F F F F F F F F F F F F F F F F F F F PS
RFPF €ro™esos de €romedios wóviles F F F F F F F F F F F F F F F F F F F PU
RFPFIF €ro™esos de €romedios wóviles de €rimer yrden F F F F F PU
RFPFPF €ro™esos de €romedios wóviles de ƒegundo yrden F F F F PV
RFPFQF €ro™esos de €romedios wóviles de yrden q F F F F F F F F PW
RFQF €ro™esos eutorregresivos F F F F F F F F F F F F F F F F F F F F F F F PW
RFQFIF €ro™esos eutorregresivos de €rimer yrden F F F F F F F F PW
RFQFIFIF †ersión qener—l vine—l de un wodelo AR (1) F F QH
RFQFIFPF ist—™ion—ried—d de un €ro™eso AR (1) F F F F F F QI
RFQFPF €ro™esos eutorregresivos de ƒegundo yrden F F F F F F F F QI
RFQFPFIF ist—™ion—ried—d de un €ro™eso AR (2) F F F F F F QI
RFQFPFPF v— pun™ión de euto™orrel—™ión del €ro™eso AR (2) QQ
RFQFQF †—ri—nz— del wodelo AR (2) F F F F F F F F F F F F F F F F F QQ
RFQFRF €ro™eso eutorregresivo qener—l F F F F F F F F F F F F F F F QR
RFRF wodelos wixtos eutorregresivos de €romedios wóviles F F F F F F QS
RFRFIF il modelo ARMA (1, 1) F F F F F F F F F F F F F F F F F F F QS
RFRFPF v— pun™ión de euto™orrel—™ión p—r— un €ro™eso ARMA (p, q)
gryer —nd gh—n ‘PHHV“ F F F F F F F F F F F F F F F F F F F F QT
RFRFQF snverti˜ilid—d F F F F F F F F F F F F F F F F F F F F F F F F F QU
5. Modelos para Series de Tiempo No Estacionarias 39
SFIF ist—™ion—ried—d — tr—vés de los yper—dores hiferen™i— F F F F F F QW
SFPF wodelos sntegr—dos eutorregresivos de €romedios wóviles F F F F RP
SFPFIF il wodelo IMA (1, 1) F F F F F F F F F F F F F F F F F F F F RQ
SFPFPF il wodelo IMA (2, 2) F F F F F F F F F F F F F F F F F F F F RR
SFPFQF il wodelo ARI (1, 1) F F F F F F F F F F F F F F F F F F F F F RR
SFPFRF „érminos gonst—ntes en modelos ARIMA F F F F F F F F F RS
SFPFSF ytr—s „r—nsform—™iones F F F F F F F F F F F F F F F F F F F RT
SFPFSFIF g—m˜ios de €or™ent—jes y vog—ritmos F F F F F F RU
SFPFSFPF „r—nsform—™iones de €oten™i— F F F F F F F F F F RU
ÍNDICE GENERAL vii
6. Construcción del Modelo 49
TFIF ispe™i(™—™ión del wodelo F F F F F F F F F F F F F F F F F F F F F F RW
TFIFIF €ropied—des de l— pun™ión de euto™orrel—™ión wuestr—l F SH
TFIFPF v— pun™ión de euto™orrel—™ión €—r™i—l y l— pun™ión de
euto™orrel—™ión ixtendid— F F F F F F F F F F F F F F F F F SP
TFIFPFIF v— pun™ión de euto™orrel—™ión €—r™i—l wuestr—l SR
TFIFPFPF wodelos wixtos y l— pun™ión de euto™orrel—™ión
ixtendid— F F F F F F F F F F F F F F F F F F F F F SS
TFIFQF ispe™i(™—™ión p—r— wodelos xo ist—™ion—rios F F F F F F F ST
TFIFQFIF il pro˜lem—s de l— ƒo˜rediferen™i—™ión F F F F F SU
TFIFQFPF v— prue˜— de l— r—íz unit—ri— de hi™key puller F SU
TFIFRF ytros wétodos de ispe™i(™—™ión F F F F F F F F F F F F F F SV
TFIFRFIF griterio de l— snform—™ión de ek—ike F F F F F F SV
TFIFRFPF griterio de l— snform—™ión f—yesi—no F F F F F F SV
TFPF istim—™ión de €—rámetros F F F F F F F F F F F F F F F F F F F F F F SW
TFPFIF il wétodo de los womentos F F F F F F F F F F F F F F F F F SW
TFPFIFIF wodelos eutorregresivos F F F F F F F F F F F F F SW
TFPFIFPF wodelos de €romedios wóviles F F F F F F F F F F TH
TFPFIFQF wodelos wixtos F F F F F F F F F F F F F F F F F F TI
TFPFIFRF istim—™ión de l— †—ri—nz— del ‚uido F F F F F F F TI
TFPFPF istim—™ión por wínimos gu—dr—dos F F F F F F F F F F F F TP
TFPFPFIF wodelos eutorregresivos F F F F F F F F F F F F F TP
TFPFPFPF wodelos de €romedios wóviles F F F F F F F F F F TR
TFPFPFQF wodelos wixtos F F F F F F F F F F F F F F F F F F TS
TFPFQF istim—™iones de wáxim— †erosimilitud y wínimos gu—E
dr—dos sn™ondi™ion—les F F F F F F F F F F F F F F F F F F F F TT
TFPFQFIF istim—™ión de wáxim— †erosimilitud F F F F F F TT
TFPFQFPF wínimos gu—dr—dos sn™ondi™ion—les F F F F F F F TV
TFPFRF €ropied—des de l—s istim—™iones F F F F F F F F F F F F F F TV
TFQF hi—gnósti™o del wodelo F F F F F F F F F F F F F F F F F F F F F F F TW
TFQFIF enálisis de residu—les F F F F F F F F F F F F F F F F F F F F F TW
TFQFIFIF euto™orrel—™ión de los ‚esidu—les F F F F F F F F UH
TFQFPF ƒo˜re—juste y ‚edund—n™i— de €—rámetros F F F F F F F F F UI
7. Pronósticos 73
UFHFQF €ronósti™o por el wétodo de irror gu—dráti™o wedio F F UQ
UFHFRF „enden™i—s heterminísti™—s F F F F F F F F F F F F F F F F F UT
UFHFSF €ronósti™os de modelos ARIMA F F F F F F F F F F F F F F UT
UFHFSFIF AR (1) F F F F F F F F F F F F F F F F F F F F F F F UU
UFHFSFPF MA (1) F F F F F F F F F F F F F F F F F F F F F F F UW
UFHFSFQF ARMA (p, q) F F F F F F F F F F F F F F F F F F F F VH
UFHFTF wodelos no ist—™ion—rios F F F F F F F F F F F F F F F F F F VP
UFHFUF vímites de l— €redi™™ión F F F F F F F F F F F F F F F F F F F VQ
UFHFUFIF „enden™i—s heterminísti™—s F F F F F F F F F F F F VR
UFHFUFPF wodelos ARIMA F F F F F F F F F F F F F F F F F VR
UFHFVF e™tu—liz—™ión de los €ronósti™os ARIMA F F F F F F F F F VS
viii ÍNDICE GENERAL
UFHFWF €esos de €ronósti™os y €romedios wóviles ixponen™i—lE
mente €onder—dosF F F F F F F F F F F F F F F F F F F F F F F VS
UFHFIHF €ronósti™os de ƒeries de „iempo „r—nsform—d—s F F F F F VU
UFHFIHFIF yper—dor hiferen™i— F F F F F F F F F F F F F F F F VU
UFHFIHFPF „r—nsform—™iones vog—rítmi™—s F F F F F F F F F F VU
8. Modelos de Estado y Espacio y el Filtro Kalman 89
VFIF iv—lu—™ión de l— pun™ión de †erosimilitud y el piltro u—lm—n F F WH
VFPF ist—do sni™i—l de l— w—triz de gov—ri—nz—s F F F F F F F F F F F F F WP
Conclusiones 95
Bibliografía 97
Introducción
vos d—tos o˜tenidos de o˜serv—™iones se™uen™i—les — tr—vés del tiempo son
muy ™omunes en diferentes dis™iplin—sF €or ejemploD en (n—nz—sD se o˜serv—n
™—m˜ios de los pre™ios de un— —™™ión en un dí—D índi™es de pre™ios en un mesD
in)—™iones —nu—lesD et™F in meteorologí—D se o˜serv—n )u™tu—™iones de temper—E
tur— di—ri—D pre™ipit—™iones —nu—lesD est—dos de los suelosD entre otrosF v— list—
de dis™iplin—s en l—s que se estudi—n series de tiempoD prá™ti™—mente no tiene (nD
por lo que el —nálisis de l—s series ™ronológi™—s h— tom—do gr—n import—n™i—F he
he™ho l— teorí— m—temáti™— en l— que se ˜—s— el —nálisis de series de tiempo h—
sidoD quizáD un— de l—s áre—s ™on m—yor —™tivid—dD en los últimos —ñosD ™onvirE
tiéndose —sí en un— herr—mient— de mu™ho peso — l— hor— de resolver pro˜lem—s
sin import—r en l— dis™iplin— que se esté us—ndoF
ƒin em˜—rgoD l— —pli™—™ión de los métodos inherentes — los pro˜lem—s de
series de tiempo requiere un tr—sfondo est—dísti™o fuerteF in el presente texto
se des™ri˜irá l— teorí— ˜ási™— p—r— el —nálisis de series de tiempoD —˜—r™—ndoD
desde los ™on™eptos fund—ment—les de pro˜—˜ilid—d h—st— lleg—r — los modelos
de m—yor estudio @e‚D weD e‚weD e‚sweAD ™on el (n de poder pronosti™—r
est—dísti™—mente los v—lores de l— serie de tiempo de estudioF
v— revisión de l— teorí— propi— de l—s series ™ronológi™—s es de gr—n import—nE
™i— p—r— los le™tores de este textoD y— que tendrán l— oportunid—d de poseer un
texto teóri™o re™opil—do de l—s más import—ntes fuentes ˜i˜liográ(™—sD teniendo
en ™uent— l— fund—ment—™ión m—temáti™— de ™iertos —lgoritmos y métodosF is
de™irD un texto que re™opil— los ™on™eptos y métodos de m—yor fre™uen™i— de uso
en el —nálisis de series tempor—lesD teniendo en ™uent— l— rigurosid—d m—temáti™—
requerid—F
ix
x INTRODUCCIÓN
Objetivos
Objetivo General
il o˜jetivo gener—l del presente do™umento es present—r l— teorí— referente —l
estudio de l—s series ™ronológi™—sD y est—˜le™er un do™umento teóri™o ˜—se p—r—
futur—s investig—™ionesF
Objetivos Especícos
IF ‚e™opil—r y present—r l— teorí— de vi—rios textos re™ono™idos en el áre— del
—nálisis de series de tiempoF
PF ‚eseñ—r un— de l—s más import—ntes —pli™—™iones de l— m—temáti™— — proE
˜lem—s que se present—n en diferentes ™—mpos del ™ono™imientoF
QF gonstruir un texto el ™u—l h—g— l—s ve™es de texto introdu™torio —l —nálisis
de series de tiempoF
xi
xii OBJETIVOS
Alcance y Limitaciones
il tr—˜—jo pretende present—r l—s f—mili—s de modelos de m—yor utiliz—™iónD
™omo lo son los modelos —utorregresivos @ARAD modelos de promedios móviles
@MAAD modelos —utorregresivos mixtos de promedios móviles @ARMA A y los
modelos —utorregresivos integr—dos de promedios móviles @ARIMAAD —demás de
los modelos de est—do y esp—™io y el (ltro u—lm—nF „odos los tem—s men™ion—dos
—nteriormente se ™onstituyen ™omo l— ˜—se teóri™— p—r— ™u—lquier des—rrollo de
tr—˜—jos de series de tiempoF
eunque un— de l—s pretensiones más import—ntes del tr—˜—jo es des™ri˜ir un
número signi(™—tivo de métodos y modelosD solo se tendrán en ™uent— el ™—so
univ—ri—doD p—r—métri™o es de™ir se ex™luirán por ejemplo l— f—mili— de modelos
eutorregresivos de …m˜r—l @„e‚AD l— f—mili— de modelos †e™tori—les eutorreE
gresivos @†e‚AD entre otros y —lgunos métodos de estim—™iones de tenden™i—s
™omo l— regresión us—ndo ƒplinesD el piltro de ƒmirnov entre otrosF
xiii
xiv ALCANCE Y LIMITACIONES
Capítulo 1
Preliminares
1.1. Espacio de Probabilidad
v— pro˜—˜ilid—d es un m—r™o ™on™eptu—l que permite —n—liz—r l— o™urren™i—
de su™esos —le—toriosD es de™irD f—™ilit— el estudio de su™esos en los ™u—les no es
posi˜le prede™ir ™on ex—™titud el result—do de un experimentoF v— ™onstru™™ión
del m—r™o ™on™eptu—l de l— pro˜—˜ilid—d se ini™i— ™on el de esp—™io de pro˜—˜iE
lid—d (Ω; A; p) —so™i—do — un experimento EF gon este o˜jetivoD se des—rroll—n
los siguientes tem—sX
ixperimentoF
isp—™io wuestr—lF
Álge˜r— de iventosF
pun™ión de €ro˜—˜ilid—dF
1.1.1. Espacio Muestral de Eventos
Denición 1 Un experimento E es la realización de una tarea bien denida y
de la cual se ha establecido la codicación o forma de tabulación de los posibles
resultados. El experimento se dice aleatorio cuando el resultado no es predecible
con exactitud.
Denición 2 Al conjunto de todos los posibles resultados obtenidos al realizar
un experimento se denomina espacio muestral de eventos y se denota por Ω. Los
elementos a ∈ Ω se denominan puntos muestrales.Rincón [2011]
Denición 3 Un espacio muestral Ω se denomina discreto si es nito o enu-
merable, en tal caso E se dice experimento discreto. Rincón [2011]
I
P CAPÍTULO 1. PRELIMINARES
1.1.2. Álgebra de Eventos
in un experimento ED ™—d— punto muestr—l en el esp—™io muestr—l Ω se
denomin— evento simple y —l evento result—nte de l— uniónD interse™™ión u otr—
oper—™ión de ™onjuntos de(nid— en el ™onjunto de eventos simples se denomin—
evento ™ompuestoF
Denición 4 Para E un experimento discreto y Ω su espacio muestral de even-
tos se dene un álgebra de eventos a cualquier colección de conjuntos A que
satisfaga las siguientes propiedades Rincón [2011]:
Ω ∈ A.
Si A ∈ A entonces Ac
∈ A
Si A ∈ A y B ∈ A entonces A∪ B ∈ A.
1.1.3. Función de Probabilidad
Denición 5 Sea E un experimento discreto, Ω su espacio muestral de posibles
resultados y A un álgebra de eventos denida para Ω, una función p : A → [0; 1]
es una función de probabilidad si satisface los siguientes axiomasCanavos [1998]:
p(B) ≥ 0, Para todo B ∈ A
P(Ω) = 1
Si A1, A2, . . . , An es una colección de conjuntos mutuamente disyuntos y
k
i=1
Ai ∈ A entonces
p
k
i=1
Ai =
k
i=1
p(Ai) Para todo k ≤ n
Denición 6 Un espacio de probabilidad para un experimento E está confor-
mado por la tripleta (Ω; A; p) Rincón [2011]
snteres— ™onstruir el esp—™io de pro˜—˜ilid—d p—r— un experimento E ™on el
álge˜r— de eventos A = ℘(Ω) y un— fun™ión de pro˜—˜ilid—d p de(nid— so˜re
sus eventos simplesF v— fun™ión de pro˜—˜ilid—d p se de(ne so˜re los eventos
simples y p—r— ello existen v—ri—s posi˜ilid—des que gener—n diferentes esp—™ios
de pro˜—˜ilid—dF v— más fre™uente es ™ono™id— ™omo pro˜—˜ilid—d ™lási™—D en ell—
los eventos simples son equipro˜—˜lesD l— pro˜—˜ilid—d de ™—d— evento simple está
d—d— por
1
η(Ω)
,donde η(Ω) es el ™—rdin—l del esp—™io muestr—lD y en este ™—so el
esp—™io de pro˜—˜ilid—d se denomin— esp—™io de pro˜—˜ilid—d l—pl—™i—noF
1.2. VARIABLES ALEATORIAS Q
1.2. Variables Aleatorias
e ™ontinu—™ión se mostr—rán elementos del modelo de distri˜u™ión de proE
˜—˜ilid—d p—r— un— v—ri—˜le —le—tori—D que ˜ien puede se dis™ret— o ™ontinu—D X
de(nid— en (Ω; A; p)
Denición 7 En un espacio de probabilidad (Ω; A; p) una función X : A −→ R
es una variable aleatoria si para cualquier valor de r ∈ R el conjunto
Ar = {W × W ≤ r} pertenece a A. X se dice discreta si su rango RX es con-
table y continua en caso contrario. Rincón [2011]
v— de(ni™ión de un— v—ri—˜le —le—tori— X en un esp—™io de pro˜—˜ilid—d
(Ω; A; p)D permite ™—r—™teriz—r todos los eventos del experimentoD en expresiones
m—temáti™—s en fun™ión de los v—lores de X
1.2.1. Valor Esperado de una Variable Aleatoria
e ™ontinu—™ión se present—rán l—s de(ni™iones de v—lor esper—do o esper—nz—
m—temáti™— p—r— un— v—ri—˜le —le—tori—D t—nto dis™ret— ™omo ™ontinu—F
Denición 8 Para una variable aleatoria discreta X, el valor esperado E (X),
se dene comoWalpole et al. [1998]
E (X) = µx =
x∈Rx
xp(X)
in gener—lD el v—lor esper—do X de un— v—ri—˜le —le—tori— dis™ret— X es
el promedio de X ponder—do ™on los v—lores de p(x)D se interpret— igu—l que el
promedio ponder—do —ritméti™o y es el v—lor referente p—r— ™—l™ul—r l— dispersión
de los d—tos y p—r— ™—r—™teriz—r l— —simetrí— de l— distri˜u™ión de pro˜—˜ilid—dF
Denición 9 Para una variable aleatoria continua X, el valor esperado E (X),
se dene como Walpole et al. [1998]
E (X) = µx =
∞ˆ
−∞
xf (x) dx
honde l— fun™ión f (x) es ™ono™id— ™omo l— fun™ión de densid—d de pro˜—˜iE
lid—dF
1.2.2. Varianza de una Variable Aleatoria
he l— mism— m—ner— que ™on el v—lor esper—doD se present—rán l—s de(ni™iones
de v—ri—nz— y desvi—™ión estánd—r p—r— v—ri—˜les —le—tori—s dis™ret—s y ™ontinu—s
Denición 10 La varianza σ2
X, para X variable aleatoria discreta se dene
como Walpole et al. [1998]
V (X) = σ2
X =
x∈Rx
(x − µx)
2
p (x)
R CAPÍTULO 1. PRELIMINARES
Denición 11 La varianza σ2
X, para X variable aleatoria continua se dene
como Walpole et al. [1998]
V (X) = σ2
X =
∞ˆ
−∞
(x − µx)
2
f (x) dx
Denición 12 La desviación estándar σX, para X una variable aleatoria, bien
sea, discreta o continua se dene como la raíz cuadrada positiva de la varianza
σ2
X. Walpole et al. [1998]
1.3. Vectores Aleatorios
…n ve™tor —le—torio se origin— ™u—ndo en el mismo esp—™io de pro˜—˜ilid—d
(Ω; A; p) se de(nen X1, X2, ..., Xn v—ri—˜les —le—tori—sD e interes— o˜serv—r y
—n—liz—r su ™omport—miento pro˜—˜ilísti™o ™onjuntoF
Denición 13 Sean X1, X2, ..., Xn variables aleatorias discretas denidas en
(Ω; A; p), al vector X = {X1, X2, ..., Xn} se denomina vector aleatorio de di-
mensión n. El rango o conjunto de valores del vector X está contenido en el
conjunto Rincón [2011]
R = RX1
× RX2
× · · · × RX1
™on RXi
el r—ngo de Xi p—r— i = 1, 2, ..., n.
ƒe di™e que el ve™tor —le—torio es dis™reto si ™—d— Xi es un— v—ri—˜le —le—tori—
dis™ret— y se di™e ve™tor —le—torio ™ontinuo si ™—d— Xi es n— v—ri—˜le —le—tori—
™ontinu—F
Denición 14 Dado un vector aleatorio X = {X1, X2, ..., Xn} con p(x1, x2, ...xn)
la función de probabilidad conjunta, para cada variable Xi existe la función de
probabilidad marginal p (x) denida comoRincón [2011]
p (x) =



x1∈Rx1 x2∈Rx2
· · ·
x2∈Rx2
p(x1, x2, ...xn) Si Xes discreto
∞ˆ
−∞
∞ˆ
−∞
· · ·
∞ˆ
−∞
p(x1, x2, ...xn)dΩ Si Xes continuo
honde
dΩ = dx1dx2 · · · dxi−1dxi+1 · · · dxn
Denición 15 Sea X = {X1, X2, ..., Xn} un vector aleatorio denido en (Ω; A; p)
y p(x1, x2, ...xn) la función de probabilidad conjunta. La función de probabilidad
acumulada de X está dada por Rincón [2011]
1.3. VECTORES ALEATORIOS S
F (x) =



A
p(k1, k2, ...kn) Si Xes discreto
ˆ
A
p(k1, k2, ...kn)dΩ Si Xes continuo
donde
A = {x1, x2, ...xn : x1 ≤ k1;x2 ≤ k2; ...; xn ≤ kn}
y
dΩ = dx1dx · · · dxn
1.3.1. Valor esperado de un Vector Aleatorio
„eniendo de(nid—s l—s fun™iones de pro˜—˜ilid—d ™onjunt— es posi˜le de(nir
el v—lor esper—do de un— ve™tor —le—torio dis™reto o ™ontinuoD según se— el ™—soF
Denición 16 Sea X = {X1, X2, ..., Xn} un vector aleatorio denido en (Ω; A; p)
y p(x1, x2, ...xn) la función de probabilidad conjunta. El vector de medias de X
es el vector de los valores esperados de las variables Xi, i = 1, 2, ..., n y está
dado por Canavos [1998]
E (X) = µX = (µX1
, µX2
, ...µXn)
donde
µXi =



x1∈Rx1
xpXi (x) i = 1, 2, ...n Si Xes discreto
∞ˆ
−∞
xpXi
(x) dx i = 1, 2, ...n Si Xes continuo
1.3.2. Varianza de un Vector Aleatorio
Denición 17 Sea X = {X1, X2, ..., Xn} un vector aleatorio denido en (Ω; A; p)
y p(x1, x2, ...xn) la función de probabilidad conjunta. El vector de varianzas de
X es el vector de varianzas de las variables Xi i = 1, 2, ...n y está dado por
Canavos [1998]
V (X) = σ2
X = σ2
X1
, σ2
X2
, ...σ2
Xn
donde
Denición 18
σ2
Xi =



x1∈Rx1
(x − µXi
)
2
pXi
(x) i = 1, 2, ...n Si Xes discreto
∞ˆ
−∞
(x − µXi
)
2
pXi
(x) dx i = 1, 2, ...n Si Xes continuo
T CAPÍTULO 1. PRELIMINARES
1.3.3. Función Generadora de Momentos Conjunta
Denición 19 Sea X = {X1, X2, . . . , Xn} un vector aleatorio denido en (Ω; A; p)
con probabilidad conjunta p (x1, x2, ..., xn) . La función generadora de momentos
conjunta de X está dada por Rincón [2011]
Mx (t) = E etX
€—r— t ∈ R
v— fun™ión gener—dor— de momentos re™i˜e su nom˜re gr—™i—s — que sus
deriv—d— ™—l™ul—d—s en ™ero gener—n los momentos de ve™tor X, es de™ir
Mx (0) = M1 = µx
Mx (0) = M2 = µ2
x
FFF
1.3.4. Covarianza y Coeciente de Correlación
Denición 20 [Covarianza]Sea (X, Y ) un vector aleatorio denido en (Ω; A; p)
y p (x, y) la función de probabilidad conjunta. La covarianza de X y Y está dada
por: Koopman [1964]
Cov (X, Y ) =
x,y
(x − µx) (y − µy) p (x, y) = σ2
XY
Denición 21 Sea X = {X1, X2, ...Xn} un vector aleatorio denido en (Ω; A; p)
y p (x1, x2, ..., xn) la función de probabilidad conjunta. La matriz de varianzas y
covarianzas está dada por Koopman [1964]
XY =





σ2
X1
σ2
X1X2
· · · σ2
X1Xn
σ2
X2X1
σ2
X2
· · · σ2
X2Xn
...
...
...
...
σ2
XnX1
σ2
XnX2
· · · σ2
Xn





Denición 22 [Coeciente de Correlación]Sea (X, Y ) un vector aleatorio de-
nido en (Ω; A; p) y p(x, y) la función de probabilidad conjunta. el coeciente de
correlación de X y Y está dado por: Koopman [1964]
ρXY =
Cov (X, Y )
σXσY
Denición 23 Sea X = {X1, X2, ...Xn} un vector aleatorio denido en (Ω; A; p)
y p (x1, x2, ..., xn) la función de probabilidad conjunta. La matriz de de correla-
ciones de X está dada por Koopman [1964]
RXY =





1 ρX1X2
· · · ρX1Xn
ρX2X1
1 · · · ρX2Xn
FFF
FFF
FFF
FFF
ρXnX1
ρXnX2
· · · 1





1.3. VECTORES ALEATORIOS U
1.3.5. Esperanza Condicional
ƒe—n X y Y ve™tores —le—torios
Denición 24 Si X y Y tienen función de probabilidad conjunta f (x, y) , y
sea f (x) la función de probabilidad marginal de X. La función de probabilidad
condicional de Y dado X = x, es Koopman [1964]
f (y | x) =
f (x, y)
f (x)
€—r— un v—lor d—do de x, l— fun™ión de pro˜—˜ild—d ™ondi™ion—l tiene tod—s l—s
propied—des usu—les de un— fun™ión de densid—d de pro˜—˜ilid—dF in p—rti™ul—rD
Denición 25 La esperanza condicional de Y dado x = x es denida como
Koopman [1964]
E (Y | X = x) =



y∈Ry
yf (y | x) Si Xy Y son discretos
∞ˆ
−∞
yf (y | x) dy Si Xy Y son continuos
gomo un v—lor esper—doD l— esper—nz— ™ondi™ion—l goz— de tod—s l—s propieE
d—des usu—lesF €or ejemplo
E (aY + bZ + c | X = x) = aE (Y | X = x) + bE (Z | X = x) @IFIA
y
E [h (Y ) | X = x] =



x∈Rx
yf (y | x) ƒi Xy Y son dis™retos
∞ˆ
−∞
yf (y | x) dx ƒi Xy Y son ™ontinuos
@IFPA
edemás
E [h (x) | X = x] = h (x) @IFQA
is de™ir queD d—do X = x l— v—ri—˜le —le—tori— h (x) puede ser tr—t—d— ™omo
un— ™onst—nteF in gener—l
E [h (X, Y ) | X = x] = E [h (x, Y ) | X = x] @IFRA
ƒe— E (Y | X = x) = g (x) , enton™es g (x) es un— v—ri—˜le —le—tori— y se
puede ™onsider—r E [g (x)] , donde
E [g (x)] = E (Y )
vo que usu—lmente se es™ri˜e ™omo
E [E (Y | X)] = E (Y ) @IFSA
V CAPÍTULO 1. PRELIMINARES
1.3.6. Variables Aleatorias Independientes
ƒe— X = {X1, X2, . . . , Xn} un ve™tor —le—torio de(nido en (Ω; A; p) ™on
pro˜—˜ilid—d ™onjunt— p (x1, x2, ..., xn) Xi se di™en mutu—mente independientes
si ™umple —lgun— de l—s siguientes ™ondi™iones ‚in™ón ‘PHII“
p (Xi | Xj) = pxi ∀i = j
p (x1, x2, ..., xn) =
n
i=1
pxi (xi)
F (x1, x2, ..., xn) =
n
i=1
Fxi (xi)
1.4. Distribución Normal
Denición 26 Una variable continua X con Rx = (−∞, ∞) se tiene distribu-
ción normal con parámetros µ, σ2
, si su función de densidad de probabilidad
está dada por Canavos [1998]
f x, µ, σ2
=
1
√
2πσ
e−
1
2
x−µ
σ
2
v— distri˜u™ión norm—l es quizá l— más import—nte en l— teorí— est—dísti™—
y— que mu™hos des—rrollos teóri™os se ™onstruyen so˜re este supuestoF ƒe denot—
por X ∼ N µ, σ2
y se utiliz— ™u—ndo el polígono de fre™uen™i—s de los v—lores
de X tiene form— —™—mp—n—d—D ™on X = µX ™omo eje de simetrí—F „—m˜ién es
import—nte señ—l—r l—s siguientes ™—r—™terísti™—s de l— distri˜u™ión norm—lF
µx se denomin— p—rámetro de lo™—liz—™ión y l— fun™ión de densid—d es
simétri™— en X = µx es de™ir p (X ≤ µX) = p (X ≥ µX) = 0,5.
σ2
X se denomin— p—rámetro de es™—l— y est—˜le™e l— dispersión de los v—lores
de X ™on respe™to — µx.
Denición 27 Cuando X se distribuye normal con parámetros (0, 1) , se deno-
mina normal estándar, se denota por Z ∼ N (0, 1) y su función de densidad de
probabildad está dada por Canavos [1998]
f (z) =
1
√
2π
e
z2
2
Capítulo 2
Conceptos Fundamentales
in este ™—pítulo se des™ri˜irán los ™on™eptos fund—ment—les en l— teorí— refeE
rente — l— series de tiempoF €—rti™ul—rmente se tr—t—rán los ™on™eptos de pro™eso
esto™ásti™oD fun™iones de medi— y ™ov—ri—nz—D pro™esos est—™ion—riosD y l—s funE
™iones de —uto™orrel—™iónD —sí ™omo un— ˜reve des™rip™ión históri™—F
2.1. Antecedentes Históricos
v— histori— de l—s series de tiempo se puede dividir en dos épo™—s @y˜E
serv—™iónD wedi™ión y qener—liz—™ión y porm—liz—™iónA teniendo en ™uent— los
métodos p—r— —˜ord—r los diferentes fenómenos que motiv—ron el estudio del
™omport—miento de ™iertos elementos respe™to —l tiempoF
2.1.1. Observación, medición y generalización
il —nte™edente más —ntiguo de l—s series de tiempo se remont— — IVRT ™u—ndo
el —strónomo reinri™h ƒ™hw—˜eD o˜servó l— —™tivid—d periódi™— de l—s m—n™h—s
sol—res @sunspotsAF ƒeguido de dé™—d—s de investig—™iónD no solo en l— físi™—
sol—r sino en el m—gnetismo terrestreD meteorologí— e in™luso e™onomí—D donde
se ex—min—˜—n l—s series p—r— ™ompro˜—r si su periodi™id—d ™oin™idí— ™on los
diferentes fenómenos —nteriormente men™ion—dosD por ejemploD ƒimon v—pl—™e
y t—™ques ueteletD h—˜í—n —n—liz—do d—tos meteorológi™os y ‡illi—m rers™hel
h—˜í— es™rito un li˜ro —l respe™toF „odos estudios ˜—s—dos en l— o˜serv—™ión
empíri™—F
v—s té™ni™—s en uso v—ri—˜—n desde l—s más simplesD ™omo l— t—˜l— de fuys
f—llotD l— ™u—l permití— ™ono™er l— disposi™ión de los ™entros de —lt— y ˜—j—
presión respe™to de l— dire™™ión en que sopl— el vientoD — form—s más so(sti™—d—s
™omo el —nálisis —rmóni™oD es el ™—so del físi™o erthur ƒ™huster quien introdujo
en IVVW el periodogr—m—D el ™u—l permite ™—l™ul—r l— densid—d espe™tr—l de un—
señ—lF
W
IH CAPÍTULO 2. CONCEPTOS FUNDAMENTALES
ƒin em˜—rgoD por ese enton™esD un— form— riv—l del —nálisis de series tempoE
r—lesD ˜—s—d— en l— ™orrel—™ión y promovid— por €e—rsonD ‰uleD rooker y otrosD
fue tom—ndo form—F
2.1.2. Formalización
il —nálisis est—dísti™o de l—s series de tiempo tienen sus ini™ios form—les ™on
el texto es™rito por qeorge …dny ‰ule en IWPU ll—m—do yn — wethod of snE
vestig—ting €eriodi™ities in histur˜ed ƒeriesD with ƒpe™i—l ‚eferen™e to ‡olfer9s
ƒunspot xum˜ersD dondeD ˜—s—do en el ™on™epto de ™orrel—™ión intent— expli™—r
l—s m—n™h—s sol—res ™on otros fenómenos —stronómi™osF
e pes—r de los —v—n™es propuestos por v—rios est—dísti™os in)uyentes de l—s
primer—s dé™—d—s del siglo ˆˆD no fue sino h—st— IWUHD ™on l— pu˜li™—™ión de
4„ime ƒeries en—lysisX pore™—sting —nd gontrol4 por fox y tenkins en IWUHD que
se ™onstituyó un— herr—mient— ˜i˜liográ(™—D que permití— —pli™—r los métodos
de series de tiempo de m—ner— sistemáti™—D y —demás logro uni(™—r el o˜jetivo
de investig—™iónF
is import—nte men™ion—r queD el des—rrollo teóri™o y prá™ti™o del —nálisis de
series de tiempo está estre™h—mente rel—™ion—do ™on el des—rrollo informáti™oD
y— que esteD provee l—s herr—mient—s ne™es—ri—s p—r— los extensos ™ál™ulos que
dem—nd—n los métodos inherentes —l —nálisis de series de tiempoF …no de los m—s
import—ntes ™onsiste en l— p—r—metriz—™ión de los modelos de est—do y esp—™io
y el (ltro u—lm—n des—rroll—dos en su m—yorí— en el (n—l de l— dé™—d— de IWUHF1
2.2. Series de Tiempo y Procesos Estocásticos
v— se™uen™i— de v—ri—˜les —le—tori—s {Yt : t = 0, ±1, ±2, ±3, ...} se ™ono™e ™oE
mo pro™eso esto™ásti™oD y sirve ™omo modelo p—r— un— serie de tiempo o˜serv—d—F
ƒe s—˜e que l— estru™tur— pro˜—˜ilísti™— de di™ho pro™eso es determin—do por el
™onjunto de l—s distri˜u™iones de tod—s l—s ™ole™™iones (nit—s de XiF ƒin em˜—rE
goD l— m—yorí— de inform—™ión de l—s fun™iones de pro˜—˜ilid—d ™onjunt— puede
ser des™rit— en términos de sus medi—sD v—ri—nz—s y ™ov—ri—nz—sF €or lo ™u—l
di™hos p—rámetros @primer y segundo momentoA serán el o˜jetivo prin™ip—l @ƒi
l—s distri˜u™iones de X son distri˜u™iones norm—les multiv—ri—d—sD el primer y
segundo momento determin—n ™omplet—mente tod— l— distri˜u™ión ™onjunt—A
1Cada uno de los métodos mencionados en este apartado serán ampliados, mientras se
desarrollan los conceptos.
2.3. MEDIAS, VARIANZAS Y COVARIANZAS II
2.3. Medias, Varianzas y Covarianzas
Denición 28 (Función de la Media) Para un proceso estocástico
{Yt : t = 0, ±1, ±2, ±3, ...} la función de la media se dene como Fuller [1996]
µt = E (Yt) Para t = 0, ±1, ±2, ... @PFIA
is de™ir que el v—lor de µt, es simplemente el v—lor esper—do del pro™eso en
el tiempo t. in gener—l el v—lor de µt puede diferir p—r— ™—d— tiempo t.
Denición 29 (Función de Autocovarianza)La función γt,sse dene como:
γt,s = Cov (Yt, Ys) Para t, s = 0, ±1, ±2, ... @PFPA
Fuller [1996]
honde Cov (Yt, Yt) está ™ontempl—d— en l— de(ni™ión PHF v— fun™ión ρt,s está
d—d— porX
Denición 30
ρt,s = Corr (Yt, Ys) Para t, s = 0, ±1, ±2, ... @PFQA
Fuller [1996]
honde según l— de(ni™ión PP se puede ™on™luir queX
Corr (Yt, Ys) =
γt,s
√
γt,tγs,s
@PFRA
„eniendo en ™uent— que t—nto l— ™ov—ri—nz— y l— ™orrel—™ión son medid—s de
dependen™i— line—l entre dos v—ri—˜les —le—tori—sD se enun™i—r—n l—s siguientes
propied—des que serán se gr—n utilid—d — lo l—rgo del des—rrollo del tem—F
γt,t = V ar (Yt) ρt,t = 1
γt,s = γs,t ρt,s = ρs,t
|γt,s| =
√
γt,tγs,s |ρt,s| ≤ 1
@PFSA
is import—nte re™ord—r que v—lores de ρt,s ™er™—nos — ±1 indi™—n un— fuerte
dependen™i— line—lD por otr— p—rte v—lores ™er™—nos — 0 indi™—n dependen™i—
line—l dé˜ilD y si ρt,s = 0 se di™e que Yt y Ys no están ™orrel—™ion—d—sF
gon el (n de investig—r l—s propied—des de l— ™ov—ri—nz— de v—rios modelos
de series de tiempoD el siguiente result—do gryer —nd gh—n ‘PHHV“ será us—do
repetid—meteX ƒi c1, c2, , cm y d1, d2, , dn son ™onst—tes y t1, t2, , tm y s1, s2, , sn
son puntos tempor—les enton™es
Cov


m
i=1
ciYti ,
m
j=1
djYsj

 =
m
i=1
m
j=1
cidiCov Yti , Ysj @PFTA
gomo ™—so espe™i—l se o˜tiene
V ar
n
i=1
ciYti =
n
i=1
c2
i V ar (Yti ) + 2
n
i=2
i−1
j=1
cicjCov Yti , Ytj @PFUA
IP CAPÍTULO 2. CONCEPTOS FUNDAMENTALES
2.3.1. La Caminata Aleatoria (Random Walk)
ƒe—n e1, e2, ... un— se™uen™i— de v—ri—˜les —le—tori—s idénti™—mente distri˜uiE
d—s ™—d— un— ™on medi— ™ero y v—ri—nz— σ2
e . ƒe ™onstruye l— serie de tiempo
{Yt : t = 1, 2, ...} de l— siguiente m—ner—
Y1 = e1 @PFVA
Y2 = e1 + e2
FFF
Y = e1 + e2 + · · · + et
he form— —ltern—tiv— se puede es™ri˜ir
Yt = Yt−1 + et
gon l— ™ondi™ión ini™i—l Y1 = e1. ƒi ei es ™onsider—do ™omo el t—m—ño de
los 4p—sos4 d—dos — lo l—rgo de l— re™t— numéri™— @˜ien se— h—™i— —del—nte o
—trásAF inton™es Yt es l— posi™ión del g—min—nte —le—torio en el tiempo t F he
l— e™u—™ión PFV se puede dedu™ir l— fun™ión de l— medi—X
µt = E (Yt) = E (e1 + e2 + · · · + et) = E (e1) + E (e2) + ...E (et)
= 0 + 0 + · · · + 0
inton™es
µt = 0 €—r— todo t
„—m˜iénD se ™onsider—
V ar (Yt) = V ar (e1 + e2 + · · · + et) = V ar (e1) + V ar (e2) + ...V ar (et)
= σ2
e + σ2
e + · · · + σ2
e
inton™es
V ar (Yt) = tσ2
e @PFWA
€—r— ™—l™ul—r l— fun™ión de ™ov—ri—nz—D se —sume que 1 ≤ t ≤ s inton™es
γt,s = Cov (Yt, Ys) = Cov (e1 + e2 + · · · et, e1 + e2 + · · · + et + et+1 + · · · es)
€or propied—des de l— ™ov—ri—nz— se —(rm— queX
γt,s =
s
i=j
t
j=1
Cov (ei, ej)
ƒin em˜—rgoD est—s ™ov—ri—nz—s son ™ero menos ™u—ndo i = j, y en ese ™—so
V ar (ei) = σ2
e y existen ex—™t—mente t ™—sos de di™h— igu—ld—dD luego γt,s = tσ2
e .
y de˜ido — que γt,s = γs,t es posi˜le es™ri˜ir l— fun™ión de ™ov—ri—nz— de l—
siguiente m—ner—X
γt,s = tσ2
e €—r— 1 ≤ t ≤ s @PFIHA
2.3. MEDIAS, VARIANZAS Y COVARIANZAS IQ
v— fun™ión de —uto™orrel—™ión p—r— l— ™—min—t— —le—tori— se o˜tiene de l—
siguiente m—ner—
ρt,s =
γt,s
√
γt,tγs,s
=
t
s
€—r— 1 ≤ t ≤ s @PFIIA
2.3.2. Promedios Móviles
ƒupong— que {Yt} es ™onstruido ™omo
Yt =
et + et−1
2
@PFIPA
he˜ido — que ei se —sumen ™omo v—ri—˜les —le—tori—s idénti™—mente distriE
˜uid—s ™on medi— ™ero y v—ri—nz— σ2
e , enton™es
µt = E (Yt) = E
et + et−1
2
=
E (et) + E (et−1)
2
= 0
y
V ar (Yt) = V ar
et + et−1
2
=
V ar (et) + V ar (et−1)
4
= 0,5σ2
e
„—m˜ién
Cov (Yt, Yt−1) = Cov
et + et−1
2
,
et−1 + et−2
2
=
Cov (et, et−1) + Cov (et, et−2) + Cov (et−1, et−1) + Cov (et−1, et−2)
4
=
Cov (et−1, et−1)
4
= 0,25σ2
e
o
γt,t−1 = 0,25σ2
e €—r— todo t @PFIQA
edemás
Cov (Yt, Yt−2) = Cov
et + et−1
2
,
et−1 + et−2
2
= 0 €or ser e independientes
hel mismo modoD Cov (Yt − Yt−k) = 0 p—r— k  1 enton™es se gener—liz— de
l— siguiente m—ner—
γt,s =



0,25σ2
e €—r— |t − s| = 0
0,5σ2
e €—r— |t − s| = 1
H €—r— |t − s|  1
IR CAPÍTULO 2. CONCEPTOS FUNDAMENTALES
€—r— l— fun™ión de —uto™orrel—™iónD —pli™—ndo l— e™u—™ión PFR se o˜tiene
ρt,s =



1 €—r— |t − s| = 0
0,5 €—r— |t − s| = 1
H €—r— |t − s|  1
is de gr—n import—n™i— not—r que ρ2,1 = ρ3,2 = ρ5,6 = ρ9,8 = 0,5. is de™ir
que v—lores de Y sep—r—dos por un— unid—d de tiempo tiene l— mism— ™orrel—™iónF
wás —ún ρ3,1 = ρ5,3 = ρt,t−2 y más gener—l ρt,t−k es el mismo p—r— todo v—lor
de t. iste he™ho ™ondu™e —l import—nte ™on™epto de est—™ion—ried—d
2.4. Estacionariedad
gon el (n de inferir —™er™— de l— estru™tur— de un pro™eso esto™ásti™o ˜—E
s—do en d—tos o˜serv—dosD se de˜eD usu—lmenteD —sumir ™iert—s ™ondi™iones que
simpli(™—n el pro™esoF il más import—nte de di™hos supuestos es el de l— est—E
™ion—ried—dF v— ide— prin™ip—l de l— est—™ion—ried—d ™onsiste en que l—s regl—s
de pro˜—˜ilid—d que rigen el pro™eso no ™—m˜i—n respe™to —l tiempoF
Denición 31 Especícamente, un proceso {Yt}, se dice que es estrictamente
estacionario si la distribución conjunta de Yt1
, Yt2
, . . . , Ytn
es la misma que la
distribución conjunta de Yt1−k, Yt2−k, . . . , Ytn−k, para cada elección de puntos
t1, t2, ..., tn y todo rezago de tiempo k. Cryer and Chan [2008]
…n— de(ni™ión simil—r — l— estri™t—mente est—™ion—l pero m—temáti™—mente
m—s dé˜il es l— siguienteX
Denición 32 Un proceso {Yt}, se dice que es débilmente estacionario o
estacionario de segundo orden si Cryer and Chan [2008]
IF v— fun™ión de l— medi— es ™onst—nte — tr—vés del tiempoD y
PF γt,t−k = γ0,k p—r— todo tiempo t y todo rez—go k
Denición 33 Para procesos estacionarios usualmente se considera k ≥ 0.
Teorema 34 Sea {Yi} una serie de tiempo estacionaria con función de auto-
covarianza γk =
1
n
n
k=t
Yt pruebe que:
V ar( ¯Y ) =
γ0
n
+
2
n
n−1
k=1
1 +
k
n
γk
=
1
n
n−1
k=−n+1
1 −
k
n
γk
2.4. ESTACIONARIEDAD IS
2.4.1. Ruido Blanco (White Noise)
…n ejemplo ˜—st—nte import—nte de lo que es un pro™eso est—™ion—l es lo que
™omúnmente se ™ono™e ™omo ruido
˜l—n™o wontgomery et —lF ‘PHHV“F
Denición 35 El ruido blanco (White Noise) se dene como una secuencia de
variables aleatorias, independientes idénticamente distribuidas {et}
v— import—n™i— del ruido ˜l—n™o r—di™— en el he™ho de que mu™hos pro™esos
útiles pueden ser ™onstruidos — p—rtir de ruido ˜l—n™oF
il término ruido ˜l—n™o se ˜—s— en el he™ho que en un —nálisis de fre™uen™i—
del modelo muestr—lD en —n—logí— ™on l— luz ˜l—n™—D tod—s l—s fre™uen™i—s entr—n
—l modelo equiv—lentementeF …su—lmente se tiene que —sumir que los pro™esos
de ruido ˜l—n™o tienen medi— igu—l — ™ero y v—ri—nz— σ2
e .
Teorema 36 Sea {Yi} una serie de tiempo estacionaria con función de auto-
covarianza γk =
1
n
n
k=t
Yt pruebe que:
V ar( ¯Y ) =
γ0
n
+
2
n
n−1
k=1
1 +
k
n
γk
=
1
n
n−1
k=−n+1
1 −
k
n
γk
IT CAPÍTULO 2. CONCEPTOS FUNDAMENTALES
Capítulo 3
Tendencias
in un— serie de tiempo gener—lD l— fun™ión de l— medi— es un— fun™ión —rE
˜itr—ri— respe™to —l tiempoF in un— serie de tiempo est—™ion—lD l— fun™ión de
l— medi— de˜e ser ™onst—nte — tr—vés del tiempo gryer —nd gh—n ‘PHHV“F preE
™uentemente se de˜e est—˜le™er un punto medio entre l—s dos series de tiempo y
™onsider—r fun™iones de l— medi— rel—tiv—mente simples @no ™onst—ntesA — tr—vés
del tiempoF is—s tenden™i—s serán tr—t—d—s en el siguiente ™—pítuloF
3.1. Tendencias Determinísticas contra Tenden-
cias Estocásticas
v—s tenden™i—s en un— serie de tiempo pueden ser su˜jetiv—sD dependiendo
del punto de vist— del investig—dorF he he™hoD en diferentes simul—™iones de l—
mism— v—ri—˜le —le—tori— l—s tenden™i—s pueden v—ri—rY — este tipo de tenden™i—s
se les denomin— tenden™i—s esto™ásti™—sD teniendo en ™uent— que est— de(ni™ión
no h— sido gener—lmente —™ept—d—F
€or otro l—doD p—r— un— serie de tiempo ™on p—rámetro ™í™li™o determinísti™o
se di™e que l— tenden™i— es determinísti™— y su model—miento se estudi—rá en
este ™—pítuloF
3.2. Estimación de la Media Constante
gomo primer— medid— se ™onsider—rá l— situ—™ión donde se —sume un— funE
™ión de l— medi— ™onst—nteD enton™es el modelo est—rí— d—do porX
Yt = µ + Xt @QFIA
honde E (Xt) = 0 p—r— todo t. ƒe dese— estim—r µ ™on ˜—se en l— serie de
tiempo o˜serv—d— Y1, Y2, ..., Yn F v— estim—™ión más ™omún de µ es l— medi—
IU
IV CAPÍTULO 3. TENDENCIAS
muestr—l de(nid— ™omo
¯Y =
1
n
n
t=1
Yt @QFPA
f—jo el supuesto de l— e™u—™ión QFID se puede ™on™luir que E ¯Y = µ; por lo
t—nto ¯Y es un— estim—™ión imp—r™i—l de µ. €—r— o˜tener l— pre™isión de ¯Y ™omo
estim—dor de µ, es ne™es—rio h—™er supuestos respe™to — Xt.
ƒupóng—se que {Yt} es un— serie de tiempo est—™ion—ri— ™on fun™ión de —uE
to™orrel—™ión ρk. inton™es por el teorem— PH se tiene gryer —nd gh—n ‘PHHV“
V ar( ¯Y ) =
γ0
n
n−1
k=−n+1
1 +
|k|
n
ρk @QFQA
=
γ0
n
1 + 2
n−1
k=−n+1
1 −
k
n
ρk
ƒi l— serie de tiempo {Xt} de l— e™u—™ión QFI es simplemente ruido ˜l—n™oD
enton™esD ρk = 0 ¡p—r— k  0 y V ar ¯Y se redu™e simplemente —
γ0
n
.
in el modelo est—™ion—rio de promedios móviles Yt =
et − et−1
2
, se en™uentr—
que ρ1 = −0,4 y ρk = 0 p—r— k  1 en este ™—so se o˜tiene
V ar( ¯Y ) =
γ0
n
1 + 2 1 −
1
n
(−0,4)
=
γ0
n
1 − 0,8
n − 1
n
€—r— v—lores de n, usu—lmente m—yores que 50 el f—™torD
n − 1
n
es ™er™—no
— 1, enton™es
V ar( ¯Y ) ≈ 0,2
γ0
n
he esto se puede ™on™luir que l— ™orrel—™ión neg—tiv— en el rez—go k, h—
mejor—do l— estim—™ión de l— medi—D ™omp—r—d— ™on l— estim—™ión o˜tenid— en
el modelo de ruido ˜l—n™o @muestr— —le—tori—AF he˜ido — que l— serie tiende —
os™il—r —lrededor de l— medi—D l— medi— muestr—l o˜tenid— es más pre™is—F
€or otr— p—rteD si ρk ≥ 0 p—r— todo k ≥ 1, se puede o˜serv—rD gr—™i—s — l—
e™u—™ión QFQD que V ar( ¯Y ) 
γ0
n
. in estos ™—sos l— ™orrel—™ión positiv— h—™e que
l— estim—™ión de l— medi— se h—g— más ™ompli™—d— que ™on los modelos de ruido
˜l—n™oF in gener—l l— e™u—™ión QFQ de˜e ser us—d— p—r— ev—lu—r el efe™to en l—
serie de tiempoF
€—r— mu™hos pro™esos est—™ion—riosD l— fun™ión de —uto™orrel—™iónD de™re™e
lo su(™ientemente rápidoD ™on rez—gos ™re™ientes t—l que
∞
k=0
|ρk|  ∞ @QFRA
3.3. MÉTODOS DE REGRESIÓN IW
„eniendo en ™uent— el supuesto de l— e™u—™ión QFRD y teniendo un— v—lor
de n signi(™—tiv—mente —ltoD l— e™u—™ión QFQ puede —proxim—rse de l— siguiente
m—ner— gryer —nd gh—n ‘PHHV“
V ar( ¯Y ) ≈
γ0
n
∞
k=−∞
ρk €—r— n su(™ientemente gr—nde @QFSA
€—r— pro™esos no est—™ion—rios @pero ™on medi— ™onst—nteAD l— pre™isión de
l— medi— muestr—l ™omo un— estim—™ión de µ puede ser sorprendentemente diE
ferenteF €or ejemploD supóng—se que l— v—ri—˜le {Xt} en l— e™u—™ión QFI es un
pro™eso de ™—min—t— —le—tori— luego utiliz—ndo l— e™u—™ión PFVF
V ar( ¯Y ) =
1
n2
V ar
n
i=1
Yi
=
1
n2
V ar


n
i=j
i
j=1
ej


=
1
n2
V ar (e1 + 2e2 + 3e3 + · · · nen)
=
σ2
e
n2
n
K=1
k2
luego
V ar( ¯Y ) = σ2
e (2n + 1)
(n + 1)
6n
ƒe ™on™luye que este es un ™—so espe™i—lD l— v—ri—nz— de l— estim—™ión de
l— medi— —ument— ™u—ndo el t—m—ño de l— muestr— t—m˜ién lo h—™eD lo que
impli™— que se ne™esit— ™onsider—r otro método de estim—™ión p—r— series no
est—™ion—ri—sF
3.3. Métodos de Regresión
vos métodos est—dísti™os ™lási™os de regresión ˜rind—n un— herr—mient— de
sum— import—n™i— p—r— estim—r los p—rámetros de los modelos ™on tenden™i—
medi— v—ri—˜leD en el des—rrollo de este —p—rt—doD se ™onsider—r—n los más útilesX
line—lD ™u—dráti™—D medi—s est—™ion—lesD y tenden™i—s del ™osenoF
3.3.1. Tendencias Lineales y Cuadráticas
gonsidérese l— tenden™i— determinísti™— expres—d— ™omo
µt = β0 + β1t @QFTA
PH CAPÍTULO 3. TENDENCIAS
honde l— pendiente y el inter™epto β1 y β0 respe™tiv—menteD son p—rámeE
tros des™ono™idosF il método ™lási™o de mínimos ™u—dr—dos ™onsiste en elegir
estim—™iones de β1 y β0 t—les que minimi™en
Q (β0, β1) =
n
t=1
[Yt − (β0 + β1t)]
2
he est— form—D después de deriv—r p—r™i—lmente e igu—l—r — ™eroD se o˜tieneX
ˆβ1 =
n
t=1
Yt − ¯Y (t − ¯t)
n
t=1
(t − ¯t)
2
@QFUA
ˆβ0 = ¯Y − ˆβ1¯t
donde t =
(n + 1)
2
es el promedio de 1, 2, ...n. gryer —nd gh—n ‘PHHV“
3.3.2. Tendencias cíclicas.
ƒe ™onsider—ránD — ™ontinu—™iónD el model—miento de tenden™i—s est—™ion—E
lesD por ejemploD l— temper—tur— mensu—lF ƒe —sumirá que l— serie de tiempo
o˜serv—d— se puede es™ri˜ir ™omo
Yt = µt + Xt
honde E (Xt) = 0 €—r— todo t.
il supuesto más gener—l p—r— µt ™on d—tos est—™ion—les mensu—lesD es que
existen IP ™onst—ntes o p—rámetros β1, β2, ..., β12, y teniendo el promedio espeE
r—do de temper—tur— p—r— ™—d— uno de los meses se puede es™ri˜ir
µt =



β1 €—r— t = 1, 13, 25, ...
β2 €—r— t = 2, 14, 26, ...
FFF
β12, €—r— t = 12, 24, 36, ...
@QFVA
gryer —nd gh—n ‘PHHV“
3.3.3. Tendencias del Coseno
v—s medi—s est—™ion—les del modelo p—r— d—tos mensu—les ™onsiste IP p—ráE
metros independientesD y no tiene en ™uent— l— form— de l— tenden™i— est—™ion—lF
€or ejemploD el he™ho de que l—s medi—s de w—rzo y e˜ril son simil—res no se
re)ej—n (elmente en el modeloF in —lgunos ™—sosD l—s tenden™i—s est—™ion—les
pueden ser model—d—s ™on ™osenos D que propor™ion—n un— ™urv— su—ve entre un
periodo y otroD ™onserv—ndo l— est—™ion—ried—dF
3.4. CONFIABILIDAD Y EFICIENCIA DE LAS ESTIMACIONES DE LA REGRESIÓNPI
gonsidérese l— ™urv— ™on l— e™u—™iónX
µt = β cos (2πft + Φ) @QFWA
ƒe le ll—m— — β  0 l— —mplitudD — f l— fre™uen™i—D y Φ l— f—se de l— ™urv—F
he˜ido — que t v—rí—D l— ™urv— os™il— entre un máximo de β y un minimo de
−β. he˜ido — que l— ™urv— se repite — sí mism— ™—d—
1
f
unid—des de tiempoF
1
f
es ™ono™ido ™omo el periodo de l— ™urv—F esimismo Φ es útil p—r— est—˜le™er el
origen —r˜itr—rio en el eje del tiempoF
v— e™u—™ión QFW no es muy ™onveniente p—r— efe™tos de l—s estim—™ionesD y—
queD los p—rámetros β y ΦD no inter(eren en l— fórmul— de un— m—ner— line—lF
efortun—d—menteD us—ndo un— identid—d trigonométri™— l— e™u—™ión QFW puede
ser es™rit— de l— siguiente m—ner—X
β cos (2πft + Φ) = β1 cos (2πft) + β2sen (2πft)
honde
β = β2
1 + β2
2, Φ = a tan
−β2
β1
y
β1 = β cos (Φ) , β2 = βsen (Φ)
€—r— estim—r los p—rámetros β1 y β2 ™on té™ni™—s de regresiónD simplemente
se us— cos (2πft) y sen (2πft) ™omo v—ri—˜les regresor—sF il modelo más sen™illoD
teniendo en ™uent— l— tenden™i—D es el siguiente
µt = β0 + β1 cos (2πft) + β2sen (2πft) @QFIHA
in este ™—so l— ™onst—nteD β0, puede ser pens—d— ™omo un ™oseno ™on freE
™uen™i— igu—l — ™eroF gryer —nd gh—n ‘PHHV“
3.4. Conabilidad y Eciencia de las Estimacio-
nes de la Regresión
esúm—se que l— serie de tiempo es represent—d— por Yt = µt + Xt, donde µt
es un— tenden™i— determinísti™— y {Xt} es un pro™eso est—™ion—rio de medi— ™ero
™on fun™iones de —uto™ov—ri—nz— y —uto™orrel—™ión γk y ρk respe™tiv—menteF
€—r— medi—s est—™ion—lesD l—s estim—™iones por mínimos ™u—dr—dos de l—s
medi—s est—™ion—les sonD simplemente promedios est—™ion—lesD enton™esD si se
tiene N —ños de d—tos mensu—les se puede es™ri˜ir l— estim—™ión p—r— l— medi—
en l— tempor—d— j ™omo
ˆβj =
1
N
N−1
i=0
Yi + 12i
PP CAPÍTULO 3. TENDENCIAS
‰— que ˆβj es un promedio ™omo ¯Y ex™epto que solo us— ™—d— do™e—v— o˜serE
v—™iónF v— e™u—™ión QFQ puede ser modi(™—d— p—r— o˜tener l— v—ri—nz— de ˆβjF ƒe
reempl—z— n por N y ρk por ρ12k p—r— o˜tener
V ar ˆβj =
γ0
N
1 + 2
N−1
k=0
1 −
k
n
ρ12k €—r— j = 1, 2, ..., 12 @QFIIA
ƒe pude not—r que si {Xt} es un pro™eso de ruido ˜l—n™oD V ar ˆβj =
γ0
N . edemás si v—rios ρk son diferentes de ™ero pero ρ12k = 0 enton™es V ar ˆβj =
γ0
N . in ™u—lquier ™—soD solo l—s ™orrel—™iones est—™ion—les ρ12,ρ24, ... serán utiliE
z—d—s en l— e™u—™ión QFIIF
€—r— l—s tenden™i—s del ™oseno expres—d—s en l— e™u—™ión QFIHF €—r— ™u—lquier
fre™uen™i— de l— form— f = m
n donde m es un entero que s—tisf—™e 1 ≤ m ≤ n
2 ,
se pueden us—r expresiones expli™it—s p—r— los v—lores de l—s estim—™iones ˆβ1 y
ˆβ2.
ˆβ1 =
2
n
n
t=1
cos
2πmt
n
Yt , ˆβ2 =
2
n
n
t=1
sen
2πmt
n
Yt @QFIPA
‰— que l—s —nteriores e™u—™iones son e™u—™iones line—les de {Yt} , se ev—lu—rán
sus v—ri—nz—s us—ndo l— e™u—™ión PFTD y teniendo en ™uent— que gryer —nd gh—n
‘PHHV“
n
t=1
= cos
2πmt
n
2
=
n
2
se o˜tiene
V ar ˆβ1 =
2γ0
n
1 +
4
n
n
s=2
s−1
t=1
cos
2πmt
n
cos
2πms
n
ρs−t
y
V ar ˆβ1 =
2γ0
n
1 +
4
n
n
s=2
s−1
t=1
sen
2πmt
n
sen
2πms
n
ρs−t
ƒi {Xt} es un pro™eso de ruido ˜l—n™oD se o˜tiene implemente 2γ0
n . ƒi ρ1 = 0,
ρk = 0 p—r— k  1 y m
n = 1
12 l— v—ri—nz— se redu™e — gryer —nd gh—n ‘PHHV“
V ar ˆβ1 =
2γ0
n
1 +
4ρ1
n
n−1
t=1
cos
πt
6
cos
πt + 1
6
ρs−t @QFIQA
€—r— l—s tenden™i—s line—les es más ™onveniente utiliz—r un— formul— —ltern—E
tiv— — l— e™u—™ión QFU p—r— ™—l™ul—r ˆβ1. ƒegún gryer —nd gh—n ‘PHHV“ l— estim—E
™ión de l— pendiente por medio de mínimos ™u—dr—dos puede ser es™rit— de l—
3.5. ANÁLISIS DE RESIDUALES PQ
siguiente m—ner—
ˆβ1 =
n
t=1
(t − ¯t) Yt
n
t=1
(t − ¯t)
2
@QFIRA
‰— que l— estim—™iónD ˆβ1D es un— ™om˜in—™ión line—l de los v—lores de Y, y
us—ndo
n
t=1
(t − ¯t)
2
=
n n2
− 1
12
l— v—ri—nz— se puede es™ri˜ir ™omo
V ar ˆβ1 =
12γ0
n (n2 − 1)
n
s=2
s−1
t=1
(t − ¯t) (s − ¯t) ρs−t @QFISA
3.5. Análisis de Residuales
gomo y— se h— des™rito —nteriormenteD l— ™omponente esto™ásti™— {Xt} puede
ser estim—d— medi—nte el residual
ˆXt = Yt − ˆµt
ƒe ™ono™e — ˆXt ™omo el residu—l ™orrespondiente — l— t − ´esima o˜serv—E
™ión frillinger ‘PHHI“F ƒi el modelo de l— tenden™i— es r—zon—˜lemente ™orre™toD
enton™es los residu—les de˜erí—n ™omport—rse ™omo un ™omponente esto™ásti™o
y se pueden est—˜le™er v—rios supuestosF ƒi el ™omponente esto™ásti™o es ruido
˜l—n™oD enton™es los residu—les de˜erí—n ™omport—rse ™omo v—ri—˜les —le—tori—s
independientes norm—lmente distri˜uid—s ™on medi— ™ero y desvi—™ión estánd—r
s. he˜ido — que —l —juste medi—nte mínimos ™u—dr—dos de ™u—lquier tendenE
™i— ™on términos ™onst—ntes produ™en residu—les ™on medi— ™eroD es import—nte
est—nd—riz—r los residu—les ™omo ˆX t
s
.„eniendo los residu—les est—nd—riz—dosD el
p—so — seguir es ™omp—r—r los residu—les ™on l— tenden™i— ™orrespondiente del
v—lor —just—do y por medio de softw—re espe™i—liz—do veri(™—r l—s ™—r—™terísti™—s
del pro™eso esto™ásti™o @norm—lid—dD independen™i—D et™FA @†é—se ‰—te ‘PHII“AF
3.5.1. Función de Autocorrelación Muestral
…n— import—nte herr—mient— ™on l— ™u—l se puede ex—min—r l— dependen™i—
es l— fun™ión de —uto™orrel—™ión muestr—lF gonsidérese un— se™uen™i— de d—E
tos Y1, Y2, . . . , Yn @˜ien se— residu—lesD d—tos origin—les o d—tos tr—nsform—dosAF
esumiendo tent—tiv—mente est—™ion—ried—dD se dese— estim—r l— fun™ión de —utoE
™orrel—™ión ρk p—r— un— v—ried—d de rez—gos k = 1, 2, . . . . v— form— más evidente
de re—liz—r di™ho ™ál™uloD es ™—l™ul—r l— fun™ión de ™orrel—™ión muestr—l entre ™—E
d— p—r de d—tos (Y1, Y1+k) , (Y2, Y2+k) , . . . , (Yn−k, Yn) . ƒin em˜—rgoD teniendo
PR CAPÍTULO 3. TENDENCIAS
en ™uent— el supuesto de l— est—™ion—ried—dD l— ™u—l impli™— un— medi— y un—
v—ri—nz— ™omún p—r— l— serie de tiempoF v— fun™ión de —uto™orrel—™ión muestr—l
de l— siguiente m—ner— gryer —nd gh—n ‘PHHV“
Denición 37 La función de autocorrelación muestral, rk en el rezago k es
rk =
n
t=k+1
Yt − ¯Y Yt−k − ¯Y
n
t=1
Yt − ¯Y
2
@QFITA
Capítulo 4
Modelos para Series de
Tiempo Estacionarias
in el siguiente ™—pítulo se dis™utirán los ™on™eptos ˜ási™os de un— —mpli—
g—m— de modelos de series de tiempo p—r—métri™—s ™ono™id—s ™omo modelos
—utorregresivos de promedios móviles o e‚weD de˜ido — sus sigl—s en inglésF
g—˜e not—r que este tipo de modelos tiene un— gr—n import—n™i— en los pro™esos
de l— vid— ™otidi—n—D en v—rios ™—mpos del ™ono™imientoF
4.1. Procesos Generales Lineales
r—st— el momentoD siempre se h— ™onsider—do — {Yt} ™ómo l— serie de tiempo
o˜serv—d—F e p—rtir de este ™—pítuloD t—m˜ién se denot—rá — {et} ™omo un ruido
˜l—n™o no o˜serv—doD es de™irD un— se™uen™i— de v—ri—˜les —le—tori—sD idénti™—E
mente distri˜uid—s ™on medi— ™eroF „—m˜iénD en mu™hos ™—sosD el supuesto de
independen™i— puede ser sustituido por el supuesto @más dé˜ilA que {et}, es un—
se™uen™i— de v—ri—˜les —le—tori—s no ™orrel—™ion—d—sF
Denición 38 Un proceso general lineal {Yt}, es aquel que puede ser represen-
tado como una combinación lineal ponderada, de los términos del pasado y del
presente de un proceso de ruido blanco de la siguiente manera.
Yt = et + ψ1et−1 + ψ2et−2 + · · · @RFIA
Cryer and Chan [2008]
ƒi l— expresión de l— dere™h— es ™iert—mente un— serie in(nit—D de˜en est—E
˜le™er™e ™ondi™iones so˜re los pesos ψ, ™on el (n de que di™h— expresión teng—
sentidoD m—temáti™—mente h—˜l—ndoF is su(™iente —sumir queX
∞
i=1
ψ2
i  ∞ @RFPA
PS
PTCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
„—m˜ién de˜e not—rse que d—do que {et} es un pro™eso de ruido ˜l—n™o no
o˜serv—˜leD no se pierde l— gener—lid—d de l— e™u—™ión RFPY si se —sume que el
™oe(™iente de et es 1; efe™tiv—mente ψ0 = 1.
…n ejemplo de sum— import—n™i— en el des—rrollo del textoD es l— ™—so en el
™u—l los ψ form—n un— se™uen™i— exponen™i—lmente de™re™iente
ψj = φj
honde −1 ≤ φ ≤ 1, enton™es
Yt = et + φet−1 + φ2
et−2 + · · ·
€—r— este ejemplo
E (Yt) = E et + φet−1 + φ2
et−2 + · · · = 0
es de™ir que {Yt} tiene un— medi— ™onst—nte igu—l — ™eroF „—m˜ién
V ar (Yt) = V ar et + φet−1 + φ2
et−2 + · · ·
= V ar (et) + φ2
V ar (et−1) + φ4
V ar (et−2) + · · ·
= σ2
e 1 + φ2
+ φ4
+ · · ·
=
σ2
e
1 − φ2
@ƒum—ndo l— serie geométri™—A
edemás
Cov (Yt, Yt−1) = Cov et + φet−1 + φ2
et−2 + · · · , et−1 + φet−2 + φ2
et−3 + · · ·
= Cov (φet−1, et−1) + Cov φ2
et−2, φet−2 + · · ·
= φσ2
e + φ3
σ2
e + φ5
σ2
e + · · ·
= φσ2
e 1 + φ2
+ φ4
+ · · ·
=
φσ2
e
1 − φ2
@ƒum—ndo l— serie geométri™—A
inton™es
Corr (Yt, Yt−1) =
φσ2
e
1 − φ2
σ2
e
1 − φ2
= φ
he m—ner— —nálog—D se puede ™—l™ul—r
Cov (Yt, Yt−k) =
φk
σ2
e
1 − φ2
por lo t—nto
Corr (Yt, Yt−k) = φk
@RFQA
4.2. PROCESOS DE PROMEDIOS MÓVILES PU
is import—nte señ—l—r que el pro™eso es est—™ion—rioD y— que l— —uto™ov—ri—nE
z— depende sol—mente del rez—go de tiempo y no del tiempo —˜solutoF €—r— un
pro™eso gener—l line—l
Yt = et + ψ1et−1 + ψ2et−2 + · · ·
se sigue un pro™edimiento —nálogo —l —nteriormente re—liz—do p—r— o˜tener
E (Yt) = 0 γk = Cov (Yt, Yt−k) = σ2
e
∞
i=0
ψiψi+k k ≥ 0 @RFRA
™on ψ0 = 1. …n pro™eso ™on medi—D diferente de ™eroD µ puede ser o˜tenido
—ñ—diendo el término µ — l— p—rte dere™h— de l— e™u—™ión RFIF he˜ido — que l—
medi— no —fe™t— l—s propied—des de l— ™ov—ri—nz—D se sumirá que l— medi— es ™eroD
h—st— que se —justen modelos — un— serie de d—tos
4.2. Procesos de Promedios Móviles
in el ™—soD donde solo existe un número (nito de pesos ψ diferentes de ™eroD
se tiene lo que se ™ono™e ™omo un pro™eso de promedios móviles
Denición 39 Una proceso {Yt} se dice que es promedios móviles cuando existe
un número nito de pesos θ, y tiene la siguiente forma:
Yt = et − θ1et−1 − θ2et−2 − · · · − θqet−q @RFSA
La ecuación 4.5 se conoce como una serie de promedios móviles de orden q
y se abrevia con las siglas MA(q). Box and Jenkins [1976]
il término €romedios wóviles se ˜—s— en el he™ho que Yt se o˜tiene —pli™—nE
do los pesos 1, −θ1, −θ2, · · · , −θq — l—s v—ri—˜les et, et−1, et−2, · · · , et−q y luego
se mueven los pesos y se —pli™—n — l—s v—ri—˜les et + 1, et, et−1, · · · , et−q+1 ™on
(n de o˜tener Yt+1F
4.2.1. Procesos de Promedios Móviles de Primer Orden
e ™ontinu—™ión se ™onsider—ráD el más simpleD de los modelosD sin dej—r de
ser import—nteF il pro™eso de promedios móviles de orden 1D es de™irD MA(1).
ƒegún l— e™u—™ión RFS el modelos es de l— form—X
Yt = et − θet−1
is import—nte —™l—r—r que p—r— los modelos de primer orden θ1 se suele not—r
simplemente ™omo θF
gl—r—mente E (Y1) = 0 y V ar (Yt) = σ2
e 1 + θ2
, edemás
Cov (Yt, Yt−1) = Cov (et − θet−1, θet−1 − θet−2)
= Cov (−θet−1, et−1) = −θσ2
e
PVCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
y
Cov (Yt, Yt−2) = Cov (et − θet−1, θet−2 − θet−3)
= 0
he˜ido — que no existen v—ri—˜les e ™omunes entre Yt y Yt−2, Cov (Yt, Yt−k) =
0 siempre y ™u—ndo k ≥ 2, es de™ir que el pro™eso no tiene ™orrel—™ión p—r—
rez—gos m—yores — 1.
in resumenD p—r— un modelo MA (1) Y = et − θet−1
E (Yt) = 0 @RFTA
γ0 = V ar (Yt) = σ2
e 1 + θ2
γ1 = −θσ2
e
ρ1 =
−θ
(1 + θ2)
γk = ρk = 0 €—r— k ≥ 2
4.2.2. Procesos de Promedios Móviles de Segundo Orden
ƒegún l— e™u—™ión RFS un— serie de tiempo de promedios móviles de orden
dos es de l— form—X
Yt = et − θ1et−1 − θ2et−2
in este g—so
γ0 = V ar (Yt) = V ar (et − θ1et−1 − θ2et−2) = 1 + θ2
1 + θ2
2 σ2
e
γ1 = Cov (Yt, Yt−1) = Cov (et − θ1et−1 − θ2et−2, et−1 − θ1et−2 − θ2et−3)
= Cov (−θ1et−1, et−1) + Cov (−θ1et−2, −θ2et−2)
= [−θ1 + (−θ1) (−θ2)] σ2
e
= (−θ1 + θ1θ2) σ2
e
y
γ1 = Cov (Yt, Yt−2) = Cov (et − θ1et−1 − θ2et−2, et−2 − θ1et−3 − θ2et−4)
= Cov (−θ2et−2, et−2)
= −θ2σ2
e
inton™esD p—r— un modelo MA (2)
ρ1 =
−θ1 + θ1θ2
1 + θ2
1 + θ2
2
ρ2 =
−θ2
1 + θ2
1 + θ2
2
@RFUA
ρk = 0 €—r— k = 3, 4, ...
4.3. PROCESOS AUTORREGRESIVOS PW
4.2.3. Procesos de Promedios Móviles de Orden q
€—r— el pro™eso gener—l MA (q)
Yt = et − θ1et−1 − θ2et−2 − · · · − θqet−q
ƒiguiendo un pro™eso —nálogo —l de los pro™esos MA (1) y MA (2) se o˜tiene
γ0 = V ar (Yt) = 1 + θ2
1 + θ2
2 + · · · + θ2
q σ2
e @RFVA
y
ρk =



−θk+1 + θ1θk+1 + θ2θk+2 + · · · + θq−kθq
1 + θ2
1 + θ2
2 + · · · + θ2
q
€—r— k = 1, 2, ..., q
H €—r— k  q
@RFWA
fox —nd tenkins ‘IWUT“
4.3. Procesos Autorregresivos
Denición 40 Un proceso Autorregresivo {Yt} de orden p satisface la ecuación
Box and Jenkins [1976]
Yt = φ1Yt−1 + φ1Yt−2 + · · · + φpYt−p + et @RFIHA
il v—lor —™tu—l de l— serie {Yt} es un— ™om˜in—™ión line—l del v—lor p—s—do
más re™iente de p m—s un término de innov—™ión et, el ™u—l in™orpor— todo lo
que no es expli™—do por l—s v—ri—˜les p—s—d—s en l— serie en el tiempo tF €or lo
t—ntoD se —sume que ™—d— t es independiente — Yt−1, Yt−2, Yt−3, ..
4.3.1. Procesos Autorregresivos de Primer Orden
il pro™eso —utorregresivo de primer orden AR (1) , teniendo en ™uent— l—
e™u—™ión RFIHD es de l— form—
Yt = φYt−1 + et @RFIIA
gomo es usu—lD se —sume que l— medi— del pro™esoD h— sido extr—íd—D luego
l— medi— de l— serie es ™eroF
„eniendo en ™uent— el pro™edimiento propuesto por gryer —nd gh—n ‘PHHV“
gomo primer— medid— se ev—lu—rá l— v—ri—nz—F „om—ndo l— e™u—™ión RFII y
s—™—ndo l— v—ri—nz— — —m˜os l—dos de l— igu—ld—d se o˜tiene
γ0 = φ2
γ0 + σ2
e
vuego
γ0 = φ
σ2
e
1 − φ2
QHCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
he los ™u—l se puede ™on™luir que φ2
 1 o lo que es equiv—lente |φ|  1.
ehor— tom—ndo l— e™u—™ión RFII y multipli™—ndo —m˜os l—dos de l— igu—ld—d
por Yt−k ™on k = 1, 2, ..., y tom—ndo el v—lor esper—do se o˜tieneX
E (Yt−kYt) = φ2
E (Yt−kYt−1) + E (etYt−k)
o
γk = φγk−1 + E (etYt−k) = 0
he˜ido — que l— serie se h— supuesto est—™ion—ri— ™on medi— ™eroD y teniendo
en ™uent— que et es independiente de Yt−k se o˜tieneX
E (etYt−k) = E (et) E (Yt−k) = 0
inton™es
γk = φγk−1
ƒustituyendo k = 1 se o˜tiene γ1 = φγ0 es de™ir
γ1 =
σ2
e
1 − φ2
ƒustituyendo k = 2 se o˜tiene
γ2 =
φ2
σ2
e
1 − φ2
vuego se puede ™on™luir que en gener—l
γk = φk σ2
e
1 − φ2
€or ™onsiguiente
ρk =
γk
γ0
= φk
€—r— k = 1, 2, 3, ...
gomo |φ|  1, l— m—gnitud de l— fun™ión de ™orrel—™ión de™re™e exponen™i—lE
mente según —ument— el número de rez—gos k
4.3.1.1. Versión General Lineal de un Modelo AR (1)
v— de(ni™ión re™ursiv— del modelo AR (1) d—d— en l— e™u—™ión RFII es de gr—n
utilid—d p—r— l— interpret—™ión del modeloF ƒin em˜—rgoD p—r— otros propósitosD
es ™onveniente expres—r el modelo AR (1) ™omo un pro™eso gener—l line—l ™omo
en l— e™u—™ión RFIF v— de(ni™ión re™ursiv— es válid— p—r— todo t. ƒi se us— l—
e™u—™ión reempl—z—ndo t por t − 1, se tiene Yt−1 = φYt−2 + et−1. ƒustituyendo
en l— e™u—™ión gener—l se o˜tiene
Yt = φ (φYt−2 + et−1) + et
= et + φet−1 + φ2
Yt−2
4.3. PROCESOS AUTORREGRESIVOS QI
ƒi se repite el pro™eso h—™i— el p—s—doD k − 1 ve™esD se o˜tiene
Yt = et + φet−1 + φ2
et−2 + +φk−1
et−k+1 + φk
Yt−k @RFIPA
esumiendo que |φ|  1, y permitiendo que k ™rez™—D se o˜tiene l— represenE
t—™ión in(nit—X
Yt = et + φet−1 + φ2
et−2 + φ3
et−3 + · · · @RFIQA
fox —nd tenkins ‘IWUT“
4.3.1.2. Estacionariedad de un Proceso AR (1)
ƒujeto — l—s restri™™iones que et es independiente — Yt−1, Yt−2, Yt−3, .. y que
σ2
e  0, l— solu™ión de l— re™ursivid—d del modelo AR (1)
Yt = φYt−1 + et
es est—™ion—l si y solo si |φ|  1. iste requisito gener—lmente se ™ono™e ™omo
l— Condición de estacionariedad (fox —nd tenkins ‘IWUT“ pF SRA
4.3.2. Procesos Autorregresivos de Segundo Orden
gonsidérese l— serie que s—tisf—™e l— siguiente e™u—™ión
Yt = φ1Yt−1 + φ2Yt−2 + et @RFIRA
hondeD ™omo es usu—lD se —sume que et es independiente de Yt−1, Yt−2, Yt−3, ... €—r—
tener en ™uent— l— est—™ion—ried—d se introdu™e el Polinomio Característico
AR
φ (x) = 1 − φ1x − φ2x2
‰ su respe™tiv— Ecuación Característica AR
1 − φ1x − φ2x2
= 0
„eniendo en ™uent— que un— e™u—™ión ™u—dráti™— tiene dos r—í™esD posi˜leE
mente ™omplej—sF
4.3.2.1. Estacionariedad de un Proceso AR (2)
ƒujeto — l— ™ondi™ión que et es independiente de Yt−1, Yt−2, Yt−3, ...…n— soE
lu™ión est—™ion—ri— — l— e™u—™ión RFIRD existeD si y solo si l—s r—í™es de l— e™u—™ión
™—r—™terísti™— e‚D son m—yores que I en v—lor —˜solutoD o eventu—lmente se diE
™e que l—s r—í™es están en el exterior del ™ir™ulo unit—rio en el pl—no ™omplejo
@foxD tenkinsD —nd ‚einselD IWWRDpF SRAF iste ™on™epto se gener—liz— — modelos
de orden p sin ™—m˜io —lgunoF vo que siguiere el siguiente teorem—X
QPCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
Teorema 41 Cryer and Chan [2008] En el caso del modelo de segundo orden
AR(2) , las raíces de la ecuación característica son de la forma
φ1 ± φ2
1 − 4φ2
−2φ2
Un modelo AR (2) es estacionario si y solo si se satisfacen las siguientes con-
diciones
φ1 + φ2  1 φ2 − φ1  1 |φ2|  1
Demostración ƒe—n G1 y G2 los números re™ípro™os de l—s r—í™es de l—
e™u—™ión ™—r—™terísti™— e‚D enton™es
G1 =
2φ2
−φ1 − φ2
1 + 4φ2
‚—™ion—liz—ndo
G1 =
2φ2 −φ1 + φ2
1 + 4φ2
−φ2
1 − (φ2
1 + 4φ2)
G1 =
−φ1 − φ2
1 + 4φ2
2
hel mismo modo
G2 =
φ1 + φ2
1 + 4φ2
2
ehor—D teniendo en ™uent— el dis™rimin—nte de un— fun™ión ™u—dráti™— se
puede ™on™luir que
v— r—íz es re—l si y solo si φ2
1 + 4φ2 ≥ 0
|Gi|  1 p—r— i = 1 y 2 si y solo si
−1 
φ1 − φ2
1 + 4φ2
2

φ1 + φ2
1 + 4φ2
2
 1
o
2  φ1 − φ2
1 + 4φ2  φ1 + φ2
1 + 4φ2  2
„om—ndo l— primer— p—rte de l— desigu—ld—dF
2  φ1 − φ2
1 + 4φ2 si y solo si
φ2
1 + 4φ2  φ1 + 2 si y solo si
φ2
1 + 4φ2  φ2
1 + 4φ1 + 4 si y solo si
φ2  φ1 + 1 o
φ2 − φ1  1
enálog—mente l— segund— desigu—ld—d φ1 + φ2
1 + 4φ2  2 nos llev— —
φ2 + φ1  1
v— r—íz es ™omplej— si y solo si φ2
1 + 4φ2  0
honde G1 y G2 son ™omplej—s ™onjug—d—s y
|G1| = |G2|  1
|G1|
2
=
φ2
1 + −φ2
1 − 4φ2
4
= −φ2
4.3. PROCESOS AUTORREGRESIVOS QQ
φ2  −1
iso junto ™on l— desigu—ld—d φ2
1 + 4φ2  0 nos llev— —
|φ2|  1 gryer —nd gh—n ‘PHHV“
4.3.2.2. La Función de Autocorrelación del Proceso AR (2)
€—r— ™—l™ul—r l— fun™ión de —uto™orrel—™ión p—r— los modelos AR (2) se tom—
l— e™u—™ión RFIR se multipli™—n —m˜os l—dos por Yt−k, y se tom—n los v—lores
esper—dosF esumiendo est—™ion—ried—dD medi—s igu—les — ™ero y l— independen™i—
de et respe™to — Yt−1, Yt−2, Yt−3, .... vo que ™ondu™e —
γk = φ1γk + φ2γk−2 €—r— k = 1, 2, 3, ... @RFISA
o dividiendo por γ0
ρk = φ1ρk−1 + φ2ρk−2 €—r— k = 1, 2, 3, ... @RFITA
v—s e™u—™iones RFIS y RFIT son ™ono™id—s ™omo l—s e™u—™iones ‰uleE‡—lkerD
espe™i—lmente el ™onjunto de dos e™u—™iones o˜tenid—s ™u—ndo k = 1 y k = 2.
r—™iendo k = 1 us—ndo — ρ0 = 1 y ρ−1 = ρ1, se o˜tiene ρ1 = φ1 + φ2ρ1, luego
ρ1 =
φ1
1 − φ2
us—ndo los v—lores ™ono™idos de ρ1, se us— l— e™u—™ión RFIT ™on k = 2 p—r—
o˜tener
ρ2 = φ2ρ2 + φ2ρ2
=
φ2 (1 − φ2) + φ2
1
1 − φ2
‰ de un— m—ner— —nálog— y su™esiv— se podrí— ™—l™ul—r ρk
4.3.3. Varianza del Modelo AR (2)
v— v—ri—nz— γ0 puede ser expres—d— en términos de los p—rámetros del modelo
φ1 D φ2 y σ2
e de l— siguiente m—ner—X „om—ndo l— e™u—™ión RFIR y ev—lu—ndo l—
v—ri—nz— — —m˜os l—dos de l— igu—ld—d se o˜tiene
γ0 = φ2
1 + φ2
2 γ0 + 2φ1φ2γ1 + σ2
e @RFIUA
iv—lu—ndo l— e™u—™ión RFIS ™on k = 1 se o˜tiene un— e™u—™ión line—l p—r— γ0
y γ1
γ1 = φ1γ0 + φ2γ1
l— ™u—l se puede resolver simult—ne—mente ™on l— e™u—™ión RFIU p—r— o˜tener
γ0 =
(1 − φ2) σ2
e
(1 − φ2) (1 − φ2
1 − φ2
2) − 2φ2φ2
1
=
1 − φ2
1 + φ2
σ2
e
(1 − φ2)
2
− φ2
1
@RFIVA
QRCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
4.3.4. Proceso Autorregresivo General
gonsidere el modelo —utorregresivo de orden p
Yt = φ1Yt−1 + φ1Yt−2 + · · · + φpYt−p + et @RFIWA
gon su polinomio ™—r—™terísti™o e‚
φ (x) = 1 − φ1x − φ2x2
− · · · − φpxp
@RFPHA
‰ su respe™tiv— e™u—™ión ™—r—™terísti™—
1 − φ1x − φ2x2
− · · · − φpxp
= 0 @RFPIA
gomo se men™ionó —ntesD —sumiendo que et es independiente de Yt−1, Yt−2, Yt−3, ...
un— solu™ión est—™ion—ri— — l— e™u—™ión RFPI existe si y solo si l—s p r—í™es de l—
e™u—™ión son m—yores que 1 en v—lor —˜solutoF
hel mismo modoD —sumiendo l— est—™ion—ried—d y que l—s medi—s son igu—les
— ™eroD se puede multipli™—r l— e™u—™ión RFIW p—r— o˜tener l— siguiente e™u—™ión
re™ursiv—F
ρk = φ1ρk−1 + φ2ρk−2 + φ3ρk−3 + · · · + φpρk−p €—r— k ≥ 1 @RFPPA
he(niendo k = 1, 2, ... y valores de p en l— e™u—™ión D y us—ndo ρ0 = 1 y
ρ−k = ρk se o˜tienen l—s e™u—™iones gener—les de ‰uleE‡—lker
ρ1 = φ1 + φ2ρ1 + φ3ρ2 + · · · + φpρp−1 @RFPQA
ρ2 = φ1ρ1 + φ2 + φ3ρ1 + · · · + φpρp−2 @RFPRA
FFF
ρp = φ1ρp−1 + φp−2 + φ3ρp−3 + · · · + φp
edemásD ™onsider—ndo que
E (etYt) = E [et (φ1Yt−1 + φ2Yt−2 + · · · + φpYt−p + et)] = E e2
t = σ2
e
se puede multipli™—r l— e™u—™ión RFIW por Yt tom—r v—lores esper—dos y o˜E
tener
γ0 = φ1γ1 + φ2γ2 + · · · + φpγp + σ2
e
ue tom—ndo — ρk =
γk
γ0
puede ser es™rit— de l— siguiente m—ner— fox —nd
tenkins ‘IWUT“
γ0 =
σ2
e
1 − φ1ρ1 − φ2ρ2 − · · · − φpρp
@RFPSA
i™u—™ión que expres— l— v—ri—nz— γ0 en términos de σ2
e , φ1, φ2, ..., φp y los
v—lores ™ono™idos de ρ1, ρ2, ..., ρp.
4.4. MODELOS MIXTOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESQS
4.4. Modelos Mixtos Autorregresivos de Prome-
dios Móviles
ƒi se —sume que l— serie de tiempo es p—r™i—lmente —utorregresiv— y p—r™i—lE
mente de promedios móviles se puede o˜tener lo siguienteF
Denición 42 Una serie {Yt} se dice que es un proceso mezclado autorregre-
sivo de promedios móviles de ordenes p y q, si satisface la siguiente ecuación
Yt = φ1Yt−1 +φ2Yt−2 +· · ·+φpYt−p +et −θ1et−1 −θ2et−2 −· · ·−θqet−q @RFPTA
gon el (n de —˜revi—rD se utiliz—rá l— not—™ión ARMA (p, q) . esumiendo
que en los modelo mixtos no existen f—™tores ™omunes en los polinomiosD t—nto
—utorregresivos ™omo de promedios móvilesF is ™l—ro que si existier—n se podrí—n
™—n™el—r y en ese ™—so el orden del modelo disminuirí— fox —nd tenkins ‘IWUT“
4.4.1. El modelo ARMA (1, 1)
ƒegún l— e™u—™ión RFPT el modelo ARMA (1, 1) se puede es™ri˜ir de l— siE
guiente m—ner—
Yt = φYt−1 + et − θet−1 @RFPUA
gon el (n de o˜tener l—s e™u—™iones de ‰uleE‡—lkerD primeroX
E (et, Yt) = E [et (φYt−1 + et − θet−1)]
= σ2
e
y
E (et−1Yt) = E [et−1 (φYt−1 + et − θet−1)]
= φσ2
e − θσ2
e
= (φ − θ) σ2
e
ƒi se multipli™— l— e™u—™ión RFPU por Yt−k y se ™—l™ul— el v—lor esper—do se
o˜tiene el siguiente sistem— de e™u—™iones
γ0 = φγ0 + [1 − θ (φ − θ)] σ2
e
γ1 = φγ0 − θσ2
e @RFPVA
γk = φγk−1 €—r— k ≥ 2
‚esolviendo l—s dos primer—s e™u—™iones
γ0 =
1 − φθ + θ2
1 + φ2
σ2
e @RFPWA
ƒolu™ion—ndo l— e™u—™ión re™ursiv—
ρk =
(1 − θφ) (φ − θ)
1 − θφ + θ2
φk−1
€—r— k ≥ 1 @RFQHA
QTCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
ƒe puede ™on™luir que l— fun™ión de —uto™orrel—™ión de™re™e — medid— que
los rez—gos k ™re™enF
v— form— del pro™eso line—l gener—l del modelo puede ser o˜tenid— de l—
mism— m—ner— que l— o˜tenid— gr—™i—s — l— e™u—™ión RFIQ
Yr = et + (φ − θ)
∞
j=1
φj−1
et−j @RFQIA
is de™ir
ψj = (φ − θ) φj−1
€—r— j ≥ 1
honde l— ™ondi™ión de est—™ion—ried—d |φ|  1 se tiene que ™umplirF
4.4.2. La Función de Autocorrelación para un Proceso
ARMA (p, q) Cryer and Chan [2008]
€—r— un modelo gener—l ARMA (p, q) , teniendo en ™uent— que et es indeE
pendiente de Yt−1, Yt−2, Yt−3, . . . , un— solu™ión est—™ion—ri— — l— e™u—™ión RFPT
existe si y solo si tod—s l—s r—í™es en v—lor —˜soluto de l— e™u—™ión ™—r—™terísti™—
AR son m—yores que 1.
ƒi l— ™ondi™ión de est—™ion—ried—d se s—tisf—™eD el modelo puede ser es™rito
™omo un pro™eso gener—l line—l ™on ψ ™oe(™ientes determin—dos gr—™i—s —
ψ0 = 1 @RFQPA
ψ1 = −θ1 + φ1
ψ2 = −θ2 + φ2 + φ1ψ1
FFF
ψj = −θj + φpψj−p + φp−1ψj−p+1 + · · · + φ1ψj−1
dondeD por pr—™ti™id—d se tom— ψj = 0 p—r— j  0 y θj = 0 p—r— j  q.
„eniendo en ™uent— l— ™ondi™ión de est—™ion—ried—dD l— fun™ión de —uto™oE
rrel—™ión s—tisf—™e
ρk = φ1ρk−1 + φ2ρk−2 + +φpρk−p €—r— k  q @RFQQA
edemásD se— {Yt} un pro™eso ARMA (p, q) inverti˜leD teniendo en ™uent—
que di™ho pro™eso se puede es™ri˜ir en un— form— gener—l line—l de l— siguiente
form—
Yt =
∞
j=0
ψjet−j @RFQRA
donde los pesos ψ pueden ser o˜tenidos re™ursiv—mente gr—™i—s — l— e™u—™ión
RFQPD luego
E (Yt+ket) = E


∞
j=0
ψjet+k−jet

 = ψkσ2
e €—r— k ≥ 0 @RFQSA
4.4. MODELOS MIXTOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESQU
inton™es l— —uto™ov—ri—nz— de˜e s—tisf—™er
γk = E (Yt+kYt) = E




p
j=1
φjYt+k−j −
q
j=0
θjet+k−j

 Yt

 @RFQTA
=
p
j=1
φjγk−j − σ2
e
q
j=0
θψj−k
honde θ0 = 1 y l— ultim— sum— se ™—n™el— si k  q. ƒi se est—˜le™e k =
0, 1, , p y γ−k = γk se puede ™on™luir que existen p + 1 e™u—™iones line—les en
γ0, γ1, . . . , γp.
γ0 = φ1γ1 + φ2γ2 + · · · + φpγp − σ2
e (θ0 + θ1ψ1 + · · · + θ1ψ1)
γ1 = φ1γ0 + φ2γ1 + · · · + φpγp−1 − σ2
e (θ1 + θ2ψ1 + · · · + θqψq−1)
FFF
γp = φ1γp−1 + φ2γp−2 + · · · + φpγ0 − σ2
e (θp + θp+1ψ1 + · · · + θqψq−p)



@RFQUA
donde θj = 0 si j  q.
€—r— un ™onjunto d—do de p—rámetros σ2
e , φ y θ @y por ende ψA se pueden
solu™ion—r l—s e™u—™iones ™on el (n de o˜tener γ0, γ1, . . . , γp. vos v—lores de γk
p—r— k  p pueden ser ev—lu—dos en l— e™u—™ión re™ursiv— RFQQF pin—lmente ρk
es o˜tenido por medio de l— e™u—™iónF
ρk =
γk
γ0
4.4.3. Invertibilidad
enteriormente se h— expuesto que p—r— un pro™eso MA (1) se o˜tiene ex—™E
t—mente l— mism— fun™ión de ™orrel—™ión si θ es reempl—z—do por 1
θ . v— f—lt—
de uni™id—d de los modelos MA, d—d— su fun™ión de —uto™orrel—™iónD de˜e ser
tenid— en ™uent— —ntes de intent—r inferir los v—lores de los p—rámetros ™on ˜—se
en l— serie de tiempo o˜serv—d—F
…n pro™eso —utorregresivo puede ser expres—do ™omo un pro™eso line—l geE
ner—l por medio de los ™oe(™ientes ψ, es de™ir que un pro™eso AR puede ser
pens—do ™omo un pro™eso de promedios móviles MA de orden in(nitoF
gonsidérese un modelo MA (1)
Yt = et − θet−1 @RFQVA
‚ees™ri˜iendo l— e™u—™ión RFQV de l— form— et = Yt + θet−1D reempl—z—ndo t
por t − 1 y sustituyendo por et−1 se o˜tiene
et = Yt + θ (Yt−1 + θet−2)
= Yt + θYt−1 + θ2
et−2
QVCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS
ƒi |θ|  1, se puede ™ontinu—r l— —nterior sustitu™ión in(nit—mente ™on el (n
de o˜tener l— siguiente e™u—™ión
et = Yt + θYt−1 + θ2
Yt−2 + · · ·
o
Yt = −θYt−1 − θ2
Yt−2 − θ3
Yt−3 − · · · + et @RFQWA
ƒi |θ|  1, se puede ver que el modelo MA (1) puede ser invertido en un
modelo —utorregresivo de orden in(nitoF is de™irD se di™e que el modelo MA (1)
es inverti˜le si y solo si |θ|  1.
€—r— un pro™eso gener—l MA (q) o ARMA (p, q) , se de(ne el polinomio ™—E
r—™terísti™o ™omo
θ (x) = 1 − θ1x − θ2x2
− θ3x3
− · · · − θqxq
@RFRHA
y l— ™orrespondiente e™u—™ión ™—r—™terísti™— MA
1 − θ1x − θ2x2
− θ3x3
− · · · − θqxq
= 0 @RFRIA
inton™es el modelo MA (q) es invertible fox —nd tenkins ‘IWUT“Y es de™irD
existen ™oe(™ientes πj t—les que
Yt = π1Yt−1 + π2Yt−2 + π3Yt−3 + · · · + et @RFRPA
ƒi y solo si l—s r—í™es de l— e™u—™ión ™—r—™terísti™— son m—yoresD en v—lor
—˜solutoD — 1.
Capítulo 5
Modelos para Series de
Tiempo No Estacionarias
in el siguiente ™—pítulo se introdu™irá el ™on™epto de diferen™i—™ión u oper—E
dor diferen™i— de orden pD ™on el (n de indu™ir l— est—™ion—ried—d de un— serie de
tiempo no est—™ion—ri—F „eniendo este ™on™eptoD es posi˜le lleg—r —l import—nte
™on™epto de los modelos integr—dos —utorregresivos de promedios móvilesF
edemásD se explor—rán otro tipo de tr—nsform—™iones que tienen el mismo
o˜jetivoD t—les tr—nsform—™iones son los ™—m˜ios de por™ent—jeD log—ritmos y de
form— más gener—l l—s tr—nsform—™iones de poten™i— o tr—nsform—™iones foxE
goxF
5.1. Estacionariedad a través de los Operadores
Diferencia
gonsidérese el modelo AR (1)
Yt = φYt−1 + et @SFIA
ƒe h— di™ho en los ™—pítulos —nterioresD que si et no est— ™orrel—™ion—d— ™on
Yt−1, Yt−2, ..., se tiene que tener |φ|  1. ƒin em˜—rgo surge l— pregunt—X ¾ué
podrí— p—s—r si di™h— ™ondi™ión no se ™umplecF
gonsidérese l— siguiente e™u—™ión
Yt = 3Yt−1 + et @SFPA
ster—ndo respe™to —l p—s—doD ™omo y— se h— he™ho en ™—pítulos —nterioresD se
o˜tieneX
Yt = et + 3et−1 + 32
et−2 + · · · + 3t−1
ei + 3t
Y0 @SFQA
ƒe puede o˜serv—r que l— in)uen™i— de los v—lores dist—ntes del p—s—do de Yt
y et, no se —nul—D de he™hoD los pesos —pli™—dos — Y0 y e1 ™re™en de un— m—ner—
exponen™i—lF
QW
RHCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
iste fenómeno t—m˜ién se re)ej— en l—s fun™iones de v—ri—nz— y ™ov—ri—nz—D
™omo se muestr— — ™ontinu—™ión
V ar (Yt) =
1
8
9t
− 1 σ2
e @SFRA
y
Cov (Yt, Yt−k) =
3k
8
9t−k
− 1 σ2
e @SFSA
he l— mism— m—ner—
Corr (Yt, Yt−k) = 3k 9t−k
− 1
9t − 1
≈ 1
gu—ndo t tiende — in(nitoD y ™u—ndo los v—lores de k son moder—dos
iste mismo fenómeno de ™re™imiento exponen™i—l o gomport—miento ixE
plosivo (™iteX gryer) o™urrirá p—r— ™u—lquier φ t—l que |φ|  1.
ytro tipo de modelos no est—™ion—rios son los que ™umplen ™on l— ™ondi™ión
|φ| = 1. …n modelo de di™h—s ™—r—™terísti™—s es de l— form—X
Yt = Yt−1 + et @SFTA
hi™h— e™u—™ión se puede es™ri˜ir de un— form— —ltern—tiv—X
Yt = et @SFUA
honde Yt = Yt − Yt−1 se ™ono™e ™omo l— primera diferencia de YtD u
operador diferencia de primer orden querrero ‘IWWV“F
he est— de(ni™ión se pueden h—™er supuestos —™er™— de los modelos ™uyos
oper—dores diferen™i— son modelos est—™ion—riosF €or ejemploD supóng—se
Yt = Mt + Xt @SFVA
honde Mt es un— serie ™—m˜i—nte respe™to —l tiempoF in este ™—so Mt puede
serD ˜ien se—D esto™ásti™—D o determinísti™—F ƒi se supone que Mt es —proxim—d—E
mente ™onst—nte en dos puntos ™onse™utivos de tiempoD se podrí— estim—r Mt si
se elige un β0 de t—l form— que gryer —nd gh—n ‘PHHV“
1
j=0
(Yt−j − β0,t)
2
ƒe minimi™eD ™on lo que se o˜tiene
ˆMt =
1
2
(Yt + Yt−1)
y l— serie de tiempo sin tenden™i— en el tiempo t esX
Yt − ˆMt = Yt −
1
2
(Yt + Yt−1) =
1
2
(Yt − Yt−1) =
1
2
Yt
5.1. ESTACIONARIEDAD A TRAVÉS DE LOS OPERADORES DIFERENCIARI
is de™ir un— ™onst—nte múltiple del oper—dor diferen™i— Yt.
ytro supuesto de gr—n import—n™i— es que Mt en l— e™u—™ión SFV es un pro™eso
esto™ásti™oD ™ondi™ion—do por un pro™eso de 4™—min—t— —le—tori—4D supong— por
ejemplo queX
Yt = Mt + et ™on Mt = Mt−1 + εt @SFWA
honde {et} y {εt} son series de tiempo de ruido ˜l—n™o independientesD
enton™es
Yt = Mt + et
= εt + et − et−1
v— ™u—l tendrí— l— fun™ión de —uto™orrel—™ión de un modelo MA (1) ™on
ρ1 = −



1
2 +
σ2
ε
σ2
e



@SFIHA
en ™u—lquier— de est—s situ—™ionesD se tiene que estudi—r el oper—dor diferen™i—
Yt ™omo un pro™eso est—™ion—rioF
v— suposi™ión que ™ondu™e — un he™ho ˜—st—nte import—nteD es en l— que teE
niendo en ™uent— l— e™u—™ión SFVD y —sumiendoD en este ™—so que Mt es de ™—rá™ter
line—l en tres puntos de tiempo ™onse™utivosF in este ™—so se puede estim—r Mt
en el punto de tiempo medio t eligiendo β0,t y β1,tD t—les que minimi™en
1
j=−1
(Yt−j − (β0,t + jβ1,t))
2
y˜teniendo
ˆMt =
1
3
(Yt+1 + Yt + Yt−1)
€or ™onsiguiente l— serie de tiempo sin tenden™i— es
Yt − ˆMt = Yt −
Yt+1 + Yt + Yt−1
3
= −
1
3
(Yt+1 − 2Yt + Yt−1)
= −
1
3
2
(Yt+1)
…n— múltiple ™onst—nte del oper—dor diferen™i— ™entr—do de segundo orden
de Yt. xótese que se h— —pli™—do l— diferen™i— dos ve™esD peroD —m˜—s diferen™i—s
en el rez—go 1. del mismo modo es posi˜le —sumir que gryer —nd gh—n ‘PHHV“
Yt = Mt +et, honde Mt = Mt−1 +Wt y Wt = Wt−1 +εt @SFIIA
RPCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
gon {et} y {εt} series de tiempo independientes de ruido ˜l—n™oF in este
™—so l— tenden™i— Mt es —quell— ™uy— 4t—s— de ™—m˜io4 Mt, está ™—m˜i—ndo
™on respe™to —l tiempo lent—menteF inton™es
Yt = Mt + et = Wt + et
y
2
Yt = Wt + 2
et
= εt + (et − et−1) − (et−1 − et−2)
= εt + et − 2et−1 + et−2
v— ™u—lD tiene l— fun™ión de —uto™orrel—™ión de un pro™eso MA (2) . vo imE
port—nte es el he™ho que el oper—dor diferen™i— de segundo orden de un pro™eso
no est—™ion—rio {Yt} es est—™ion—rioF iste he™ho permite de(nir los modelos
integr—dos —utorregresivos de promedios móvilesF
5.2. Modelos Integrados Autorregresivos de Pro-
medios Móviles
Denición 43 Una serie de tiempo {Yt} se dice que sigue un modelo integrado
autorregresivo de promedios móviles ARIMA si el operador diferencia de or-
den d Wt = d
Yt es un proceso ARMA estacionario. Si {Wt} es un proceso
ARMA (p, q) , se dice que {Yt} es un modelo ARIMA (p, d, q) . Box and Jenkins
[1976]
efortun—d—menteD p—r— efe™tos prá™ti™osD se puede tom—r d = 1 o l— sumo 2.
gonsidérese un pro™eso ARIMA (p, 1, q) ™on Wt = Yt − Yt−1 enton™esX
Wt = φ1Wt−1+φ2Wt−2+· · ·+φpWt−p+et−θ1et−1−θ2et−2−· · ·−θqet−q @SFIPA
vo que en términos de l— serie de tiempo o˜serv—d— equiv—le —X
Yt − Yt−1 = φ1 (Yt−1 − Yt−2) + φ2 (Yt−2 − Yt−3) + · · · + φp (Yt−p − Yt−p−1)
+ et − θ1et−1 − θ2et−2 − · · · − θqet−q @SFIQA
vo ™u—l se puede es™ri˜irX
Yt = (1 + φ1) Yt−1 + (φ2 − φ1) Yt−2 + (φ3 − φ2) Yt−3 + · · · @SFIRA
+ (φp − φp−1) Yt−p − φpYt−p−1 + et − θ1et−1 − θ2et−2 − · · · − θqet−q
ist— últim— e™u—™ión se ™ono™e ™omo la forma de la ecuación diferencia del
modeloF fox —nd tenkins ‘IWUT“
v—s represent—™iones explí™it—s de l— serie de tiempo o˜serv—d—D ˜ien se—D
en términos de Wt o en términos del pro™eso de ruido ˜l—n™oD son mu™ho más
™ompli™—dos que en los pro™esos est—™ion—riosF isto se de˜e — que los pro™esos
5.2. MODELOS INTEGRADOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESRQ
no est—™ion—rios no están en un 4equili˜rio est—dísti™o4D no se puede —sumir l—
serie tieneD por de™irlo de —lgun— m—ner—D un p—s—do in(nitoF ƒin em˜—rgoD se
puede —sumir que l—s series ™omienz—n en un t = −m.
€or ™onvenien™i—D se tom—rán Yt = 0 p—r— t  −m. v— e™u—™ión del oper—dor
diferen™i— Yt − Yt−1 = Wt, se puede solu™ion—r sum—ndo desde t = −m h—st—
t = t p—r— o˜tenerX
Yt =
t
j=−m
Wj @SFISA
€—r— el pro™eso ARIMA (p, 1, q) .
il pro™eso ARIMA (p, 2, q) puede ser resuelto simil—rmenteD sum—ndo dos
ve™es p—r— o˜tener l— represent—™ión
Yt =
t
j=−m
j
i=−m
Wi @SFITA
=
t+m
j=0
(j + 1) Wt−j
eunque est—s represent—™iones tiene usos limit—dosD pueden ser us—dos p—r—
o˜tener l—s propied—des de l— ™ov—ri—nz— del modelo ARIMA y t—m˜ién p—r—
expres—r Yt en términos de l— serie de ruido ˜l—n™o {et} .
ƒi el pro™eso ™ontiene términos no —utorregresivosD se le ll—m—rá un modelo
integr—do de promedios móviles y se —˜revi—rá IMA (d, q) . €or otro l—do si l—
serie no tiene términos de promedios móviles se le denomin— ARI (p, d) .
5.2.1. El Modelo IMA (1, 1)
il modelo simple IMA (1, 1) , s—tisf—™tori—menteD represent— numeros—s seE
ries de tiempoD espe™í(™—menteD —quell—s que surgen en pro˜lem—s e™onómi™os
querrero ‘IWWV“F in l— form— de l— e™u—™ión diferen™i— el modelo tiene l— form—X
Yt = Yt−1 + et − θet−1 @SFIUA
gon el (n de es™ri˜ir Yt explí™it—mentementeD ™omo un— fun™ión de v—lores
del ruido ˜l—n™o t—nto del futuro ™omo del presenteD se us—rá l— e™u—™ión SFIS y
el he™ho que Wt = et − θet−1F in este ™—soD se puede es™ri˜ir
Yt = et + (1 − θ) et−1 + (1 − θ) et−2 + · · · + (1 − θ) e−m − θe−m−1 @SFIVA
in ™ontr—ste — los modelos est—™ion—rios ARMAD los pesos de los términos
del ruido ˜l—n™oD perm—ne™enD sin import—r que se tomen v—lores del p—s—doF
he˜ido — que se —sumió que −m  1 y 0  t, se de˜e pens—r — Yt ™omo
un— —™umul—™ión igu—lmente ponder—d— de un gr—n número de v—lores de ruido
˜l—n™oF
RRCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
he l— e™u—™ión SFIV se pueden ™—l™ul—r l—s v—ri—nz—s y l—s ™orrel—™iones de l—
siguiente m—ner—
V ar (Yt) = 1 + θ2
+ (1 − θ)
2
(t + m) σ2
e @SFIWA
y
Corr (Yt, Yt−k) =
1 − θ + θ2
+ (1 − θ)
2
(t + m − k)
V ar (Yt) V ar (Yt−k)
≈
t + m − k
t + m
@SFPHA
ƒe puede not—r que ™onforme que t —ument—D V ar (Yt) —ument—F „—m˜ién l—
™orrel—™ión entre Yt y Yt−k será fuertemente positiv— p—r— los rez—gos k = 1, 2, ...
5.2.2. El Modelo IMA (2, 2)
vos supuestos de l— e™u—™ión SFIID ™ondu™e — un modelo IMA (2, 2) . in l—
form— de l— e™u—™ión diferen™i— el modelo tiene l— form—X
2
Yt = et − θ1et−1 − θ2et−2
o
Yt = 2Yt−1 − Yt−2 + et − θ1et−1 − θ2et−2 @SFPIA
v— represent—™ión de l— e™u—™ión SFIT puede ser us—d— p—r— expres—r Yt en
términos de et, et−1, ... de l— siguiente form—X
Yt = et +
t+m
j=1
ψjet−j − [(t + m + 1) θ1 + (t + m) θ2] e−m−1 @SFPPA
− (t + m + 1) θ2e−m−2
honde ψ = 1 + θ2 + (1 − θ1 − θ2) j p—r— j = 1, 2, 3, .., t + m, donde los pesos
ψ perm—ne™en y form—n un— fun™ión line—l de j.
5.2.3. El Modelo ARI (1, 1)
il pro™eso ARI (1, 1) s—tisf—™e l— siguiente e™u—™ión puller ‘IWWT“
Yt − Yt−1 = φ (Yt−1 − Yt−2) + et @SFPQA
o
Yt = (1 + φ) Yt−1 − φYt−2 + et @SFPRA
honde |φ|  1
€—r— en™ontr—r los pesos ψ se us—rá un— té™ni™— que se puede gener—liz—r —
™u—lquier modelo ARIMA,
5.2. MODELOS INTEGRADOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESRS
vos pesos ψ pueden ser o˜tenidos igu—l—ndo l—s poten™i—s de x en l— identid—d
1 − φ1x − φ2x2
− · · · − φpxp
(1 − x)
d
1 + ψ1x + ψ2x2
+ ψ3x3
+ · · · @SFPSA
= 1 − θ1x − θ2x2
− θ3x3
− · · · − θqxq
in el ™—so del modelo ARI (1, 1) l— rel—™ión se redu™e —X
(1 − φx) (1 − x) 1 + ψ1x + ψ2x2
+ ψ3x3
+ · · · = 1
o
1 − (1 + φ) x + φx2
1 + ψ1x + ψ2x2
+ ψ3x3
+ · · · = 1
sgu—l—ndo l—s poten™i—s semej—ntes — —m˜—s p—rtes de l— igu—ld—dD se o˜tiene
− (i + φ) + ψ = 0
φ − (1 + φ) ψ1 + ψ2 = 0
y en gener—l
ψk = (1 + φ) ψk−1 − φψk−2 €—r— k ≥ 2 @SFPTA
gon ψ0 = 1 y ψ1 = 1 + φ. ist— fun™ión re™ursiv— permite ™—l™ul—r t—ntos
pesos ψ ™omo se— ne™es—rioF
5.2.4. Términos Constantes en modelos ARIMA
€—r— un modelo ARIMA (p, d, q) , d
Yt = Wt es un pro™eso ARMA (p, q) esE
t—™ion—rioD teniendo en ™uent— el supuesto que un modelo est—™ion—rio tiene meE
di— igu—l — ™eroD es de™ir que se tr—˜—j—rá ™on desvi—™iones de l—s medi— ™onst—nE
tesF …n— medi— diferente de ™ero ™onst—nte µD en un modelo ARMA est—™ion—rio
{Wt} puede ser —™omod—do en ™u—lquier— de los dos ™—sosF ƒe puede —sumir que
fox —nd tenkins ‘IWUT“X
Wt−µ = φ1 (Wt−1 − µ) + φ2 (Wt−2 − µ) + · · · + φp (Wt−p − µ)
+ et − θ1et−1 − θ2et−2 − · · · − θqet−q
eltern—tiv—menteD se puede introdu™ir un término ™onst—nte θ0 en el modelo
de l— siguiente m—ner—
Wt = θ0 + φ1Wt−1 + φ2Wt−2 + · · · + φpWt−p
+ et − θ1et−1 − θ2et−2 − · · · − θqet−q
„om—ndo los v—lores esper—dos en —m˜—s p—rtes de l— igu—ld—d
µ = θ0 + (φ1 + φ2 + · · · + φn) µ
inton™es
µ =
θ0
1 − φ1 − φ2 − · · · − φp
@SFPUA
RTCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
o
θ0 = µ (1 − φ1 − φ2 − · · · − φp) @SFPVA
e ™ontinu—™ión se ev—lu—rá el ™—so de un— medi— diferente de ™eroF
gonsidere el modelo IMA (1, 1) ™on un término ™onst—nteD enton™es se tiene
Yt = Yt−1 + θ0 + et − θet−1
o
Wt = θ0 + et − θet−1
ƒustituyendo en l— e™u—™ión SFIR de l— págin— RP se puede ™on™luir que
Yt = et + (1 − θ) et−1 + et + (1 − θ) et−2 + · · · + et + (1 − θ) e−m − e−m−1
@SFPWA
+ (t + m + 1) θ0
5.2.5. Otras Transformaciones
r—st— el momento se h— des™rito ™omo el oper—dor diferen™i—D puede ser un—
útil tr—nsform—™ión p—r— o˜tener est—™ion—ried—dF ƒin em˜—rgoD l— tr—nsform—E
™ión por log—ritmo t—m˜ién es muy útil en —lgunos ™—sosF pre™uentemente se
pueden en™ontr—r series de tiempo dondeD el in™remento de l— dispersión p—re™e
est—r —so™i—d— — —ltos niveles de l— serieD lo que impli™— m—yor dispersión en el
nivel gryer —nd gh—n ‘PHHV“F
ispe™í(™—mente supong— que Yt  0 p—r— todo t y que
E (Yt) = µt y V ar (Yt) = µtσ @SFQHA
inton™es
E [log (Yt)] ≈ log (µt) y V ar [log (Yt)] ≈ σ2
@SFQIA
il siguiente result—do se o˜tiene tom—ndo v—lores esper—dos y v—ri—nz—s —
—m˜os l—dos de l— exp—nsión de „—ylor
log (Yt) = log (µt) +
Yt − µt
µt
is de™irD que si l— desvi—™ión estánd—r de l— serie de tiempo es propor™ion—l —l
nivel de l— serieD l— tr—nsform—™ión log—rítmi™— produ™irá un— serie ™on v—ri—nz—
—proxim—d—mente ™onst—nte — lo l—rgo del tiempoF edemásD si el nivel de l— serie
™—m˜i— exponen™i—lmenteD l— serie logEtr—nsform—d— tendrá un— tenden™i— line—lD
por lo que se utiliz—rá el oper—dor diferen™i— de primer ordenF
5.2. MODELOS INTEGRADOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESRU
5.2.5.1. Cambios de Porcentajes y Logaritmos
ƒupóng—se que Yt tiende — tener un por™ent—je de ™—m˜ios rel—tiv—mente
est—˜le de un periodo de tiempo —l siguienteF ispe™í(™—mente se —sume queX
Yt = (1 + Xt) Yt−1
honde 100Xt es el por™ent—je de ™—m˜io de Yt−1 — Yt enton™es
log (Yt) − log (Yt−1) = log
Yt
Yt−1
= log (1 + Xt)
ƒi se restringe Xt — |Xt|  0,2 @es de™irD que el por™ent—je de ™—m˜ios son — lo
más ±20 %A p—r— un— ˜uen— —proxim—™ión log (1 + Xt) ≈ XtF gonse™uentemente
[log (Yt)] ≈ Xt
ƒerá rel—tiv—mente est—˜le y lo más pro˜—˜le es que se— un pro™eso est—™ioE
n—rio ˜ien model—do fox —nd tenkins ‘IWUT“F
5.2.5.2. Transformaciones de Potencia
Denición 44 Para un parámetro dado λ, la transformación se dene como
Box and Jenkins [1976]
g (x) =
xλ
−1
λ Para λ = 0
log x Para λ = 0
v—s tr—nsform—™iones de poten™i—s solo se pueden —pli™—r — d—tos m—yores
— ™eroF ƒi —lguno de los v—lores no ™umple l— ™ondi™ión —nteriorD se tiene que
sum—r un— ™onst—nte positiv— — todos los v—lores de l— serieD ™on el (n de h—™erlos
positivos —ntes de h—™er l— tr—nsform—™iónF hi™ho ™—m˜ioD gener—lmenteD se h—™e
de m—ner— —r˜itr—ri—F
ƒe puede ™onsider—r — λ ™omo un p—rámetro —di™ion—l en el modeloD que tiene
que ser estim—doF ƒin em˜—rgoD un— estim—™ión pre™is— de λ no está usu—lmente
g—r—ntiz—d—D y p—r— di™hos efe™tos los softw—re est—dísti™os ofre™en un— —mplio
r—ngo de posi˜ilid—des p—r— efe™tu—r di™h— estim—™iónF
RVCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
Capítulo 6
Construcción del Modelo
in los ™—pítulos —nteriores se h—n des—rroll—do modelos p—r—métri™osD t—nto
est—™ion—rios ™omo no est—™ion—rios p—r— series de tiempoD los modelos ARIMA.
in este ™—pítulo se estudi—rán y se implement—rán los métodos p—r— h—™er inE
feren™i— est—dísti™— so˜re di™hos modelosD teniendo en ™uent— los siguientes —sE
pe™tosF
IF v— m—ner— de es™oger v—lores —propi—dos p—r— p, d y q p—r— un— serie de
tiempo d—d—F
PF l— m—ner— de estim—r los p—rámetros de un modelo ARIMA (p, d, q) .
QF v— m—ner— de veri(™—r si un modelo es —propi—doD o mejor—rlo en ™—so de
ser ne™es—rioF
v— estr—tegi— gener—l — tener en ™uent— ™onsisteD en primer— medid—D en elegir
v—lores tent—tivos pero r—zon—˜les p—r— p, d y qF vuegoD se estim—r—n los p—rámeE
tros φD θ y σe más e(™ientes p—r— el modeloF €or últimoD se veri(™—r— el modelo
o˜tenidoD ™on el (n de ™ompro˜—r su e(™—™i—F ƒi el modelo p—re™e ser in—de™u—do
en —lgún sentidoD se ™onsider—rá — di™ho modelo ™omo un— ˜—se p—r— elegir un
nuevo modelo más —de™u—doD y repetir el pro™esoF
gon un—s ™u—nt—s iter—™iones de est— estr—tegi— p—r— l— ™onstru™™ión del
modeloD se esper—D que se llegue —l mejor modelo posi˜le p—r— un— serie de
tiempo d—d—F qr—n p—rte de l— liter—tur— inherente — l—s series de tiempo ll—m—n
— est— estr—tegi— el método 4foxEtenkins4 fox —nd tenkins ‘IWUT“
6.1. Especicación del Modelo
in primer— medid—D y ™on el (n de est—˜le™er los mejores v—lores p—r— p, d y
q se estudi—rán l—s propied—des de l— fun™ión de —uto™orrel—™ión
RW
SH CAPÍTULO 6. CONSTRUCCIÓN DEL MODELO
6.1.1. Propiedades de la Función de Autocorrelación Mues-
tral
„eniendo en ™u—nt— l— de(ni™ión de l— fun™ión de —uto™orrel—™ión muestr—l
o estim—d— p—r— un— serie o˜serv—˜— Y1, Y2, ...Yn de l— págin— PRD se tieneX
rk =
n
t=k+1
Yt − ¯Y Yt−k − ¯Y
n
t=1
Yt − ¯Y
2
@TFIA
il o˜jetivo prin™ip—l es re™ono™erD ™omport—mientos de rk que son ™—r—™E
terísti™os de los ™omport—mientos ™ono™idos de ρf p—r— modelos ARMA. €or
ejemploD y— se h— dis™utido que ρk = 0 p—r— k  q
en un modelo MA (q) . ƒin em˜—rgoD ™omo rk es un— estim—™ión de ρkD se
de˜en enun™i—r l—s propied—des muestr—les ™on el (n de f—™ilit—r l— ™omp—r—™ión
de l—s ™orrel—™iones estim—d—s ™on l—s ™orrel—™iones teóri™—sF
„eniendo en ™uent— que según l— de(ni™ión de rk, rk es un— f—mili— de e™u—™ioE
nes ™u—dráti™—sD de v—ri—˜les posi˜lemente dependientesD l—s propied—des muesE
tr—les de rk no son sen™ill—s de estim—rD de modo que se tendrán en ™uent— los
result—dos gener—les de un— muestr— numeros— y ™onsider—r sus impli™—™iones en
™—sos espe™i—les frillinger ‘PHHI“D —demásD se tendrá en ™uent— un result—do más
gener—l tom—do de ƒhumw—y —nd ƒto'er ‘PHHT“ @págin— SIWA
ƒupóng—se queX
Yt = µ +
∞
j=0
ψjet−j
honde et son v—ri—˜les —le—tori—s idénti™—mente distri˜uid—s ™on medi— igu—l
— ™ero y v—ri—nz—s (nit—s diferentes de ™eroF edemás se —sume queX
∞
j=0
|ψj|  ∞ y
∞
j=0
jψ2
j  ∞
@gondi™iones que se s—tisf—™en en un modelo ARMA est—™ion—rioA
inton™esD p—r— ™u—lquier m (joD l— distri˜u™ión ™onjunt— de
√
n (r1 − ρ1) ,
√
n (r2 − ρ2) , ...,
√
n (rm − ρm)
ƒe —proxim—D ™u—ndo n tiende — in(nitoD — un— distri˜u™ión norm—l ™on medi—
™eroD v—ri—nz—s cjj, y ™ov—ri—nz—s cij donde
cij =
∞
k=−∞
ρk + iρk+j + ρk−iρk+j − 2ρiρkρk+j − 2ρjρkρk+i + 2ρiρjρ2
k @TFPA
€—r— t—m—ños de muestr— n signi(™—tiv—mente gr—ndesD se puede de™ir que rk
sigue un— distri˜u™ión —proxim—d—mente norm—l ™on medi— ρk y v—ri—nz— ckk
n .
6.1. ESPECIFICACIÓN DEL MODELO SI
edemásD Corr (rk, rj) ≈
ckj
√
ckkcjj
. „eniendo en ™uent— que l— v—ri—nz— —proxim—E
d— de rk es invers—mente propor™ion—l —l t—m—ño de l— muestr—D ƒin em˜—rgoD
Corr (rk, rj) es —proxim—d—mente ™onst—nte p—r— t—m—ños de muestr— gr—ndesF
h—do que l— interpret—™ión de l— e™u—™ión TFP es ™ompli™—d—D se ™onsider—rán
—lgunos ™—sos espe™i—les ™on el (n de simpli(™—r l— expresiónF
ƒupóng—seD en primer— medid—D que {Yt} es un pro™eso de ruido ˜l—n™oF
inton™esD l— e™u—™ión TFPD se redu™e ™onsider—˜lemente —X
V ar ≈
1
n
y Corr (rk, rj) ≈ 0 €—r— k = j @TFQA
ehor—D supóng—se que {Yt} es gener—do por un pro™eso AR (1) ™on ρk = φk
p—r— k  0. l— e™u—™ión TFP ™ondu™e —F
V ar (rk) ≈
1
n
1 + φ2
1 − φ2k
1 − φ2
− 2kφ2k
@TFRA
in p—rti™ul—r
V ar (r1) ≈
1 − φ2
n
@TFSA
xótese queD ™u—ndo φ es ™er™—no — ±1, l— estim—™ión de ρ = φ es más pre™is—F
€—r— gr—ndes rez—gos kD los términos de l— e™u—™ión TFR los φk
pueden ser
ignor—dosD enton™es
V ar (rk) ≈
1
n
1 + φ2
1 − φ2
€—r— gr—ndes rez—gos k @TFTA
in ™ontr—ste ™on l— e™u—™ión TFSD si φ es ™er™—no — ±1 l— v—ri—nz— de rk
™re™eD por lo que no se ™onsider— ™onveniente esper—r estim—™iones pre™is—s de
ρk = φk
≈ 0, p—r— rez—gos gr—ndes ™omo se esper—n p—r— rez—gos pequeñosF
€—r— el modelo AR (1) l— e™u—™ión TFPD t—m˜ién puede ser simpli(™—d— p—r—
0  i  j de l— siguiente m—ner—F
cij =
φj−i
− φj+i
1 + φ2
1 − φ2
+ (j − i) φj−i
− (j + i) φj+i
@TFUA
€—rti™ul—rmente se en™uentr— queX
Corr (r1, r2) ≈ 2φ
1 − φ2
1 + 2φ2 − 3φ4
@TFVA
€—r— el ™—so MA (1) l— e™u—™ión TFP puede ser simpli(™—d— de l— siguiente
m—ner—
c11 = 1 − 3ρ2
1 + 4ρ4
1 y ckk = 1 + 2ρ2
1 €—r— k  1 @TFWA
edemás
c12 = 2ρ 1 − ρ2
1 @TFIHA
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R
Análisis de series de tiempo usando R

Más contenido relacionado

Último

que son los planes de ordenamiento predial POP.pptx
que son los planes de ordenamiento predial  POP.pptxque son los planes de ordenamiento predial  POP.pptx
que son los planes de ordenamiento predial POP.pptxSergiothaine2
 
2024 2024 202420242024PPT SESIÓN 03.pptx
2024 2024 202420242024PPT SESIÓN 03.pptx2024 2024 202420242024PPT SESIÓN 03.pptx
2024 2024 202420242024PPT SESIÓN 03.pptxccordovato
 
PREGRADO-PRESENCIAL-FASE-C-202401 (1).pdf
PREGRADO-PRESENCIAL-FASE-C-202401 (1).pdfPREGRADO-PRESENCIAL-FASE-C-202401 (1).pdf
PREGRADO-PRESENCIAL-FASE-C-202401 (1).pdfluisccollana
 
bases-cye-2024(2) una sola descarga en base de feria de
bases-cye-2024(2) una sola descarga en base de feria debases-cye-2024(2) una sola descarga en base de feria de
bases-cye-2024(2) una sola descarga en base de feria deCalet Cáceres Vergara
 
REPORTE-HEMEROGRÁFICO-MARZO-2024-IRAPUATO-¿CÓMO VAMOS?.pdf
REPORTE-HEMEROGRÁFICO-MARZO-2024-IRAPUATO-¿CÓMO VAMOS?.pdfREPORTE-HEMEROGRÁFICO-MARZO-2024-IRAPUATO-¿CÓMO VAMOS?.pdf
REPORTE-HEMEROGRÁFICO-MARZO-2024-IRAPUATO-¿CÓMO VAMOS?.pdfIrapuatoCmovamos
 
CUESTIONARIO A ADICCION A REDES SOCIALES.pdf
CUESTIONARIO A ADICCION A REDES SOCIALES.pdfCUESTIONARIO A ADICCION A REDES SOCIALES.pdf
CUESTIONARIO A ADICCION A REDES SOCIALES.pdfEDUARDO MAMANI MAMANI
 
Ivu- taller de diseño arquitectonico l , adicion y sustraccion de cubos,
Ivu- taller de diseño arquitectonico l , adicion y sustraccion de cubos,Ivu- taller de diseño arquitectonico l , adicion y sustraccion de cubos,
Ivu- taller de diseño arquitectonico l , adicion y sustraccion de cubos,juberrodasflores
 
HABILESASAMBLEA Para negocios independientes.pdf
HABILESASAMBLEA Para negocios independientes.pdfHABILESASAMBLEA Para negocios independientes.pdf
HABILESASAMBLEA Para negocios independientes.pdfGEINER22
 
tipos de organización y sus objetivos y aplicación
tipos de organización y sus objetivos y aplicacióntipos de organización y sus objetivos y aplicación
tipos de organización y sus objetivos y aplicaciónJonathanAntonioMaldo
 
El Teatro musical (qué es, cuál es su historia y trayectoria...)
El Teatro musical (qué es, cuál es su historia y trayectoria...)El Teatro musical (qué es, cuál es su historia y trayectoria...)
El Teatro musical (qué es, cuál es su historia y trayectoria...)estebancitoherrera
 
REPORTE DE INCIDENCIA DELICTIVA MARZO 2024.pdf
REPORTE DE INCIDENCIA DELICTIVA MARZO 2024.pdfREPORTE DE INCIDENCIA DELICTIVA MARZO 2024.pdf
REPORTE DE INCIDENCIA DELICTIVA MARZO 2024.pdfIrapuatoCmovamos
 
CAPACITACION_higiene_industrial (1).ppt...
CAPACITACION_higiene_industrial (1).ppt...CAPACITACION_higiene_industrial (1).ppt...
CAPACITACION_higiene_industrial (1).ppt...jhoecabanillas12
 
17 PRACTICAS - MODALIDAAD FAMILIAAR.docx
17 PRACTICAS - MODALIDAAD FAMILIAAR.docx17 PRACTICAS - MODALIDAAD FAMILIAAR.docx
17 PRACTICAS - MODALIDAAD FAMILIAAR.docxmarthaarroyo16
 
Data Warehouse.gestion de bases de datos
Data Warehouse.gestion de bases de datosData Warehouse.gestion de bases de datos
Data Warehouse.gestion de bases de datosssuser948499
 
LA LEY DE LAS XII TABLAS en el curso de derecho
LA LEY DE LAS XII TABLAS en el curso de derechoLA LEY DE LAS XII TABLAS en el curso de derecho
LA LEY DE LAS XII TABLAS en el curso de derechojuliosabino1
 
SUNEDU - Superintendencia Nacional de Educación superior Universitaria
SUNEDU - Superintendencia Nacional de Educación superior UniversitariaSUNEDU - Superintendencia Nacional de Educación superior Universitaria
SUNEDU - Superintendencia Nacional de Educación superior Universitariachayananazcosimeon
 
La importancia de las pruebas de producto para tu empresa
La importancia de las pruebas de producto para tu empresaLa importancia de las pruebas de producto para tu empresa
La importancia de las pruebas de producto para tu empresamerca6
 

Último (17)

que son los planes de ordenamiento predial POP.pptx
que son los planes de ordenamiento predial  POP.pptxque son los planes de ordenamiento predial  POP.pptx
que son los planes de ordenamiento predial POP.pptx
 
2024 2024 202420242024PPT SESIÓN 03.pptx
2024 2024 202420242024PPT SESIÓN 03.pptx2024 2024 202420242024PPT SESIÓN 03.pptx
2024 2024 202420242024PPT SESIÓN 03.pptx
 
PREGRADO-PRESENCIAL-FASE-C-202401 (1).pdf
PREGRADO-PRESENCIAL-FASE-C-202401 (1).pdfPREGRADO-PRESENCIAL-FASE-C-202401 (1).pdf
PREGRADO-PRESENCIAL-FASE-C-202401 (1).pdf
 
bases-cye-2024(2) una sola descarga en base de feria de
bases-cye-2024(2) una sola descarga en base de feria debases-cye-2024(2) una sola descarga en base de feria de
bases-cye-2024(2) una sola descarga en base de feria de
 
REPORTE-HEMEROGRÁFICO-MARZO-2024-IRAPUATO-¿CÓMO VAMOS?.pdf
REPORTE-HEMEROGRÁFICO-MARZO-2024-IRAPUATO-¿CÓMO VAMOS?.pdfREPORTE-HEMEROGRÁFICO-MARZO-2024-IRAPUATO-¿CÓMO VAMOS?.pdf
REPORTE-HEMEROGRÁFICO-MARZO-2024-IRAPUATO-¿CÓMO VAMOS?.pdf
 
CUESTIONARIO A ADICCION A REDES SOCIALES.pdf
CUESTIONARIO A ADICCION A REDES SOCIALES.pdfCUESTIONARIO A ADICCION A REDES SOCIALES.pdf
CUESTIONARIO A ADICCION A REDES SOCIALES.pdf
 
Ivu- taller de diseño arquitectonico l , adicion y sustraccion de cubos,
Ivu- taller de diseño arquitectonico l , adicion y sustraccion de cubos,Ivu- taller de diseño arquitectonico l , adicion y sustraccion de cubos,
Ivu- taller de diseño arquitectonico l , adicion y sustraccion de cubos,
 
HABILESASAMBLEA Para negocios independientes.pdf
HABILESASAMBLEA Para negocios independientes.pdfHABILESASAMBLEA Para negocios independientes.pdf
HABILESASAMBLEA Para negocios independientes.pdf
 
tipos de organización y sus objetivos y aplicación
tipos de organización y sus objetivos y aplicacióntipos de organización y sus objetivos y aplicación
tipos de organización y sus objetivos y aplicación
 
El Teatro musical (qué es, cuál es su historia y trayectoria...)
El Teatro musical (qué es, cuál es su historia y trayectoria...)El Teatro musical (qué es, cuál es su historia y trayectoria...)
El Teatro musical (qué es, cuál es su historia y trayectoria...)
 
REPORTE DE INCIDENCIA DELICTIVA MARZO 2024.pdf
REPORTE DE INCIDENCIA DELICTIVA MARZO 2024.pdfREPORTE DE INCIDENCIA DELICTIVA MARZO 2024.pdf
REPORTE DE INCIDENCIA DELICTIVA MARZO 2024.pdf
 
CAPACITACION_higiene_industrial (1).ppt...
CAPACITACION_higiene_industrial (1).ppt...CAPACITACION_higiene_industrial (1).ppt...
CAPACITACION_higiene_industrial (1).ppt...
 
17 PRACTICAS - MODALIDAAD FAMILIAAR.docx
17 PRACTICAS - MODALIDAAD FAMILIAAR.docx17 PRACTICAS - MODALIDAAD FAMILIAAR.docx
17 PRACTICAS - MODALIDAAD FAMILIAAR.docx
 
Data Warehouse.gestion de bases de datos
Data Warehouse.gestion de bases de datosData Warehouse.gestion de bases de datos
Data Warehouse.gestion de bases de datos
 
LA LEY DE LAS XII TABLAS en el curso de derecho
LA LEY DE LAS XII TABLAS en el curso de derechoLA LEY DE LAS XII TABLAS en el curso de derecho
LA LEY DE LAS XII TABLAS en el curso de derecho
 
SUNEDU - Superintendencia Nacional de Educación superior Universitaria
SUNEDU - Superintendencia Nacional de Educación superior UniversitariaSUNEDU - Superintendencia Nacional de Educación superior Universitaria
SUNEDU - Superintendencia Nacional de Educación superior Universitaria
 
La importancia de las pruebas de producto para tu empresa
La importancia de las pruebas de producto para tu empresaLa importancia de las pruebas de producto para tu empresa
La importancia de las pruebas de producto para tu empresa
 

Destacado

2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by HubspotMarius Sescu
 
Everything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTEverything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTExpeed Software
 
Product Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsProduct Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsPixeldarts
 
How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthThinkNow
 
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfmarketingartwork
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024Neil Kimberley
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)contently
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024Albert Qian
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsKurio // The Social Media Age(ncy)
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Search Engine Journal
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summarySpeakerHub
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next Tessa Mero
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentLily Ray
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best PracticesVit Horky
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project managementMindGenius
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...RachelPearson36
 

Destacado (20)

2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot
 
Everything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTEverything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPT
 
Product Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsProduct Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage Engineerings
 
How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental Health
 
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
 
Skeleton Culture Code
Skeleton Culture CodeSkeleton Culture Code
Skeleton Culture Code
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search Intent
 
How to have difficult conversations
How to have difficult conversations How to have difficult conversations
How to have difficult conversations
 
Introduction to Data Science
Introduction to Data ScienceIntroduction to Data Science
Introduction to Data Science
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best Practices
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project management
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
 

Análisis de series de tiempo usando R

  • 1. REVISIÓN DEL ESTADO DEL ARTE EN EL ANÁLISIS DE SERIES DE TIEMPO Por: Hernán Camilo Yate Támara camilo_yate@yahoo.fr Director: Mat. Leonardo Jiménez Moscovitz Investigador Grupo de Investigación PROMENTE KONRAD LORENZ-FUNDACIÓN UNIVERSITARIA FACULTAD DE MATEMÁTICAS E INGENIERÍAS PROGRAMA DE MATEMÁTICAS JUNIO DE 2011
  • 2. Nota: Este trabajo nace de la confluencia entre el interés del estudiante Hernán Camilo Yate Támara y los intereses académicos del grupo de investigación PROMENTE, alrededor del análisis de series de tiempo utilizando el software libre R, y consta de dos partes: la primera desarrollada como parte del trabajo del Grado y la otra desarrollada dentro de la práctica investigativa, la cual se anexa al final de este documento.
  • 3. e mi m—dre v— que nun™— me nieg— sus m—nos t—n ti˜i—s v— que se™— mis lágrim—s y entreg— ™—ri™i—s v— que —mp—r— tristez—s y reg—l— sonris—s v— que ™on dul™es p—l—˜r—s —lient— mis dí—s v— que me dio l— vid— y me h— enseñ—do — vivirl—
  • 4. iv
  • 5. Índice general Introducción ix Objetivos xi Alcance y Limitaciones xiii 1. Preliminares 1 IFIF isp—™io de €ro˜—˜ilid—d F F F F F F F F F F F F F F F F F F F F F F F I IFIFIF isp—™io wuestr—l de iventos F F F F F F F F F F F F F F F F I IFIFPF Álge˜r— de iventos F F F F F F F F F F F F F F F F F F F F F F P IFIFQF pun™ión de €ro˜—˜ilid—d F F F F F F F F F F F F F F F F F F F P IFPF †—ri—˜les ele—tori—s F F F F F F F F F F F F F F F F F F F F F F F F F Q IFPFIF †—lor isper—do de un— †—ri—˜le ele—tori— F F F F F F F F F Q IFPFPF †—ri—nz— de un— †—ri—˜le ele—tori— F F F F F F F F F F F F F Q IFQF †e™tores ele—torios F F F F F F F F F F F F F F F F F F F F F F F F F F R IFQFIF †—lor esper—do de un †e™tor ele—torio F F F F F F F F F F F S IFQFPF †—ri—nz— de un †e™tor ele—torio F F F F F F F F F F F F F F S IFQFQF pun™ión qener—dor— de womentos gonjunt— F F F F F F F F T IFQFRF gov—ri—nz— y goe(™iente de gorrel—™ión F F F F F F F F F F T IFQFSF isper—nz— gondi™ion—l F F F F F F F F F F F F F F F F F F F F U IFQFTF †—ri—˜les ele—tori—s sndependientes F F F F F F F F F F F F V IFRF histri˜u™ión xorm—l F F F F F F F F F F F F F F F F F F F F F F F F F V 2. Conceptos Fundamentales 9 PFIF ente™edentes ristóri™os F F F F F F F F F F F F F F F F F F F F F F F W PFIFIF y˜serv—™iónD medi™ión y gener—liz—™ión F F F F F F F F F F W PFIFPF porm—liz—™ión F F F F F F F F F F F F F F F F F F F F F F F F F IH PFPF ƒeries de „iempo y €ro™esos isto™ásti™os F F F F F F F F F F F F F IH PFQF wedi—sD †—ri—nz—s y gov—ri—nz—s F F F F F F F F F F F F F F F F F F II PFQFIF v— 4g—min—t— ele—tori—4 @‚—ndom ‡—lkA F F F F F F F F F IP PFQFPF €romedios wóviles F F F F F F F F F F F F F F F F F F F F F F IQ PFRF ist—™ion—ried—d F F F F F F F F F F F F F F F F F F F F F F F F F F F F IR PFRFIF ‚uido fl—n™o @‡hite xoiseA F F F F F F F F F F F F F F F F IS v
  • 6. vi ÍNDICE GENERAL 3. Tendencias 17 QFIF „enden™i—s heterminísti™—s ™ontr— „enden™i—s isto™ásti™—s F F F IU QFPF istim—™ión de l— wedi— gonst—nte F F F F F F F F F F F F F F F F F IU QFQF wétodos de ‚egresión F F F F F F F F F F F F F F F F F F F F F F F F IW QFQFIF „enden™i—s vine—les y gu—dráti™—s F F F F F F F F F F F F F IW QFQFPF „enden™i—s ™í™li™—sF F F F F F F F F F F F F F F F F F F F F F F PH QFQFQF „enden™i—s del goseno F F F F F F F F F F F F F F F F F F F F PH QFRF gon(—˜ilid—d y i(™ien™i— de l—s istim—™iones de l— ‚egresión F F PI QFSF enálisis de ‚esidu—les F F F F F F F F F F F F F F F F F F F F F F F F PQ QFSFIF pun™ión de euto™orrel—™ión wuestr—l F F F F F F F F F F F F PQ 4. Modelos para Series de Tiempo Estacionarias 25 RFIF €ro™esos qener—les vine—les F F F F F F F F F F F F F F F F F F F F F PS RFPF €ro™esos de €romedios wóviles F F F F F F F F F F F F F F F F F F F PU RFPFIF €ro™esos de €romedios wóviles de €rimer yrden F F F F F PU RFPFPF €ro™esos de €romedios wóviles de ƒegundo yrden F F F F PV RFPFQF €ro™esos de €romedios wóviles de yrden q F F F F F F F F PW RFQF €ro™esos eutorregresivos F F F F F F F F F F F F F F F F F F F F F F F PW RFQFIF €ro™esos eutorregresivos de €rimer yrden F F F F F F F F PW RFQFIFIF †ersión qener—l vine—l de un wodelo AR (1) F F QH RFQFIFPF ist—™ion—ried—d de un €ro™eso AR (1) F F F F F F QI RFQFPF €ro™esos eutorregresivos de ƒegundo yrden F F F F F F F F QI RFQFPFIF ist—™ion—ried—d de un €ro™eso AR (2) F F F F F F QI RFQFPFPF v— pun™ión de euto™orrel—™ión del €ro™eso AR (2) QQ RFQFQF †—ri—nz— del wodelo AR (2) F F F F F F F F F F F F F F F F F QQ RFQFRF €ro™eso eutorregresivo qener—l F F F F F F F F F F F F F F F QR RFRF wodelos wixtos eutorregresivos de €romedios wóviles F F F F F F QS RFRFIF il modelo ARMA (1, 1) F F F F F F F F F F F F F F F F F F F QS RFRFPF v— pun™ión de euto™orrel—™ión p—r— un €ro™eso ARMA (p, q) gryer —nd gh—n ‘PHHV“ F F F F F F F F F F F F F F F F F F F F QT RFRFQF snverti˜ilid—d F F F F F F F F F F F F F F F F F F F F F F F F F QU 5. Modelos para Series de Tiempo No Estacionarias 39 SFIF ist—™ion—ried—d — tr—vés de los yper—dores hiferen™i— F F F F F F QW SFPF wodelos sntegr—dos eutorregresivos de €romedios wóviles F F F F RP SFPFIF il wodelo IMA (1, 1) F F F F F F F F F F F F F F F F F F F F RQ SFPFPF il wodelo IMA (2, 2) F F F F F F F F F F F F F F F F F F F F RR SFPFQF il wodelo ARI (1, 1) F F F F F F F F F F F F F F F F F F F F F RR SFPFRF „érminos gonst—ntes en modelos ARIMA F F F F F F F F F RS SFPFSF ytr—s „r—nsform—™iones F F F F F F F F F F F F F F F F F F F RT SFPFSFIF g—m˜ios de €or™ent—jes y vog—ritmos F F F F F F RU SFPFSFPF „r—nsform—™iones de €oten™i— F F F F F F F F F F RU
  • 7. ÍNDICE GENERAL vii 6. Construcción del Modelo 49 TFIF ispe™i(™—™ión del wodelo F F F F F F F F F F F F F F F F F F F F F F RW TFIFIF €ropied—des de l— pun™ión de euto™orrel—™ión wuestr—l F SH TFIFPF v— pun™ión de euto™orrel—™ión €—r™i—l y l— pun™ión de euto™orrel—™ión ixtendid— F F F F F F F F F F F F F F F F F SP TFIFPFIF v— pun™ión de euto™orrel—™ión €—r™i—l wuestr—l SR TFIFPFPF wodelos wixtos y l— pun™ión de euto™orrel—™ión ixtendid— F F F F F F F F F F F F F F F F F F F F F SS TFIFQF ispe™i(™—™ión p—r— wodelos xo ist—™ion—rios F F F F F F F ST TFIFQFIF il pro˜lem—s de l— ƒo˜rediferen™i—™ión F F F F F SU TFIFQFPF v— prue˜— de l— r—íz unit—ri— de hi™key puller F SU TFIFRF ytros wétodos de ispe™i(™—™ión F F F F F F F F F F F F F F SV TFIFRFIF griterio de l— snform—™ión de ek—ike F F F F F F SV TFIFRFPF griterio de l— snform—™ión f—yesi—no F F F F F F SV TFPF istim—™ión de €—rámetros F F F F F F F F F F F F F F F F F F F F F F SW TFPFIF il wétodo de los womentos F F F F F F F F F F F F F F F F F SW TFPFIFIF wodelos eutorregresivos F F F F F F F F F F F F F SW TFPFIFPF wodelos de €romedios wóviles F F F F F F F F F F TH TFPFIFQF wodelos wixtos F F F F F F F F F F F F F F F F F F TI TFPFIFRF istim—™ión de l— †—ri—nz— del ‚uido F F F F F F F TI TFPFPF istim—™ión por wínimos gu—dr—dos F F F F F F F F F F F F TP TFPFPFIF wodelos eutorregresivos F F F F F F F F F F F F F TP TFPFPFPF wodelos de €romedios wóviles F F F F F F F F F F TR TFPFPFQF wodelos wixtos F F F F F F F F F F F F F F F F F F TS TFPFQF istim—™iones de wáxim— †erosimilitud y wínimos gu—E dr—dos sn™ondi™ion—les F F F F F F F F F F F F F F F F F F F F TT TFPFQFIF istim—™ión de wáxim— †erosimilitud F F F F F F TT TFPFQFPF wínimos gu—dr—dos sn™ondi™ion—les F F F F F F F TV TFPFRF €ropied—des de l—s istim—™iones F F F F F F F F F F F F F F TV TFQF hi—gnósti™o del wodelo F F F F F F F F F F F F F F F F F F F F F F F TW TFQFIF enálisis de residu—les F F F F F F F F F F F F F F F F F F F F F TW TFQFIFIF euto™orrel—™ión de los ‚esidu—les F F F F F F F F UH TFQFPF ƒo˜re—juste y ‚edund—n™i— de €—rámetros F F F F F F F F F UI 7. Pronósticos 73 UFHFQF €ronósti™o por el wétodo de irror gu—dráti™o wedio F F UQ UFHFRF „enden™i—s heterminísti™—s F F F F F F F F F F F F F F F F F UT UFHFSF €ronósti™os de modelos ARIMA F F F F F F F F F F F F F F UT UFHFSFIF AR (1) F F F F F F F F F F F F F F F F F F F F F F F UU UFHFSFPF MA (1) F F F F F F F F F F F F F F F F F F F F F F F UW UFHFSFQF ARMA (p, q) F F F F F F F F F F F F F F F F F F F F VH UFHFTF wodelos no ist—™ion—rios F F F F F F F F F F F F F F F F F F VP UFHFUF vímites de l— €redi™™ión F F F F F F F F F F F F F F F F F F F VQ UFHFUFIF „enden™i—s heterminísti™—s F F F F F F F F F F F F VR UFHFUFPF wodelos ARIMA F F F F F F F F F F F F F F F F F VR UFHFVF e™tu—liz—™ión de los €ronósti™os ARIMA F F F F F F F F F VS
  • 8. viii ÍNDICE GENERAL UFHFWF €esos de €ronósti™os y €romedios wóviles ixponen™i—lE mente €onder—dosF F F F F F F F F F F F F F F F F F F F F F F VS UFHFIHF €ronósti™os de ƒeries de „iempo „r—nsform—d—s F F F F F VU UFHFIHFIF yper—dor hiferen™i— F F F F F F F F F F F F F F F F VU UFHFIHFPF „r—nsform—™iones vog—rítmi™—s F F F F F F F F F F VU 8. Modelos de Estado y Espacio y el Filtro Kalman 89 VFIF iv—lu—™ión de l— pun™ión de †erosimilitud y el piltro u—lm—n F F WH VFPF ist—do sni™i—l de l— w—triz de gov—ri—nz—s F F F F F F F F F F F F F WP Conclusiones 95 Bibliografía 97
  • 9. Introducción vos d—tos o˜tenidos de o˜serv—™iones se™uen™i—les — tr—vés del tiempo son muy ™omunes en diferentes dis™iplin—sF €or ejemploD en (n—nz—sD se o˜serv—n ™—m˜ios de los pre™ios de un— —™™ión en un dí—D índi™es de pre™ios en un mesD in)—™iones —nu—lesD et™F in meteorologí—D se o˜serv—n )u™tu—™iones de temper—E tur— di—ri—D pre™ipit—™iones —nu—lesD est—dos de los suelosD entre otrosF v— list— de dis™iplin—s en l—s que se estudi—n series de tiempoD prá™ti™—mente no tiene (nD por lo que el —nálisis de l—s series ™ronológi™—s h— tom—do gr—n import—n™i—F he he™ho l— teorí— m—temáti™— en l— que se ˜—s— el —nálisis de series de tiempo h— sidoD quizáD un— de l—s áre—s ™on m—yor —™tivid—dD en los últimos —ñosD ™onvirE tiéndose —sí en un— herr—mient— de mu™ho peso — l— hor— de resolver pro˜lem—s sin import—r en l— dis™iplin— que se esté us—ndoF ƒin em˜—rgoD l— —pli™—™ión de los métodos inherentes — los pro˜lem—s de series de tiempo requiere un tr—sfondo est—dísti™o fuerteF in el presente texto se des™ri˜irá l— teorí— ˜ási™— p—r— el —nálisis de series de tiempoD —˜—r™—ndoD desde los ™on™eptos fund—ment—les de pro˜—˜ilid—d h—st— lleg—r — los modelos de m—yor estudio @e‚D weD e‚weD e‚sweAD ™on el (n de poder pronosti™—r est—dísti™—mente los v—lores de l— serie de tiempo de estudioF v— revisión de l— teorí— propi— de l—s series ™ronológi™—s es de gr—n import—nE ™i— p—r— los le™tores de este textoD y— que tendrán l— oportunid—d de poseer un texto teóri™o re™opil—do de l—s más import—ntes fuentes ˜i˜liográ(™—sD teniendo en ™uent— l— fund—ment—™ión m—temáti™— de ™iertos —lgoritmos y métodosF is de™irD un texto que re™opil— los ™on™eptos y métodos de m—yor fre™uen™i— de uso en el —nálisis de series tempor—lesD teniendo en ™uent— l— rigurosid—d m—temáti™— requerid—F ix
  • 11. Objetivos Objetivo General il o˜jetivo gener—l del presente do™umento es present—r l— teorí— referente —l estudio de l—s series ™ronológi™—sD y est—˜le™er un do™umento teóri™o ˜—se p—r— futur—s investig—™ionesF Objetivos Especícos IF ‚e™opil—r y present—r l— teorí— de vi—rios textos re™ono™idos en el áre— del —nálisis de series de tiempoF PF ‚eseñ—r un— de l—s más import—ntes —pli™—™iones de l— m—temáti™— — proE ˜lem—s que se present—n en diferentes ™—mpos del ™ono™imientoF QF gonstruir un texto el ™u—l h—g— l—s ve™es de texto introdu™torio —l —nálisis de series de tiempoF xi
  • 13. Alcance y Limitaciones il tr—˜—jo pretende present—r l—s f—mili—s de modelos de m—yor utiliz—™iónD ™omo lo son los modelos —utorregresivos @ARAD modelos de promedios móviles @MAAD modelos —utorregresivos mixtos de promedios móviles @ARMA A y los modelos —utorregresivos integr—dos de promedios móviles @ARIMAAD —demás de los modelos de est—do y esp—™io y el (ltro u—lm—nF „odos los tem—s men™ion—dos —nteriormente se ™onstituyen ™omo l— ˜—se teóri™— p—r— ™u—lquier des—rrollo de tr—˜—jos de series de tiempoF eunque un— de l—s pretensiones más import—ntes del tr—˜—jo es des™ri˜ir un número signi(™—tivo de métodos y modelosD solo se tendrán en ™uent— el ™—so univ—ri—doD p—r—métri™o es de™ir se ex™luirán por ejemplo l— f—mili— de modelos eutorregresivos de …m˜r—l @„e‚AD l— f—mili— de modelos †e™tori—les eutorreE gresivos @†e‚AD entre otros y —lgunos métodos de estim—™iones de tenden™i—s ™omo l— regresión us—ndo ƒplinesD el piltro de ƒmirnov entre otrosF xiii
  • 14. xiv ALCANCE Y LIMITACIONES
  • 15. Capítulo 1 Preliminares 1.1. Espacio de Probabilidad v— pro˜—˜ilid—d es un m—r™o ™on™eptu—l que permite —n—liz—r l— o™urren™i— de su™esos —le—toriosD es de™irD f—™ilit— el estudio de su™esos en los ™u—les no es posi˜le prede™ir ™on ex—™titud el result—do de un experimentoF v— ™onstru™™ión del m—r™o ™on™eptu—l de l— pro˜—˜ilid—d se ini™i— ™on el de esp—™io de pro˜—˜iE lid—d (Ω; A; p) —so™i—do — un experimento EF gon este o˜jetivoD se des—rroll—n los siguientes tem—sX ixperimentoF isp—™io wuestr—lF Álge˜r— de iventosF pun™ión de €ro˜—˜ilid—dF 1.1.1. Espacio Muestral de Eventos Denición 1 Un experimento E es la realización de una tarea bien denida y de la cual se ha establecido la codicación o forma de tabulación de los posibles resultados. El experimento se dice aleatorio cuando el resultado no es predecible con exactitud. Denición 2 Al conjunto de todos los posibles resultados obtenidos al realizar un experimento se denomina espacio muestral de eventos y se denota por Ω. Los elementos a ∈ Ω se denominan puntos muestrales.Rincón [2011] Denición 3 Un espacio muestral Ω se denomina discreto si es nito o enu- merable, en tal caso E se dice experimento discreto. Rincón [2011] I
  • 16. P CAPÍTULO 1. PRELIMINARES 1.1.2. Álgebra de Eventos in un experimento ED ™—d— punto muestr—l en el esp—™io muestr—l Ω se denomin— evento simple y —l evento result—nte de l— uniónD interse™™ión u otr— oper—™ión de ™onjuntos de(nid— en el ™onjunto de eventos simples se denomin— evento ™ompuestoF Denición 4 Para E un experimento discreto y Ω su espacio muestral de even- tos se dene un álgebra de eventos a cualquier colección de conjuntos A que satisfaga las siguientes propiedades Rincón [2011]: Ω ∈ A. Si A ∈ A entonces Ac ∈ A Si A ∈ A y B ∈ A entonces A∪ B ∈ A. 1.1.3. Función de Probabilidad Denición 5 Sea E un experimento discreto, Ω su espacio muestral de posibles resultados y A un álgebra de eventos denida para Ω, una función p : A → [0; 1] es una función de probabilidad si satisface los siguientes axiomasCanavos [1998]: p(B) ≥ 0, Para todo B ∈ A P(Ω) = 1 Si A1, A2, . . . , An es una colección de conjuntos mutuamente disyuntos y k i=1 Ai ∈ A entonces p k i=1 Ai = k i=1 p(Ai) Para todo k ≤ n Denición 6 Un espacio de probabilidad para un experimento E está confor- mado por la tripleta (Ω; A; p) Rincón [2011] snteres— ™onstruir el esp—™io de pro˜—˜ilid—d p—r— un experimento E ™on el álge˜r— de eventos A = ℘(Ω) y un— fun™ión de pro˜—˜ilid—d p de(nid— so˜re sus eventos simplesF v— fun™ión de pro˜—˜ilid—d p se de(ne so˜re los eventos simples y p—r— ello existen v—ri—s posi˜ilid—des que gener—n diferentes esp—™ios de pro˜—˜ilid—dF v— más fre™uente es ™ono™id— ™omo pro˜—˜ilid—d ™lási™—D en ell— los eventos simples son equipro˜—˜lesD l— pro˜—˜ilid—d de ™—d— evento simple está d—d— por 1 η(Ω) ,donde η(Ω) es el ™—rdin—l del esp—™io muestr—lD y en este ™—so el esp—™io de pro˜—˜ilid—d se denomin— esp—™io de pro˜—˜ilid—d l—pl—™i—noF
  • 17. 1.2. VARIABLES ALEATORIAS Q 1.2. Variables Aleatorias e ™ontinu—™ión se mostr—rán elementos del modelo de distri˜u™ión de proE ˜—˜ilid—d p—r— un— v—ri—˜le —le—tori—D que ˜ien puede se dis™ret— o ™ontinu—D X de(nid— en (Ω; A; p) Denición 7 En un espacio de probabilidad (Ω; A; p) una función X : A −→ R es una variable aleatoria si para cualquier valor de r ∈ R el conjunto Ar = {W × W ≤ r} pertenece a A. X se dice discreta si su rango RX es con- table y continua en caso contrario. Rincón [2011] v— de(ni™ión de un— v—ri—˜le —le—tori— X en un esp—™io de pro˜—˜ilid—d (Ω; A; p)D permite ™—r—™teriz—r todos los eventos del experimentoD en expresiones m—temáti™—s en fun™ión de los v—lores de X 1.2.1. Valor Esperado de una Variable Aleatoria e ™ontinu—™ión se present—rán l—s de(ni™iones de v—lor esper—do o esper—nz— m—temáti™— p—r— un— v—ri—˜le —le—tori—D t—nto dis™ret— ™omo ™ontinu—F Denición 8 Para una variable aleatoria discreta X, el valor esperado E (X), se dene comoWalpole et al. [1998] E (X) = µx = x∈Rx xp(X) in gener—lD el v—lor esper—do X de un— v—ri—˜le —le—tori— dis™ret— X es el promedio de X ponder—do ™on los v—lores de p(x)D se interpret— igu—l que el promedio ponder—do —ritméti™o y es el v—lor referente p—r— ™—l™ul—r l— dispersión de los d—tos y p—r— ™—r—™teriz—r l— —simetrí— de l— distri˜u™ión de pro˜—˜ilid—dF Denición 9 Para una variable aleatoria continua X, el valor esperado E (X), se dene como Walpole et al. [1998] E (X) = µx = ∞ˆ −∞ xf (x) dx honde l— fun™ión f (x) es ™ono™id— ™omo l— fun™ión de densid—d de pro˜—˜iE lid—dF 1.2.2. Varianza de una Variable Aleatoria he l— mism— m—ner— que ™on el v—lor esper—doD se present—rán l—s de(ni™iones de v—ri—nz— y desvi—™ión estánd—r p—r— v—ri—˜les —le—tori—s dis™ret—s y ™ontinu—s Denición 10 La varianza σ2 X, para X variable aleatoria discreta se dene como Walpole et al. [1998] V (X) = σ2 X = x∈Rx (x − µx) 2 p (x)
  • 18. R CAPÍTULO 1. PRELIMINARES Denición 11 La varianza σ2 X, para X variable aleatoria continua se dene como Walpole et al. [1998] V (X) = σ2 X = ∞ˆ −∞ (x − µx) 2 f (x) dx Denición 12 La desviación estándar σX, para X una variable aleatoria, bien sea, discreta o continua se dene como la raíz cuadrada positiva de la varianza σ2 X. Walpole et al. [1998] 1.3. Vectores Aleatorios …n ve™tor —le—torio se origin— ™u—ndo en el mismo esp—™io de pro˜—˜ilid—d (Ω; A; p) se de(nen X1, X2, ..., Xn v—ri—˜les —le—tori—sD e interes— o˜serv—r y —n—liz—r su ™omport—miento pro˜—˜ilísti™o ™onjuntoF Denición 13 Sean X1, X2, ..., Xn variables aleatorias discretas denidas en (Ω; A; p), al vector X = {X1, X2, ..., Xn} se denomina vector aleatorio de di- mensión n. El rango o conjunto de valores del vector X está contenido en el conjunto Rincón [2011] R = RX1 × RX2 × · · · × RX1 ™on RXi el r—ngo de Xi p—r— i = 1, 2, ..., n. ƒe di™e que el ve™tor —le—torio es dis™reto si ™—d— Xi es un— v—ri—˜le —le—tori— dis™ret— y se di™e ve™tor —le—torio ™ontinuo si ™—d— Xi es n— v—ri—˜le —le—tori— ™ontinu—F Denición 14 Dado un vector aleatorio X = {X1, X2, ..., Xn} con p(x1, x2, ...xn) la función de probabilidad conjunta, para cada variable Xi existe la función de probabilidad marginal p (x) denida comoRincón [2011] p (x) =    x1∈Rx1 x2∈Rx2 · · · x2∈Rx2 p(x1, x2, ...xn) Si Xes discreto ∞ˆ −∞ ∞ˆ −∞ · · · ∞ˆ −∞ p(x1, x2, ...xn)dΩ Si Xes continuo honde dΩ = dx1dx2 · · · dxi−1dxi+1 · · · dxn Denición 15 Sea X = {X1, X2, ..., Xn} un vector aleatorio denido en (Ω; A; p) y p(x1, x2, ...xn) la función de probabilidad conjunta. La función de probabilidad acumulada de X está dada por Rincón [2011]
  • 19. 1.3. VECTORES ALEATORIOS S F (x) =    A p(k1, k2, ...kn) Si Xes discreto ˆ A p(k1, k2, ...kn)dΩ Si Xes continuo donde A = {x1, x2, ...xn : x1 ≤ k1;x2 ≤ k2; ...; xn ≤ kn} y dΩ = dx1dx · · · dxn 1.3.1. Valor esperado de un Vector Aleatorio „eniendo de(nid—s l—s fun™iones de pro˜—˜ilid—d ™onjunt— es posi˜le de(nir el v—lor esper—do de un— ve™tor —le—torio dis™reto o ™ontinuoD según se— el ™—soF Denición 16 Sea X = {X1, X2, ..., Xn} un vector aleatorio denido en (Ω; A; p) y p(x1, x2, ...xn) la función de probabilidad conjunta. El vector de medias de X es el vector de los valores esperados de las variables Xi, i = 1, 2, ..., n y está dado por Canavos [1998] E (X) = µX = (µX1 , µX2 , ...µXn) donde µXi =    x1∈Rx1 xpXi (x) i = 1, 2, ...n Si Xes discreto ∞ˆ −∞ xpXi (x) dx i = 1, 2, ...n Si Xes continuo 1.3.2. Varianza de un Vector Aleatorio Denición 17 Sea X = {X1, X2, ..., Xn} un vector aleatorio denido en (Ω; A; p) y p(x1, x2, ...xn) la función de probabilidad conjunta. El vector de varianzas de X es el vector de varianzas de las variables Xi i = 1, 2, ...n y está dado por Canavos [1998] V (X) = σ2 X = σ2 X1 , σ2 X2 , ...σ2 Xn donde Denición 18 σ2 Xi =    x1∈Rx1 (x − µXi ) 2 pXi (x) i = 1, 2, ...n Si Xes discreto ∞ˆ −∞ (x − µXi ) 2 pXi (x) dx i = 1, 2, ...n Si Xes continuo
  • 20. T CAPÍTULO 1. PRELIMINARES 1.3.3. Función Generadora de Momentos Conjunta Denición 19 Sea X = {X1, X2, . . . , Xn} un vector aleatorio denido en (Ω; A; p) con probabilidad conjunta p (x1, x2, ..., xn) . La función generadora de momentos conjunta de X está dada por Rincón [2011] Mx (t) = E etX €—r— t ∈ R v— fun™ión gener—dor— de momentos re™i˜e su nom˜re gr—™i—s — que sus deriv—d— ™—l™ul—d—s en ™ero gener—n los momentos de ve™tor X, es de™ir Mx (0) = M1 = µx Mx (0) = M2 = µ2 x FFF 1.3.4. Covarianza y Coeciente de Correlación Denición 20 [Covarianza]Sea (X, Y ) un vector aleatorio denido en (Ω; A; p) y p (x, y) la función de probabilidad conjunta. La covarianza de X y Y está dada por: Koopman [1964] Cov (X, Y ) = x,y (x − µx) (y − µy) p (x, y) = σ2 XY Denición 21 Sea X = {X1, X2, ...Xn} un vector aleatorio denido en (Ω; A; p) y p (x1, x2, ..., xn) la función de probabilidad conjunta. La matriz de varianzas y covarianzas está dada por Koopman [1964] XY =      σ2 X1 σ2 X1X2 · · · σ2 X1Xn σ2 X2X1 σ2 X2 · · · σ2 X2Xn ... ... ... ... σ2 XnX1 σ2 XnX2 · · · σ2 Xn      Denición 22 [Coeciente de Correlación]Sea (X, Y ) un vector aleatorio de- nido en (Ω; A; p) y p(x, y) la función de probabilidad conjunta. el coeciente de correlación de X y Y está dado por: Koopman [1964] ρXY = Cov (X, Y ) σXσY Denición 23 Sea X = {X1, X2, ...Xn} un vector aleatorio denido en (Ω; A; p) y p (x1, x2, ..., xn) la función de probabilidad conjunta. La matriz de de correla- ciones de X está dada por Koopman [1964] RXY =      1 ρX1X2 · · · ρX1Xn ρX2X1 1 · · · ρX2Xn FFF FFF FFF FFF ρXnX1 ρXnX2 · · · 1     
  • 21. 1.3. VECTORES ALEATORIOS U 1.3.5. Esperanza Condicional ƒe—n X y Y ve™tores —le—torios Denición 24 Si X y Y tienen función de probabilidad conjunta f (x, y) , y sea f (x) la función de probabilidad marginal de X. La función de probabilidad condicional de Y dado X = x, es Koopman [1964] f (y | x) = f (x, y) f (x) €—r— un v—lor d—do de x, l— fun™ión de pro˜—˜ild—d ™ondi™ion—l tiene tod—s l—s propied—des usu—les de un— fun™ión de densid—d de pro˜—˜ilid—dF in p—rti™ul—rD Denición 25 La esperanza condicional de Y dado x = x es denida como Koopman [1964] E (Y | X = x) =    y∈Ry yf (y | x) Si Xy Y son discretos ∞ˆ −∞ yf (y | x) dy Si Xy Y son continuos gomo un v—lor esper—doD l— esper—nz— ™ondi™ion—l goz— de tod—s l—s propieE d—des usu—lesF €or ejemplo E (aY + bZ + c | X = x) = aE (Y | X = x) + bE (Z | X = x) @IFIA y E [h (Y ) | X = x] =    x∈Rx yf (y | x) ƒi Xy Y son dis™retos ∞ˆ −∞ yf (y | x) dx ƒi Xy Y son ™ontinuos @IFPA edemás E [h (x) | X = x] = h (x) @IFQA is de™ir queD d—do X = x l— v—ri—˜le —le—tori— h (x) puede ser tr—t—d— ™omo un— ™onst—nteF in gener—l E [h (X, Y ) | X = x] = E [h (x, Y ) | X = x] @IFRA ƒe— E (Y | X = x) = g (x) , enton™es g (x) es un— v—ri—˜le —le—tori— y se puede ™onsider—r E [g (x)] , donde E [g (x)] = E (Y ) vo que usu—lmente se es™ri˜e ™omo E [E (Y | X)] = E (Y ) @IFSA
  • 22. V CAPÍTULO 1. PRELIMINARES 1.3.6. Variables Aleatorias Independientes ƒe— X = {X1, X2, . . . , Xn} un ve™tor —le—torio de(nido en (Ω; A; p) ™on pro˜—˜ilid—d ™onjunt— p (x1, x2, ..., xn) Xi se di™en mutu—mente independientes si ™umple —lgun— de l—s siguientes ™ondi™iones ‚in™ón ‘PHII“ p (Xi | Xj) = pxi ∀i = j p (x1, x2, ..., xn) = n i=1 pxi (xi) F (x1, x2, ..., xn) = n i=1 Fxi (xi) 1.4. Distribución Normal Denición 26 Una variable continua X con Rx = (−∞, ∞) se tiene distribu- ción normal con parámetros µ, σ2 , si su función de densidad de probabilidad está dada por Canavos [1998] f x, µ, σ2 = 1 √ 2πσ e− 1 2 x−µ σ 2 v— distri˜u™ión norm—l es quizá l— más import—nte en l— teorí— est—dísti™— y— que mu™hos des—rrollos teóri™os se ™onstruyen so˜re este supuestoF ƒe denot— por X ∼ N µ, σ2 y se utiliz— ™u—ndo el polígono de fre™uen™i—s de los v—lores de X tiene form— —™—mp—n—d—D ™on X = µX ™omo eje de simetrí—F „—m˜ién es import—nte señ—l—r l—s siguientes ™—r—™terísti™—s de l— distri˜u™ión norm—lF µx se denomin— p—rámetro de lo™—liz—™ión y l— fun™ión de densid—d es simétri™— en X = µx es de™ir p (X ≤ µX) = p (X ≥ µX) = 0,5. σ2 X se denomin— p—rámetro de es™—l— y est—˜le™e l— dispersión de los v—lores de X ™on respe™to — µx. Denición 27 Cuando X se distribuye normal con parámetros (0, 1) , se deno- mina normal estándar, se denota por Z ∼ N (0, 1) y su función de densidad de probabildad está dada por Canavos [1998] f (z) = 1 √ 2π e z2 2
  • 23. Capítulo 2 Conceptos Fundamentales in este ™—pítulo se des™ri˜irán los ™on™eptos fund—ment—les en l— teorí— refeE rente — l— series de tiempoF €—rti™ul—rmente se tr—t—rán los ™on™eptos de pro™eso esto™ásti™oD fun™iones de medi— y ™ov—ri—nz—D pro™esos est—™ion—riosD y l—s funE ™iones de —uto™orrel—™iónD —sí ™omo un— ˜reve des™rip™ión históri™—F 2.1. Antecedentes Históricos v— histori— de l—s series de tiempo se puede dividir en dos épo™—s @y˜E serv—™iónD wedi™ión y qener—liz—™ión y porm—liz—™iónA teniendo en ™uent— los métodos p—r— —˜ord—r los diferentes fenómenos que motiv—ron el estudio del ™omport—miento de ™iertos elementos respe™to —l tiempoF 2.1.1. Observación, medición y generalización il —nte™edente más —ntiguo de l—s series de tiempo se remont— — IVRT ™u—ndo el —strónomo reinri™h ƒ™hw—˜eD o˜servó l— —™tivid—d periódi™— de l—s m—n™h—s sol—res @sunspotsAF ƒeguido de dé™—d—s de investig—™iónD no solo en l— físi™— sol—r sino en el m—gnetismo terrestreD meteorologí— e in™luso e™onomí—D donde se ex—min—˜—n l—s series p—r— ™ompro˜—r si su periodi™id—d ™oin™idí— ™on los diferentes fenómenos —nteriormente men™ion—dosD por ejemploD ƒimon v—pl—™e y t—™ques ueteletD h—˜í—n —n—liz—do d—tos meteorológi™os y ‡illi—m rers™hel h—˜í— es™rito un li˜ro —l respe™toF „odos estudios ˜—s—dos en l— o˜serv—™ión empíri™—F v—s té™ni™—s en uso v—ri—˜—n desde l—s más simplesD ™omo l— t—˜l— de fuys f—llotD l— ™u—l permití— ™ono™er l— disposi™ión de los ™entros de —lt— y ˜—j— presión respe™to de l— dire™™ión en que sopl— el vientoD — form—s más so(sti™—d—s ™omo el —nálisis —rmóni™oD es el ™—so del físi™o erthur ƒ™huster quien introdujo en IVVW el periodogr—m—D el ™u—l permite ™—l™ul—r l— densid—d espe™tr—l de un— señ—lF W
  • 24. IH CAPÍTULO 2. CONCEPTOS FUNDAMENTALES ƒin em˜—rgoD por ese enton™esD un— form— riv—l del —nálisis de series tempoE r—lesD ˜—s—d— en l— ™orrel—™ión y promovid— por €e—rsonD ‰uleD rooker y otrosD fue tom—ndo form—F 2.1.2. Formalización il —nálisis est—dísti™o de l—s series de tiempo tienen sus ini™ios form—les ™on el texto es™rito por qeorge …dny ‰ule en IWPU ll—m—do yn — wethod of snE vestig—ting €eriodi™ities in histur˜ed ƒeriesD with ƒpe™i—l ‚eferen™e to ‡olfer9s ƒunspot xum˜ersD dondeD ˜—s—do en el ™on™epto de ™orrel—™ión intent— expli™—r l—s m—n™h—s sol—res ™on otros fenómenos —stronómi™osF e pes—r de los —v—n™es propuestos por v—rios est—dísti™os in)uyentes de l—s primer—s dé™—d—s del siglo ˆˆD no fue sino h—st— IWUHD ™on l— pu˜li™—™ión de 4„ime ƒeries en—lysisX pore™—sting —nd gontrol4 por fox y tenkins en IWUHD que se ™onstituyó un— herr—mient— ˜i˜liográ(™—D que permití— —pli™—r los métodos de series de tiempo de m—ner— sistemáti™—D y —demás logro uni(™—r el o˜jetivo de investig—™iónF is import—nte men™ion—r queD el des—rrollo teóri™o y prá™ti™o del —nálisis de series de tiempo está estre™h—mente rel—™ion—do ™on el des—rrollo informáti™oD y— que esteD provee l—s herr—mient—s ne™es—ri—s p—r— los extensos ™ál™ulos que dem—nd—n los métodos inherentes —l —nálisis de series de tiempoF …no de los m—s import—ntes ™onsiste en l— p—r—metriz—™ión de los modelos de est—do y esp—™io y el (ltro u—lm—n des—rroll—dos en su m—yorí— en el (n—l de l— dé™—d— de IWUHF1 2.2. Series de Tiempo y Procesos Estocásticos v— se™uen™i— de v—ri—˜les —le—tori—s {Yt : t = 0, ±1, ±2, ±3, ...} se ™ono™e ™oE mo pro™eso esto™ásti™oD y sirve ™omo modelo p—r— un— serie de tiempo o˜serv—d—F ƒe s—˜e que l— estru™tur— pro˜—˜ilísti™— de di™ho pro™eso es determin—do por el ™onjunto de l—s distri˜u™iones de tod—s l—s ™ole™™iones (nit—s de XiF ƒin em˜—rE goD l— m—yorí— de inform—™ión de l—s fun™iones de pro˜—˜ilid—d ™onjunt— puede ser des™rit— en términos de sus medi—sD v—ri—nz—s y ™ov—ri—nz—sF €or lo ™u—l di™hos p—rámetros @primer y segundo momentoA serán el o˜jetivo prin™ip—l @ƒi l—s distri˜u™iones de X son distri˜u™iones norm—les multiv—ri—d—sD el primer y segundo momento determin—n ™omplet—mente tod— l— distri˜u™ión ™onjunt—A 1Cada uno de los métodos mencionados en este apartado serán ampliados, mientras se desarrollan los conceptos.
  • 25. 2.3. MEDIAS, VARIANZAS Y COVARIANZAS II 2.3. Medias, Varianzas y Covarianzas Denición 28 (Función de la Media) Para un proceso estocástico {Yt : t = 0, ±1, ±2, ±3, ...} la función de la media se dene como Fuller [1996] µt = E (Yt) Para t = 0, ±1, ±2, ... @PFIA is de™ir que el v—lor de µt, es simplemente el v—lor esper—do del pro™eso en el tiempo t. in gener—l el v—lor de µt puede diferir p—r— ™—d— tiempo t. Denición 29 (Función de Autocovarianza)La función γt,sse dene como: γt,s = Cov (Yt, Ys) Para t, s = 0, ±1, ±2, ... @PFPA Fuller [1996] honde Cov (Yt, Yt) está ™ontempl—d— en l— de(ni™ión PHF v— fun™ión ρt,s está d—d— porX Denición 30 ρt,s = Corr (Yt, Ys) Para t, s = 0, ±1, ±2, ... @PFQA Fuller [1996] honde según l— de(ni™ión PP se puede ™on™luir queX Corr (Yt, Ys) = γt,s √ γt,tγs,s @PFRA „eniendo en ™uent— que t—nto l— ™ov—ri—nz— y l— ™orrel—™ión son medid—s de dependen™i— line—l entre dos v—ri—˜les —le—tori—sD se enun™i—r—n l—s siguientes propied—des que serán se gr—n utilid—d — lo l—rgo del des—rrollo del tem—F γt,t = V ar (Yt) ρt,t = 1 γt,s = γs,t ρt,s = ρs,t |γt,s| = √ γt,tγs,s |ρt,s| ≤ 1 @PFSA is import—nte re™ord—r que v—lores de ρt,s ™er™—nos — ±1 indi™—n un— fuerte dependen™i— line—lD por otr— p—rte v—lores ™er™—nos — 0 indi™—n dependen™i— line—l dé˜ilD y si ρt,s = 0 se di™e que Yt y Ys no están ™orrel—™ion—d—sF gon el (n de investig—r l—s propied—des de l— ™ov—ri—nz— de v—rios modelos de series de tiempoD el siguiente result—do gryer —nd gh—n ‘PHHV“ será us—do repetid—meteX ƒi c1, c2, , cm y d1, d2, , dn son ™onst—tes y t1, t2, , tm y s1, s2, , sn son puntos tempor—les enton™es Cov   m i=1 ciYti , m j=1 djYsj   = m i=1 m j=1 cidiCov Yti , Ysj @PFTA gomo ™—so espe™i—l se o˜tiene V ar n i=1 ciYti = n i=1 c2 i V ar (Yti ) + 2 n i=2 i−1 j=1 cicjCov Yti , Ytj @PFUA
  • 26. IP CAPÍTULO 2. CONCEPTOS FUNDAMENTALES 2.3.1. La Caminata Aleatoria (Random Walk) ƒe—n e1, e2, ... un— se™uen™i— de v—ri—˜les —le—tori—s idénti™—mente distri˜uiE d—s ™—d— un— ™on medi— ™ero y v—ri—nz— σ2 e . ƒe ™onstruye l— serie de tiempo {Yt : t = 1, 2, ...} de l— siguiente m—ner— Y1 = e1 @PFVA Y2 = e1 + e2 FFF Y = e1 + e2 + · · · + et he form— —ltern—tiv— se puede es™ri˜ir Yt = Yt−1 + et gon l— ™ondi™ión ini™i—l Y1 = e1. ƒi ei es ™onsider—do ™omo el t—m—ño de los 4p—sos4 d—dos — lo l—rgo de l— re™t— numéri™— @˜ien se— h—™i— —del—nte o —trásAF inton™es Yt es l— posi™ión del g—min—nte —le—torio en el tiempo t F he l— e™u—™ión PFV se puede dedu™ir l— fun™ión de l— medi—X µt = E (Yt) = E (e1 + e2 + · · · + et) = E (e1) + E (e2) + ...E (et) = 0 + 0 + · · · + 0 inton™es µt = 0 €—r— todo t „—m˜iénD se ™onsider— V ar (Yt) = V ar (e1 + e2 + · · · + et) = V ar (e1) + V ar (e2) + ...V ar (et) = σ2 e + σ2 e + · · · + σ2 e inton™es V ar (Yt) = tσ2 e @PFWA €—r— ™—l™ul—r l— fun™ión de ™ov—ri—nz—D se —sume que 1 ≤ t ≤ s inton™es γt,s = Cov (Yt, Ys) = Cov (e1 + e2 + · · · et, e1 + e2 + · · · + et + et+1 + · · · es) €or propied—des de l— ™ov—ri—nz— se —(rm— queX γt,s = s i=j t j=1 Cov (ei, ej) ƒin em˜—rgoD est—s ™ov—ri—nz—s son ™ero menos ™u—ndo i = j, y en ese ™—so V ar (ei) = σ2 e y existen ex—™t—mente t ™—sos de di™h— igu—ld—dD luego γt,s = tσ2 e . y de˜ido — que γt,s = γs,t es posi˜le es™ri˜ir l— fun™ión de ™ov—ri—nz— de l— siguiente m—ner—X γt,s = tσ2 e €—r— 1 ≤ t ≤ s @PFIHA
  • 27. 2.3. MEDIAS, VARIANZAS Y COVARIANZAS IQ v— fun™ión de —uto™orrel—™ión p—r— l— ™—min—t— —le—tori— se o˜tiene de l— siguiente m—ner— ρt,s = γt,s √ γt,tγs,s = t s €—r— 1 ≤ t ≤ s @PFIIA 2.3.2. Promedios Móviles ƒupong— que {Yt} es ™onstruido ™omo Yt = et + et−1 2 @PFIPA he˜ido — que ei se —sumen ™omo v—ri—˜les —le—tori—s idénti™—mente distriE ˜uid—s ™on medi— ™ero y v—ri—nz— σ2 e , enton™es µt = E (Yt) = E et + et−1 2 = E (et) + E (et−1) 2 = 0 y V ar (Yt) = V ar et + et−1 2 = V ar (et) + V ar (et−1) 4 = 0,5σ2 e „—m˜ién Cov (Yt, Yt−1) = Cov et + et−1 2 , et−1 + et−2 2 = Cov (et, et−1) + Cov (et, et−2) + Cov (et−1, et−1) + Cov (et−1, et−2) 4 = Cov (et−1, et−1) 4 = 0,25σ2 e o γt,t−1 = 0,25σ2 e €—r— todo t @PFIQA edemás Cov (Yt, Yt−2) = Cov et + et−1 2 , et−1 + et−2 2 = 0 €or ser e independientes hel mismo modoD Cov (Yt − Yt−k) = 0 p—r— k 1 enton™es se gener—liz— de l— siguiente m—ner— γt,s =    0,25σ2 e €—r— |t − s| = 0 0,5σ2 e €—r— |t − s| = 1 H €—r— |t − s| 1
  • 28. IR CAPÍTULO 2. CONCEPTOS FUNDAMENTALES €—r— l— fun™ión de —uto™orrel—™iónD —pli™—ndo l— e™u—™ión PFR se o˜tiene ρt,s =    1 €—r— |t − s| = 0 0,5 €—r— |t − s| = 1 H €—r— |t − s| 1 is de gr—n import—n™i— not—r que ρ2,1 = ρ3,2 = ρ5,6 = ρ9,8 = 0,5. is de™ir que v—lores de Y sep—r—dos por un— unid—d de tiempo tiene l— mism— ™orrel—™iónF wás —ún ρ3,1 = ρ5,3 = ρt,t−2 y más gener—l ρt,t−k es el mismo p—r— todo v—lor de t. iste he™ho ™ondu™e —l import—nte ™on™epto de est—™ion—ried—d 2.4. Estacionariedad gon el (n de inferir —™er™— de l— estru™tur— de un pro™eso esto™ásti™o ˜—E s—do en d—tos o˜serv—dosD se de˜eD usu—lmenteD —sumir ™iert—s ™ondi™iones que simpli(™—n el pro™esoF il más import—nte de di™hos supuestos es el de l— est—E ™ion—ried—dF v— ide— prin™ip—l de l— est—™ion—ried—d ™onsiste en que l—s regl—s de pro˜—˜ilid—d que rigen el pro™eso no ™—m˜i—n respe™to —l tiempoF Denición 31 Especícamente, un proceso {Yt}, se dice que es estrictamente estacionario si la distribución conjunta de Yt1 , Yt2 , . . . , Ytn es la misma que la distribución conjunta de Yt1−k, Yt2−k, . . . , Ytn−k, para cada elección de puntos t1, t2, ..., tn y todo rezago de tiempo k. Cryer and Chan [2008] …n— de(ni™ión simil—r — l— estri™t—mente est—™ion—l pero m—temáti™—mente m—s dé˜il es l— siguienteX Denición 32 Un proceso {Yt}, se dice que es débilmente estacionario o estacionario de segundo orden si Cryer and Chan [2008] IF v— fun™ión de l— medi— es ™onst—nte — tr—vés del tiempoD y PF γt,t−k = γ0,k p—r— todo tiempo t y todo rez—go k Denición 33 Para procesos estacionarios usualmente se considera k ≥ 0. Teorema 34 Sea {Yi} una serie de tiempo estacionaria con función de auto- covarianza γk = 1 n n k=t Yt pruebe que: V ar( ¯Y ) = γ0 n + 2 n n−1 k=1 1 + k n γk = 1 n n−1 k=−n+1 1 − k n γk
  • 29. 2.4. ESTACIONARIEDAD IS 2.4.1. Ruido Blanco (White Noise) …n ejemplo ˜—st—nte import—nte de lo que es un pro™eso est—™ion—l es lo que ™omúnmente se ™ono™e ™omo ruido ˜l—n™o wontgomery et —lF ‘PHHV“F Denición 35 El ruido blanco (White Noise) se dene como una secuencia de variables aleatorias, independientes idénticamente distribuidas {et} v— import—n™i— del ruido ˜l—n™o r—di™— en el he™ho de que mu™hos pro™esos útiles pueden ser ™onstruidos — p—rtir de ruido ˜l—n™oF il término ruido ˜l—n™o se ˜—s— en el he™ho que en un —nálisis de fre™uen™i— del modelo muestr—lD en —n—logí— ™on l— luz ˜l—n™—D tod—s l—s fre™uen™i—s entr—n —l modelo equiv—lentementeF …su—lmente se tiene que —sumir que los pro™esos de ruido ˜l—n™o tienen medi— igu—l — ™ero y v—ri—nz— σ2 e . Teorema 36 Sea {Yi} una serie de tiempo estacionaria con función de auto- covarianza γk = 1 n n k=t Yt pruebe que: V ar( ¯Y ) = γ0 n + 2 n n−1 k=1 1 + k n γk = 1 n n−1 k=−n+1 1 − k n γk
  • 30. IT CAPÍTULO 2. CONCEPTOS FUNDAMENTALES
  • 31. Capítulo 3 Tendencias in un— serie de tiempo gener—lD l— fun™ión de l— medi— es un— fun™ión —rE ˜itr—ri— respe™to —l tiempoF in un— serie de tiempo est—™ion—lD l— fun™ión de l— medi— de˜e ser ™onst—nte — tr—vés del tiempo gryer —nd gh—n ‘PHHV“F preE ™uentemente se de˜e est—˜le™er un punto medio entre l—s dos series de tiempo y ™onsider—r fun™iones de l— medi— rel—tiv—mente simples @no ™onst—ntesA — tr—vés del tiempoF is—s tenden™i—s serán tr—t—d—s en el siguiente ™—pítuloF 3.1. Tendencias Determinísticas contra Tenden- cias Estocásticas v—s tenden™i—s en un— serie de tiempo pueden ser su˜jetiv—sD dependiendo del punto de vist— del investig—dorF he he™hoD en diferentes simul—™iones de l— mism— v—ri—˜le —le—tori— l—s tenden™i—s pueden v—ri—rY — este tipo de tenden™i—s se les denomin— tenden™i—s esto™ásti™—sD teniendo en ™uent— que est— de(ni™ión no h— sido gener—lmente —™ept—d—F €or otro l—doD p—r— un— serie de tiempo ™on p—rámetro ™í™li™o determinísti™o se di™e que l— tenden™i— es determinísti™— y su model—miento se estudi—rá en este ™—pítuloF 3.2. Estimación de la Media Constante gomo primer— medid— se ™onsider—rá l— situ—™ión donde se —sume un— funE ™ión de l— medi— ™onst—nteD enton™es el modelo est—rí— d—do porX Yt = µ + Xt @QFIA honde E (Xt) = 0 p—r— todo t. ƒe dese— estim—r µ ™on ˜—se en l— serie de tiempo o˜serv—d— Y1, Y2, ..., Yn F v— estim—™ión más ™omún de µ es l— medi— IU
  • 32. IV CAPÍTULO 3. TENDENCIAS muestr—l de(nid— ™omo ¯Y = 1 n n t=1 Yt @QFPA f—jo el supuesto de l— e™u—™ión QFID se puede ™on™luir que E ¯Y = µ; por lo t—nto ¯Y es un— estim—™ión imp—r™i—l de µ. €—r— o˜tener l— pre™isión de ¯Y ™omo estim—dor de µ, es ne™es—rio h—™er supuestos respe™to — Xt. ƒupóng—se que {Yt} es un— serie de tiempo est—™ion—ri— ™on fun™ión de —uE to™orrel—™ión ρk. inton™es por el teorem— PH se tiene gryer —nd gh—n ‘PHHV“ V ar( ¯Y ) = γ0 n n−1 k=−n+1 1 + |k| n ρk @QFQA = γ0 n 1 + 2 n−1 k=−n+1 1 − k n ρk ƒi l— serie de tiempo {Xt} de l— e™u—™ión QFI es simplemente ruido ˜l—n™oD enton™esD ρk = 0 ¡p—r— k 0 y V ar ¯Y se redu™e simplemente — γ0 n . in el modelo est—™ion—rio de promedios móviles Yt = et − et−1 2 , se en™uentr— que ρ1 = −0,4 y ρk = 0 p—r— k 1 en este ™—so se o˜tiene V ar( ¯Y ) = γ0 n 1 + 2 1 − 1 n (−0,4) = γ0 n 1 − 0,8 n − 1 n €—r— v—lores de n, usu—lmente m—yores que 50 el f—™torD n − 1 n es ™er™—no — 1, enton™es V ar( ¯Y ) ≈ 0,2 γ0 n he esto se puede ™on™luir que l— ™orrel—™ión neg—tiv— en el rez—go k, h— mejor—do l— estim—™ión de l— medi—D ™omp—r—d— ™on l— estim—™ión o˜tenid— en el modelo de ruido ˜l—n™o @muestr— —le—tori—AF he˜ido — que l— serie tiende — os™il—r —lrededor de l— medi—D l— medi— muestr—l o˜tenid— es más pre™is—F €or otr— p—rteD si ρk ≥ 0 p—r— todo k ≥ 1, se puede o˜serv—rD gr—™i—s — l— e™u—™ión QFQD que V ar( ¯Y ) γ0 n . in estos ™—sos l— ™orrel—™ión positiv— h—™e que l— estim—™ión de l— medi— se h—g— más ™ompli™—d— que ™on los modelos de ruido ˜l—n™oF in gener—l l— e™u—™ión QFQ de˜e ser us—d— p—r— ev—lu—r el efe™to en l— serie de tiempoF €—r— mu™hos pro™esos est—™ion—riosD l— fun™ión de —uto™orrel—™iónD de™re™e lo su(™ientemente rápidoD ™on rez—gos ™re™ientes t—l que ∞ k=0 |ρk| ∞ @QFRA
  • 33. 3.3. MÉTODOS DE REGRESIÓN IW „eniendo en ™uent— el supuesto de l— e™u—™ión QFRD y teniendo un— v—lor de n signi(™—tiv—mente —ltoD l— e™u—™ión QFQ puede —proxim—rse de l— siguiente m—ner— gryer —nd gh—n ‘PHHV“ V ar( ¯Y ) ≈ γ0 n ∞ k=−∞ ρk €—r— n su(™ientemente gr—nde @QFSA €—r— pro™esos no est—™ion—rios @pero ™on medi— ™onst—nteAD l— pre™isión de l— medi— muestr—l ™omo un— estim—™ión de µ puede ser sorprendentemente diE ferenteF €or ejemploD supóng—se que l— v—ri—˜le {Xt} en l— e™u—™ión QFI es un pro™eso de ™—min—t— —le—tori— luego utiliz—ndo l— e™u—™ión PFVF V ar( ¯Y ) = 1 n2 V ar n i=1 Yi = 1 n2 V ar   n i=j i j=1 ej   = 1 n2 V ar (e1 + 2e2 + 3e3 + · · · nen) = σ2 e n2 n K=1 k2 luego V ar( ¯Y ) = σ2 e (2n + 1) (n + 1) 6n ƒe ™on™luye que este es un ™—so espe™i—lD l— v—ri—nz— de l— estim—™ión de l— medi— —ument— ™u—ndo el t—m—ño de l— muestr— t—m˜ién lo h—™eD lo que impli™— que se ne™esit— ™onsider—r otro método de estim—™ión p—r— series no est—™ion—ri—sF 3.3. Métodos de Regresión vos métodos est—dísti™os ™lási™os de regresión ˜rind—n un— herr—mient— de sum— import—n™i— p—r— estim—r los p—rámetros de los modelos ™on tenden™i— medi— v—ri—˜leD en el des—rrollo de este —p—rt—doD se ™onsider—r—n los más útilesX line—lD ™u—dráti™—D medi—s est—™ion—lesD y tenden™i—s del ™osenoF 3.3.1. Tendencias Lineales y Cuadráticas gonsidérese l— tenden™i— determinísti™— expres—d— ™omo µt = β0 + β1t @QFTA
  • 34. PH CAPÍTULO 3. TENDENCIAS honde l— pendiente y el inter™epto β1 y β0 respe™tiv—menteD son p—rámeE tros des™ono™idosF il método ™lási™o de mínimos ™u—dr—dos ™onsiste en elegir estim—™iones de β1 y β0 t—les que minimi™en Q (β0, β1) = n t=1 [Yt − (β0 + β1t)] 2 he est— form—D después de deriv—r p—r™i—lmente e igu—l—r — ™eroD se o˜tieneX ˆβ1 = n t=1 Yt − ¯Y (t − ¯t) n t=1 (t − ¯t) 2 @QFUA ˆβ0 = ¯Y − ˆβ1¯t donde t = (n + 1) 2 es el promedio de 1, 2, ...n. gryer —nd gh—n ‘PHHV“ 3.3.2. Tendencias cíclicas. ƒe ™onsider—ránD — ™ontinu—™iónD el model—miento de tenden™i—s est—™ion—E lesD por ejemploD l— temper—tur— mensu—lF ƒe —sumirá que l— serie de tiempo o˜serv—d— se puede es™ri˜ir ™omo Yt = µt + Xt honde E (Xt) = 0 €—r— todo t. il supuesto más gener—l p—r— µt ™on d—tos est—™ion—les mensu—lesD es que existen IP ™onst—ntes o p—rámetros β1, β2, ..., β12, y teniendo el promedio espeE r—do de temper—tur— p—r— ™—d— uno de los meses se puede es™ri˜ir µt =    β1 €—r— t = 1, 13, 25, ... β2 €—r— t = 2, 14, 26, ... FFF β12, €—r— t = 12, 24, 36, ... @QFVA gryer —nd gh—n ‘PHHV“ 3.3.3. Tendencias del Coseno v—s medi—s est—™ion—les del modelo p—r— d—tos mensu—les ™onsiste IP p—ráE metros independientesD y no tiene en ™uent— l— form— de l— tenden™i— est—™ion—lF €or ejemploD el he™ho de que l—s medi—s de w—rzo y e˜ril son simil—res no se re)ej—n (elmente en el modeloF in —lgunos ™—sosD l—s tenden™i—s est—™ion—les pueden ser model—d—s ™on ™osenos D que propor™ion—n un— ™urv— su—ve entre un periodo y otroD ™onserv—ndo l— est—™ion—ried—dF
  • 35. 3.4. CONFIABILIDAD Y EFICIENCIA DE LAS ESTIMACIONES DE LA REGRESIÓNPI gonsidérese l— ™urv— ™on l— e™u—™iónX µt = β cos (2πft + Φ) @QFWA ƒe le ll—m— — β 0 l— —mplitudD — f l— fre™uen™i—D y Φ l— f—se de l— ™urv—F he˜ido — que t v—rí—D l— ™urv— os™il— entre un máximo de β y un minimo de −β. he˜ido — que l— ™urv— se repite — sí mism— ™—d— 1 f unid—des de tiempoF 1 f es ™ono™ido ™omo el periodo de l— ™urv—F esimismo Φ es útil p—r— est—˜le™er el origen —r˜itr—rio en el eje del tiempoF v— e™u—™ión QFW no es muy ™onveniente p—r— efe™tos de l—s estim—™ionesD y— queD los p—rámetros β y ΦD no inter(eren en l— fórmul— de un— m—ner— line—lF efortun—d—menteD us—ndo un— identid—d trigonométri™— l— e™u—™ión QFW puede ser es™rit— de l— siguiente m—ner—X β cos (2πft + Φ) = β1 cos (2πft) + β2sen (2πft) honde β = β2 1 + β2 2, Φ = a tan −β2 β1 y β1 = β cos (Φ) , β2 = βsen (Φ) €—r— estim—r los p—rámetros β1 y β2 ™on té™ni™—s de regresiónD simplemente se us— cos (2πft) y sen (2πft) ™omo v—ri—˜les regresor—sF il modelo más sen™illoD teniendo en ™uent— l— tenden™i—D es el siguiente µt = β0 + β1 cos (2πft) + β2sen (2πft) @QFIHA in este ™—so l— ™onst—nteD β0, puede ser pens—d— ™omo un ™oseno ™on freE ™uen™i— igu—l — ™eroF gryer —nd gh—n ‘PHHV“ 3.4. Conabilidad y Eciencia de las Estimacio- nes de la Regresión esúm—se que l— serie de tiempo es represent—d— por Yt = µt + Xt, donde µt es un— tenden™i— determinísti™— y {Xt} es un pro™eso est—™ion—rio de medi— ™ero ™on fun™iones de —uto™ov—ri—nz— y —uto™orrel—™ión γk y ρk respe™tiv—menteF €—r— medi—s est—™ion—lesD l—s estim—™iones por mínimos ™u—dr—dos de l—s medi—s est—™ion—les sonD simplemente promedios est—™ion—lesD enton™esD si se tiene N —ños de d—tos mensu—les se puede es™ri˜ir l— estim—™ión p—r— l— medi— en l— tempor—d— j ™omo ˆβj = 1 N N−1 i=0 Yi + 12i
  • 36. PP CAPÍTULO 3. TENDENCIAS ‰— que ˆβj es un promedio ™omo ¯Y ex™epto que solo us— ™—d— do™e—v— o˜serE v—™iónF v— e™u—™ión QFQ puede ser modi(™—d— p—r— o˜tener l— v—ri—nz— de ˆβjF ƒe reempl—z— n por N y ρk por ρ12k p—r— o˜tener V ar ˆβj = γ0 N 1 + 2 N−1 k=0 1 − k n ρ12k €—r— j = 1, 2, ..., 12 @QFIIA ƒe pude not—r que si {Xt} es un pro™eso de ruido ˜l—n™oD V ar ˆβj = γ0 N . edemás si v—rios ρk son diferentes de ™ero pero ρ12k = 0 enton™es V ar ˆβj = γ0 N . in ™u—lquier ™—soD solo l—s ™orrel—™iones est—™ion—les ρ12,ρ24, ... serán utiliE z—d—s en l— e™u—™ión QFIIF €—r— l—s tenden™i—s del ™oseno expres—d—s en l— e™u—™ión QFIHF €—r— ™u—lquier fre™uen™i— de l— form— f = m n donde m es un entero que s—tisf—™e 1 ≤ m ≤ n 2 , se pueden us—r expresiones expli™it—s p—r— los v—lores de l—s estim—™iones ˆβ1 y ˆβ2. ˆβ1 = 2 n n t=1 cos 2πmt n Yt , ˆβ2 = 2 n n t=1 sen 2πmt n Yt @QFIPA ‰— que l—s —nteriores e™u—™iones son e™u—™iones line—les de {Yt} , se ev—lu—rán sus v—ri—nz—s us—ndo l— e™u—™ión PFTD y teniendo en ™uent— que gryer —nd gh—n ‘PHHV“ n t=1 = cos 2πmt n 2 = n 2 se o˜tiene V ar ˆβ1 = 2γ0 n 1 + 4 n n s=2 s−1 t=1 cos 2πmt n cos 2πms n ρs−t y V ar ˆβ1 = 2γ0 n 1 + 4 n n s=2 s−1 t=1 sen 2πmt n sen 2πms n ρs−t ƒi {Xt} es un pro™eso de ruido ˜l—n™oD se o˜tiene implemente 2γ0 n . ƒi ρ1 = 0, ρk = 0 p—r— k 1 y m n = 1 12 l— v—ri—nz— se redu™e — gryer —nd gh—n ‘PHHV“ V ar ˆβ1 = 2γ0 n 1 + 4ρ1 n n−1 t=1 cos πt 6 cos πt + 1 6 ρs−t @QFIQA €—r— l—s tenden™i—s line—les es más ™onveniente utiliz—r un— formul— —ltern—E tiv— — l— e™u—™ión QFU p—r— ™—l™ul—r ˆβ1. ƒegún gryer —nd gh—n ‘PHHV“ l— estim—E ™ión de l— pendiente por medio de mínimos ™u—dr—dos puede ser es™rit— de l—
  • 37. 3.5. ANÁLISIS DE RESIDUALES PQ siguiente m—ner— ˆβ1 = n t=1 (t − ¯t) Yt n t=1 (t − ¯t) 2 @QFIRA ‰— que l— estim—™iónD ˆβ1D es un— ™om˜in—™ión line—l de los v—lores de Y, y us—ndo n t=1 (t − ¯t) 2 = n n2 − 1 12 l— v—ri—nz— se puede es™ri˜ir ™omo V ar ˆβ1 = 12γ0 n (n2 − 1) n s=2 s−1 t=1 (t − ¯t) (s − ¯t) ρs−t @QFISA 3.5. Análisis de Residuales gomo y— se h— des™rito —nteriormenteD l— ™omponente esto™ásti™— {Xt} puede ser estim—d— medi—nte el residual ˆXt = Yt − ˆµt ƒe ™ono™e — ˆXt ™omo el residu—l ™orrespondiente — l— t − ´esima o˜serv—E ™ión frillinger ‘PHHI“F ƒi el modelo de l— tenden™i— es r—zon—˜lemente ™orre™toD enton™es los residu—les de˜erí—n ™omport—rse ™omo un ™omponente esto™ásti™o y se pueden est—˜le™er v—rios supuestosF ƒi el ™omponente esto™ásti™o es ruido ˜l—n™oD enton™es los residu—les de˜erí—n ™omport—rse ™omo v—ri—˜les —le—tori—s independientes norm—lmente distri˜uid—s ™on medi— ™ero y desvi—™ión estánd—r s. he˜ido — que —l —juste medi—nte mínimos ™u—dr—dos de ™u—lquier tendenE ™i— ™on términos ™onst—ntes produ™en residu—les ™on medi— ™eroD es import—nte est—nd—riz—r los residu—les ™omo ˆX t s .„eniendo los residu—les est—nd—riz—dosD el p—so — seguir es ™omp—r—r los residu—les ™on l— tenden™i— ™orrespondiente del v—lor —just—do y por medio de softw—re espe™i—liz—do veri(™—r l—s ™—r—™terísti™—s del pro™eso esto™ásti™o @norm—lid—dD independen™i—D et™FA @†é—se ‰—te ‘PHII“AF 3.5.1. Función de Autocorrelación Muestral …n— import—nte herr—mient— ™on l— ™u—l se puede ex—min—r l— dependen™i— es l— fun™ión de —uto™orrel—™ión muestr—lF gonsidérese un— se™uen™i— de d—E tos Y1, Y2, . . . , Yn @˜ien se— residu—lesD d—tos origin—les o d—tos tr—nsform—dosAF esumiendo tent—tiv—mente est—™ion—ried—dD se dese— estim—r l— fun™ión de —utoE ™orrel—™ión ρk p—r— un— v—ried—d de rez—gos k = 1, 2, . . . . v— form— más evidente de re—liz—r di™ho ™ál™uloD es ™—l™ul—r l— fun™ión de ™orrel—™ión muestr—l entre ™—E d— p—r de d—tos (Y1, Y1+k) , (Y2, Y2+k) , . . . , (Yn−k, Yn) . ƒin em˜—rgoD teniendo
  • 38. PR CAPÍTULO 3. TENDENCIAS en ™uent— el supuesto de l— est—™ion—ried—dD l— ™u—l impli™— un— medi— y un— v—ri—nz— ™omún p—r— l— serie de tiempoF v— fun™ión de —uto™orrel—™ión muestr—l de l— siguiente m—ner— gryer —nd gh—n ‘PHHV“ Denición 37 La función de autocorrelación muestral, rk en el rezago k es rk = n t=k+1 Yt − ¯Y Yt−k − ¯Y n t=1 Yt − ¯Y 2 @QFITA
  • 39. Capítulo 4 Modelos para Series de Tiempo Estacionarias in el siguiente ™—pítulo se dis™utirán los ™on™eptos ˜ási™os de un— —mpli— g—m— de modelos de series de tiempo p—r—métri™—s ™ono™id—s ™omo modelos —utorregresivos de promedios móviles o e‚weD de˜ido — sus sigl—s en inglésF g—˜e not—r que este tipo de modelos tiene un— gr—n import—n™i— en los pro™esos de l— vid— ™otidi—n—D en v—rios ™—mpos del ™ono™imientoF 4.1. Procesos Generales Lineales r—st— el momentoD siempre se h— ™onsider—do — {Yt} ™ómo l— serie de tiempo o˜serv—d—F e p—rtir de este ™—pítuloD t—m˜ién se denot—rá — {et} ™omo un ruido ˜l—n™o no o˜serv—doD es de™irD un— se™uen™i— de v—ri—˜les —le—tori—sD idénti™—E mente distri˜uid—s ™on medi— ™eroF „—m˜iénD en mu™hos ™—sosD el supuesto de independen™i— puede ser sustituido por el supuesto @más dé˜ilA que {et}, es un— se™uen™i— de v—ri—˜les —le—tori—s no ™orrel—™ion—d—sF Denición 38 Un proceso general lineal {Yt}, es aquel que puede ser represen- tado como una combinación lineal ponderada, de los términos del pasado y del presente de un proceso de ruido blanco de la siguiente manera. Yt = et + ψ1et−1 + ψ2et−2 + · · · @RFIA Cryer and Chan [2008] ƒi l— expresión de l— dere™h— es ™iert—mente un— serie in(nit—D de˜en est—E ˜le™er™e ™ondi™iones so˜re los pesos ψ, ™on el (n de que di™h— expresión teng— sentidoD m—temáti™—mente h—˜l—ndoF is su(™iente —sumir queX ∞ i=1 ψ2 i ∞ @RFPA PS
  • 40. PTCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS „—m˜ién de˜e not—rse que d—do que {et} es un pro™eso de ruido ˜l—n™o no o˜serv—˜leD no se pierde l— gener—lid—d de l— e™u—™ión RFPY si se —sume que el ™oe(™iente de et es 1; efe™tiv—mente ψ0 = 1. …n ejemplo de sum— import—n™i— en el des—rrollo del textoD es l— ™—so en el ™u—l los ψ form—n un— se™uen™i— exponen™i—lmente de™re™iente ψj = φj honde −1 ≤ φ ≤ 1, enton™es Yt = et + φet−1 + φ2 et−2 + · · · €—r— este ejemplo E (Yt) = E et + φet−1 + φ2 et−2 + · · · = 0 es de™ir que {Yt} tiene un— medi— ™onst—nte igu—l — ™eroF „—m˜ién V ar (Yt) = V ar et + φet−1 + φ2 et−2 + · · · = V ar (et) + φ2 V ar (et−1) + φ4 V ar (et−2) + · · · = σ2 e 1 + φ2 + φ4 + · · · = σ2 e 1 − φ2 @ƒum—ndo l— serie geométri™—A edemás Cov (Yt, Yt−1) = Cov et + φet−1 + φ2 et−2 + · · · , et−1 + φet−2 + φ2 et−3 + · · · = Cov (φet−1, et−1) + Cov φ2 et−2, φet−2 + · · · = φσ2 e + φ3 σ2 e + φ5 σ2 e + · · · = φσ2 e 1 + φ2 + φ4 + · · · = φσ2 e 1 − φ2 @ƒum—ndo l— serie geométri™—A inton™es Corr (Yt, Yt−1) = φσ2 e 1 − φ2 σ2 e 1 − φ2 = φ he m—ner— —nálog—D se puede ™—l™ul—r Cov (Yt, Yt−k) = φk σ2 e 1 − φ2 por lo t—nto Corr (Yt, Yt−k) = φk @RFQA
  • 41. 4.2. PROCESOS DE PROMEDIOS MÓVILES PU is import—nte señ—l—r que el pro™eso es est—™ion—rioD y— que l— —uto™ov—ri—nE z— depende sol—mente del rez—go de tiempo y no del tiempo —˜solutoF €—r— un pro™eso gener—l line—l Yt = et + ψ1et−1 + ψ2et−2 + · · · se sigue un pro™edimiento —nálogo —l —nteriormente re—liz—do p—r— o˜tener E (Yt) = 0 γk = Cov (Yt, Yt−k) = σ2 e ∞ i=0 ψiψi+k k ≥ 0 @RFRA ™on ψ0 = 1. …n pro™eso ™on medi—D diferente de ™eroD µ puede ser o˜tenido —ñ—diendo el término µ — l— p—rte dere™h— de l— e™u—™ión RFIF he˜ido — que l— medi— no —fe™t— l—s propied—des de l— ™ov—ri—nz—D se sumirá que l— medi— es ™eroD h—st— que se —justen modelos — un— serie de d—tos 4.2. Procesos de Promedios Móviles in el ™—soD donde solo existe un número (nito de pesos ψ diferentes de ™eroD se tiene lo que se ™ono™e ™omo un pro™eso de promedios móviles Denición 39 Una proceso {Yt} se dice que es promedios móviles cuando existe un número nito de pesos θ, y tiene la siguiente forma: Yt = et − θ1et−1 − θ2et−2 − · · · − θqet−q @RFSA La ecuación 4.5 se conoce como una serie de promedios móviles de orden q y se abrevia con las siglas MA(q). Box and Jenkins [1976] il término €romedios wóviles se ˜—s— en el he™ho que Yt se o˜tiene —pli™—nE do los pesos 1, −θ1, −θ2, · · · , −θq — l—s v—ri—˜les et, et−1, et−2, · · · , et−q y luego se mueven los pesos y se —pli™—n — l—s v—ri—˜les et + 1, et, et−1, · · · , et−q+1 ™on (n de o˜tener Yt+1F 4.2.1. Procesos de Promedios Móviles de Primer Orden e ™ontinu—™ión se ™onsider—ráD el más simpleD de los modelosD sin dej—r de ser import—nteF il pro™eso de promedios móviles de orden 1D es de™irD MA(1). ƒegún l— e™u—™ión RFS el modelos es de l— form—X Yt = et − θet−1 is import—nte —™l—r—r que p—r— los modelos de primer orden θ1 se suele not—r simplemente ™omo θF gl—r—mente E (Y1) = 0 y V ar (Yt) = σ2 e 1 + θ2 , edemás Cov (Yt, Yt−1) = Cov (et − θet−1, θet−1 − θet−2) = Cov (−θet−1, et−1) = −θσ2 e
  • 42. PVCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS y Cov (Yt, Yt−2) = Cov (et − θet−1, θet−2 − θet−3) = 0 he˜ido — que no existen v—ri—˜les e ™omunes entre Yt y Yt−2, Cov (Yt, Yt−k) = 0 siempre y ™u—ndo k ≥ 2, es de™ir que el pro™eso no tiene ™orrel—™ión p—r— rez—gos m—yores — 1. in resumenD p—r— un modelo MA (1) Y = et − θet−1 E (Yt) = 0 @RFTA γ0 = V ar (Yt) = σ2 e 1 + θ2 γ1 = −θσ2 e ρ1 = −θ (1 + θ2) γk = ρk = 0 €—r— k ≥ 2 4.2.2. Procesos de Promedios Móviles de Segundo Orden ƒegún l— e™u—™ión RFS un— serie de tiempo de promedios móviles de orden dos es de l— form—X Yt = et − θ1et−1 − θ2et−2 in este g—so γ0 = V ar (Yt) = V ar (et − θ1et−1 − θ2et−2) = 1 + θ2 1 + θ2 2 σ2 e γ1 = Cov (Yt, Yt−1) = Cov (et − θ1et−1 − θ2et−2, et−1 − θ1et−2 − θ2et−3) = Cov (−θ1et−1, et−1) + Cov (−θ1et−2, −θ2et−2) = [−θ1 + (−θ1) (−θ2)] σ2 e = (−θ1 + θ1θ2) σ2 e y γ1 = Cov (Yt, Yt−2) = Cov (et − θ1et−1 − θ2et−2, et−2 − θ1et−3 − θ2et−4) = Cov (−θ2et−2, et−2) = −θ2σ2 e inton™esD p—r— un modelo MA (2) ρ1 = −θ1 + θ1θ2 1 + θ2 1 + θ2 2 ρ2 = −θ2 1 + θ2 1 + θ2 2 @RFUA ρk = 0 €—r— k = 3, 4, ...
  • 43. 4.3. PROCESOS AUTORREGRESIVOS PW 4.2.3. Procesos de Promedios Móviles de Orden q €—r— el pro™eso gener—l MA (q) Yt = et − θ1et−1 − θ2et−2 − · · · − θqet−q ƒiguiendo un pro™eso —nálogo —l de los pro™esos MA (1) y MA (2) se o˜tiene γ0 = V ar (Yt) = 1 + θ2 1 + θ2 2 + · · · + θ2 q σ2 e @RFVA y ρk =    −θk+1 + θ1θk+1 + θ2θk+2 + · · · + θq−kθq 1 + θ2 1 + θ2 2 + · · · + θ2 q €—r— k = 1, 2, ..., q H €—r— k q @RFWA fox —nd tenkins ‘IWUT“ 4.3. Procesos Autorregresivos Denición 40 Un proceso Autorregresivo {Yt} de orden p satisface la ecuación Box and Jenkins [1976] Yt = φ1Yt−1 + φ1Yt−2 + · · · + φpYt−p + et @RFIHA il v—lor —™tu—l de l— serie {Yt} es un— ™om˜in—™ión line—l del v—lor p—s—do más re™iente de p m—s un término de innov—™ión et, el ™u—l in™orpor— todo lo que no es expli™—do por l—s v—ri—˜les p—s—d—s en l— serie en el tiempo tF €or lo t—ntoD se —sume que ™—d— t es independiente — Yt−1, Yt−2, Yt−3, .. 4.3.1. Procesos Autorregresivos de Primer Orden il pro™eso —utorregresivo de primer orden AR (1) , teniendo en ™uent— l— e™u—™ión RFIHD es de l— form— Yt = φYt−1 + et @RFIIA gomo es usu—lD se —sume que l— medi— del pro™esoD h— sido extr—íd—D luego l— medi— de l— serie es ™eroF „eniendo en ™uent— el pro™edimiento propuesto por gryer —nd gh—n ‘PHHV“ gomo primer— medid— se ev—lu—rá l— v—ri—nz—F „om—ndo l— e™u—™ión RFII y s—™—ndo l— v—ri—nz— — —m˜os l—dos de l— igu—ld—d se o˜tiene γ0 = φ2 γ0 + σ2 e vuego γ0 = φ σ2 e 1 − φ2
  • 44. QHCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS he los ™u—l se puede ™on™luir que φ2 1 o lo que es equiv—lente |φ| 1. ehor— tom—ndo l— e™u—™ión RFII y multipli™—ndo —m˜os l—dos de l— igu—ld—d por Yt−k ™on k = 1, 2, ..., y tom—ndo el v—lor esper—do se o˜tieneX E (Yt−kYt) = φ2 E (Yt−kYt−1) + E (etYt−k) o γk = φγk−1 + E (etYt−k) = 0 he˜ido — que l— serie se h— supuesto est—™ion—ri— ™on medi— ™eroD y teniendo en ™uent— que et es independiente de Yt−k se o˜tieneX E (etYt−k) = E (et) E (Yt−k) = 0 inton™es γk = φγk−1 ƒustituyendo k = 1 se o˜tiene γ1 = φγ0 es de™ir γ1 = σ2 e 1 − φ2 ƒustituyendo k = 2 se o˜tiene γ2 = φ2 σ2 e 1 − φ2 vuego se puede ™on™luir que en gener—l γk = φk σ2 e 1 − φ2 €or ™onsiguiente ρk = γk γ0 = φk €—r— k = 1, 2, 3, ... gomo |φ| 1, l— m—gnitud de l— fun™ión de ™orrel—™ión de™re™e exponen™i—lE mente según —ument— el número de rez—gos k 4.3.1.1. Versión General Lineal de un Modelo AR (1) v— de(ni™ión re™ursiv— del modelo AR (1) d—d— en l— e™u—™ión RFII es de gr—n utilid—d p—r— l— interpret—™ión del modeloF ƒin em˜—rgoD p—r— otros propósitosD es ™onveniente expres—r el modelo AR (1) ™omo un pro™eso gener—l line—l ™omo en l— e™u—™ión RFIF v— de(ni™ión re™ursiv— es válid— p—r— todo t. ƒi se us— l— e™u—™ión reempl—z—ndo t por t − 1, se tiene Yt−1 = φYt−2 + et−1. ƒustituyendo en l— e™u—™ión gener—l se o˜tiene Yt = φ (φYt−2 + et−1) + et = et + φet−1 + φ2 Yt−2
  • 45. 4.3. PROCESOS AUTORREGRESIVOS QI ƒi se repite el pro™eso h—™i— el p—s—doD k − 1 ve™esD se o˜tiene Yt = et + φet−1 + φ2 et−2 + +φk−1 et−k+1 + φk Yt−k @RFIPA esumiendo que |φ| 1, y permitiendo que k ™rez™—D se o˜tiene l— represenE t—™ión in(nit—X Yt = et + φet−1 + φ2 et−2 + φ3 et−3 + · · · @RFIQA fox —nd tenkins ‘IWUT“ 4.3.1.2. Estacionariedad de un Proceso AR (1) ƒujeto — l—s restri™™iones que et es independiente — Yt−1, Yt−2, Yt−3, .. y que σ2 e 0, l— solu™ión de l— re™ursivid—d del modelo AR (1) Yt = φYt−1 + et es est—™ion—l si y solo si |φ| 1. iste requisito gener—lmente se ™ono™e ™omo l— Condición de estacionariedad (fox —nd tenkins ‘IWUT“ pF SRA 4.3.2. Procesos Autorregresivos de Segundo Orden gonsidérese l— serie que s—tisf—™e l— siguiente e™u—™ión Yt = φ1Yt−1 + φ2Yt−2 + et @RFIRA hondeD ™omo es usu—lD se —sume que et es independiente de Yt−1, Yt−2, Yt−3, ... €—r— tener en ™uent— l— est—™ion—ried—d se introdu™e el Polinomio Característico AR φ (x) = 1 − φ1x − φ2x2 ‰ su respe™tiv— Ecuación Característica AR 1 − φ1x − φ2x2 = 0 „eniendo en ™uent— que un— e™u—™ión ™u—dráti™— tiene dos r—í™esD posi˜leE mente ™omplej—sF 4.3.2.1. Estacionariedad de un Proceso AR (2) ƒujeto — l— ™ondi™ión que et es independiente de Yt−1, Yt−2, Yt−3, ...…n— soE lu™ión est—™ion—ri— — l— e™u—™ión RFIRD existeD si y solo si l—s r—í™es de l— e™u—™ión ™—r—™terísti™— e‚D son m—yores que I en v—lor —˜solutoD o eventu—lmente se diE ™e que l—s r—í™es están en el exterior del ™ir™ulo unit—rio en el pl—no ™omplejo @foxD tenkinsD —nd ‚einselD IWWRDpF SRAF iste ™on™epto se gener—liz— — modelos de orden p sin ™—m˜io —lgunoF vo que siguiere el siguiente teorem—X
  • 46. QPCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS Teorema 41 Cryer and Chan [2008] En el caso del modelo de segundo orden AR(2) , las raíces de la ecuación característica son de la forma φ1 ± φ2 1 − 4φ2 −2φ2 Un modelo AR (2) es estacionario si y solo si se satisfacen las siguientes con- diciones φ1 + φ2 1 φ2 − φ1 1 |φ2| 1 Demostración ƒe—n G1 y G2 los números re™ípro™os de l—s r—í™es de l— e™u—™ión ™—r—™terísti™— e‚D enton™es G1 = 2φ2 −φ1 − φ2 1 + 4φ2 ‚—™ion—liz—ndo G1 = 2φ2 −φ1 + φ2 1 + 4φ2 −φ2 1 − (φ2 1 + 4φ2) G1 = −φ1 − φ2 1 + 4φ2 2 hel mismo modo G2 = φ1 + φ2 1 + 4φ2 2 ehor—D teniendo en ™uent— el dis™rimin—nte de un— fun™ión ™u—dráti™— se puede ™on™luir que v— r—íz es re—l si y solo si φ2 1 + 4φ2 ≥ 0 |Gi| 1 p—r— i = 1 y 2 si y solo si −1 φ1 − φ2 1 + 4φ2 2 φ1 + φ2 1 + 4φ2 2 1 o 2 φ1 − φ2 1 + 4φ2 φ1 + φ2 1 + 4φ2 2 „om—ndo l— primer— p—rte de l— desigu—ld—dF 2 φ1 − φ2 1 + 4φ2 si y solo si φ2 1 + 4φ2 φ1 + 2 si y solo si φ2 1 + 4φ2 φ2 1 + 4φ1 + 4 si y solo si φ2 φ1 + 1 o φ2 − φ1 1 enálog—mente l— segund— desigu—ld—d φ1 + φ2 1 + 4φ2 2 nos llev— — φ2 + φ1 1 v— r—íz es ™omplej— si y solo si φ2 1 + 4φ2 0 honde G1 y G2 son ™omplej—s ™onjug—d—s y |G1| = |G2| 1 |G1| 2 = φ2 1 + −φ2 1 − 4φ2 4 = −φ2
  • 47. 4.3. PROCESOS AUTORREGRESIVOS QQ φ2 −1 iso junto ™on l— desigu—ld—d φ2 1 + 4φ2 0 nos llev— — |φ2| 1 gryer —nd gh—n ‘PHHV“ 4.3.2.2. La Función de Autocorrelación del Proceso AR (2) €—r— ™—l™ul—r l— fun™ión de —uto™orrel—™ión p—r— los modelos AR (2) se tom— l— e™u—™ión RFIR se multipli™—n —m˜os l—dos por Yt−k, y se tom—n los v—lores esper—dosF esumiendo est—™ion—ried—dD medi—s igu—les — ™ero y l— independen™i— de et respe™to — Yt−1, Yt−2, Yt−3, .... vo que ™ondu™e — γk = φ1γk + φ2γk−2 €—r— k = 1, 2, 3, ... @RFISA o dividiendo por γ0 ρk = φ1ρk−1 + φ2ρk−2 €—r— k = 1, 2, 3, ... @RFITA v—s e™u—™iones RFIS y RFIT son ™ono™id—s ™omo l—s e™u—™iones ‰uleE‡—lkerD espe™i—lmente el ™onjunto de dos e™u—™iones o˜tenid—s ™u—ndo k = 1 y k = 2. r—™iendo k = 1 us—ndo — ρ0 = 1 y ρ−1 = ρ1, se o˜tiene ρ1 = φ1 + φ2ρ1, luego ρ1 = φ1 1 − φ2 us—ndo los v—lores ™ono™idos de ρ1, se us— l— e™u—™ión RFIT ™on k = 2 p—r— o˜tener ρ2 = φ2ρ2 + φ2ρ2 = φ2 (1 − φ2) + φ2 1 1 − φ2 ‰ de un— m—ner— —nálog— y su™esiv— se podrí— ™—l™ul—r ρk 4.3.3. Varianza del Modelo AR (2) v— v—ri—nz— γ0 puede ser expres—d— en términos de los p—rámetros del modelo φ1 D φ2 y σ2 e de l— siguiente m—ner—X „om—ndo l— e™u—™ión RFIR y ev—lu—ndo l— v—ri—nz— — —m˜os l—dos de l— igu—ld—d se o˜tiene γ0 = φ2 1 + φ2 2 γ0 + 2φ1φ2γ1 + σ2 e @RFIUA iv—lu—ndo l— e™u—™ión RFIS ™on k = 1 se o˜tiene un— e™u—™ión line—l p—r— γ0 y γ1 γ1 = φ1γ0 + φ2γ1 l— ™u—l se puede resolver simult—ne—mente ™on l— e™u—™ión RFIU p—r— o˜tener γ0 = (1 − φ2) σ2 e (1 − φ2) (1 − φ2 1 − φ2 2) − 2φ2φ2 1 = 1 − φ2 1 + φ2 σ2 e (1 − φ2) 2 − φ2 1 @RFIVA
  • 48. QRCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS 4.3.4. Proceso Autorregresivo General gonsidere el modelo —utorregresivo de orden p Yt = φ1Yt−1 + φ1Yt−2 + · · · + φpYt−p + et @RFIWA gon su polinomio ™—r—™terísti™o e‚ φ (x) = 1 − φ1x − φ2x2 − · · · − φpxp @RFPHA ‰ su respe™tiv— e™u—™ión ™—r—™terísti™— 1 − φ1x − φ2x2 − · · · − φpxp = 0 @RFPIA gomo se men™ionó —ntesD —sumiendo que et es independiente de Yt−1, Yt−2, Yt−3, ... un— solu™ión est—™ion—ri— — l— e™u—™ión RFPI existe si y solo si l—s p r—í™es de l— e™u—™ión son m—yores que 1 en v—lor —˜solutoF hel mismo modoD —sumiendo l— est—™ion—ried—d y que l—s medi—s son igu—les — ™eroD se puede multipli™—r l— e™u—™ión RFIW p—r— o˜tener l— siguiente e™u—™ión re™ursiv—F ρk = φ1ρk−1 + φ2ρk−2 + φ3ρk−3 + · · · + φpρk−p €—r— k ≥ 1 @RFPPA he(niendo k = 1, 2, ... y valores de p en l— e™u—™ión D y us—ndo ρ0 = 1 y ρ−k = ρk se o˜tienen l—s e™u—™iones gener—les de ‰uleE‡—lker ρ1 = φ1 + φ2ρ1 + φ3ρ2 + · · · + φpρp−1 @RFPQA ρ2 = φ1ρ1 + φ2 + φ3ρ1 + · · · + φpρp−2 @RFPRA FFF ρp = φ1ρp−1 + φp−2 + φ3ρp−3 + · · · + φp edemásD ™onsider—ndo que E (etYt) = E [et (φ1Yt−1 + φ2Yt−2 + · · · + φpYt−p + et)] = E e2 t = σ2 e se puede multipli™—r l— e™u—™ión RFIW por Yt tom—r v—lores esper—dos y o˜E tener γ0 = φ1γ1 + φ2γ2 + · · · + φpγp + σ2 e ue tom—ndo — ρk = γk γ0 puede ser es™rit— de l— siguiente m—ner— fox —nd tenkins ‘IWUT“ γ0 = σ2 e 1 − φ1ρ1 − φ2ρ2 − · · · − φpρp @RFPSA i™u—™ión que expres— l— v—ri—nz— γ0 en términos de σ2 e , φ1, φ2, ..., φp y los v—lores ™ono™idos de ρ1, ρ2, ..., ρp.
  • 49. 4.4. MODELOS MIXTOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESQS 4.4. Modelos Mixtos Autorregresivos de Prome- dios Móviles ƒi se —sume que l— serie de tiempo es p—r™i—lmente —utorregresiv— y p—r™i—lE mente de promedios móviles se puede o˜tener lo siguienteF Denición 42 Una serie {Yt} se dice que es un proceso mezclado autorregre- sivo de promedios móviles de ordenes p y q, si satisface la siguiente ecuación Yt = φ1Yt−1 +φ2Yt−2 +· · ·+φpYt−p +et −θ1et−1 −θ2et−2 −· · ·−θqet−q @RFPTA gon el (n de —˜revi—rD se utiliz—rá l— not—™ión ARMA (p, q) . esumiendo que en los modelo mixtos no existen f—™tores ™omunes en los polinomiosD t—nto —utorregresivos ™omo de promedios móvilesF is ™l—ro que si existier—n se podrí—n ™—n™el—r y en ese ™—so el orden del modelo disminuirí— fox —nd tenkins ‘IWUT“ 4.4.1. El modelo ARMA (1, 1) ƒegún l— e™u—™ión RFPT el modelo ARMA (1, 1) se puede es™ri˜ir de l— siE guiente m—ner— Yt = φYt−1 + et − θet−1 @RFPUA gon el (n de o˜tener l—s e™u—™iones de ‰uleE‡—lkerD primeroX E (et, Yt) = E [et (φYt−1 + et − θet−1)] = σ2 e y E (et−1Yt) = E [et−1 (φYt−1 + et − θet−1)] = φσ2 e − θσ2 e = (φ − θ) σ2 e ƒi se multipli™— l— e™u—™ión RFPU por Yt−k y se ™—l™ul— el v—lor esper—do se o˜tiene el siguiente sistem— de e™u—™iones γ0 = φγ0 + [1 − θ (φ − θ)] σ2 e γ1 = φγ0 − θσ2 e @RFPVA γk = φγk−1 €—r— k ≥ 2 ‚esolviendo l—s dos primer—s e™u—™iones γ0 = 1 − φθ + θ2 1 + φ2 σ2 e @RFPWA ƒolu™ion—ndo l— e™u—™ión re™ursiv— ρk = (1 − θφ) (φ − θ) 1 − θφ + θ2 φk−1 €—r— k ≥ 1 @RFQHA
  • 50. QTCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS ƒe puede ™on™luir que l— fun™ión de —uto™orrel—™ión de™re™e — medid— que los rez—gos k ™re™enF v— form— del pro™eso line—l gener—l del modelo puede ser o˜tenid— de l— mism— m—ner— que l— o˜tenid— gr—™i—s — l— e™u—™ión RFIQ Yr = et + (φ − θ) ∞ j=1 φj−1 et−j @RFQIA is de™ir ψj = (φ − θ) φj−1 €—r— j ≥ 1 honde l— ™ondi™ión de est—™ion—ried—d |φ| 1 se tiene que ™umplirF 4.4.2. La Función de Autocorrelación para un Proceso ARMA (p, q) Cryer and Chan [2008] €—r— un modelo gener—l ARMA (p, q) , teniendo en ™uent— que et es indeE pendiente de Yt−1, Yt−2, Yt−3, . . . , un— solu™ión est—™ion—ri— — l— e™u—™ión RFPT existe si y solo si tod—s l—s r—í™es en v—lor —˜soluto de l— e™u—™ión ™—r—™terísti™— AR son m—yores que 1. ƒi l— ™ondi™ión de est—™ion—ried—d se s—tisf—™eD el modelo puede ser es™rito ™omo un pro™eso gener—l line—l ™on ψ ™oe(™ientes determin—dos gr—™i—s — ψ0 = 1 @RFQPA ψ1 = −θ1 + φ1 ψ2 = −θ2 + φ2 + φ1ψ1 FFF ψj = −θj + φpψj−p + φp−1ψj−p+1 + · · · + φ1ψj−1 dondeD por pr—™ti™id—d se tom— ψj = 0 p—r— j 0 y θj = 0 p—r— j q. „eniendo en ™uent— l— ™ondi™ión de est—™ion—ried—dD l— fun™ión de —uto™oE rrel—™ión s—tisf—™e ρk = φ1ρk−1 + φ2ρk−2 + +φpρk−p €—r— k q @RFQQA edemásD se— {Yt} un pro™eso ARMA (p, q) inverti˜leD teniendo en ™uent— que di™ho pro™eso se puede es™ri˜ir en un— form— gener—l line—l de l— siguiente form— Yt = ∞ j=0 ψjet−j @RFQRA donde los pesos ψ pueden ser o˜tenidos re™ursiv—mente gr—™i—s — l— e™u—™ión RFQPD luego E (Yt+ket) = E   ∞ j=0 ψjet+k−jet   = ψkσ2 e €—r— k ≥ 0 @RFQSA
  • 51. 4.4. MODELOS MIXTOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESQU inton™es l— —uto™ov—ri—nz— de˜e s—tisf—™er γk = E (Yt+kYt) = E     p j=1 φjYt+k−j − q j=0 θjet+k−j   Yt   @RFQTA = p j=1 φjγk−j − σ2 e q j=0 θψj−k honde θ0 = 1 y l— ultim— sum— se ™—n™el— si k q. ƒi se est—˜le™e k = 0, 1, , p y γ−k = γk se puede ™on™luir que existen p + 1 e™u—™iones line—les en γ0, γ1, . . . , γp. γ0 = φ1γ1 + φ2γ2 + · · · + φpγp − σ2 e (θ0 + θ1ψ1 + · · · + θ1ψ1) γ1 = φ1γ0 + φ2γ1 + · · · + φpγp−1 − σ2 e (θ1 + θ2ψ1 + · · · + θqψq−1) FFF γp = φ1γp−1 + φ2γp−2 + · · · + φpγ0 − σ2 e (θp + θp+1ψ1 + · · · + θqψq−p)    @RFQUA donde θj = 0 si j q. €—r— un ™onjunto d—do de p—rámetros σ2 e , φ y θ @y por ende ψA se pueden solu™ion—r l—s e™u—™iones ™on el (n de o˜tener γ0, γ1, . . . , γp. vos v—lores de γk p—r— k p pueden ser ev—lu—dos en l— e™u—™ión re™ursiv— RFQQF pin—lmente ρk es o˜tenido por medio de l— e™u—™iónF ρk = γk γ0 4.4.3. Invertibilidad enteriormente se h— expuesto que p—r— un pro™eso MA (1) se o˜tiene ex—™E t—mente l— mism— fun™ión de ™orrel—™ión si θ es reempl—z—do por 1 θ . v— f—lt— de uni™id—d de los modelos MA, d—d— su fun™ión de —uto™orrel—™iónD de˜e ser tenid— en ™uent— —ntes de intent—r inferir los v—lores de los p—rámetros ™on ˜—se en l— serie de tiempo o˜serv—d—F …n pro™eso —utorregresivo puede ser expres—do ™omo un pro™eso line—l geE ner—l por medio de los ™oe(™ientes ψ, es de™ir que un pro™eso AR puede ser pens—do ™omo un pro™eso de promedios móviles MA de orden in(nitoF gonsidérese un modelo MA (1) Yt = et − θet−1 @RFQVA ‚ees™ri˜iendo l— e™u—™ión RFQV de l— form— et = Yt + θet−1D reempl—z—ndo t por t − 1 y sustituyendo por et−1 se o˜tiene et = Yt + θ (Yt−1 + θet−2) = Yt + θYt−1 + θ2 et−2
  • 52. QVCAPÍTULO 4. MODELOS PARA SERIES DE TIEMPO ESTACIONARIAS ƒi |θ| 1, se puede ™ontinu—r l— —nterior sustitu™ión in(nit—mente ™on el (n de o˜tener l— siguiente e™u—™ión et = Yt + θYt−1 + θ2 Yt−2 + · · · o Yt = −θYt−1 − θ2 Yt−2 − θ3 Yt−3 − · · · + et @RFQWA ƒi |θ| 1, se puede ver que el modelo MA (1) puede ser invertido en un modelo —utorregresivo de orden in(nitoF is de™irD se di™e que el modelo MA (1) es inverti˜le si y solo si |θ| 1. €—r— un pro™eso gener—l MA (q) o ARMA (p, q) , se de(ne el polinomio ™—E r—™terísti™o ™omo θ (x) = 1 − θ1x − θ2x2 − θ3x3 − · · · − θqxq @RFRHA y l— ™orrespondiente e™u—™ión ™—r—™terísti™— MA 1 − θ1x − θ2x2 − θ3x3 − · · · − θqxq = 0 @RFRIA inton™es el modelo MA (q) es invertible fox —nd tenkins ‘IWUT“Y es de™irD existen ™oe(™ientes πj t—les que Yt = π1Yt−1 + π2Yt−2 + π3Yt−3 + · · · + et @RFRPA ƒi y solo si l—s r—í™es de l— e™u—™ión ™—r—™terísti™— son m—yoresD en v—lor —˜solutoD — 1.
  • 53. Capítulo 5 Modelos para Series de Tiempo No Estacionarias in el siguiente ™—pítulo se introdu™irá el ™on™epto de diferen™i—™ión u oper—E dor diferen™i— de orden pD ™on el (n de indu™ir l— est—™ion—ried—d de un— serie de tiempo no est—™ion—ri—F „eniendo este ™on™eptoD es posi˜le lleg—r —l import—nte ™on™epto de los modelos integr—dos —utorregresivos de promedios móvilesF edemásD se explor—rán otro tipo de tr—nsform—™iones que tienen el mismo o˜jetivoD t—les tr—nsform—™iones son los ™—m˜ios de por™ent—jeD log—ritmos y de form— más gener—l l—s tr—nsform—™iones de poten™i— o tr—nsform—™iones foxE goxF 5.1. Estacionariedad a través de los Operadores Diferencia gonsidérese el modelo AR (1) Yt = φYt−1 + et @SFIA ƒe h— di™ho en los ™—pítulos —nterioresD que si et no est— ™orrel—™ion—d— ™on Yt−1, Yt−2, ..., se tiene que tener |φ| 1. ƒin em˜—rgo surge l— pregunt—X ¾ué podrí— p—s—r si di™h— ™ondi™ión no se ™umplecF gonsidérese l— siguiente e™u—™ión Yt = 3Yt−1 + et @SFPA ster—ndo respe™to —l p—s—doD ™omo y— se h— he™ho en ™—pítulos —nterioresD se o˜tieneX Yt = et + 3et−1 + 32 et−2 + · · · + 3t−1 ei + 3t Y0 @SFQA ƒe puede o˜serv—r que l— in)uen™i— de los v—lores dist—ntes del p—s—do de Yt y et, no se —nul—D de he™hoD los pesos —pli™—dos — Y0 y e1 ™re™en de un— m—ner— exponen™i—lF QW
  • 54. RHCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS iste fenómeno t—m˜ién se re)ej— en l—s fun™iones de v—ri—nz— y ™ov—ri—nz—D ™omo se muestr— — ™ontinu—™ión V ar (Yt) = 1 8 9t − 1 σ2 e @SFRA y Cov (Yt, Yt−k) = 3k 8 9t−k − 1 σ2 e @SFSA he l— mism— m—ner— Corr (Yt, Yt−k) = 3k 9t−k − 1 9t − 1 ≈ 1 gu—ndo t tiende — in(nitoD y ™u—ndo los v—lores de k son moder—dos iste mismo fenómeno de ™re™imiento exponen™i—l o gomport—miento ixE plosivo (™iteX gryer) o™urrirá p—r— ™u—lquier φ t—l que |φ| 1. ytro tipo de modelos no est—™ion—rios son los que ™umplen ™on l— ™ondi™ión |φ| = 1. …n modelo de di™h—s ™—r—™terísti™—s es de l— form—X Yt = Yt−1 + et @SFTA hi™h— e™u—™ión se puede es™ri˜ir de un— form— —ltern—tiv—X Yt = et @SFUA honde Yt = Yt − Yt−1 se ™ono™e ™omo l— primera diferencia de YtD u operador diferencia de primer orden querrero ‘IWWV“F he est— de(ni™ión se pueden h—™er supuestos —™er™— de los modelos ™uyos oper—dores diferen™i— son modelos est—™ion—riosF €or ejemploD supóng—se Yt = Mt + Xt @SFVA honde Mt es un— serie ™—m˜i—nte respe™to —l tiempoF in este ™—so Mt puede serD ˜ien se—D esto™ásti™—D o determinísti™—F ƒi se supone que Mt es —proxim—d—E mente ™onst—nte en dos puntos ™onse™utivos de tiempoD se podrí— estim—r Mt si se elige un β0 de t—l form— que gryer —nd gh—n ‘PHHV“ 1 j=0 (Yt−j − β0,t) 2 ƒe minimi™eD ™on lo que se o˜tiene ˆMt = 1 2 (Yt + Yt−1) y l— serie de tiempo sin tenden™i— en el tiempo t esX Yt − ˆMt = Yt − 1 2 (Yt + Yt−1) = 1 2 (Yt − Yt−1) = 1 2 Yt
  • 55. 5.1. ESTACIONARIEDAD A TRAVÉS DE LOS OPERADORES DIFERENCIARI is de™ir un— ™onst—nte múltiple del oper—dor diferen™i— Yt. ytro supuesto de gr—n import—n™i— es que Mt en l— e™u—™ión SFV es un pro™eso esto™ásti™oD ™ondi™ion—do por un pro™eso de 4™—min—t— —le—tori—4D supong— por ejemplo queX Yt = Mt + et ™on Mt = Mt−1 + εt @SFWA honde {et} y {εt} son series de tiempo de ruido ˜l—n™o independientesD enton™es Yt = Mt + et = εt + et − et−1 v— ™u—l tendrí— l— fun™ión de —uto™orrel—™ión de un modelo MA (1) ™on ρ1 = −    1 2 + σ2 ε σ2 e    @SFIHA en ™u—lquier— de est—s situ—™ionesD se tiene que estudi—r el oper—dor diferen™i— Yt ™omo un pro™eso est—™ion—rioF v— suposi™ión que ™ondu™e — un he™ho ˜—st—nte import—nteD es en l— que teE niendo en ™uent— l— e™u—™ión SFVD y —sumiendoD en este ™—so que Mt es de ™—rá™ter line—l en tres puntos de tiempo ™onse™utivosF in este ™—so se puede estim—r Mt en el punto de tiempo medio t eligiendo β0,t y β1,tD t—les que minimi™en 1 j=−1 (Yt−j − (β0,t + jβ1,t)) 2 y˜teniendo ˆMt = 1 3 (Yt+1 + Yt + Yt−1) €or ™onsiguiente l— serie de tiempo sin tenden™i— es Yt − ˆMt = Yt − Yt+1 + Yt + Yt−1 3 = − 1 3 (Yt+1 − 2Yt + Yt−1) = − 1 3 2 (Yt+1) …n— múltiple ™onst—nte del oper—dor diferen™i— ™entr—do de segundo orden de Yt. xótese que se h— —pli™—do l— diferen™i— dos ve™esD peroD —m˜—s diferen™i—s en el rez—go 1. del mismo modo es posi˜le —sumir que gryer —nd gh—n ‘PHHV“ Yt = Mt +et, honde Mt = Mt−1 +Wt y Wt = Wt−1 +εt @SFIIA
  • 56. RPCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS gon {et} y {εt} series de tiempo independientes de ruido ˜l—n™oF in este ™—so l— tenden™i— Mt es —quell— ™uy— 4t—s— de ™—m˜io4 Mt, está ™—m˜i—ndo ™on respe™to —l tiempo lent—menteF inton™es Yt = Mt + et = Wt + et y 2 Yt = Wt + 2 et = εt + (et − et−1) − (et−1 − et−2) = εt + et − 2et−1 + et−2 v— ™u—lD tiene l— fun™ión de —uto™orrel—™ión de un pro™eso MA (2) . vo imE port—nte es el he™ho que el oper—dor diferen™i— de segundo orden de un pro™eso no est—™ion—rio {Yt} es est—™ion—rioF iste he™ho permite de(nir los modelos integr—dos —utorregresivos de promedios móvilesF 5.2. Modelos Integrados Autorregresivos de Pro- medios Móviles Denición 43 Una serie de tiempo {Yt} se dice que sigue un modelo integrado autorregresivo de promedios móviles ARIMA si el operador diferencia de or- den d Wt = d Yt es un proceso ARMA estacionario. Si {Wt} es un proceso ARMA (p, q) , se dice que {Yt} es un modelo ARIMA (p, d, q) . Box and Jenkins [1976] efortun—d—menteD p—r— efe™tos prá™ti™osD se puede tom—r d = 1 o l— sumo 2. gonsidérese un pro™eso ARIMA (p, 1, q) ™on Wt = Yt − Yt−1 enton™esX Wt = φ1Wt−1+φ2Wt−2+· · ·+φpWt−p+et−θ1et−1−θ2et−2−· · ·−θqet−q @SFIPA vo que en términos de l— serie de tiempo o˜serv—d— equiv—le —X Yt − Yt−1 = φ1 (Yt−1 − Yt−2) + φ2 (Yt−2 − Yt−3) + · · · + φp (Yt−p − Yt−p−1) + et − θ1et−1 − θ2et−2 − · · · − θqet−q @SFIQA vo ™u—l se puede es™ri˜irX Yt = (1 + φ1) Yt−1 + (φ2 − φ1) Yt−2 + (φ3 − φ2) Yt−3 + · · · @SFIRA + (φp − φp−1) Yt−p − φpYt−p−1 + et − θ1et−1 − θ2et−2 − · · · − θqet−q ist— últim— e™u—™ión se ™ono™e ™omo la forma de la ecuación diferencia del modeloF fox —nd tenkins ‘IWUT“ v—s represent—™iones explí™it—s de l— serie de tiempo o˜serv—d—D ˜ien se—D en términos de Wt o en términos del pro™eso de ruido ˜l—n™oD son mu™ho más ™ompli™—dos que en los pro™esos est—™ion—riosF isto se de˜e — que los pro™esos
  • 57. 5.2. MODELOS INTEGRADOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESRQ no est—™ion—rios no están en un 4equili˜rio est—dísti™o4D no se puede —sumir l— serie tieneD por de™irlo de —lgun— m—ner—D un p—s—do in(nitoF ƒin em˜—rgoD se puede —sumir que l—s series ™omienz—n en un t = −m. €or ™onvenien™i—D se tom—rán Yt = 0 p—r— t −m. v— e™u—™ión del oper—dor diferen™i— Yt − Yt−1 = Wt, se puede solu™ion—r sum—ndo desde t = −m h—st— t = t p—r— o˜tenerX Yt = t j=−m Wj @SFISA €—r— el pro™eso ARIMA (p, 1, q) . il pro™eso ARIMA (p, 2, q) puede ser resuelto simil—rmenteD sum—ndo dos ve™es p—r— o˜tener l— represent—™ión Yt = t j=−m j i=−m Wi @SFITA = t+m j=0 (j + 1) Wt−j eunque est—s represent—™iones tiene usos limit—dosD pueden ser us—dos p—r— o˜tener l—s propied—des de l— ™ov—ri—nz— del modelo ARIMA y t—m˜ién p—r— expres—r Yt en términos de l— serie de ruido ˜l—n™o {et} . ƒi el pro™eso ™ontiene términos no —utorregresivosD se le ll—m—rá un modelo integr—do de promedios móviles y se —˜revi—rá IMA (d, q) . €or otro l—do si l— serie no tiene términos de promedios móviles se le denomin— ARI (p, d) . 5.2.1. El Modelo IMA (1, 1) il modelo simple IMA (1, 1) , s—tisf—™tori—menteD represent— numeros—s seE ries de tiempoD espe™í(™—menteD —quell—s que surgen en pro˜lem—s e™onómi™os querrero ‘IWWV“F in l— form— de l— e™u—™ión diferen™i— el modelo tiene l— form—X Yt = Yt−1 + et − θet−1 @SFIUA gon el (n de es™ri˜ir Yt explí™it—mentementeD ™omo un— fun™ión de v—lores del ruido ˜l—n™o t—nto del futuro ™omo del presenteD se us—rá l— e™u—™ión SFIS y el he™ho que Wt = et − θet−1F in este ™—soD se puede es™ri˜ir Yt = et + (1 − θ) et−1 + (1 − θ) et−2 + · · · + (1 − θ) e−m − θe−m−1 @SFIVA in ™ontr—ste — los modelos est—™ion—rios ARMAD los pesos de los términos del ruido ˜l—n™oD perm—ne™enD sin import—r que se tomen v—lores del p—s—doF he˜ido — que se —sumió que −m 1 y 0 t, se de˜e pens—r — Yt ™omo un— —™umul—™ión igu—lmente ponder—d— de un gr—n número de v—lores de ruido ˜l—n™oF
  • 58. RRCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS he l— e™u—™ión SFIV se pueden ™—l™ul—r l—s v—ri—nz—s y l—s ™orrel—™iones de l— siguiente m—ner— V ar (Yt) = 1 + θ2 + (1 − θ) 2 (t + m) σ2 e @SFIWA y Corr (Yt, Yt−k) = 1 − θ + θ2 + (1 − θ) 2 (t + m − k) V ar (Yt) V ar (Yt−k) ≈ t + m − k t + m @SFPHA ƒe puede not—r que ™onforme que t —ument—D V ar (Yt) —ument—F „—m˜ién l— ™orrel—™ión entre Yt y Yt−k será fuertemente positiv— p—r— los rez—gos k = 1, 2, ... 5.2.2. El Modelo IMA (2, 2) vos supuestos de l— e™u—™ión SFIID ™ondu™e — un modelo IMA (2, 2) . in l— form— de l— e™u—™ión diferen™i— el modelo tiene l— form—X 2 Yt = et − θ1et−1 − θ2et−2 o Yt = 2Yt−1 − Yt−2 + et − θ1et−1 − θ2et−2 @SFPIA v— represent—™ión de l— e™u—™ión SFIT puede ser us—d— p—r— expres—r Yt en términos de et, et−1, ... de l— siguiente form—X Yt = et + t+m j=1 ψjet−j − [(t + m + 1) θ1 + (t + m) θ2] e−m−1 @SFPPA − (t + m + 1) θ2e−m−2 honde ψ = 1 + θ2 + (1 − θ1 − θ2) j p—r— j = 1, 2, 3, .., t + m, donde los pesos ψ perm—ne™en y form—n un— fun™ión line—l de j. 5.2.3. El Modelo ARI (1, 1) il pro™eso ARI (1, 1) s—tisf—™e l— siguiente e™u—™ión puller ‘IWWT“ Yt − Yt−1 = φ (Yt−1 − Yt−2) + et @SFPQA o Yt = (1 + φ) Yt−1 − φYt−2 + et @SFPRA honde |φ| 1 €—r— en™ontr—r los pesos ψ se us—rá un— té™ni™— que se puede gener—liz—r — ™u—lquier modelo ARIMA,
  • 59. 5.2. MODELOS INTEGRADOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESRS vos pesos ψ pueden ser o˜tenidos igu—l—ndo l—s poten™i—s de x en l— identid—d 1 − φ1x − φ2x2 − · · · − φpxp (1 − x) d 1 + ψ1x + ψ2x2 + ψ3x3 + · · · @SFPSA = 1 − θ1x − θ2x2 − θ3x3 − · · · − θqxq in el ™—so del modelo ARI (1, 1) l— rel—™ión se redu™e —X (1 − φx) (1 − x) 1 + ψ1x + ψ2x2 + ψ3x3 + · · · = 1 o 1 − (1 + φ) x + φx2 1 + ψ1x + ψ2x2 + ψ3x3 + · · · = 1 sgu—l—ndo l—s poten™i—s semej—ntes — —m˜—s p—rtes de l— igu—ld—dD se o˜tiene − (i + φ) + ψ = 0 φ − (1 + φ) ψ1 + ψ2 = 0 y en gener—l ψk = (1 + φ) ψk−1 − φψk−2 €—r— k ≥ 2 @SFPTA gon ψ0 = 1 y ψ1 = 1 + φ. ist— fun™ión re™ursiv— permite ™—l™ul—r t—ntos pesos ψ ™omo se— ne™es—rioF 5.2.4. Términos Constantes en modelos ARIMA €—r— un modelo ARIMA (p, d, q) , d Yt = Wt es un pro™eso ARMA (p, q) esE t—™ion—rioD teniendo en ™uent— el supuesto que un modelo est—™ion—rio tiene meE di— igu—l — ™eroD es de™ir que se tr—˜—j—rá ™on desvi—™iones de l—s medi— ™onst—nE tesF …n— medi— diferente de ™ero ™onst—nte µD en un modelo ARMA est—™ion—rio {Wt} puede ser —™omod—do en ™u—lquier— de los dos ™—sosF ƒe puede —sumir que fox —nd tenkins ‘IWUT“X Wt−µ = φ1 (Wt−1 − µ) + φ2 (Wt−2 − µ) + · · · + φp (Wt−p − µ) + et − θ1et−1 − θ2et−2 − · · · − θqet−q eltern—tiv—menteD se puede introdu™ir un término ™onst—nte θ0 en el modelo de l— siguiente m—ner— Wt = θ0 + φ1Wt−1 + φ2Wt−2 + · · · + φpWt−p + et − θ1et−1 − θ2et−2 − · · · − θqet−q „om—ndo los v—lores esper—dos en —m˜—s p—rtes de l— igu—ld—d µ = θ0 + (φ1 + φ2 + · · · + φn) µ inton™es µ = θ0 1 − φ1 − φ2 − · · · − φp @SFPUA
  • 60. RTCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS o θ0 = µ (1 − φ1 − φ2 − · · · − φp) @SFPVA e ™ontinu—™ión se ev—lu—rá el ™—so de un— medi— diferente de ™eroF gonsidere el modelo IMA (1, 1) ™on un término ™onst—nteD enton™es se tiene Yt = Yt−1 + θ0 + et − θet−1 o Wt = θ0 + et − θet−1 ƒustituyendo en l— e™u—™ión SFIR de l— págin— RP se puede ™on™luir que Yt = et + (1 − θ) et−1 + et + (1 − θ) et−2 + · · · + et + (1 − θ) e−m − e−m−1 @SFPWA + (t + m + 1) θ0 5.2.5. Otras Transformaciones r—st— el momento se h— des™rito ™omo el oper—dor diferen™i—D puede ser un— útil tr—nsform—™ión p—r— o˜tener est—™ion—ried—dF ƒin em˜—rgoD l— tr—nsform—E ™ión por log—ritmo t—m˜ién es muy útil en —lgunos ™—sosF pre™uentemente se pueden en™ontr—r series de tiempo dondeD el in™remento de l— dispersión p—re™e est—r —so™i—d— — —ltos niveles de l— serieD lo que impli™— m—yor dispersión en el nivel gryer —nd gh—n ‘PHHV“F ispe™í(™—mente supong— que Yt 0 p—r— todo t y que E (Yt) = µt y V ar (Yt) = µtσ @SFQHA inton™es E [log (Yt)] ≈ log (µt) y V ar [log (Yt)] ≈ σ2 @SFQIA il siguiente result—do se o˜tiene tom—ndo v—lores esper—dos y v—ri—nz—s — —m˜os l—dos de l— exp—nsión de „—ylor log (Yt) = log (µt) + Yt − µt µt is de™irD que si l— desvi—™ión estánd—r de l— serie de tiempo es propor™ion—l —l nivel de l— serieD l— tr—nsform—™ión log—rítmi™— produ™irá un— serie ™on v—ri—nz— —proxim—d—mente ™onst—nte — lo l—rgo del tiempoF edemásD si el nivel de l— serie ™—m˜i— exponen™i—lmenteD l— serie logEtr—nsform—d— tendrá un— tenden™i— line—lD por lo que se utiliz—rá el oper—dor diferen™i— de primer ordenF
  • 61. 5.2. MODELOS INTEGRADOS AUTORREGRESIVOS DE PROMEDIOS MÓVILESRU 5.2.5.1. Cambios de Porcentajes y Logaritmos ƒupóng—se que Yt tiende — tener un por™ent—je de ™—m˜ios rel—tiv—mente est—˜le de un periodo de tiempo —l siguienteF ispe™í(™—mente se —sume queX Yt = (1 + Xt) Yt−1 honde 100Xt es el por™ent—je de ™—m˜io de Yt−1 — Yt enton™es log (Yt) − log (Yt−1) = log Yt Yt−1 = log (1 + Xt) ƒi se restringe Xt — |Xt| 0,2 @es de™irD que el por™ent—je de ™—m˜ios son — lo más ±20 %A p—r— un— ˜uen— —proxim—™ión log (1 + Xt) ≈ XtF gonse™uentemente [log (Yt)] ≈ Xt ƒerá rel—tiv—mente est—˜le y lo más pro˜—˜le es que se— un pro™eso est—™ioE n—rio ˜ien model—do fox —nd tenkins ‘IWUT“F 5.2.5.2. Transformaciones de Potencia Denición 44 Para un parámetro dado λ, la transformación se dene como Box and Jenkins [1976] g (x) = xλ −1 λ Para λ = 0 log x Para λ = 0 v—s tr—nsform—™iones de poten™i—s solo se pueden —pli™—r — d—tos m—yores — ™eroF ƒi —lguno de los v—lores no ™umple l— ™ondi™ión —nteriorD se tiene que sum—r un— ™onst—nte positiv— — todos los v—lores de l— serieD ™on el (n de h—™erlos positivos —ntes de h—™er l— tr—nsform—™iónF hi™ho ™—m˜ioD gener—lmenteD se h—™e de m—ner— —r˜itr—ri—F ƒe puede ™onsider—r — λ ™omo un p—rámetro —di™ion—l en el modeloD que tiene que ser estim—doF ƒin em˜—rgoD un— estim—™ión pre™is— de λ no está usu—lmente g—r—ntiz—d—D y p—r— di™hos efe™tos los softw—re est—dísti™os ofre™en un— —mplio r—ngo de posi˜ilid—des p—r— efe™tu—r di™h— estim—™iónF
  • 62. RVCAPÍTULO 5. MODELOS PARA SERIES DE TIEMPO NO ESTACIONARIAS
  • 63. Capítulo 6 Construcción del Modelo in los ™—pítulos —nteriores se h—n des—rroll—do modelos p—r—métri™osD t—nto est—™ion—rios ™omo no est—™ion—rios p—r— series de tiempoD los modelos ARIMA. in este ™—pítulo se estudi—rán y se implement—rán los métodos p—r— h—™er inE feren™i— est—dísti™— so˜re di™hos modelosD teniendo en ™uent— los siguientes —sE pe™tosF IF v— m—ner— de es™oger v—lores —propi—dos p—r— p, d y q p—r— un— serie de tiempo d—d—F PF l— m—ner— de estim—r los p—rámetros de un modelo ARIMA (p, d, q) . QF v— m—ner— de veri(™—r si un modelo es —propi—doD o mejor—rlo en ™—so de ser ne™es—rioF v— estr—tegi— gener—l — tener en ™uent— ™onsisteD en primer— medid—D en elegir v—lores tent—tivos pero r—zon—˜les p—r— p, d y qF vuegoD se estim—r—n los p—rámeE tros φD θ y σe más e(™ientes p—r— el modeloF €or últimoD se veri(™—r— el modelo o˜tenidoD ™on el (n de ™ompro˜—r su e(™—™i—F ƒi el modelo p—re™e ser in—de™u—do en —lgún sentidoD se ™onsider—rá — di™ho modelo ™omo un— ˜—se p—r— elegir un nuevo modelo más —de™u—doD y repetir el pro™esoF gon un—s ™u—nt—s iter—™iones de est— estr—tegi— p—r— l— ™onstru™™ión del modeloD se esper—D que se llegue —l mejor modelo posi˜le p—r— un— serie de tiempo d—d—F qr—n p—rte de l— liter—tur— inherente — l—s series de tiempo ll—m—n — est— estr—tegi— el método 4foxEtenkins4 fox —nd tenkins ‘IWUT“ 6.1. Especicación del Modelo in primer— medid—D y ™on el (n de est—˜le™er los mejores v—lores p—r— p, d y q se estudi—rán l—s propied—des de l— fun™ión de —uto™orrel—™ión RW
  • 64. SH CAPÍTULO 6. CONSTRUCCIÓN DEL MODELO 6.1.1. Propiedades de la Función de Autocorrelación Mues- tral „eniendo en ™u—nt— l— de(ni™ión de l— fun™ión de —uto™orrel—™ión muestr—l o estim—d— p—r— un— serie o˜serv—˜— Y1, Y2, ...Yn de l— págin— PRD se tieneX rk = n t=k+1 Yt − ¯Y Yt−k − ¯Y n t=1 Yt − ¯Y 2 @TFIA il o˜jetivo prin™ip—l es re™ono™erD ™omport—mientos de rk que son ™—r—™E terísti™os de los ™omport—mientos ™ono™idos de ρf p—r— modelos ARMA. €or ejemploD y— se h— dis™utido que ρk = 0 p—r— k q en un modelo MA (q) . ƒin em˜—rgoD ™omo rk es un— estim—™ión de ρkD se de˜en enun™i—r l—s propied—des muestr—les ™on el (n de f—™ilit—r l— ™omp—r—™ión de l—s ™orrel—™iones estim—d—s ™on l—s ™orrel—™iones teóri™—sF „eniendo en ™uent— que según l— de(ni™ión de rk, rk es un— f—mili— de e™u—™ioE nes ™u—dráti™—sD de v—ri—˜les posi˜lemente dependientesD l—s propied—des muesE tr—les de rk no son sen™ill—s de estim—rD de modo que se tendrán en ™uent— los result—dos gener—les de un— muestr— numeros— y ™onsider—r sus impli™—™iones en ™—sos espe™i—les frillinger ‘PHHI“D —demásD se tendrá en ™uent— un result—do más gener—l tom—do de ƒhumw—y —nd ƒto'er ‘PHHT“ @págin— SIWA ƒupóng—se queX Yt = µ + ∞ j=0 ψjet−j honde et son v—ri—˜les —le—tori—s idénti™—mente distri˜uid—s ™on medi— igu—l — ™ero y v—ri—nz—s (nit—s diferentes de ™eroF edemás se —sume queX ∞ j=0 |ψj| ∞ y ∞ j=0 jψ2 j ∞ @gondi™iones que se s—tisf—™en en un modelo ARMA est—™ion—rioA inton™esD p—r— ™u—lquier m (joD l— distri˜u™ión ™onjunt— de √ n (r1 − ρ1) , √ n (r2 − ρ2) , ..., √ n (rm − ρm) ƒe —proxim—D ™u—ndo n tiende — in(nitoD — un— distri˜u™ión norm—l ™on medi— ™eroD v—ri—nz—s cjj, y ™ov—ri—nz—s cij donde cij = ∞ k=−∞ ρk + iρk+j + ρk−iρk+j − 2ρiρkρk+j − 2ρjρkρk+i + 2ρiρjρ2 k @TFPA €—r— t—m—ños de muestr— n signi(™—tiv—mente gr—ndesD se puede de™ir que rk sigue un— distri˜u™ión —proxim—d—mente norm—l ™on medi— ρk y v—ri—nz— ckk n .
  • 65. 6.1. ESPECIFICACIÓN DEL MODELO SI edemásD Corr (rk, rj) ≈ ckj √ ckkcjj . „eniendo en ™uent— que l— v—ri—nz— —proxim—E d— de rk es invers—mente propor™ion—l —l t—m—ño de l— muestr—D ƒin em˜—rgoD Corr (rk, rj) es —proxim—d—mente ™onst—nte p—r— t—m—ños de muestr— gr—ndesF h—do que l— interpret—™ión de l— e™u—™ión TFP es ™ompli™—d—D se ™onsider—rán —lgunos ™—sos espe™i—les ™on el (n de simpli(™—r l— expresiónF ƒupóng—seD en primer— medid—D que {Yt} es un pro™eso de ruido ˜l—n™oF inton™esD l— e™u—™ión TFPD se redu™e ™onsider—˜lemente —X V ar ≈ 1 n y Corr (rk, rj) ≈ 0 €—r— k = j @TFQA ehor—D supóng—se que {Yt} es gener—do por un pro™eso AR (1) ™on ρk = φk p—r— k 0. l— e™u—™ión TFP ™ondu™e —F V ar (rk) ≈ 1 n 1 + φ2 1 − φ2k 1 − φ2 − 2kφ2k @TFRA in p—rti™ul—r V ar (r1) ≈ 1 − φ2 n @TFSA xótese queD ™u—ndo φ es ™er™—no — ±1, l— estim—™ión de ρ = φ es más pre™is—F €—r— gr—ndes rez—gos kD los términos de l— e™u—™ión TFR los φk pueden ser ignor—dosD enton™es V ar (rk) ≈ 1 n 1 + φ2 1 − φ2 €—r— gr—ndes rez—gos k @TFTA in ™ontr—ste ™on l— e™u—™ión TFSD si φ es ™er™—no — ±1 l— v—ri—nz— de rk ™re™eD por lo que no se ™onsider— ™onveniente esper—r estim—™iones pre™is—s de ρk = φk ≈ 0, p—r— rez—gos gr—ndes ™omo se esper—n p—r— rez—gos pequeñosF €—r— el modelo AR (1) l— e™u—™ión TFPD t—m˜ién puede ser simpli(™—d— p—r— 0 i j de l— siguiente m—ner—F cij = φj−i − φj+i 1 + φ2 1 − φ2 + (j − i) φj−i − (j + i) φj+i @TFUA €—rti™ul—rmente se en™uentr— queX Corr (r1, r2) ≈ 2φ 1 − φ2 1 + 2φ2 − 3φ4 @TFVA €—r— el ™—so MA (1) l— e™u—™ión TFP puede ser simpli(™—d— de l— siguiente m—ner— c11 = 1 − 3ρ2 1 + 4ρ4 1 y ckk = 1 + 2ρ2 1 €—r— k 1 @TFWA edemás c12 = 2ρ 1 − ρ2 1 @TFIHA