Econometría IIAnálisis de series temporales (I): Procesos estacionarios              Miguel Jerez y Sonia Sotoca          ...
Índice:  • Introducción  • Conceptos básicos  • Procesos elementales  • Identificación  • Anexo: Estudio de los procesos m...
Introducción (I)Diferencias entre el análisis de series temporales y la econometría estudiadaanteriormente:    • Los datos...
Introducción (II): Ejemplos                      700                                                                      ...
Conceptos básicos (I): DefinicionesProceso estocástico es un conjunto de variables aleatorias asociadas adistintos instant...
Conceptos básicos (II): Hipótesis simplificatorias• En ciencias sociales suele ser imposible obtener varias muestras de un...
Procesos elementales (I): Ruido blanco.Un proceso de ruido blanco representa una variable que:• oscila en torno a una medi...
Procesos elementales (II): AR(1).Un proceso autorregresivo de primer orden, AR(1), representa una variable cuyovalor actua...
Procesos elementales (III): MA(1).Un proceso de medias móviles de primer orden, MA(1), representa una variablecuyo valor a...
Procesos elementales (IV): Paseo aleatorio.Un paseo aleatorio representa una variable cuyos cambios son ruido blanco y,por...
Identificación (I): Estadística descriptiva                                                                          XPara...
Identificación (II): Función de autocorrelación simple                                                                ρEl ...
Identificación (III): Función de autocorrelación parcialLos procesos MA tienen una FAS finita. Por tanto en este caso la F...
Identificación (IV)Ruido blanco: zt = at ; at ∼ iid N(0,.01) .4 .3                                            Combinando ....
Identificación (V)MA(1): zt = at − .5at −1 ; at ∼ iid N(0,.01).4.3                                                        ...
Identificación (VI)Combinando el análisis de la ACF y la PACF, la identificación de los procesosestacionarios puede reduci...
A.1. Estudio de los procesos más comunes: AR(1)                                            ACF                       PACF ...
A.2. Estudio de los procesos más comunes: MA(1) zt = µz + at − θat −1 ; θ < 1       ACF                             PACF E...
A.3. Estudio de los procesos más comunes: AR(2) zt = c + φ1zt −1 + φ2 zt −2 + at          ACF                             ...
A.4. Estudio de los procesos más comunes: AR(2)                       ACF                              PACF               ...
A.5. Estudio de los procesos más comunes: MA(2) zt = µz + at − θ1at −1 − θ2at −2                ACF                       ...
Econometría IIAnálisis de series temporales (II): Extensiones y metodología               Miguel Jerez y Sonia Sotoca     ...
Índice  • Propiedades típicas de las series económicas  • Transformaciones de datos  • Operadores retardo y diferencia  • ...
Propiedades típicas de las series económicas                       700                       600                          ...
Transformaciones de datos (I): Box-CoxMuchas series temporales muestran una variabilidad que cambia con su nivel.Para elim...
Transformaciones de datos (II): Ejemplo Box-Cox                            700                                            ...
Transformaciones de datos (III): DiferenciasA menudo la tendencia de una serie puede eliminarse diferenciando los datos.Se...
Transformaciones de datos (IV): InterpretaciónLa primera diferencia del logaritmo de una serie es una tasa logarítmica en ...
Operadores retardo y diferenciaA menudo resulta práctico representar los procesos estocásticos utilizando eloperador retar...
Procesos generalizados (I): ARMA(p,q)Los procesos definidos anteriormente pueden escribirse con órdenes generales:• AR(p):...
Procesos generalizados (II): EstacionariedadEstacionariedad: Se dice que un proceso estocástico es estacionario si todasla...
Procesos generalizados (III): InvertibilidadInvertibilidad: Se dice que un proceso estocástico es invertible si todas lasr...
Procesos generalizados (IV): ARIMA(p,d,q)La tendencia estocástica de las series económicas puede captarse medianteraíces A...
Procesos generalizados (V)Representaciones alternativas: Cuando un proceso estocástico no tieneraíces AR ni MA dentro del ...
Extensiones (I): Estacionalidad                     700                     600                                           ...
Extensiones (II): Modelo RegARIMAUniendo las ideas anteriores con el análisis de regresión, resulta inmediatoformular el m...
Extensiones (III): Inputs de intervenciónImpulsos. Producen un cambio en el nivel de una sola observación de la serie.Pued...
Metodología (I)                                            Definir los objetivos del análisis,                            ...
Metodología (II): IdentificaciónParámetro        Instrumento de identificación       Observaciones                        ...
Metodología (III): DiagnosisParámetro        Instrumento de identificación     Observaciones                              ...
Próxima SlideShare
Cargando en…5
×

Analisis de-series-temporales

2.017 visualizaciones

Publicado el

0 comentarios
3 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

Sin descargas
Visualizaciones
Visualizaciones totales
2.017
En SlideShare
0
De insertados
0
Número de insertados
47
Acciones
Compartido
0
Descargas
114
Comentarios
0
Recomendaciones
3
Insertados 0
No insertados

No hay notas en la diapositiva.

Analisis de-series-temporales

  1. 1. Econometría IIAnálisis de series temporales (I): Procesos estacionarios Miguel Jerez y Sonia Sotoca Universidad Complutense de Madrid Febrero 2004 Ver. 1/16/2003, Pag. # 1
  2. 2. Índice: • Introducción • Conceptos básicos • Procesos elementales • Identificación • Anexo: Estudio de los procesos más comunes Ver. 1/16/2003, Pag. # 2
  3. 3. Introducción (I)Diferencias entre el análisis de series temporales y la econometría estudiadaanteriormente: • Los datos están ordenados. • No consideramos, en principio, variables exógenas. • Se trata de construir un modelo sencillo que aproveche la inercia de los datos económicos para predecir utilizando la información pasada. • La econometría de series temporales contempla tres fases de análisis • identificación, • estimación (no lineal) y • diagnosis, que se recorren iterativamente. Ver. 1/16/2003, Pag. # 3
  4. 4. Introducción (II): Ejemplos 700 15 600 10 500 Miles de personas Puntos log x100 5 400 0 300 -5 200 -10 100 -15 0 1950 1952 1954 1956 1958 1960 1986 1988 1990 1992 1994 1996 Pasajeros de líneas aéreas, total mensual Rendimientos (logx100) del índice NIKKEINúmero de pasajeros de líneas Rendimientos del índice NIKKEI de laaéreas. La serie muestra: Bolsa de Tokio. Los datos:• un perfil creciente (tendencia), • fluctúan establemente en torno a una• fluctuaciones estacionales y media nula,• una variabilidad que crece a medida • muestran períodos de alta y bajaque aumenta el nivel de la serie. volatilidadLos primeros y segundos momentos (media y varianza) de distintas seriestemporales pueden comportarse de formas muy diferentesLas series temporales de naturaleza similar (p. ej., financieras) a menudopresentan rasgos comunes que son de gran utilidad para analizarlas Ver. 1/16/2003, Pag. # 4
  5. 5. Conceptos básicos (I): DefinicionesProceso estocástico es un conjunto de variables aleatorias asociadas adistintos instantes de tiempo.Serie temporal, es un conjunto de observaciones o medidas realizadassecuencialmente en intervalos predeterminados y de igual, o aproximadamenteigual, duración.• La relación entre una serie temporal y el proceso estocástico que la genera esla misma que hay entre una muestra y la variable aleatoria de la que procede.• Las peculiaridades de una serie temporal (frente a una muestra) y de unproceso estocástico (frente a una variable aleatoria) son: • las series temporales y los procesos estocásticos están referidos a instantes de tiempo concretos, y • los datos están ordenados desde el pasado hasta el presente.• El objetivo del análisis de series temporales es inferir la forma del procesoestocástico a partir de las series temporales que genera. Ver. 1/16/2003, Pag. # 5
  6. 6. Conceptos básicos (II): Hipótesis simplificatorias• En ciencias sociales suele ser imposible obtener varias muestras de una serietemporal, por lo que es necesario realizar una serie de supuestos simplificatorios.• Los supuestos más comunes son: • Linealidad: El valor que toma hoy la serie (o el proceso) depende linealmente de: a) sus valores pasados y b) los valores presentes y pasados de otras series. • Estacionariedad (débil): La media y varianza incondicional de una serie (o proceso) son constantes, las autocovarianzas entre dos valores sólo dependen de la distancia temporal que los separa. Formalmente: ∀ t , k : E ( zt ) = µt = µz E [( zt − µt )2 ] = σt2 = σz 2 E [( zt − µt )( zt −k − µt −k )] = γt ,k = γ k • Normalidad: El proceso estocástico generador sigue un modelo normal de distribución de probabilidad (proceso “gaussiano”). Ver. 1/16/2003, Pag. # 6
  7. 7. Procesos elementales (I): Ruido blanco.Un proceso de ruido blanco representa una variable que:• oscila en torno a una media constante,• con una volatilidad constante y• cuyo pasado no contiene información útil para predecir valores futuros.Podemos representar esta variable como zt = µz + at con: 2 γk E ( zt ) = µz [E (at ) = 0 ] E ( z t ) = σz = γ0 = σa ρk = 2 2 = 0 ; k ≥1 γ0 .4 .3La figura muestra el perfil de 500 .2observaciones simuladas del proceso .1de ruido blanco: .0 -.1 zt = at ; at ∼ iid N(0,.01) -.2 -.3 -.4 100 200 300 400 500 Ruido blanco Ver. 1/16/2003, Pag. # 7
  8. 8. Procesos elementales (II): AR(1).Un proceso autorregresivo de primer orden, AR(1), representa una variable cuyovalor actual está relacionado con su valor anterior mediante un modelo deregresión. Esto es: zt = c + φzt −1 + at ; φ < 1 (estacionariedad) 2 c 2 2 σacon: E ( zt ) = µz = E ( z t ) = σz = γ 0 = 2 ρk = φ k ; k ≥ 0 1−φ 1−φ La figura muestra el perfil de dos series generadas por un AR(1) sin constante, con distintos valores del parámetro φ: .4 .6 .3 .4 .2 .2 .1 .0 .0 -.1 -.2 -.2 -.4 -.3 -.4 -.6 100 200 300 400 500 100 200 300 400 500 AR(1) phi=.5 AR(1), phi=.9 Ver. 1/16/2003, Pag. # 8
  9. 9. Procesos elementales (III): MA(1).Un proceso de medias móviles de primer orden, MA(1), representa una variablecuyo valor actual está correlado con su valor anterior . Esto es: zt = µz + at − θat −1 ; θ < 1(invertibilidad) ⎧ −θ ⎪ ⎪ si k = 1 ρ k = ⎪1 + θ 2 2Con: E ( zt ) = µz E ( z t ) = σz = γ 0 = (1 + θ 2 )σa 2 2 ⎨ ⎪ ⎪ 0 ⎪ ⎩ si k > 1La figura muestra el perfil de dos series generadas por un proceso MA(1) sinconstante, con distintos valores de θ : .4 .4 .3 .3 .2 .2 .1 .1 .0 .0 -.1 -.1 -.2 -.2 -.3 -.3 -.4 -.4 100 200 300 400 500 100 200 300 400 500 MA(1), theta=.5 ma(1), theta=.9 Ver. 1/16/2003, Pag. # 9
  10. 10. Procesos elementales (IV): Paseo aleatorio.Un paseo aleatorio representa una variable cuyos cambios son ruido blanco y,por tanto, imprevisibles. Esto es: y t = c + y t −1 + atLa figura muestra el perfil de dos series generadas por paseos aleatorios cony sin deriva. Como puede observarse, la característica fundamental de esteproceso es la falta de afinidad de las series a una media estable: 1 450 400 0 350 -1 300 250 -2 200 150 -3 100 -4 50 100 200 300 400 500 100 200 300 400 500 Paseo aleatorio sin deriva Paseo aleatorio con deriva Ver. 1/16/2003, Pag. # 10
  11. 11. Identificación (I): Estadística descriptiva XPara contrastar H0 : µX = 0 puede usarse el estadístico: t = ∼ t n−1 σX / n H 0 3 4 n ⎛ ⎞ 1 n ⎛ Xi − X ⎞ ⎜ ⎟ CK = 1 ⎜ Xi − X ⎟Coeficientes de asimetría y kurtosis: CA = ∑ ⎜ ⎟ ⎟ n i =1 ⎜ σ X ⎠ ⎝ ⎟ ∑⎜ n i =1 ⎜ σ X ⎠ ⎝ ⎟ ⎟ ⎟La hipótesis de normalidad puede contrastarse mediante el test de Jarque-Bera: ⎛CA2 (CK − 3)2 ⎞ ⎟ ∼ χ2 JB = n ⎜ ⎜ + ⎟ ⎟ ⎜ 6 ⎝ 24 ⎟ ⎠H 2 060 Series: WNOISE Sample 1 500 El histograma muestra el perfil de una50 Observations 500 muestra del proceso:40 Mean 0.00264330 Median Maximum 0.006559 0.386147 zt = at ; at ∼ iid N(0,.01) Minimum -0.304903 Std. Dev. 0.10297320 Skewness -0.046988 Obsérvese que los momentos Kurtosis 3.39300610 muestrales se aproximan a los Jarque-Bera 3.401768 0 Probability 0.182522 teóricos y el test de Jarque-Bera no -0.25 0.00 0.25 rechaza normalidad. Ver. 1/16/2003, Pag. # 11
  12. 12. Identificación (II): Función de autocorrelación simple ρEl coeficiente muestral de autocorrelación simple de orden k ( k ) se define como: γk ˆ 1 n ρk = con: γ k = ∑ zt zt −k ; zt = zt − z , k = 1, 2,… ˆ γ´ 0 ˆ n t =k +1Para hacer inferencia sobre la función de autocorrelación simple (FAS o ACF)pueden usarse los siguientes resultados:• Para muestras suficientemente grandes s.e.(ρ k ) n−1 / 2 K 1 2• Si es cierto H0 : ρ1 = ρ2 = ρ3 = … = ρK = 0 entonces Q(K ) = n(n + 2) ∑ 2 ρ k ∼ χK −p k =1 n − k H0en donde: K es el número de retardos de la ACF p es el número de parámetros estimados, si la serie es de residuos. En la figura se muestra la función de autocorrelación simple de una muestra del proceso: zt = at − .5at −1 ; at ∼ iid N(0,.01) ... como puede observarse su configuración se parece, sin coincidir exactamente, a la FAS teórica de un proceso MA(1) Ver. 1/16/2003, Pag. # 12
  13. 13. Identificación (III): Función de autocorrelación parcialLos procesos MA tienen una FAS finita. Por tanto en este caso la FAS resultamuy útil, tanto para detectar una estructura MA como para identificar su orden.Un instrumento con propiedades análogas para procesos AR es el coeficientemuestral de autocorrelación parcial de orden k (φ kk), que se define como el k-ésimo coeficiente de una autorregresión de orden k estimada por MCO: ˆ ˆ ˆ z = φ z + φ z + … + φ z + ε ; k = 1, 2,… ˆ t k 1 t −1 k 2 t −2 kk t −k ktal gráfico de barras de los coeficientes φ kk frente a su correspondiente retardo sele llama función de autocorrelación parcial (abreviadamente, FAP o PACF). En la figura se muestran las funciones de autocorrelación de una muestra del proceso: zt = .5zt −1 + at ; at ∼ iid N(0,.01) como puede observarse, la FAP identifica con claridad la naturaleza y el orden del proceso generador de los datos. Ver. 1/16/2003, Pag. # 13
  14. 14. Identificación (IV)Ruido blanco: zt = at ; at ∼ iid N(0,.01) .4 .3 Combinando .2 instrumentos gráficos .1 y estadísticos pueden .0 -.1 reconocerse de forma -.2 aproximada las pautas -.3 de autocorrelación -.4 100 200 300 400 500 características de los Ruido blanco distintos procesos.AR(1): zt = .5zt −1 + at ; at ∼ iid N(0,.01) En análisis de series .4 temporales, a este .3 .2 proceso de .1 especificación .0 empírica se le llama -.1 -.2 “identificación” -.3 -.4 100 200 300 400 500 AR(1) phi=.5 Ver. 1/16/2003, Pag. # 14
  15. 15. Identificación (V)MA(1): zt = at − .5at −1 ; at ∼ iid N(0,.01).4.3 La identificación.2 puede estructurarse.1.0 como una secuencia-.1 de preguntas:-.2-.3 • ¿Es estacionaria la-.4 100 200 300 400 500 serie? MA(1), theta=.5 • ¿Tiene una media Paseo aleatorio: y t = y t −1 + at ; at ∼ iid N(0,.01) significativa? 1 • ¿Es finita o infinita la 0 ACF?-1 • ¿Es finita o infinita la-2 PACF?-3-4 100 200 300 400 500 Paseo aleatorio sin deriva Ver. 1/16/2003, Pag. # 15
  16. 16. Identificación (VI)Combinando el análisis de la ACF y la PACF, la identificación de los procesosestacionarios puede reducirse a decidir:• ¿Cuál de las dos funciones es finita? para determinar la naturaleza del procesogenerador: ACF Finita Infinita PACF Finita Ruido blanco AR Infinita MA ARMA• ¿A partir de qué retardo muere la ACF o PACF? para determinar el orden delproceso.Estas técnicas requieren usar estadísticos como la media, la varianza o lacovarianza muestrales, que sólo tienen sentido si el proceso es estacionario, estoes, si los datos tienen una media y una varianza finitas y aproximadamenteconstantes. Ver. 1/16/2003, Pag. # 16
  17. 17. A.1. Estudio de los procesos más comunes: AR(1) ACF PACF zt = c + φzt −1 + at ; φ < 1 c 0 <φ <1 E ( zt ) = µz = 1−φ 1 1 2 2 2 σ E ( z t ) = σz = γ 0 = a 1 − φ2 γk ρk = = φk ; k ≥ 0 Retardo Retardo γ0Los procesos AR(1) se -1 -1reconocen por una ACFinfinita y una PACF que −1 < φ < 0se anula a partir delsegundo retardo. 1 1Si los datos tienen media,es necesario especificarun término constante. Retardo Retardo -1 -1 Ver. 1/16/2003, Pag. # 17
  18. 18. A.2. Estudio de los procesos más comunes: MA(1) zt = µz + at − θat −1 ; θ < 1 ACF PACF E ( zt ) = µz 0 < θ <1 2 2 2 2 1 1 E ( z ) = σ = γ 0 = (1 + θ )σ t z a ⎧ −θ ⎪ γk ⎪ si k = 1 ρk = = ⎪1 + θ 2 ⎨ γ0 ⎪ Retardo Retardo ⎪ 0 ⎪ si k > 1 ⎩ -1 -1Los procesos MA(1) sereconocen por una PACFinfinita y una ACF que se −1 < θ < 0anula a partir del segundo 1retardo. 1Si los datos tienen media,es necesario especificarun término constante. Retardo Retardo -1 -1 Ver. 1/16/2003, Pag. # 18
  19. 19. A.3. Estudio de los procesos más comunes: AR(2) zt = c + φ1zt −1 + φ2 zt −2 + at ACF PACF φ2 + φ1 < 1 ; φ2 − φ1 < 1 ; φ2 < 1 φ1 > 0 ; φ2 > 0 cE ( zt ) = µz = 1 1 1 − φ1 − φ2 ρk = φ1 ρk −1 + φ2 ρk −2 ; k ≥ 1 con : Retardo Retardo φ1 φ12 ρ1 = ; ρ2 = φ2 + 1 − φ2 1 − φ2 -1 -1Los procesos AR(2) se φ1 < 0 ; φ2 > 0reconocen por una ACF 1infinita y una PACF que 1se anula a partir del tercerretardo. RetardoSi los datos tienen media,es necesario especificar Retardoun término constante. -1 -1 Ver. 1/16/2003, Pag. # 19
  20. 20. A.4. Estudio de los procesos más comunes: AR(2) ACF PACF φ1 > 0 ; φ2 < 0 1 1 Retardo Retardo -1 -1 φ1 < 0 ; φ2 < 0 1 1 Retardo Retardo -1 -1 Ver. 1/16/2003, Pag. # 20
  21. 21. A.5. Estudio de los procesos más comunes: MA(2) zt = µz + at − θ1at −1 − θ2at −2 ACF ACFθ2 + θ1 < 1 ; θ2 − θ1 < 1 ; θ2 < 1 θ1 > 0 ; θ2 > 0 θ1 < 0 ; θ2 < 0E ( zt ) = µz 1 1 2E ( z t ) = σz = γ 0 = (1 + θ12 + θ22 )σa 2 2 ⎧ −θ1 (1 − θ2 ) ⎪ ⎪ ⎪ si k = 1 ⎪ 1 + θ12 + θ2 2 Retardo Retardo ⎪ ⎪ γ k ⎪ −θ2 ⎪ ρk = =⎪ ⎨ si k = 2 γ 0 ⎪1 + θ12 + θ2 ⎪ 2 -1 -1 ⎪ ⎪ ⎪ ⎪ 0 si k > 2 ⎪ ⎪ θ1 < 0 ; θ2 > 0 θ1 > 0 ; θ2 < 0 ⎪ ⎩ 1 1Los procesos MA(2) sereconocen por una PACFinfinita (no se muestra aquí)y una ACF que se anula a Retardo Retardopartir del tercer retardo.Si los datos tienen media,es necesario especificar un -1 -1término constante. Ver. 1/16/2003, Pag. # 21
  22. 22. Econometría IIAnálisis de series temporales (II): Extensiones y metodología Miguel Jerez y Sonia Sotoca Universidad Complutense de Madrid Marzo 2004 Ver. 23/3/2003, Pag. # 1
  23. 23. Índice • Propiedades típicas de las series económicas • Transformaciones de datos • Operadores retardo y diferencia • Procesos generalizados • Extensiones • Metodología Ver. 23/3/2003, Pag. # 2
  24. 24. Propiedades típicas de las series económicas 700 600 Muchas series temporales económicas 500 presentan: Miles de personas 400 • tendencia, 300 • estacionalidad, 200 100 • una variabilidad que crece con su nivel y 0 1950 1952 1954 1956 1958 1960 • componentes deterministas (valores Pasajeros de líneas aéreas, total mensual atípicos, ...)Sin embargo, los procesos ARMA describen variables puramente estocásticas,no estacionales, con media y varianza constantes. Por tanto, para modelizarseries económicas es necesario definir:• Transformaciones de datos diseñadas para estabilizar la media y la varianzade las series.• Extensiones de la familia de procesos ARMA, que permitan captar tenden-cias y fluctuaciones estacionales. Ver. 23/3/2003, Pag. # 3
  25. 25. Transformaciones de datos (I): Box-CoxMuchas series temporales muestran una variabilidad que cambia con su nivel.Para eliminar esta característica se utiliza la transformación de Box-Cox: ⎧ ( y + m )λ − 1 ⎪ t Cada transformación se caracteriza por un ⎪ ⎪ si λ ≠ 0 yt λ ,m =⎨ λ valor del parámetro λ. Además, puede ⎪ ⎪ln( y + m ) ⎪ ⎪ ⎩ t si λ = 0 aplicarse un cambio de origen (parámetro, m) cuando la transformación requiere valores positivos. λ>0 λ=0 Para elegir la transformación adecuada λ<0 puede usarse el gráfico media-desviación típica muestral de varias submuestras. En la figura se muestran las configuraciones σ λ =1 correspondientes a diversos valores de λ. Las series económicas a menudo mues- tran una variabilidad que crece con la media de forma aproximadamente lineal. µ En ese caso, la transformación adecuada es la logarítmica (λ=0) Ver. 23/3/2003, Pag. # 4
  26. 26. Transformaciones de datos (II): Ejemplo Box-Cox 700 650 600 600 500Miles de personas 400 550 300 Como muestran 200 500 los gráficos, 100 0 450 • la volatilidad 1950 1952 1954 1956 1958 1960 1950 1952 1954 1956 1958 1960 crece linealmente Pasajeros de líneas aéreas, total mensual LAIR con el nivel de la 3 S tandardized mean/s td. dev. plot of nº de pas ajeros de lineas aereas 3 S tandardized mean/s td. dev. plot of log nº de pas ajeros de lineas aereas serie, 2 2 • tras la J L M J transformación, la 1 1 L M volatilidad es S tandard deviations S tandard deviations I I H F G H 0 F G 0 B E aproximadamente E -1 A B C D -1 D constante. A C -2 -2 -3 -3 -3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3 Means Means Ver. 23/3/2003, Pag. # 5
  27. 27. Transformaciones de datos (III): DiferenciasA menudo la tendencia de una serie puede eliminarse diferenciando los datos.Se dice que una serie es integrada de orden uno si su primera diferencia: zt = y t − y t −1es estacionaria en media. La serie de la primera figura es una muestra del proceso estocástico y t = y t −1 + at ; at ∼ iid N(0,.01) . Por tanto, zt = y t − y t −1 será estacionaria. 1 .3 .2 0 .1 -1 .0 -2 -.1 -3 -.2 -4 -.3 100 200 300 400 500 100 200 300 400 500 Paseo aleatorio sin deriva Primera diferenciaAlgunas series económicas necesitan una diferencia adicional para conseguiruna media incondicional estable. En ese caso se dice que son integradas desegundo orden. Ver. 23/3/2003, Pag. # 6
  28. 28. Transformaciones de datos (IV): InterpretaciónLa primera diferencia del logaritmo de una serie es una tasa logarítmica en tantopor uno, alternativa a la tasa porcentual, ya que si: y t = (1 + αt )y t −1 , resulta:ln y t − ln y t −1 = ln(1 + αt ) αt Frente a la tasa de variación convencional, la tasalogarítmica tiene la ventaja de ser aditiva, esto es: n n ln y n − ln y 0 = ∑ (ln y t − ln y t −1 ) =∑ ln(1 + αt ) t =1 t =1En el cuadro se presentan varias transformaciones comunes y su interpretación. Serie transformada Interpretación zt = y t − y t −1 Cambio en el valor de yt Tasa logarítmica (en tanto por uno) de variación entre zt = ln y t − ln y t −1 un período y el siguiente (indicador de “crecimiento”) Cambio en la tasa logarítmica de variación entre un w t = zt − zt −1 ; zt = y t − y t −1 período y el siguiente (indicador de “aceleración” en el crecimiento) Tasa logarítmica de variación acumulada en S zt = ln y t − ln y t −S períodos. Indicador de crecimiento acumulado en un ciclo estacional Ver. 23/3/2003, Pag. # 7
  29. 29. Operadores retardo y diferenciaA menudo resulta práctico representar los procesos estocásticos utilizando eloperador retardo, que se define de la siguiente manera: B / i ) Bzt = zt −1 ii ) Bk = k ; k :constante −1 iii ) B zt = zt +1 0 iv ) B zt = zt v ) zt = Bzt +1 = B 2 zt +2 = B 3 zt +3 = … = B l zt +l (l > 0)El operador diferencia se define a partir del operador retardo como: ∇ / ∇y t = (1 − B )y t = y t − y t −1En series estacionales de período S, a menudo se utiliza una variante de esteoperador que se conoce como diferencia estacional: ∇S / ∇S y t = (1 − BS )y t = y t − y t −s Ver. 23/3/2003, Pag. # 8
  30. 30. Procesos generalizados (I): ARMA(p,q)Los procesos definidos anteriormente pueden escribirse con órdenes generales:• AR(p): zt = c + φ1zt −1 + φ2 zt −2 + … + φp zt −p + at• MA(q): zt = µz + at − θ1at −1 − θ2at −2 − … − θq at −q• ARMA(p,q): zt = c + φ1zt −1 + φ2 zt −2 + … + φp zt −p + at − θ1at −1 − θ2at −2 − … − θq at −q... y expresarse en términos del operador retardo de la siguiente forma:• AR(p): φp (B ) zt = c + at• MA(q): zt = µz + θq (B ) at• ARMA(p,q): φp (B ) zt = c + θq (B ) at... en donde: φp (B ) = 1 − φ1B − φ2B 2 − … − φpB p (polinomio AR) θq (B ) = 1 − θ1B − θ2B 2 − … − θq B q (polinomio MA) Ver. 23/3/2003, Pag. # 9
  31. 31. Procesos generalizados (II): EstacionariedadEstacionariedad: Se dice que un proceso estocástico es estacionario si todaslas raíces de la ecuación característica 1 − φ1B − φ2B 2 − … − φpB p = 0 están fuera delcírculo de radio unidad del plano complejo.La condición de estacionariedad sólo afecta a la componente AR del procesoARIMA, ya que la componente MA siempre es estacionaria.Cuando el polinomio AR tiene alguna raíz igual a uno, se dice que tiene “raícesunitarias”.Consecuencias del cumplimiento: • El proceso tiene media y varianza incondicionales finitas y estables. • El proceso puede escribirse en forma MA equivalente.Consecuencias del no cumplimiento (raíces unitarias): • La varianza incondicional diverge a infinito. • Si tiene deriva, la media incondicional diverge a infinito. • El factor AR puede factorizarse separando las raíces unitarias de las raíces estacionarias.Ejemplo. El proceso AR(2) no estacionario: (1 − 1.5B + .5B 2 )y t = at es equivalenteal proceso ARIMA(1,1,0): (1 − .5B )∇y t = at Ver. 23/3/2003, Pag. # 10
  32. 32. Procesos generalizados (III): InvertibilidadInvertibilidad: Se dice que un proceso estocástico es invertible si todas lasraíces de la ecuación característica 1 − θ1B − θ2B 2 − … − θq B q = 0 están fuera delcírculo de radio unidad del plano complejo.La condición de invertibilidad sólo afecta a la componente MA del procesoARIMA, ya que la componente AR siempre es invertible.Consecuencias del cumplimiento: • El proceso puede escribirse en forma AR equivalente.Consecuencias del no cumplimiento (raíces unitarias): • El proceso podría simplificarse, bien eliminando una diferencia, bien representando la tendencia de forma determinista.Ejemplos.El proceso ARIMA(2,2,1) no invertible: (1 − .5B + .7B 2 )∇2 y t = (1 − B )at es equivalenteal proceso ARIMA(2,1,0): (1 − .5B + .7B 2 )∇y t = atDiferenciando el proceso de tendencia determinista: y t = β t + at se obtiene elproceso ARIMA(0,1,1) no invertible: ∇y t = β + (1 − B )at Ver. 23/3/2003, Pag. # 11
  33. 33. Procesos generalizados (IV): ARIMA(p,d,q)La tendencia estocástica de las series económicas puede captarse medianteraíces AR unitarias. Por ello tiene interés generalizar la formulación del modeloARMA admitiendo en él este tipo de factores. Esta idea da lugar al modelo ARIMA(p,d,q), que se define como: φp (B ) ∇ d y t λ,m = c + θq (B ) aten donde: φ (B ) = 1 − φ B − φ B 2 − … − φ B p [polinomio AR(p)] p 1 2 p θq (B ) = 1 − θ1B − θ2B 2 − … − θq B q [polinomio MA(q)] B / B ± k y t = y t ∓k ∇ ≡ 1 − B [operadores retardo y diferencia] ⎧ ⎪ λ ⎪ ( y t + m ) − 1 si λ ≠ 0 ⎪ y t λ,m =⎨ λ [transformación de datos (Box-Cox)] ⎪ ⎪ln( y + m ) ⎪ ⎪ ⎩ t si λ = 0Si los polinomios AR y MA tienen sus raíces en o fuera del círculo de radio unidad,el proceso ARIMA puede escribirse de las siguientes formas equivalentes: θq (B ) φp (B ) φp (B ) ∇ yt d λ ,m = µz + at (∇ y t d λ ,m − µz ) = at ∇ d y t λ,m = c + at φp (B ) θq (B ) θq (B ) Ver. 23/3/2003, Pag. # 12
  34. 34. Procesos generalizados (V)Representaciones alternativas: Cuando un proceso estocástico no tieneraíces AR ni MA dentro del círculo de radio unidad, puede escribirse de formaequivalente como AR(∞) o MA(∞):Ejemplo 1. Un AR(1) no explosivo puede escribirse como: (1 − φB )zt = c + ato, alternativamente, como un proceso media móvil infinito: c 1 zt = + at = µz + (1 + φB + φ 2B 2 + …) at 1 − φ 1 − φBEjemplo 2. Un MA(1) con raíces en o fuera del círculo de radio unidad puedeescribirse como: zt = µz + (1 − θB )at o, alternativamente, como: 1 µ zt = z + at ; (1 + θB + θ 2B 2 + …) zt = c + at 1 − θB 1− θ Esto quiere decir que el proceso ARIMA es una aproximación finita a los procesos estocásticos generales: • Forma “pi”: zt = c + π1zt −1 + π2 zt −2 + … + at • Forma “psi”: zt = µz + at + ψ1at −1 + ψ2at −2 + … Ver. 23/3/2003, Pag. # 13
  35. 35. Extensiones (I): Estacionalidad 700 600 Las series económicas a menudo muestran un comportamiento estacional, esto es, una pauta 500 Miles de personas que se repite con una periodicidad fija, a 400 menudo anual. 300 200 El período estacional (S) se define como el número de observaciones necesarias para 100 recorrer todo el ciclo estacional. Por ejemplo, 0 1950 1952 1954 1956 1958 1960 S=12 para datos mensuales, S=4 para datos Pasajeros de líneas aéreas, total mensual trimestrales, etc.Para captar este comportamiento, se define el modelo ARIMA(p,d,q)x(P,D,Q)S: φp (B ) ΦP (B S )∇S ∇d y t λ,m = c + θq (B ) ΘQ (B S )at D... que incluye tres nuevos factores: ΦP (B S ) = 1 −Φ1B S −Φ2B 2⋅S − … − ΦP B P⋅S [polinomio AR(P)S] ΘQ (B S ) = 1 −Θ1B S −Θ2B 2⋅S − … −ΘQ BQ⋅S [polinomio MA(Q)S] ∇S ≡ 1 − B S [operador diferencia estacional]Este modelo admite relaciones entre un dato y el de S períodos atrás. Ver. 23/3/2003, Pag. # 14
  36. 36. Extensiones (II): Modelo RegARIMAUniendo las ideas anteriores con el análisis de regresión, resulta inmediatoformular el modelo RegARIMA (modelo de regresión con errores ARIMA) como: λy ,my yt = ( x tλx ,mx )T β + εtcon: φp (B ) ΦP (B )∇S ∇ εt = θq (B ) ΘQ (B )at S D d SDe manera que los valores de la serie temporal se ponen en relación, no sólocon su pasado, sino también con los valores contemporáneos de otras series,que actúan como variables explicativas o “inputs”. λ ,mLas variables x t x x pueden ser series económicas o variables deterministasdiseñadas para modelizar:• Efectos calendario, causados por irregularidades en la unidad de tiempo comopueden ser: distinto número de días laborables y festivos o celebración de laSemana Santa.• Valores atípicos (outliers) debidos a fenómenos como, p.ej., el split del nominalde una acción, cambios en tipos impositivo o fenómenos como inundaciones oterremotos. En este caso se dice que el modelo es “de intervención”. Ver. 23/3/2003, Pag. # 15
  37. 37. Extensiones (III): Inputs de intervenciónImpulsos. Producen un cambio en el nivel de una sola observación de la serie.Pueden modelizarse mediante: ⎧ 1 si t = t * ⎪ x =⎪ i ⎨ t ⎪ 0 si t ≠ t * ⎪ ⎩Impulsos compensados. Producen un cambio en el nivel de una observación,seguido por un cambio de nivel compensatorio en la observación siguiente.Pueden modelizarse mediante: ⎧ 1 si t = t * ⎪ ⎪ ⎪ ⎪ xt = ⎨−1 si t = t * + 1 IC ⎪ ⎪ 0 si t ≠ t * , t * + 1 ⎪ ⎪ ⎩Escalones. Producen un cambio en el nivel de todas las observacionesposteriores a una fecha dada. Pueden modelizarse mediante: ⎧ 1 si t ≥ t * ⎪ x =⎪ E ⎨ t ⎪ 0 si t < t * ⎪ ⎩ Ver. 23/3/2003, Pag. # 16
  38. 38. Metodología (I) Definir los objetivos del análisis, estudiar la información disponible Identificación: Seleccionar una especificación tentativaLos métodos de análisis de seriestemporales combinan los modelos e Estimacióninstrumentos anteriores en una (Métodos no lineales)metodología sistemática para construir yprobar modelos Diagnosis: ¿Es válido el modelo para los fines Previstos? no si Utilización del modelo Ver. 23/3/2003, Pag. # 17
  39. 39. Metodología (II): IdentificaciónParámetro Instrumento de identificación Observaciones Se trata de conseguir que la variabilidad de los • Gráfico media-desviación típica datos sea independiente de su nivel. En seriesm, λ • Gráfico de la serie temporal económicas es habitual λ=0, lo que supone transformar logarítmicamente los datos. • Gráfico de la serie temporald, orden de Se trata de conseguir que los datos fluctúen endiferenciación • ACF (decrecimiento lento y torno a una media aproximadamente estable lineal) • Media muestral de la serie Si la media de la serie transformada esTérmino diferenciada significativa, el modelo debe incluir un términoconstante • Desviación típica de la media constante La PACF tiene p valores no nulosp, orden del • PACF de orden ptérmino AR Un proceso AR finito y estacionario equivale a • ACF infinita un MA(∞) La ACF tiene q valores no nulosq, orden del • ACF de orden qtérmino MA Un proceso MA finito e invertible equivale a un • PACF infinita AR(∞) Ver. 23/3/2003, Pag. # 18
  40. 40. Metodología (III): DiagnosisParámetro Instrumento de identificación Observaciones • Una raíz próxima a uno en la parte AR indica que • Raíces de los polinomios AR conviene añadir una diferencia y MA • Una raíz próxima a uno en la parte MA indica qued, orden de conviene quitar una diferenciadiferenciación Si muestra rachas largas de residuos positivos o • Gráfico de la serie de negativos, puede ser necesaria una diferencia residuos adicional • Media muestral de losTérmino residuos Si la media de los residuos es significativa, debeconstante añadirse un término constante • Desviación típica de la media • Contrastes de significación Permiten eliminar parámetros irrelevantes de los parámetros estimados • ACF y PACF residuales Detectan pautas de autocorrelación no modelizadas Contrasta la hipótesis conjunta de que todos los • Test Q coeficientes de autocorrelación son nulospyq • Correlaciones elevadas entre Puede ser un síntoma de sobreparametrización parámetros estimados Consiste en añadir parámetros AR y/o MA, para • Sobreajuste comprobar si resultan significativos y mejoran la calidad estadística del modelo Ver. 23/3/2003, Pag. # 19

×