Publicidad
Publicidad

Más contenido relacionado

Publicidad

4 Modelos autorregresivos.pdf

  1. ECONOMETRÍA Dr. CARLOS ALBERTO MINCHÓN MEDINA
  2. Modelos econométricos dinámicos: Modelos autorregresivos • Los modelos de rezagos examinados conforman finalmente un modelo autorregresivo (dependen de su propio pasado), y pueden representarse como: Yt = o + 1Xt + 2Yt-1 + t Por está razón, los mínimos cuadrados clásicos en la estimación de parámetros pueden no ser aplicables directamente a ellos. La razón es doble: • La presencia de variables explicativas estocásticas • La posibilidad de correlación serial.
  3. La aplicación de la teoría clásica de mínimos cuadrados requiere de demostrar que la variable explicativa estocástica Yt−1 está distribuida independientemente del término de perturbación vt. Propiedades de vt: Aún si suponemos que el término de perturbación original ut satisface todos los supuestos clásicos, como E(ut)=0, var(ut)=σ2 (homos- cedasticidad) y cov(ut,ut+s)=0 para s0 (no autocorrelación), vt puede no heredar todas estas propiedades. Si una variable explicativa en un modelo de regresión está correlacionada con el término de perturbación estocástico, los estimadores MCO no sólo están sesgados sino que, además, no son siquiera consistentes; es decir, aunque el tamaño de la muestra aumente indefinidamente, los estimadores no se aproximarán a sus valores poblacionales verdaderos. Los modelos anteriores pueden estimados por MCO pueden proporcionar estimaciones erróneas.
  4. 1. Variables instrumentales Yt = o + 1Xt + 2Yt-1 + t Los modelos anteriores, son transformados a modelos, como: La razón por la cual MCO no es aplicable al modelo de Koyck o de expectativas adaptativas es que la variable explicativa Yt−1 tiende a estar correlacionada con el término de error vt. Si de alguna manera es posible eliminar esta correlación, se pueden aplicar MCO para obtener estimaciones consistentes. En estos modelos, la idea es encontrar una variable para representar Yt−1 muy correla- cionada con Yt−1 pero no con vt, donde vt es el término de error en el modelo de Koyck o en el de expectativas adaptativas. Esta variable se denomina variable instrumental (VI).
  5. Las estimaciones por MCO para el modelo lleva al sistema de ecuaciones normales. Liviatan sugiere Xt−1 como variable instrumental para Yt−1 , conformando el sistema como sigue: La variable represen- tadora podría estar muy correlacionada con las variables independientes, y presentar problemas de multicolinealidad. De manera, que los estimadores serían consistentes pero indeficientes. ¿Cómo encontrar esa buena variable?
  6. Si el término del error esté libre de autocorrelación, se justifica el uso del método de MCO en el modelo que incluye retardos de la variable endógena Yt. Puede usar la matriz de covarianzas usual de dicho estimador, que además tiene una distribución normal en muestras grandes. El razonamiento anterior es válido, independientemente del número de retardos de la variable endógena que aparecen como variables explicativas. Sin embargo, es preciso que, consideradas separadamente del resto de variables explicativas, los coeficientes de regresión de dichos retardos satisfagan condiciones de estacionariedad. Realizada la aclaración, antes de emplear la propuesta de Liviatan o alguna otra, se procederá a presentar métodos para evaluar la autocorrelación: Prueba h de Durbin y prueba de Breusch-Godfrey
  7. 2. Detección de la autocorrelación El estadístico d de Durbin no es apropiado para detectar la correlación serial en modelos autorregresivos, sino la prueba h de Durbin, apropiado para modelos autorregresivos de primer orden con muestras grandes. • La prueba no es aplicable si [n var(2)] es superior a 1 Durbin demostró que, según la hipótesis nula de que Ho: ρ=0, el estadístico h sigue la distribución normal estandarizada. Donde:
  8. Dependent Variable: GCPC Method: Least Squares Date: 07/16/20 Time: 23:13 Sample (adjusted): 1960 2006 Included observations: 47 after adjustments Variable Coefficient Std. Error t-Statistic Prob. C -250.8387 157.0997 -1.596685 0.1175 IDPC 0.213179 0.070481 3.024651 0.0041 GCPC(-1) 0.797831 0.073183 10.90180 0.0000 R-squared 0.998211 Mean dependent var 16692.04 Adjusted R-squared 0.998129 S.D. dependent var 5204.694 S.E. of regression 225.1053 Akaike info criterion 13.73272 Sum squared resid 2229586. Schwarzcriterion 13.85081 Log likelihood -319.7188 Hannan-Quinn criter. 13.77716 F-statistic 12273.51 Durbin-Watson stat 0.971195 Prob(F-statistic) 0.000000 En el caso de la variable GCPC: n = 47 d = 0.971195 ො 𝜌 = 1- 0.971195/2 = 0.51440 𝑉𝑎𝑟( ො 𝛼2) = (0.073183)2 = 0.00536 ℎ = 0.51440 47 1 − 47(0.00536) = 3.53605 p=0.00041<0.05 Ho: =0 La hipótesis es rechazada. Hay autocorrelación serial. Yt = o + 1Xt + 2Yt-1 + t Ha: 0
  9. Para evitar algunos inconvenientes de la prueba d de Durbin-Watson de autocorrelación, los estadísticos Breusch y Godfrey elaboraron una prueba para la autocorrelación que es general porque permite: 1) regresoras no estocásticas, como los valores rezagados de la regresada; 2) esquemas autorregresivos de orden mayor, como el AR(1), AR(2), etc.; y 3) promedios móviles simples o de orden superior de los términos de error de ruido blanco. PASOS: 1. El modelo se estima por MCO y se obtiene los residuos ො 𝑢𝑡. 2. Haga la regresión ො 𝑢𝑡 sobre la Xt original (si hay más de una variable X en el modelo original, inclúyalas) y ො 𝑢𝑡−1, ො 𝑢𝑡−2, … , ො 𝑢𝑡−𝑝, donde estas últimas son los valores rezagados de los residuos. Obténga R2 de esta regresión auxiliar. 3. Cuando la muestra es grande, emplear la estadística:
  10. La prueba de Breusch-Godfrey proporciona evidencias de correlación serial (p=0.0349<0.05), empleando una distribución Chi- cuadrado. Los errores estándar pueden ser corregidos empleando el procedimiento CHA de Newey-West
  11. Método de Newey-West En muestras razonablemente grandes se puede utilizar el método Newey-West para obtener los errores estándar de los estimadores de MCO corregidos para autocorrelación. Este método en realidad es una extensión del método de errores estándar consistentes con heteroscedasticidad de White El método de Newey-West para corregir los errores estándar de MCO bajo autocorrelación, se aplica también para casos de heteroscedasticidad. Los errores estándar corregidos se conocen como errores estándar CHA (consistentes con heteros- cedasticidad y autocorrelación), o simplemente errores Newey-West
  12. LA PRUEBA Breusch-Godfrey indica que no se ha corregido el problema se correlación serial con el método CHA
  13. …. Variables instrumentales Según Novales, una variable instrumental Zt satisface tres condiciones: 1.No está incluida en el modelo como variable explicativa. 2.Esta incorrelacionada con el término del error: E(Ztut)=0. 3.Está correlacionada con la variable para la cual hace de instrumento: Yt-1 En general, matricialmente en el vector Xt tan sólo habrá variables que no satisfagan la condición E(Xtut)=0, y son éstas las que necesitan de variables instrumentales. Es decir, los vectores Xt y Zt tendrán en común aquellas variables que están incorrelacionadas con el término de error.
  14. Yt = o + 1Xt + 2Yt-1 + t El modelo de rezagos distribuidos infinitos, bajo la propuesta de Koyck, Si el modelo fuera reescrito como (sólo para corroborar los resultados), El estimador de variables instrumentales, en el que los vectores serían: Xt=(1, Yt-1, Xt), mientras que Zt=(1, Xt-1, Xt), estaría dado por: Solución del siguiente sistema de ecuaciones normales, las cuales coinciden con las proporcionadas por Gujarati como la propuesta de Liviatan. No es una aplicación directa del método MCO al modelo con el reemplazo de Xt-1 por Yt-1. Yt = 1 + 2Yt-1 + 3Xt + t
  15. En el sistema, la matriz (Z´X) no es simétrica, pero se supone que es invertible. En cuanto a la correlación entre la variable instrumental y la variable explicativa para la que se utiliza como instrumento: a) Es importante que dicha correlación exista, puesto que la variable instrumental Xt-1 sustituye parcialmente a Yt-1. b) Dicha correlación no puede ser tan importante, puesto que también existiría una correlación apreciable entre la variable instrumental y el término del error que motivó la necesidad de la misma.
  16. Mínimos cuadrados en 2 etapas Los mínimos cuadrados de dos etapas (TSLS) son un caso especial de regresión de variables instrumentales. Como su nombre indica, hay dos etapas distintas en mínimos cuadrados de dos etapas. En la primera etapa, TSLS encuentra las porciones de las variables endógenas y exógenas que pueden atribuirse a los instrumentos. Esta etapa implica estimar una regresión MCO de cada variable en el modelo en el conjunto de instrumentos. La segunda etapa es una regresión de la ecuación original, con todas las variables reemplazadas por los valores ajustados de las regresiones de la primera etapa. Los coeficientes de esta regresión son las estimaciones de TSLS.
  17. El orden de las variables en el modelo, no modifican los resultados.
Publicidad