Modelos econométricos dinámicos:
Modelos autorregresivos
• Los modelos de rezagos
examinados conforman
finalmente un modelo
autorregresivo (dependen
de su propio pasado), y
pueden representarse
como:
Yt = o + 1Xt + 2Yt-1 + t
Por está razón, los mínimos cuadrados
clásicos en la estimación de parámetros
pueden no ser aplicables directamente
a ellos. La razón es doble:
• La presencia de variables
explicativas estocásticas
• La posibilidad de correlación serial.
La aplicación de la teoría clásica de
mínimos cuadrados requiere de
demostrar que la variable explicativa
estocástica Yt−1 está distribuida
independientemente del término de
perturbación vt.
Propiedades de vt:
Aún si suponemos que el término de
perturbación original ut satisface
todos los supuestos clásicos, como
E(ut)=0, var(ut)=σ2 (homos-
cedasticidad) y cov(ut,ut+s)=0 para
s0 (no autocorrelación), vt puede no
heredar todas estas propiedades.
Si una variable explicativa en un
modelo de regresión está
correlacionada con el término de
perturbación estocástico, los
estimadores MCO no sólo están
sesgados sino que, además, no son
siquiera consistentes; es decir,
aunque el tamaño de la muestra
aumente indefinidamente, los
estimadores no se aproximarán a
sus valores poblacionales
verdaderos.
Los modelos anteriores pueden
estimados por MCO pueden
proporcionar estimaciones erróneas.
1. Variables instrumentales
Yt = o + 1Xt + 2Yt-1 + t
Los modelos anteriores, son transformados a
modelos, como:
La razón por la cual MCO no es aplicable al
modelo de Koyck o de expectativas
adaptativas es que la variable explicativa Yt−1
tiende a estar correlacionada con el término
de error vt. Si de alguna manera es posible
eliminar esta correlación, se pueden aplicar
MCO para obtener estimaciones consistentes.
En estos modelos, la idea es
encontrar una variable para
representar Yt−1 muy correla-
cionada con Yt−1 pero no con
vt, donde vt es el término de
error en el modelo de Koyck
o en el de expectativas
adaptativas.
Esta variable se denomina
variable instrumental (VI).
Las estimaciones por MCO para el modelo lleva
al sistema de ecuaciones normales.
Liviatan sugiere Xt−1 como variable instrumental
para Yt−1 , conformando el sistema como sigue:
La variable represen-
tadora podría estar
muy correlacionada
con las variables
independientes, y
presentar problemas
de multicolinealidad.
De manera, que los
estimadores serían
consistentes pero
indeficientes.
¿Cómo encontrar esa
buena variable?
Si el término del error
esté libre de
autocorrelación, se
justifica el uso del
método de MCO en el
modelo que incluye
retardos de la variable
endógena Yt.
Puede usar la matriz
de covarianzas usual
de dicho estimador,
que además tiene una
distribución normal en
muestras grandes.
El razonamiento anterior es válido,
independientemente del número de retardos de
la variable endógena que aparecen como
variables explicativas. Sin embargo, es preciso
que, consideradas separadamente del resto de
variables explicativas, los coeficientes de
regresión de dichos retardos satisfagan
condiciones de estacionariedad.
Realizada la aclaración, antes de emplear la
propuesta de Liviatan o alguna otra, se
procederá a presentar métodos para evaluar la
autocorrelación: Prueba h de Durbin y prueba
de Breusch-Godfrey
2. Detección de la autocorrelación
El estadístico d de Durbin no es
apropiado para detectar la correlación
serial en modelos autorregresivos, sino
la prueba h de Durbin, apropiado para
modelos autorregresivos de primer
orden con muestras grandes.
• La prueba no es aplicable si [n
var(2)] es superior a 1
Durbin demostró que, según la
hipótesis nula de que Ho: ρ=0, el
estadístico h sigue la distribución
normal estandarizada.
Donde:
Dependent Variable: GCPC
Method: Least Squares
Date: 07/16/20 Time: 23:13
Sample (adjusted): 1960 2006
Included observations: 47 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C -250.8387 157.0997 -1.596685 0.1175
IDPC 0.213179 0.070481 3.024651 0.0041
GCPC(-1) 0.797831 0.073183 10.90180 0.0000
R-squared 0.998211 Mean dependent var 16692.04
Adjusted R-squared 0.998129 S.D. dependent var 5204.694
S.E. of regression 225.1053 Akaike info criterion 13.73272
Sum squared resid 2229586. Schwarzcriterion 13.85081
Log likelihood -319.7188 Hannan-Quinn criter. 13.77716
F-statistic 12273.51 Durbin-Watson stat 0.971195
Prob(F-statistic) 0.000000
En el caso de la variable
GCPC:
n = 47
d = 0.971195
ො
𝜌 = 1- 0.971195/2 = 0.51440
𝑉𝑎𝑟( ො
𝛼2) = (0.073183)2
= 0.00536
ℎ = 0.51440
47
1 − 47(0.00536)
= 3.53605 p=0.00041<0.05
Ho: =0
La hipótesis es rechazada.
Hay autocorrelación serial.
Yt = o + 1Xt + 2Yt-1 + t
Ha: 0
Para evitar algunos inconvenientes
de la prueba d de Durbin-Watson de
autocorrelación, los estadísticos
Breusch y Godfrey elaboraron una
prueba para la autocorrelación que es
general porque permite: 1) regresoras
no estocásticas, como los valores
rezagados de la regresada; 2)
esquemas autorregresivos de orden
mayor, como el AR(1), AR(2), etc.; y
3) promedios móviles simples o de
orden superior de los términos de
error de ruido blanco.
PASOS:
1. El modelo se estima por MCO y se
obtiene los residuos ො
𝑢𝑡.
2. Haga la regresión ො
𝑢𝑡 sobre la Xt
original (si hay más de una variable X
en el modelo original, inclúyalas) y
ො
𝑢𝑡−1, ො
𝑢𝑡−2, … , ො
𝑢𝑡−𝑝, donde estas últimas
son los valores rezagados de los
residuos. Obténga R2 de esta regresión
auxiliar.
3. Cuando la muestra es grande, emplear
la estadística:
La prueba de
Breusch-Godfrey
proporciona
evidencias de
correlación serial
(p=0.0349<0.05),
empleando una
distribución Chi-
cuadrado.
Los errores estándar
pueden ser corregidos
empleando el
procedimiento CHA de
Newey-West
Método de Newey-West
En muestras razonablemente
grandes se puede utilizar el
método Newey-West para
obtener los errores estándar de
los estimadores de MCO
corregidos para autocorrelación.
Este método en realidad es una
extensión del método de errores
estándar consistentes con
heteroscedasticidad de White
El método de Newey-West para
corregir los errores estándar de MCO
bajo autocorrelación, se aplica también
para casos de heteroscedasticidad.
Los errores estándar corregidos se
conocen como errores estándar CHA
(consistentes con heteros-
cedasticidad y autocorrelación), o
simplemente errores Newey-West
LA PRUEBA Breusch-Godfrey indica que
no se ha corregido el problema se
correlación serial con el método CHA
…. Variables instrumentales
Según Novales, una variable
instrumental Zt satisface tres
condiciones:
1.No está incluida en el modelo
como variable explicativa.
2.Esta incorrelacionada con el
término del error: E(Ztut)=0.
3.Está correlacionada con la
variable para la cual hace de
instrumento: Yt-1
En general, matricialmente en el
vector Xt tan sólo habrá
variables que no satisfagan la
condición E(Xtut)=0, y son éstas
las que necesitan de variables
instrumentales. Es decir, los
vectores Xt y Zt tendrán en
común aquellas variables que
están incorrelacionadas con el
término de error.
Yt = o + 1Xt + 2Yt-1 + t
El modelo de rezagos distribuidos infinitos, bajo la propuesta de Koyck,
Si el modelo fuera reescrito como (sólo para corroborar los resultados),
El estimador de variables instrumentales, en el que los vectores serían: Xt=(1,
Yt-1, Xt), mientras que Zt=(1, Xt-1, Xt), estaría dado por:
Solución del siguiente sistema de ecuaciones normales, las cuales coinciden
con las proporcionadas por Gujarati como la propuesta de Liviatan. No es una
aplicación directa del método MCO al modelo con el reemplazo de Xt-1 por Yt-1.
Yt = 1 + 2Yt-1 + 3Xt + t
En el sistema, la matriz (Z´X) no es simétrica, pero se supone que es
invertible.
En cuanto a la correlación entre la variable instrumental y la variable
explicativa para la que se utiliza como instrumento:
a) Es importante que dicha correlación exista, puesto que la variable
instrumental Xt-1 sustituye parcialmente a Yt-1.
b) Dicha correlación no puede ser tan importante, puesto que también
existiría una correlación apreciable entre la variable instrumental y el
término del error que motivó la necesidad de la misma.
Mínimos cuadrados en 2 etapas
Los mínimos cuadrados de dos etapas (TSLS)
son un caso especial de regresión de variables
instrumentales. Como su nombre indica, hay
dos etapas distintas en mínimos cuadrados de
dos etapas. En la primera etapa, TSLS
encuentra las porciones de las variables
endógenas y exógenas que pueden atribuirse a
los instrumentos. Esta etapa implica estimar
una regresión MCO de cada variable en el
modelo en el conjunto de instrumentos.
La segunda etapa es una
regresión de la ecuación
original, con todas las
variables reemplazadas
por los valores ajustados
de las regresiones de la
primera etapa. Los
coeficientes de esta
regresión son las
estimaciones de TSLS.
El orden de las variables en el
modelo, no modifican los resultados.