2. CAPITULO I
MODELOS DINÁMICOS
1. INTRODUCCIÓN
1.1. JUSTIFICACIÓN
La necesidad de incluir la dinámica temporal en los modelos es:
• Existencia de desfases en la disponibilidad de información que hacen que las
decisiones se tomen en base a datos del pasado.
• Las decisiones se toman tras un proceso de evaluación que genera un desfase entre la
información evaluada y la acción final.
• Determinados procesos complejos necesitan de un periodo de ejecución que,
nuevamente desfasa la acción final de la información valorada.
• Existencia de medidas o acciones que tienen efecto en más de un periodo.
• La consideración explícita de la evolución pasada como una expectativa de los valores
presentes.
• Existencia de procesos progresivos de ajuste hasta niveles deseados u óptimos.
Sabemos que las variables económicas tienen bastante inercia, lo que hace que una
variable dependa de su propio pasado, además de otras causas. Así por ejemplo: para tratar
de explicar el comportamiento de la inflación , tendría sentido introducir como variables
explicativas, junto con la tasa de crecimiento monetario , retardo de la propia tasa de
inflación:
Es importante observar que la existencia de una relación dinámica entre variables, así
como su mayor o menor persistencia (número de retardos precisos para representarla),
dependen crucialmente de cual sea la frecuencia de observación de los datos que se emplean
en la estimación. Por ejemplo, si una variable influye sobre otra no sólo
contemporáneamente, sino también durante los dos meses siguientes, entonces la relación
sería dinámica si el investigador utiliza datos mensuales, pero resultará estática si utilizase
datos anuales.
3. 2
1.2. TIPOS DE MODELOS
Una tipología de modelos uniecuacionales dinámicos (Basado en Hendry, Pagan y
Sargan, 1984)), el modelo ADL(1,1) es:
Yt = β1 X t + β 2 X t −1 + β 3Yt −1 + ε t
donde Zt es exógena débil en relación a los parámetros de interés ( β1 , β 2 y β 3 ) , y el
error es: (
ε t ~ N 0,σ ε2 ).
Aún cuando todos los modelos tienen una varianza del error, el modelo anterior es
denominado modelo de "tres parámetros". Pese a que es una ecuación muy simple, el modelo
ADL(1,1) incluye representaciones esquemáticas de nueve distintos tipos de modelos
dinámicos como casos especiales. La tabla siguiente presenta estos 9 tipos.
Restricciones en
Tipo de modelo Ecuación
ADL(1,1)
1º Regresión estática Yt = β1 X t + ε t β2 = β3 = 0
2º Serie de tiempo Yt = β 3Yt −1 + ε t β1 = β 2 = 0
univariante
3ºEn diferencias / tasa ∆Yt = β1∆X t −1 + ε t β 3 = 1; β 2 = − β1
de crecimiento
4. 3
Restricciones en
Tipo de modelo Ecuación
ADL(1,1)
4º Indicador β1 = β 3 = 0
Yt = β 2 X t −1 + ε t
adelantado (leading
indicator)
5º Retardos
Yt = β1 X t + β 2 X t −1 + ε t β3 = 0
distribuidos
(distributed lags)
6º Ajuste parcial Yt = β1 X t + β 3Yt −1 + ε t β2 = 0
7º Common factor
(error Yt = β1 X t + ut ut = β 3ut −1 + ε t β 2 = − β 1β 3
autocorrelacionado)
8º Mecanismo de ∆ Yt = β1 X t + (1 − β 3 )( X t −1 − Yt −1 ) + ε t βi = 1
Corrección del Error
9º Forma reducida Yt = β 2 X t −1 + β 3Yt −1 + ε t β1 = 0
(dead start)
Los nueve modelos describen muy diferentes estilos de retardos y respuestas de largo
plazo de y desde x, tiene diferentes ventajas y desventajas como descripciones de
comportamientos de series de tiempo, están diversamente afectados por varios problemas de
mala especificación, y finalmente, conducen a diferentes estrategias de modelización y
estimación.
Los modelos 1º a 4º son claramente modelos de un parámetro, mientras 5º a 9º son de
dos parámetros. Con los supuestos planteados, todos menos el modelos 7º son estimables por
Mínimos Cuadrados Ordinarios (mientras 7º requiere un procedimiento iterativo por mínimos
cuadrados). Cada modelo puede ser interpretado como un modelo "por derecho propio", o
también como una derivación (o una aproximación) del modelo ADL(1,1).
La generalización de cada "tipo" en términos de un número mayor de lags y/o varios
regresores naturalmente aproximan los casos entre sí. En el cuadro se plantean los modelos
más simples para resaltar sus diferencias y sus propiedades específicas.
De todas maneras, las restricciones necesarias para obtener los distintos casos (aún
suponiendo modelos con mayor número de lags y/u otros regresores) en general son difíciles
de justificar. Aún cuando pueden, en ocasiones, existir argumentos teóricos relevantes para
explicar una forma específica, es siempre preferible testear el modelo seleccionado versus la
forma general no restringida (el ADL(1,1)), lo que contribuye a evitar errores de
especificación importantes.
5. 4
1.3. CLASIFICACIÓN
1.3.1. MODELOS INGENUOS DE EXPECTATIVAS
Los modelos más antiguos de expectativas empleaban valores pasados de las variables
relevantes, o bien sencillas extrapolaciones de los mismos, como medición de las variables
esperadas.
Consideremos el modelo:
A menos que se especifique de otra manera, las expectativas se forman con base en los
periodos anteriores de tiempo. Por lo tanto, el modelo sume:
es decir, la compañía cree que la utilidades del próximo periodo serán iguales a las de éste.
Un modelo sencillo de extrapolación indicaría que los beneficios del siguiente periodo
se elevarán en una cantidad igual a la del último incremento. Es decir,
Otro modelo de extrapolación sería indicar que las utilidades se elevarán en un
porcentaje igual al del último aumento. Esto da:
En todos los casos se sustituye en el modelo la utilidad esperada por su fórmula de
formación de expectativas, quedando:
como la formación de expectativas se deriva del exterior y son ajenas al modelo económico,
estas expectativas se consideran exógenas. Por lo tanto, el modelo se estima por mínimos
cuadrados ordinarios.
6. 5
Es necesario modificar de manera adecuada la formación de expectativas, cuando se
cuenta con datos trimestrales o mensuales; porque existen fluctuaciones estacionales. Por
ejemplo, las ventas de diciembre de este año serían comparables con las del mismo mes del
año pasado, debido a la temporada navideña. La formación de expectativas quedaría:
obsérvese que se comparan meses o trimestres correspondientes y que se toma como
parámetro el último aumento porcentual.
No se recomiendan estos modelos, sin embargo, su uso es frecuente como puntos de
referencia para juzgar los datos de cualquier encuesta sobre expectativas.
1.3.2. MODELOS ECONOMÉTRICOS DINÁMICOS
Los planteamientos teóricos que conducen a una especificación dinámica son:
Modelo de EXPECTATIVAS ADAPTABLES. Cagan (1956).
Modelo de AJUSTE PARCIAL Nerlove (1956).
Modelo de EXPECTATIVAS RACIONALES. Munth (1960, 1961).
Aº Modelo de Expectativas Adaptativas
El nivel de la variable endógena Yt depende de un valor no observado de
expectativas de la exógena X t* , así:
Yt = α 0 + β1 X t* + et
Las expectativas se revisan o actualizan en función de las desviaciones
observadas en el pasado, así:
X t* − X t*−1 = λ ( X t −1 − X t*−1 )
Resolviendo la anterior ecuación diferencial se obtiene:
∞
*
X =t λ (1 − λ )i X t −1− i
i =0
Sustituyendo el valor de la expectativa en la 1ª ecuación:
7. 6
∞
Yt = α 0 + β1 λ (1 − λ ) i X t −1−i + et
i =0
Transformado la expresión anterior, queda:
Yt = α 0 λ + β1λX t −1 + (1 − λ )Yt −1 + et − (1 − λ )et −1
EJEMPLO:
P. Cagan propuso un modelo analítico en el que la demanda de saldos
monetarios reales se hacía depender del valor esperado de la tasa de inflación futura:
El mecanismo de expectativas adaptativas, utilizado por Cagan (así como M.
Friedman en su Teoría de Consumo), es:
que postula que los agentes modifican la expectativa a partir de las expectativas del
periodo anterior y considerando el error de predicción cometido.
Si las expectativas de inflación son estáticas y no se
hacen depender del error de predicción que se haya cometido.
Si las expectativas de inflación son totalmente
adaptativas, ya que se adapta como valor esperado de la inflación
futura el valor que la tasa de inflación ha tomado en este período.
Se ignora la información que condujo a formar las expectativas
pasadas.
Si en el mecanismo de expectativas se colocan todas las variables de expectativa
en el primer miembro, nos queda:
π t*+1 − (1 − λ )π t* = λπ t
Si se incorporan las expectativas adaptativas al modelo, se tiene el siguiente
procedimiento:
1º Se retarda el modelo un periodo, así:
8. 7
2º Se multiplica el modelo retardo por ( 1 - ), nos da:
3º Restamos el modelo menos el modelo retardado, dando:
4º Simplificando y reemplazando por la formación de expectativas, nos queda el
modelo transformado siguiente:
Dado que el modelo transformado involucra una regresión de sobre
, esto se conoce como modelo autorregresivo.
Bº Modelo de Ajuste Parcial de Nerlove
Las variables exógenas X t determinan el valor óptimo o deseado de la variable
*
endógena. Yt . Por ejemplo:
Y t* = α 0 + β1X t + et
Sólo se alcanza una parte del valor óptimo en cada periodo, matemáticamente:
Yt − Yt −1 = γ (Yt * − Yt −1 )
Sustituyendo la primera expresión en la segunda:
Yt − Yt −1 = γ (α 0 + β1 X t + et − Yt −1 )
Despejando el valor corriente de la endógena:
9. 8
Yt = γα 0 + β1γX t + (1 − γ )Yt −1 + γet
EJEMPLO:
Supongamos que el nivel de capital deseado en la economía, Kt* , es una función
del nivel de producto Yt :
Kt* = β1 + β 2Yt + ut (1)
Si un investigador quisiera proceder a estimar cómo varía el stock de capital
deseado u óptimo, según la economía transcurre a través de una época de recesión o
de expansión, tendría el grave problema de no disponer de observaciones de Kt* .
Añadimos al modelo anterior una ecuación que describe el mecanismo por el que
el stock de capital se ajusta a su nivel deseado. Supongamos:
Kt − Kt −1 = δ ( Kt* − Kt −1 ) 0<δ <1 ( 2)
postula que el stock de capital observado varía de un período a otro en una proporción
de su distancia con respecto al stock deseado.
Si δ = 1 En cada período el stock de capital es igual a su valor deseado.
(Economía donde el stock de capital no está sujeto a
importantes costes de ajuste).
δ =0 El stock de capital no cambia.
La ecuación ( 2 ) se puede rescribir:
Kt = δKt* + (1 − δ ) Kt −1
K − (1 − δ ) Kt −1
Kt* = t
δ
donde el stock de capital es una combinación lineal convexa del valor deseado y de
su valor previo.
Al reemplazar ( 1 ) en ( 2 ) tenemos:
Kt = δβ1 + δβ 2Yt + (1 − δ ) Kt −1 + δut (3)
Una vez estimado el modelo, el parámetro δ se obtiene del coeficiente de Kt −1 ,
mientras que β 2 se obtendría dividiendo el coeficiente de Yt por el valor de δ y β1
a partir del término independiente estimado.
10. 9
La ecuación ( 3 ) es la demanda de capital a corto plazo y la ecuación ( 1 ) es la
demanda de capital a largo plazo.
Cº Modelo de Expectativas Racionales de Munth
El nivel de la variable endógena Yt depende de las expectativas racionales
formadas sobre el valor de la exógena X t* , así:
Yt = α 0 + β1 X t* + et
Las expectativas racionales se forman con toda la información disponible hasta
el periodo anterior:
X t* = E ( X t θ t −1 )
La esperanza condicional viene representada por un proceso ARMA:
X t = a1 * X t −1 + a2 * X t − 2 + ... + ε t + b1 * ε t −1 + b2 * ε t − 2 + ...
El modelo inicial se convierte en un modelo dinámico:
Yt = α 0 + β1 * ( a1 * X t −1 + a2 * X t − 2 + ... + ε t + b1 * ε t −1 + b2 * ε t − 2 + ...) + et
2. VARIABLE ENDÓGENA REZAGADA
Si aparecen valores retardados de la variable endógena, dejaría de cumplirse uno de los
supuestos bajo los que desarrollamos las teorías de estimación e inferencia del modelo
econométrico, pues algunas de las variables explicativas serían variables aleatorias (ya que Yt
lo es).
El modelo:
Yt = β Yt −1 + ut β <1 (1)
donde u es un proceso de ruido blanco y el estimador de mínimos cuadrados ordinarios es:
T T
Yt Yt −1 Yt −1ut
~ 2
T
( βYt −1 + ut )Yt −1 2
β MCO = T = = β+
2 2 Yt 2 1
−
T
Y t −1 Yt 2 1
−
2 2
11. 10
T
Yt −1ut
el estimador será insesgado si y sólo si se cumple: E 2
T
= 0.
Yt 2 1
−
2
Si la distribución de u fuera independiente de Ys para todo par (t,s), entonces se tendría
para s = 2, ..., T
T T
E (YS −1uS / Yt 2 1 ) = E (YS −1 /
− Yt 2 1 ) E (uS ) = 0
−
2 2
entonces, el estimador de mínimos cuadrados ordinarios sería insesgado.
Sin embargo, (1) muestra que las distribuciones de Yt y us no son independientes,
puesto que si el valor absoluto de β es inferior a la unidad, entonces:
∞
Yt = β s ut − s
s= 0
como Yt depende de ut y de valores retardados de ut ; por lo tanto, el estimador de mínimos
cuadrados del modelo (1) será, en general, sesgado.
El problema se complica sustancialmente cuando aparecen valores retardados de la
variable endógena como variables explicativas y, además el término de error tiene
autocorrelación:
Yt = β Yt −1 + ut β <1
ut = ρ ut −1 + ε t
la variable explicativa Yt −1 está correlacionada con ut −1 , y a su vez, está correlacionada con ut ;
entonces una de las variables explicativas del modelo está correlacionada con el término de
error, por lo que ya no se tiene E (Yt −1ut ) = 0 . No podemos garantizar la consistencia del
estimador de mínimos cuadrados ordinarios.
Por lo tanto, el estimador mínimo cuadrado de los coeficientes del modelo para que sea
consistente es que se tenga E ( X t − S ut ) = 0 para todo s ≥ 0 y para todas las variables
explicativas del modelo se tiene:
Var.Pr e det er min ada E ( X t − S ut ) = 0 s≥ 0
Var. Exogena E ( X t − S ut ) = 0 ∀s
12. 11
2.1. EL TÉRMINO DE ERROR NO TIENE AUTOCORRELACIÓN
El modelo especificado es:
Yt = β1 + β 2Yt −1 + β 3 X t + ut β2 < 1 (1)
cuyas variables explicativas y término de error satisfacen las siguientes propiedades:
2
1º No existe autocorrelación, es decir: E (u) = 0T , E (uu ′ ) = σ u I T .
2º X t es determinista, es decir: E ( X t ut ) = 0, ∀t .
3º E (Yt −1ut ) = 0 aunque Yt −1 es estocástica, si β 2 < 1 , Yt −1 depende de ut −1 , ut − 2 , ...,
pero no de ut , y si este proceso es un ruido blanco, entonces se tiene el resultado
citado.
X ′X
4º p lim = Σ XX matriz simétrica, definida positiva, donde:
T
T T
T −1 Yt −1 Xt
2 2
T T
X ′X = Yt 2 1
− Yt −1 X t
2 2
T
X t2
2
Esta condición se satisface bajo el supuesto β 2 < 1 , siempre que existan las varianzas
y covarianzas de las variables explicativas X t e Yt −1 .
Sabemos que:
~
β MCO = β + ( X ′X ) −1 X ′u ( 2)
aplicando probabilidad límite nos da:
−1 −1
~ X ′X X ′u X ′X X ′u
p lim β MCO = p lim β + = β + p lim p lim
T T T T
13. 12
según el teorema de Mann-Wald1 nos queda:
~
p lim β MCO = β + Σ −1 0 K = β
XX
por lo tanto, el estimador de mínimos cuadrados ordinarios es consistente.
A veces no se está interesado en la distribución de un estimador, sino en la de una
función del mismo. De la ecuación (2) deducimos:
−1
~ X ′X X ′u
( β MCO − β ) =
T T
multiplicando por la raíz de T nos da:
−1
~ X ′X X ′u
T ( β MCO − β ) =
T T
aplicando el teorema de Mann-Wald2 tenemos:
~
T ( β MCO − β ) ⎯⎯ →( Σ
D
⎯ XX ) −1
N (0, σ u Σ
2
XX )= (
N 0, σ u ( Σ
2
XX ) −1
)
Esta distribución sólo es rigurosamente válida según tienda el tamaño muestral a infinito.
En la práctica, se realiza la aproximación siguiente:
1º Pasando T y β a la derecha, entonces:
~ σ u2
D
β MCO ⎯⎯ → N β ,
⎯
T
(Σ ) XX
−1
en muestras grandes.
X ′X
2º Para muestras suficientemente grande, el límite de Σ XX es ; entonces, la
T
X ′X
matriz Σ XX puede sustituirse por .
T
1 X ′X
Si E (u) = 0, E ( uu ′ ) = σ 2 I T , E ( X i′u) = 0 y p lim
u = Σ XX < ∞ , entonces se
T
X ′u
tiene que : p lim = 0K .
T
2 2 X ′X
Si E (u) = 0, E (uu ′ ) = σ u I T , E ( X i′u) = 0 y p lim = Σ XX < ∞ , entonces se tiene
T
X ′u D 2
que: ⎯ → N (0, σ u Σ
⎯ XX )
T
14. 13
Por lo tanto, la matriz de covarianzas se aproxima a:
~
( )
Var β MCO = σ u ( X ′X )
2 −1
En cuanto el término de error esté libre de autocorrelación, está justificado el uso de
mínimos cuadrados en un modelo que incluye retardos de la variable endógena. Puede utilizarse
la matriz de covarianzas habitual de dicho estimador, quien tiene además una distribución
normal en muestras grandes, por lo que los resultados de inferencia estadística son
aproximadamente válidas.
Lo anterior es válido con independencia del número de retardos de la variable endógena
que aparecen como variables explicativas.
EJEMPLO 1:
Se tiene información trimestral para el periodo 1959 - 1996 de las variables
siguientes:
GCP Gasto de consumo personal.
IPD Ingreso personal disponible.
SYS Sueldos y salarios.
R Tasa de interés activa promedio
especificamos la función consumo siguiente:
GCPt = α 0 + α1 SYS t + α 2 GCPt −1 + ut
se estima por mínimos cuadrados ordinarios y se obtiene el siguientes resultado:
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1959:2 1996:1
Included observations: 148 after adjusting endpoints
==========================================================
Variable Coefficient Std. Error t-Statistic Prob.
==========================================================
C -9.587087 2.659345 -3.605055 0.0004
SYS 0.173464 0.020306 8.542600 0.0000
GCP(-1) 0.891955 0.014170 62.94613 0.0000
==========================================================
R-squared 0.999935 Mean dependent var 1854.654
Adjusted R-squared 0.999934 S.D. dependent var 1471.192
S.E. of regression 11.97949 Akaike info criteri 7.824331
Sum squared resid 20808.68 Schwarz criterion 7.885085
Log likelihood -576.0005 F-statistic 1108462.
Durbin-Watson stat 1.992817 Prob(F-statistic) 0.000000
==========================================================
15. 14
para determinar si mínimos cuadrados ordinarios es el método de estimación adecuado debemos
verificar autocorrelación:
h de Durbin:
H 0 : Ausencia de autocorrelacion 1º orden .
se estima el rho:
DW 1..99281692505
ρ = 1− = 1− = 0.00359153747518
2 2
se calcula el estadístico h y se compara con el estadístico de la tabla normal, de la forma
siguiente:
148
h = 0.00359153747518 = 0.0443569947499 < 1645
.
1 − 148( 0.000200792518378)
Por lo tanto, se acepta la hipótesis nula
Box Pierce:
H 0 : Ausencia de autocorrelacion orden m .
se obtiene del Eviews:
Correlogram of Residuals
==============================================================
Sample: 1959:2 1996:1
Included observations: 148
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
.|. | .|. | 1 0.001 0.001 0.0002 0.989
.|* | .|* | 2 0.083 0.083 1.0538 0.590
==============================================================
m=1
se calcula el estadístico q y se compara con el estadístico de la tabla chi cuadrado, de la forma
siguiente:
QBP = 148(0.0012 ) = 0.000184 < 384
.
Por lo tanto, se acepta la hipótesis nula
16. 15
m=2
se calcula el estadístico q y se compara con el estadístico de la tabla chi cuadrado, de la forma
siguiente:
QBP = 148(0.0012 + 0.0832 ) = 1025685
. < 5.99
Por lo tanto, se acepta la hipótesis nula
Breusch-Godfrey:
H 0 : Ausencia de autocorrelacion orden m .
m=1
se obtiene del Eviews:
Breusch-Godfrey Serial Correlation LM Test:
=====================================================
F-statistic 0.000181 Probability 0.989287
Obs*R-squared 0.000186 Probability 0.989120
=====================================================
se calcula el estadístico LM y se compara con el estadístico de la tabla chi cuadrado, de la
forma siguiente:
LM = 0.000186 < 384
.
Por lo tanto, se acepta la hipótesis nula
m=2
se obtiene del Eviews:
Breusch-Godfrey Serial Correlation LM Test:
=====================================================
F-statistic 0.521517 Probability 0.594744
Obs*R-squared 1.071686 Probability 0.585176
=====================================================
se calcula el estadístico LM y se compara con el estadístico de la tabla chi cuadrado, de la
forma siguiente:
LM = 1071686
. < 5.99
Por lo tanto, se acepta la hipótesis nula.
Concluimos que el método de estimación de mínimos cuadrados ordinarios es el
adecuado.
17. 16
EJEMPLO 2:
Especificamos la función consumo siguiente:
GCPt = α 0 + α 1SYSt + α 2 Rt + α 3GCPt −1 + ut
se estima por mínimos cuadrados ordinarios y se obtiene el siguientes resultado:
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1959:2 1996:1
Included observations: 148 after adjusting endpoints
=========================================================
Variable Coefficient Std. Error t-Statistic Prob.
=========================================================
C -8.224413 2.632759 -3.123876 0.0022
SYS 0.256588 0.034484 7.440758 0.0000
R -1.823686 0.619578 -2.943434 0.0038
GCP(-1) 0.834550 0.023897 34.92267 0.0000
=========================================================
R-squared 0.999938 Mean dependent var 1854.654
Adjusted R-squared 0.999937 S.D. dependent var 1471.192
S.E. of regression 11.67493 Akaike info criteri 7.779419
Sum squared resid 19627.77 Schwarz criterion 7.860425
Log likelihood -571.6770 F-statistic 778035.5
Durbin-Watson stat 1.997412 Prob(F-statistic) 0.000000
=========================================================
para determinar si mínimos cuadrados ordinarios es el método de estimación adecuado
debemos verificar autocorrelación:
h de Durbin:
H 0 : Ausencia de autocorrelacion 1º orden .
se estima el rho:
DW 1..9974120053
ρ = 1− = 1− = 0.00129399735245
2 2
se calcula el estadístico h y se compara con el estadístico de la tabla normal, de la forma
siguiente:
148
h = 0.00129399735245 = 0.0164527854599 < 1645
.
1 − 148( 0.00057107024696)
Por lo tanto, se acepta la hipótesis nula
18. 17
Box Pierce:
H 0 : Ausencia de autocorrelacion orden m .
se obtiene del Eviews:
Correlogram of Residuals
==============================================================
Sample: 1959:2 1996:1
Included observations: 148
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
.|. | .|. | 1 -0.002 -0.002 0.0008 0.977
.|* | .|* | 2 0.088 0.088 1.1739 0.556
==============================================================
m=1
se calcula el estadístico q y se compara con el estadístico de la tabla chi cuadrado, de la forma
siguiente:
QBP = 148( − 0.002) = 0.000793
2
< 384
.
Por lo tanto, se acepta la hipótesis nula
m=2
se calcula el estadístico q y se compara con el estadístico de la tabla chi cuadrado, de la forma
siguiente:
( 2
)
QBP = 148 ( − 0.002) + 0.088 2 = 1142607
. < 5.99
Por lo tanto, se acepta la hipótesis nula
Breusch-Godfrey:
H 0 : Ausencia de autocorrelacion orden m .
m=1
se obtiene del Eviews:
Breusch-Godfrey Serial Correlation LM Test:
=========================================================
F-statistic 0.000834 Probability 0.977003
Obs*R-squared 0.000863 Probability 0.976564
=========================================================
19. 18
se calcula el estadístico LM y se compara con el estadístico de la tabla chi cuadrado, de la
forma siguiente:
LM = 0.000863 < 384
.
Por lo tanto, se acepta la hipótesis nula
m=2
se obtiene del Eviews:
Breusch-Godfrey Serial Correlation LM Test:
=========================================================
F-statistic 0.600709 Probability 0.549810
Obs*R-squared 1.241676 Probability 0.537494
=========================================================
se calcula el estadístico LM y se compara con el estadístico de la tabla chi cuadrado, de la
forma siguiente:
LM = 1241676
. < 5.99
Por lo tanto, se acepta la hipótesis nula.
Concluimos que el método de estimación de mínimos cuadrados ordinarios es el adecuado.
2.2. EL TÉRMINO DE ERROR TIENE AUTOCORRELACIÓN
El modelo especificado es:
Yt = β1 + β 2Yt −1 + β 3 X t + ut β2 < 1 (1)
y sigue un patrón de autocorrelación de primer orden, es decir:
ut = ρ ut − 1 + ε t
donde ε t es ruido blanco.
La existencia de autocorrelación en el término de error hace que la propiedad del caso
( )
anterior no se satisfaga. E (Yt −1ut ) ≠ 0 . Por ejemplo: Asumamos en (1) que β1 = β 3 = 0 ,
entonces el modelo queda:
Yt = β 2 Yt −1 + ut
tenemos:
20. 19
( )
E (Yt −1ut ) = E ( β 2 Yt − 2 + ut −1 )ut = β 2 E (Yt − 2 ut ) + E (ut −1ut )
(
E (Yt −1ut ) = β 2 E (Yt − 2 ut ) + E ( ρ ut −1 + ε )ut −1 )
E (Yt −1ut ) = β 2 E (Yt − 2 ut ) + ρ E (ut2−1 ) + E (ε t ut −1 )
E (Yt −1ut ) − β 2 E (Yt − 2 ut ) = ρσ u2
( )
E (Yt −1ut ) − β 2 E Yt − 2 ( ρ ut −1 + ε t ) = ρσ u2
E (Yt −1ut ) − ρβ 2 E (Yt − 2 ut −1 ) − β 2 E (Yt − 2 ε t ) = ρσ u2
E (Yt −1ut ) − ρβ 2 E (Yt −1ut ) = ρσ u2
(1 − ρβ ) E (Y
2 t −1 t u ) = ρσ u2
ρσ u2
E (Yt −1ut ) =
(1 − ρβ ) 2
como Yt −1 depende de ut −1 a través del modelo, pero ut −1 y ut están relacionados con la
estructura autoregresiva del término de error. En consecuencia Yt −1 y ut están correlacionados;
por lo tanto, el estimador de mínimos cuadrados es sesgado.
Sabemos que:
T
Yt −1ut
2
p lim
T
~
(
p lim β2 MCO = β2 +) T
Yt 2 1
−
2
p lim
T
y si los momentos muestrales convergen en probabilidad a sus análogos poblacionales, el
numerador y el denominador son diferentes de cero; por lo tanto, el estimador de mínimos
cuadrados no es consistente. Es decir, el sesgo no desaparece al aumentar el tamaño muestral.
El procedimiento para obtener estimaciones consistentes de un modelo de este tipo se
conoce como estimador de variables instrumentales.
Una variable instrumental es una variable Z t que satisface tres condiciones:
1º No está incluida en el modelo como variable explicativa.
21. 20
2º Está incorrelacionada con el término de error E ( Z t ut ) = 0 . ( )
3º Está correlacionada con la variable para la cual hace de instrumento.
En cuanto a la correlación que debe existir entre una variable instrumental y la variable
explicativa para la que se utiliza, como instrumento, cabe observar lo siguiente:
1º Es importante que dicha correlación exista, porque la variable instrumental sustituye
parcialmente a la variable endógena rezagada en la estimación del modelo
econométrico.
2º Dicha correlación no puede ser muy importante, sino también existiría una correlación
apreciable entre la variable instrumental y el término de error (esto motivó la necesidad
de la variable instrumental).
El primer retardo de la variable exógena ( X t −1 ) satisface estas tres condiciones,
también podría utilizarse el segundo retardo ( X t −2 ) como variable instrumental; la diferencia
es que la relación entre esta variable y Yt −1 se hace más indirecta.
En general, en el vector X tan sólo habrá unas variables que no satisfagan la condición
E ( Xu) = 0 , y son estas variables las que necesitan de variables instrumentales. Es decir, los
vectores X y Z tendrán en común aquellas variables que están incorrelacionadas con el término
de error. El estimador de variables instrumentales viene dado:
~
βVI = ( Z ′X ) −1 Z ′Y
donde Z denota la matriz T x K de observaciones muestrales de las variables que componen el
vector Z y suponemos que Z ′X es invertible. Para el ejemplo:
[
X = 1 Yt −1 Xt ] [
Z = 1 X t −1 Xt ]
el estimador de variables instrumentales es:
T T −1 T
~ T−1 Yt −1 Xt Yt
β1 T T
2
T
2
T
2
~
β2 = X t −1 X t −1Yt −1 X t X t −1 X t −1Yt
~ 2 2 2 2
β3 VI
T T T T
Xt X t Yt −1 X t2 X t Yt
2 2 2 2
la matriz Z ′X dista de ser simétrica.
El estimador de variables instrumentales del modelo, en general, es sesgado porque la
variable Yt −1 aparece en la matriz Z ′X ; pero el estimador es consistente bajo las condiciones
de la proposición siguiente:
22. 21
Sea Z una matriz T x K de observaciones de las variables Z1 , Z 2 ,..., Z K , quizá
aleatorias. Sea Zt′ la fila t de Z y supongamos que se tiene:
E ( Z t′u) = 0 K ∀t
Z ′X Z ′Z
p lim = ZX , p lim = ZZ
T T
ambas matrices son singulares y finitas, entonces tenemos:
−1 −1
~ Z ′X Z ′u Z ′X Z ′u
( )
p lim βVI = β + p lim
T T
= β + p lim
T
p lim
T
reemplazando por los supuestos nos da:
~
( )
p lim βVI = β + −1
ZX 0K = β
~
la consistencia de βVI proviene de la ausencia de correlación entre instrumentos y término de
error, con independencia de que éste tenga o no autocorrelación.
~
En ausencia de autocorrelación, podemos caracterizar la distribución asintótica de βVI
de la forma siguiente:
Dado el modelo Yt = X t′β + ut , donde X t es el vector de variables explicativas, que
puede incluir algunos retardos de la variable endógena, y ut , el término de error es un ruido
blanco, sea X la matriz T x K de observaciones de las variables Z1 , Z 2 ,..., Z K , y supongamos
que:
E ( Z t′u) = 0 K ∀t
Z ′X
p lim = ZX simetrica , definida positiva
T
Z ′Z
p lim = ZZ no sin gular
T
el teorema de Mann - Wald asegura que bajo los tres supuestos mencionados se tiene:
Z ′u Z ′u
p lim = 0K y ≈ N (0 K , σ u2 ZZ )
T T
y como:
23. 22
−1
~ Z ′X Z ′u
(
T βVI − β =
T
) T
converge en distribución a:
~
(
T βVI − β ≈ ) ( ) N (0 ZX
−1
K
2
,σ u ZZ )
~ ′
T (β VI − β ) ≈ N 0 ,σ K
2
u
−1
ZX ZZ ( −1
ZX )
2
~ σ ′
βVI ≈ N β ,
T
u −1
ZX ZZ ( −1
ZX )
Por lo tanto, este resultado justifica que en muestras grandes se utilice como matriz de
covarianzas del estimador de variables instrumentales:
σ u2 ′
Var βVI = ( )~
T
( −1
ZX ) ZZ [( ZX ) −1
]
Z ′X Z ′Z
y se utiliza las matrices de momentos muestrales , para aproximar sus límites
T T
respectivos de ZX , ZZ ; reemplazando nos da:
−1 −1
σ u2
~
( )
Var βVI =
T
Z ′X
T
Z ′Z
T
Z ′X
T
−1
= σ u ( Z ′X ) ( Z ′Z ) ( Z ′X )
2 −1
[ ]′
2
El parámetro σ u se estimaría dividiendo la suma residual por el número de grados de
libertad ( T-K ). Los residuos deben calcularse utilizando las variables originales del modelo,
es decir:
~
σ u2 =
(Y − Xβ )′ (Y − Xβ )
~ ~
VI VI
T− K
Este resultado no puede generalizarse fácilmente al caso en que el término de error
tiene autocorrelación, por lo que suele utilizarse la matriz de covarianza anterior incluso en tal
caso, aun a sabiendas que no es sino una aproximación.
Se ha presentado el estimador de variables instrumentales como si se dispusiese de un
número de instrumentos igual al número de variables explicativas, entonces no existe diferencia
24. 23
entre instrumentos y variables instrumentales.
Generalmente, se dispondrá de un número mayor de instrumentos que de variables
instrumentales, situación que se denomina " sobreidentificación"; por lo tanto, habría muchas
formas de construir las variables instrumentales que precisamos para obtener consistencia.
La matriz de covarianzas del estimador de variables instrumentales depende de los
valores de éstas, por lo que el modo en que los instrumentos se “combinan” para generar
variables instrumentales influye sobre la eficiencia de un estimador de variables instrumentales
respecto a otro estimador de su misma clase.
Consideremos el modelo siguiente:
en el que las variables , supuestos deterministas, están incorrelacionados con
el término de error, y son instrumentos válidos. Pero sólo necesitamos una variable instrumental
para , y se trataría de buscar cuál de todas las posibles minimiza la varianza del estimador
resultante. Además cualquier combinación lineal de los
instrumentos es asimismo un instrumento válido.
Una posibilidad consiste en generar la variable instrumental que presente mayor
correlación con Yt −1 , entonces estimamos una regresión auxiliar de esta variable sobre los tres
~
instrumentos de que disponemos, para obtener la variable generada Yt −1 , que será una
combinación lineal de X 1t −1 , X 2 t −1 y X 3t −1 y, como tal, una variable instrumental válida.
~
La utilización del vector Z t′ = (Yt −1 , X 1t , X 2 t , X 3t ) genera el denominado estimador de
(~
mínimos cuadrados en dos etapas β MC 2 E . )
El estimador de mínimos cuadrados bietápicos es el estimador lineal de variables
instrumentales eficiente, en el sentido de tener mínima matriz de covarianza entre los
estimadores que utilizan como variables instrumentales combinaciones lineales de los
instrumentos disponibles.
La aplicación del método de mínimos cuadrados bietápicos requiere los siguientes
pasos:
1º Estimar una regresión auxiliar de sobre los tres instrumentos de que
~
disponemos, para obtener la variable predicha Yt −1 , que será una combinación lineal
de y, como tal, es una variable instrumental válida.
~
2º Se sustituye en el modelo original por Yt −1 y se estima el modelo transformado
25. 24
por mínimos cuadrados ordinarios.
EJEMPLO 3:
Especificamos la función consumo siguiente:
GCPt = α 0 + α 1 IPDt + α 2 GCPt −1 + ut
se estima por mínimos cuadrados ordinarios y se obtiene el siguientes resultado:
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1959:2 1996:1
Included observations: 148 after adjusting endpoints
=========================================================
Variable Coefficient Std. Error t-Statistic Prob.
=========================================================
C 0.248943 1.870295 0.133104 0.8943
IPD 0.193060 0.022728 8.494528 0.0000
GCP(-1) 0.801910 0.024844 32.27830 0.0000
=========================================================
R-squared 0.999934 Mean dependent var 1854.654
Adjusted R-squared 0.999933 S.D. dependent var 1471.192
S.E. of regression 12.00206 Akaike info criteri 7.828095
Sum squared resid 20887.16 Schwarz criterion 7.888850
Log likelihood -576.2790 F-statistic 1104297.
Durbin-Watson stat 1.709616 Prob(F-statistic) 0.000000
=========================================================
para determinar si mínimos cuadrados ordinarios es el método de estimación adecuado
debemos verificar autocorrelación:
h de Durbin:
H 0 : Ausencia de autocorrelacion 1º orden .
se estima el rho:
DW 17096162998
.
ρ = 1− = 1− = 0145191850101
.
2 2
se calcula el estadístico h y se compara con el estadístico de la tabla normal, de la forma
siguiente:
148
h = 0145191850101
. = 1852993577
. > 1645
.
1 − 148( 0.000617205200589)
Por lo tanto, se rechaza la hipótesis nula
26. 25
Box Pierce:
H 0 : Ausencia de autocorrelacion orden m .
se obtiene del Eviews:
Correlogram of Residuals
==============================================================
Sample: 1959:2 1996:1
Included observations: 148
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
.|* | .|* | 1 0.145 0.145 3.1700 0.075
.|* | .|* | 2 0.168 0.150 7.4631 0.024
==============================================================
m=1
se calcula el estadístico q y se compara con el estadístico de la tabla chi cuadrado, de la forma
siguiente:
QBP = 148(01452 ) = 3106615
. . < 384
.
Por lo tanto, se acepta la hipótesis nula
m=2
se calcula el estadístico q y se compara con el estadístico de la tabla chi cuadrado, de la forma
siguiente:
QBP = 148(01452 + 0168 2 ) = 7.285250
. . > 5.99
Por lo tanto, se rechaza la hipótesis nula
Breusch-Godfrey:
H 0 : Ausencia de autocorrelacion orden m .
m=1
se obtiene del Eviews:
Breusch-Godfrey Serial Correlation LM Test:
=========================================================
F-statistic 3.191138 Probability 0.076143
Obs*R-squared 3.208674 Probability 0.073249
=========================================================
27. 26
se calcula el estadístico LM y se compara con el estadístico de la tabla chi cuadrado, de la
forma siguiente:
LM = 3.208674 < 384
.
Por lo tanto, se acepta la hipótesis nula
m=2
se obtiene del Eviews:
Breusch-Godfrey Serial Correlation LM Test:
=========================================================
F-statistic 3.412127 Probability 0.035678
Obs*R-squared 6.741162 Probability 0.034370
=========================================================
se calcula el estadístico LM y se compara con el estadístico de la tabla chi cuadrado, de la
forma siguiente:
LM = 6.741162 > 5.99
Por lo tanto, se rechaza la hipótesis nula.
Concluimos que mínimos cuadrados ordinarios no es el método de estimación
adecuado y debemos aplicar el método de variables instrumentales de la siguiente forma:
Primero creamos los grupos y a continuación se convierten en matrices, tenemos los
grupos siguientes:
G1 = [ 1 IPD GCP(-1) ] ≡ X
G2 = [ GCP ] ≡ Y
G3 = [ 1 IPD IPD(-1) ] ≡ Z
Obtenemos el estimador de los coeficientes de variables instrumentales, así:
~
α0 − 4.191603
~ ~ −1
αVI = α1 = ( Z ′X ) Z ′Y = 0.298547
~
α2 0.686558
a continuación se calcula el estimador de la varianza de la perturbación, de la siguiente
manera:
~
σ u2 =
(Y − Xβ )′ (Y − Xβ ) = 165.4665
~
VI
~
VI
148 − 3
28. 27
ahora se estima la varianza de los estimadores de variable intsrumental, así:
6.861411 − 0.093411 0101153
.
~
( )
Var βVI ~ 2 ( Z ′X ) −1 ( Z ′Z )( Z ′X ) −1 = − 0.093411 0.002198 − 0.002403
= σu
0101153
. − 0.002403 0.002628
con esta información podemos calcular el t estadístico para cada estimador de variable
instrumental, de la forma siguiente:
tα 0
~
~ - 1.60019686721
αi
t αVI = t α 1 =
~ ~ = 6.36810211651
tα 2
~
VAR(α i ) 13.3934789812
EJEMPLO 4:
Especificamos la función consumo siguiente:
GCPt = α 0 + α 1 IPDt + α 2 Rt + α 3GCPt −1 + ut
se estima por mínimos cuadrados ordinarios y se obtiene el siguientes resultado:
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1959:2 1996:1
Included observations: 148 after adjusting endpoints
=========================================================
Variable Coefficient Std. Error t-Statistic Prob.
=========================================================
C 2.046243 2.649849 0.772211 0.4413
IPD 0.214902 0.032202 6.673643 0.0000
R -0.495999 0.517889 -0.957733 0.3398
GCP(-1) 0.778189 0.035086 22.17975 0.0000
=========================================================
R-squared 0.999935 Mean dependent var 1854.654
Adjusted R-squared 0.999933 S.D. dependent var 1471.192
S.E. of regression 12.00548 Akaike info criteri 7.835259
Sum squared resid 20754.96 Schwarz criterion 7.916265
Log likelihood -575.8092 F-statistic 735778.3
Durbin-Watson stat 1.679188 Prob(F-statistic) 0.000000
=========================================================
para determinar si mínimos cuadrados ordinarios es el método de estimación adecuado
debemos verificar autocorrelación:
29. 28
h de Durbin:
H 0 : Ausencia de autocorrelacion 1º orden .
se estima el rho:
DW 1..67918769606
ρ = 1− = 1− = 0160406151972
.
2 2
se calcula el estadístico h y se compara con el estadístico de la tabla normal, de la forma
siguiente:
148
h = 0160406151972
. = 2.15786848852 > 1645
.
1 − 148( 0.00123099578102)
Por lo tanto, se rechaza la hipótesis nula.
Box Pierce:
H 0 : Ausencia de autocorrelacion orden m .
se obtiene del Eviews:
Correlogram of Residuals
===========================================================
Sample: 1959:2 1996:1 Included observations: 148
===========================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
===========================================================
.|* | .|* | 1 0.160 0.160 3.8730 0.049
.|* | .|* | 2 0.180 0.158 8.8008 0.012
===========================================================
m=1
se calcula el estadístico q y se compara con el estadístico de la tabla chi cuadrado, de la forma
siguiente:
2
QBP = 148(016) = 3.7888
. < 384
.
Por lo tanto, se acepta la hipótesis nula
m=2
se calcula el estadístico q y se compara con el estadístico de la tabla chi cuadrado, de la forma
siguiente:
( . . )
QBP = 148 ( 016) + 018 2 = 8.591901
2
> 5.99
Por lo tanto, se rechaza la hipótesis nula.
30. 29
Breusch-Godfrey:
H 0 : Ausencia de autocorrelacion orden m .
m=1
se obtiene del Eviews:
Breusch-Godfrey Serial Correlation LM Test:
=========================================================
F-statistic 4.321373 Probability 0.039423
Obs*R-squared 4.341279 Probability 0.037199
=========================================================
se calcula el estadístico LM y se compara con el estadístico de la tabla chi cuadrado, de la
forma siguiente:
LM = 4.341279 > 384
.
Por lo tanto, se rechaza la hipótesis nula
m=2
se obtiene del Eviews:
Breusch-Godfrey Serial Correlation LM Test:
=========================================================
F-statistic 4.734702 Probability 0.010219
Obs*R-squared 9.252508 Probability 0.009791
=========================================================
se calcula el estadístico LM y se compara con el estadístico de la tabla chi cuadrado, de la
forma siguiente:
LM = 9.252508 > 5.99
Por lo tanto, se rechaza la hipótesis nula.
La estimación de mínimos cuadrados ordinarios presenta autocorrelación y el modelo
tiene dos variables exógenas, entonces el método adecuado es mínimos cuadrados en dos
etapas.
En el Eviews escribimos el comando siguiente:
TSLS GCP C IPD R GCP(-1) @ C IPD IPD(-1) R R(-1)
se obtiene del Eviews:
31. 30
Dependent Variable: GCP
Method: Two-Stage Least Squares
Sample(adjusted): 1959:2 1996:1
Included observations: 148 after adjusting endpoints
Instrument list: C IPD IPD(-1) R R(-1)
=========================================================
Variable Coefficient Std. Error t-Statistic Prob.
=========================================================
C 1.645073 2.834786 0.580316 0.5626
IPD 0.194944 0.059191 3.293451 0.0012
R -0.269375 0.765920 -0.351701 0.7256
GCP(-1) 0.799938 0.064501 12.40185 0.0000
=========================================================
R-squared 0.999935 Mean dependent var 1854.654
Adjusted R-squared 0.999933 S.D. dependent var 1471.192
S.E. of regression 12.02149 Sum squared resid 20810.34
F-statistic 733707.8 Durbin-Watson stat 1.711471
Prob(F-statistic) 0.000000
=========================================================
3. VARIABLE EXÓGENA REZAGADA
Si el modelo es del tipo:
Yt = β1 + β 2 X 2 t + β 3 X 2 t −1 + ...+ β S X 2 t − S + ut
no se incumplen las hipótesis básicas del modelo lineal general, porque las distintas variables
explicativas del modelo de regresión son todas deterministas.
En este modelo aparecen tan sólo dos posibles dificultades:
1º Los retardos consecutivos de una variable económica tienden a estar correlacionados
entre sí, tanto más cuanto mayor sea la estructura de autocorrelación de dicha variable.
Cuanto mayor sea la correlación entre los retardos de X t , más importante será la
presencia de alto grado de multicolinealidad.
2º Cuando la estructura de retardos es de orden infinito, entonces es imposible estimar
directamente el modelo, porque no tendríamos observaciones suficientes para ello.
Para estimar este modelo es imprescindible imponer a priori algún tipo de restricción
entre los coeficientes, de modo que el modelo pueda transformarse en otro con un
número reducido de variables explicativas.
En la formación de expectativas, otros modelos utilizan el total de la historia,
asignando pesos específicos que decrecen a los valores anteriores, a medida que se retrocede
hacia el pasado distante. Estos se conocen como modelos de expectativas de rezagos
distribuidos.
32. 31
Las posibles soluciones al problema de estimación en presencia de variables exógenas
retardadas son los siguientes:
1º Utilizar estimadores adecuados en el caso de multicolinealidad severa
(ESTIMADORES CRESTA).
β ( k ) = ( X ' X + kI ) −1 X ' Y
ˆ
2º Elaborar una única variable transformada, por ejemplo:
r
r r r
Zt = X t −i Zt = X t −i /( r + 1) Zt = pi X t − i pi
i =0 i =0 i =0 i =0
3º Estimar con distribuciones de retardos.
Yt = α * W ( L ) X t + et
Wt = ω 0 + ω1 L + ω 2 L2 + ω 3 L3 + ... + ω r Lr
3.1. RETARDOS FINITOS
Consideremos el siguiente modelo de Demanda de saldos reales:
el mecanismo de expectativas adaptativas es:
también se puede expresar de la siguiente forma:
K
*
π t +1 = γ i π t −i
i=0
Esto recibe el nombre de rezago distribuido finito, ya que el número de valores
rezagados o pasados es finito. son los pesos específicos que se asignan a
estos valores pasados.
El modelo de rezago distribuido finito se obtiene sustituyendo la ecuación de ajuste
de expectativas en el modelo original, el resultado es el siguiente:
33. 32
multiplicando y simplificando se obtiene:
en términos de sumatoria sería:
K K K
Mt
= β1 + β 2 γ i π t −i + ut = β1 + β 2γ i π t −i + ut = β1 + β i*π t −i + ut
Pt i =o i =o i =o
Los retardos consecutivos de una variable económica tienden a estar correlacionados
entre sí, tanto más cuanto mayor sea la estructura de autocorrelación de dicha variable; por
lo tanto, cuanto mayor sea la correlación entre los retardos de , más importante será la
presencia de alto grado de multicolinealidad.
Existen planteamientos alternativos de distribuciones de retardos finitos, por ejemplo:
1º Aritmética:
r
W ( L) = ( r + 1 − i ) Li
i =0
2º V Invertida:
s −1 r
i
W ( L) = (1 + i ) L + ( r + 1 − i ) Li con s = r / 2
i =0 i=s
3º Almon:
r
W ( L) = (γ 0 + γ 1i + γ 2i 2 + ... + γ q i q ) Li
i =0
4º Shiller:
r
W ( L) = (γ 0 + γ 1i + γ 2i 2 + ... + γ q i q + υ i ) Li con υ i ≈ N (0, σ 2υ )
i =0
34. 33
5º Armónicas:
q
2π
W ( L) = β + ( Ak sen θ kj + Bk cos θ kj ) Li con θ kj = k. j
k =0 n +1
Consideraremos a Almon que generalizó para el caso en que sigue un polinomio
de grado r en i. Esto se conoce como rezago de Almon o polinomial. Se denota como PDL
(K, r), donde PDL significa una distribución polinomial de rezagos, K es la longitud de
rezagos y r es el grado del polinomio. Por ejemplo, si r = 2, escribimos:
Sustituyendo el PDL en el modelo transformado, se obtiene:
definiendo:
reemplazando en el modelo anterior, nos queda:
se estima el modelo por mínimos cuadrados ordinarios y se obtiene los estimados de , luego
a partir del polinomio se calcula los valores de .
Al reducir el número de parámetros a estimar, se simplifica el modelo original y
disminuye el riesgo de alto grado de multicolinealidad en el modelo auxiliar, aunque al ser
éste más restrictivo, cabe la posibilidad que el modelo resultante auxiliar no esté bien
especificado, lo que originaría sesgos en las estimaciones de sus parámetros.
Aunque todos los desarrollos se han realizado considerando una sola variable exógena X t
con varios retardos, los polinomios anteriores se pueden aplicar a estructuras más complejas
de retardos distribuidos en distintas variables exógenas y en la endógena.
Los rezagos polinomiales suponen tres tipos de problema:
1º Problemas de distribuciones de cola prolongada.- es difícil captar distribuciones de
retardo de colas prolongadas, como la que se observa en el gráfico.
35. 34
Para resolver este problema puede utilizarse un polinomio por tramos, o bien
un polinomio para la inicial y un rezago de Koyck o geométrico para la última
parte.
2º Problema en la elección de la longitud del retardo K.- Schmidt y Waud sugieren
escoger K con base en la máxima: Frost efectuó una simulación experimental
utilizando este criterio y descubrió un importante sesgo hacia arriba en la longitud del
rezago. Por lo tanto, para corregir el sesgo Frost sugiere utilizar relaciones F mayores
que 1, es decir, F = 2.
3º Problemas para escoger r, el grado del polinomio.- Si se especifica en forma correcta
la longitud K del rezago, entonces lo que se hace es iniciar con un polinomio de grado
lo suficientemente alto (cuarto o quinto grado) e ir hacia atrás (forma secuencial) hasta
rechazar la hipótesis nula (no significancia).
EJEMPLO 5:
Especificamos la función consumo siguiente:
m
GCPt = α + βi IPDt −i + ut
i=0
primero se elige el retardo óptimo, estimando por mínimos cuadrados ordinarios la función
consumo con cero retardos, un retardo, dos retardos y así sucesivamente; finalmente
elegimos la mejor estimación. mediante los criterios de información.
En el Eviews se escribe los comandos siguientes:
LS GCP C IPD
LS GCP C IPD IPD(-1)
LS GCP C IPD IPD(-1) IPD(2)
LS GCP C IPD IPD(-1) IPD(2) IPD(-3)
36. 35
LS GCP C IPD IPD(-1) IPD(2) IPD(-3) IPD(-4)
.............................................................
De las estimaciones de Eviews construimos el siguiente cuadro:
================================================
2
M T R AKAIKE SCHWARZ
================================================
0.000000 148.0000 0.999459 9.916938 9.957441
1.000000 148.0000 0.999550 9.739763 9.800517
2.000000 147.0000 0.999595 9.640053 9.721425
3.000000 146.0000 0.999625 9.568611 9.670790
4.000000 145.0000 0.999656 9.489712 9.612887
5.000000 144.0000 0.999687 9.399949 9.544315
6.000000 143.0000 0.999712 9.323912 9.489665
7.000000 142.0000 0.999728 9.270235 9.457576
8.000000 141.0000 0.999739 9.236198 9.445330
9.000000 140.0000 0.999744 9.221678 9.452807
10.00000 139.0000 0.999755 9.185458 9.438794
11.00000 138.0000 0.999768 9.136352 9.412107
12.00000 137.0000 0.999772 9.122193 9.420585
13.00000 136.0000 0.999779 9.097349 9.418598
14.00000 135.0000 0.999786 9.072103 9.416432
15.00000 134.0000 0.999789 9.063944 9.431580
16.00000 133.0000 0.9998067 8.978877 9.370052
17.00000 132.0000 0.9998066 8.984089 9.399037
18.00000 131.0000 0.999804 9.003127 9.442089
19.00000 130.0000 0.999801 9.023694 9.486911
20.00000 129.0000 0.999797 9.045514 9.533234
===============================================
elegimos el retardo 16 como el óptimo porque tiene el mayor coeficiente de determinación
ajustado, el menor Akaike y el menor Schwarz.
Se aplica el polinomio de retardos distribuidos y se estima por mínimos cuadrados
ordinarios, empezamos el proceso utilizando un polinomio de grado alto (sexto grado); y se
verifica si el coeficiente correspondiente a este grado es significativo.
Si no lo es, entonces disminuimos un grado el polinomio y se vuelve a verificar la
significancia.
Si lo es, entonces esa es la estimación adecuada.
El comando para estimar es:
LS GCP C PDL(IPD, 16, 6)
el eviews nos muestra el resultado siguiente:
37. 36
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1963:1 1996:1
Included observations: 133 after adjusting endpoints
==================================================
Variable Coefficient Std. Erro t-Statistic Prob.
==================================================
C -6.339855 3.600894 -1.760634 0.0807
PDL01 -0.012270 0.030316 -0.404748 0.6864
PDL02 -0.005282 0.013266 -0.398128 0.6912
PDL03 0.009811 0.009862 0.994854 0.3217
PDL04 0.000367 0.000950 0.386271 0.7000
PDL05 -0.000659 0.000472 -1.396955 0.1649
PDL06 -9.23E-06 1.30E-05 -0.709186 0.4795
PDL07 9.78E-06 5.33E-06 1.832573 0.0692
==================================================
Verificamos si el coeficiente del sexto grado del polinomio es significativo, de la
forma siguiente:
H0 : β PDL 07 = 0
t β PDL 07 = 1832573 < t( 0.95,125) = 1979124
. .
Por lo tanto, no es significativo.
Entonces disminuimos un grado el polinomio y volvemos a verificar la significancia
del coeficiente del grado cinco del polinomio.
El comando para estimar es:
LS GCP C PDL(IPD, 16, 5)
el eviews nos muestra el resultado siguiente:
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1963:1 1996:1
Included observations: 133 after adjusting endpoints
==================================================
Variable Coefficient Std. Erro t-Statistic Prob.
==================================================
C -6.050610 3.630943 -1.666402 0.0981
PDL01 0.034509 0.016505 2.090798 0.0386
PDL02 -0.008626 0.013262 -0.650385 0.5166
PDL03 -0.007747 0.002358 -3.286186 0.0013
PDL04 0.000644 0.000946 0.680622 0.4974
PDL05 0.000202 4.09E-05 4.943113 0.0000
PDL06 -1.32E-05 1.30E-05 -1.016531 0.3113
==================================================
38. 37
Verificamos si el coeficiente del quinto grado del polinomio es significativo, de la
forma siguiente:
H0 : β PDL 06 = 0
t β PDL 06 = − 1016531 < t( 0.95,126) = 19789706
. .
Por lo tanto, no es significativo.
Entonces disminuimos un grado el polinomio y volvemos a verificar la significancia
del coeficiente del grado cuarto del polinomio.
El comando para estimar es:
LS GCP C PDL(IPD, 16, 4)
el eviews nos muestra el resultado siguiente:
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1963:1 1996:1
Included observations: 133 after adjusting endpoints
=========================================================
Variable Coefficient Std. Erro t-Statistic Prob.
=========================================================
C -5.808098 3.623573 -1.602865 0.1114
PDL01 0.035690 0.016467 2.167386 0.0321
PDL02 0.003547 0.005701 0.622171 0.5349
PDL03 -0.007954 0.002349 -3.386001 0.0009
PDL04 -0.000308 0.000135 -2.278716 0.0244
PDL05 0.000206 4.08E-05 5.052374 0.0000
=========================================================
R-squared 0.999819 Mean dependent var 2025.369
Adjusted R-squared 0.999812 S.D. dependent var 1456.228
S.E. of regression 19.97692 Akaike info criterion 8.871096
Sum squared resid 50682.82 Schwarz criterion 9.001487
Log likelihood -583.9279 F-statistic 140257.9
Durbin-Watson stat 0.484322 Prob(F-statistic) 0.000000
=========================================================
Lag Distribution of IPD i Coefficie Std. Error T-Statistic
============================================================
. *| 0 0.49948 0.04026 12.4056
. * | 1 0.22122 0.01176 18.8102
.* | 2 0.06149 0.01836 3.34862
*. | 3 -0.01368 0.02152 -0.63571
*. | 4 -0.03333 0.01861 -1.79085
39. 38
*. | 5 -0.02154 0.01451 -1.48436
* | 6 0.00254 0.01370 0.18539
* | 7 0.02470 0.01553 1.59095
.* | 8 0.03569 0.01647 2.16739
.* | 9 0.03118 0.01536 2.03015
* | 10 0.01180 0.01400 0.84292
*. | 11 -0.01689 0.01589 -1.06299
*. | 12 -0.04438 0.02046 -2.16924
*. | 13 -0.05523 0.02297 -2.40470
*. | 14 -0.02903 0.01876 -1.54705
.* | 15 0.05954 0.01324 4.49886
. * | 16 0.24077 0.04599 5.23524
============================================================
Sum of Lags 0.97433 0.00304 320.727
============================================================
Verificamos si el coeficiente del cuarto grado del polinomio es significativo, de la
forma siguiente:
H0 : β PDL 05 = 0
t β PDL 05 = 5.052374 < t( 0.95,127 ) = 19788195347
.
Por lo tanto, es significativo.
La estimación adecuada de la función consumo es la siguiente:
GCPt = −5808098244 + 0.4994778688 IPDt + 0.221219823IPDt −1
.
+ 0.06149146821IPDt − 2 − 0.01368081228 IPDt − 3 − 0.0333281558 IPDt − 4
− 0.02153941711IPDt −5 + 0.00253887094 IPDt − 6 + 0.02470249744 IPDt − 7
+ 0.03568957339 IPDt −8 + 0.03118053171IPDt − 9 + 0.01179812725IPDt −10
− 0.01689256324 IPDt −11 + 0.04438414106 IPDt −12 − 0.0552268856 IPDt −13
− 0.02902875434 IPDt −14 + 0.05954461717 IPDt −15 + 0.2407699153IPDt −16
EJEMPLO 6:
Especificamos la función consumo siguiente:
m
GCPt = α 0 + α 1 Rt + β i IPDt −i + ut
i =0
se sigue el mismo procedimiento del ejemplo anterior.
40. 39
Determinamos el retardo óptimo:
================================================
2
M T R AKAIKE SCHWARZ
================================================
0.000000 148.0000 0.999708 9.307039 9.367793
1.000000 148.0000 0.999729 9.240432 9.321438
2.000000 147.0000 0.999726 9.256498 9.358214
3.000000 146.0000 0.999724 9.270765 9.393379
4.000000 145.0000 0.999724 9.275053 9.418758
5.000000 144.0000 0.999730 9.258455 9.423444
6.000000 143.0000 0.999735 9.245726 9.432199
7.000000 142.0000 0.999739 9.236356 9.444513
8.000000 141.0000 0.999744 9.225159 9.455204
9.000000 140.0000 0.999746 9.222191 9.474332
10.00000 139.0000 0.999755 9.192085 9.466532
11.00000 138.0000 0.999767 9.147645 9.444613
12.00000 137.0000 0.999771 9.135508 9.455214
13.00000 136.0000 0.999777 9.111658 9.454324
14.00000 135.0000 0.999784 9.086885 9.452734
15.00000 134.0000 0.999787 9.078252 9.467514
16.00000 133.0000 0.9998052 8.993054 9.405961
17.00000 132.0000 0.9998051 8.998324 9.435112
18.00000 131.0000 0.999802 9.017919 9.478829
19.00000 130.0000 0.999799 9.038893 9.524168
20.00000 129.0000 0.999795 9.060936 9.570825
===============================================
elegimos el retardo 16 como el óptimo porque tiene el mayor coeficiente de determinación
ajustado y el menor Akaike; si se considerará el criterio Schwarz el óptimo sería 1.
Elección del grado de polinomio óptimo:
El comando para estimar es:
LS GCP C R PDL(IPD, 16, 6)
el eviews nos muestra el resultado siguiente:
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1963:1 1996:1
Included observations: 133 after adjusting endpoints
==================================================
Variable Coefficient Std. Erro t-Statistic Prob.
==================================================
C -8.162016 5.836322 -1.398486 0.1645
R 0.499054 1.255326 0.397550 0.6916
41. 40
PDL01 -0.010006 0.030947 -0.323329 0.7470
PDL02 -0.005299 0.013311 -0.398116 0.6912
PDL03 0.009571 0.009914 0.965390 0.3362
PDL04 0.000355 0.000954 0.372635 0.7101
PDL05 -0.000650 0.000474 -1.371854 0.1726
PDL06 -8.85E-06 1.31E-05 -0.676314 0.5001
PDL07 9.67E-06 5.36E-06 1.804222 0.0736
==================================================
Verificamos si el coeficiente del sexto grado del polinomio es significativo, de la
forma siguiente:
H0 : β PDL 07 = 0
t β PDL 05 = 1804222 < t( 0.95,124 ) = 19792801166
. .
Por lo tanto, el coeficiente del grado sexto del polinomio no es significativo,
entonces estimamos el modelo considerando un polinomio de quinto grado y los resultados
del Eviews son:
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1963:1 1996:1
Included observations: 133 after adjusting endpoints
==================================================
Variable Coefficient Std. Erro t-Statistic Prob.
==================================================
C -8.290242 5.888299 -1.407918 0.1616
R 0.612332 1.265014 0.484052 0.6292
PDL01 0.036662 0.017143 2.138648 0.0344
PDL02 -0.008603 0.013303 -0.646677 0.5190
PDL03 -0.007808 0.002368 -3.297102 0.0013
PDL04 0.000626 0.000950 0.659165 0.5110
PDL05 0.000202 4.11E-05 4.912057 0.0000
PDL06 -1.27E-05 1.30E-05 -0.970754 0.3335
==================================================
Verificamos si el coeficiente del quinto grado del polinomio es significativo, de la
forma siguiente:
H0 : β PDL 06 = 0
t β PDL 06 = − 0.970754 < t( 0.95,125) = 197912410942
.
Por lo tanto, no es significativo.
El coeficiente del grado quinto del polinomio no es significativo, entonces estimamos
el modelo considerando un polinomio de cuarto grado y los resultados del Eviews son:
42. 41
Dependent Variable: GCP
Method: Least Squares
Sample(adjusted): 1963:1 1996:1
Included observations: 133 after adjusting endpoints
==================================================
Variable Coefficient Std. Erro t-Statistic Prob.
==================================================
C -8.423679 5.885348 -1.431297 0.1548
R 0.712117 1.260543 0.564929 0.5731
PDL01 0.038139 0.017071 2.234169 0.0272
PDL02 0.003023 0.005791 0.521900 0.6027
PDL03 -0.008015 0.002358 -3.399155 0.0009
PDL04 -0.000286 0.000141 -2.024389 0.0450
PDL05 0.000205 4.09E-05 5.015150 0.0000
==================================================
Verificamos si el coeficiente del cuarto grado del polinomio es significativo, de la
forma siguiente:
H0 : β PDL 05 = 0
t β PDL 05 = 5.01515 < t ( 0.95,126) = 197897060199
.
Por lo tanto, es significativo.
La estimación adecuada de la función consumo es la siguiente:
GCPt = −8.423678855 + 0.7121166325Rt + 0.4874192342 IPDt
+ 0.214724703IPDt −1 + 0.05901103723IPDt − 2 − 0.01343158555IPDt − 3
− 0.03139067077 IPDt − 4 − 0.01873140654 IPDt −5 + 0.005603336277 IPDt − 6
+ 0.02759300405IPDt − 7 + 0.03813936043IPDt −8 + 0.03306648629 IPDt − 9
+ 0.01312077977 IPDt −10 − 0.01602904374 IPDt −11 − 0.04379195161IPDt −12
− 0.05465459393IPDt −13 − 0.02818130358 IPDt −14 + 0.06098590386 IPDt −15
+ 0.24312733IPDt −16
3.2. RETARDOS INFINITOS
Consideremos el modelo de Demanda de saldos reales:
el mecanismo de expectativas adaptativas es:
43. 42
en forma de sumatoria se expresa:
∞
*
π t +1 = γ i π t −i
i=0
cuando el número de retardos es infinito es imposible estimar directamente el modelo,
porque no tendríamos observaciones suficientes para ello.
Esto recibe el nombre de rezago distribuido finito, ya que el número de valores
rezagados o pasados es finito. son los pesos específicos que se asignan
a estos valores pasados.
Los modelos de rezago distribuido recibieron mayor atención en la década de 1950,
cuando Koyck, Cagan y Nerlove sugirieron utilizar una distribución infinita de rezagos, con
pesos específicos que se reducen en forma geométrica.
Para estimar este modelo es imprescindible imponer a priori algún tipo de restricción
entre los coeficientes, de modo que el modelo pueda transformarse en otro con un número
reducido de variables.
Algunos planteamientos alternativos de distribuciones de retardos infinitos son:
1º Geométrica:
1− λ
W ( L) =
1 − λL
2º Pascal:
(1 − λ ) r
W ( L) = con r entero y positivo
(1 − λL) r
3º Racional:
U ( L)
W ( L) = con U ( L ) y V ( L ) polinomios de gra do m y n
V ( L)
4º Gamma:
44. 43
∞
1
W ( L) = i s −1 exp( −i ) Li
Γ( s ) i =0
5º Exponencial:
∞ m
W ( L) = exp pk i k con pm < 0
i =0 k =1
Si los decrecen de manera geométrica, es posible escribir:
entonces la suma de la serie infinita es , y si esta suma es igual a 1, se deberá tener
. Así,
Al sustituir esta expresión en el modelo original, nos da:
esto abarca una serie infinita y los valores infinitos anteriores de no se observan , es
preciso resolver este problema de alguna forma. Lo que se hace es dividir la serie en dos
partes : el pasado observado y el no observado. Las series infinitas se escriben:
La primera parte se observa y se denota por medio de , la segunda parte puede
escribirse:
sustituyendo en el modelo, queda: