SlideShare una empresa de Scribd logo
Errores comunes al estimar
modelos econométricos
Tratamiento de errores al estimar modelos
Sesión 9
25/Abril/2007
Recordando los supuestos del
modelo clásico
 Extendiendo los supuestos:
1. E(ui|xi)=0 No existe un sesgo en la estimación de βi
2. E(u2
i|xi)=σ2
La varianza de ui es homoscedástica.
3. E(uhui)=0 Los errores no están relacionados.
4. Ui~N(0,s2
) Los errores siguen una distribución normal
5. Si xi es estocástica, las xi y ui no están correlacionadas.
6. El número de observaciones debe ser mayor que el número
de regresoras.
7. Debe existir variabilidad para los valores que toman las
regresoras.
8. No hay relación lineal exacta entre los regresores.
Profundizando en la multicolineidad
Tratando las violaciones a los supuestos 6,7 y 8
Sesión 9
2/Mayo/2007
¿Qué sucede si las variables
independientes están relacionadas?
 Relación lineal perfecta (determinística):
 λ1x1+ λ2x2+ λ3x3+…+ λkxk=0
 x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki
 Si λ2 no es cero entonces existe una relación
exactamente lineal entre x2 y el resto de variables x.
 Relación lineal imperfecta (estocástica):
 λ1x1+ λ2x2+ λ3x3+…+ λkxk + v =0
 x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki-1/λ2vi
 La existencia de un error estocástico vi impide que x2
se relacione de forma perfecta con los demás
regresores.
 ¿Cuál es el efecto aislado de x1?
Consecuencias de la multicolineidad
 Multicolineidad perfecta:
 Los coeficientes son indeterminados.
 Los errores estándar son infinitos.
 Demostración:
( )( ) ( )( )
( )( ) ( )2
32
2
3
2
2
323
2
32
2
3322 ˆ
iiii
iiiiiii
ii
xxxx
xxxyxxy
b
uxbxby
∑∑∑
∑∑∑∑
−
⋅−⋅
=
++=
( )( ) ( )( )
( )( ) ( ) 0
0
:
22
2
22
2
22
2
2
22
2
2
2
2
2
23
=
−
⋅−⋅
=
=
∑∑∑
∑∑∑∑
iii
iiiiii
ii
xxx
xxyxxy
b
xxSuponga
λλ
λλλ
λ
Consecuencias de la multicolineidad
 Multicolineidad imperfecta:
 El valor de vi determina su importancia.
 Dificultad para estimar coeficientes con errores
estándar pequeños.
 Demostración:
( )( ) ( )( )
( )( ) ( )2
32
2
3
2
2
323
2
32
2
2211 ˆ
iiii
iiiiiii
ii
xxxx
xxxyxxy
b
uxbxby
∑∑∑
∑∑∑∑
−
⋅−⋅
=
++=
( )( ) ( )( )
( )( ) ( ) 0
0
:
22
2
222
2
22
2
2
22
22
2
2
2
2
23
≠
−+
+⋅−+⋅
=
+=
∑∑ ∑∑
∑∑ ∑∑ ∑∑
iiii
iiiiiiiii
iii
xvxx
xvyxyvxxy
b
vxxSuponga
λλ
λλλ
λ
Consecuencias prácticas
 ¿Es un problema real?
 Aun bajo colineidad los coeficientes estimados por
OLS son insesgados.
 La colineidad no destruye la característica de varianza
mínima.
 La multicolineidad es un fenómeno muestral.
 Consecuencias prácticas:
 La estimación presenta grandes varianzas y
covarianzas lo que hace difícil la estimación precisa
de βi.
 Puede generar R2
muy altos a pesar de la eficiencia
del modelo.
 Los estimadores y errores estándar son sensibles a
cambios pequeños de información.
Detección de Multicolineidad
 R2
elevado pero sus coeficientes poco
significativos.
 Correlaciones entre parejas de regresores.
 Tener cuidado que una alta correlación es una
condición suficiente pero no necesaria.
 Regresiones auxiliares:
 Regla de Klien: sugiere multicolineidad
cuando el R2
obtenido de las auxiliares es
mayor que el global.
 Factores de tolerancia e índices de
condición.
¿Qué hacer ante la presencia de
multicolineidad?
1. No hacer nada:
 Muchas veces es un problema de los datos y no hay elección
para hacer algo más.
2. Información A priori:
 Saber qué relacionar y qué no relacionar (ejemplo ingresos y
nivel socioeconómico).
3. Eliminar una de las variables colineales:
 Tener cuidado de incurrir en sesgos de especificación.
4. Transformación de las variables.
 Calcular diferencias.
 Dividir dentro de una tercera variable (ejemplo población).
 Estimaciones polinomiales.
5. Incluir datos adicionales.
 Expandir la muestra permite mayor eficiencia.
Heteroscedasticidad
Tratando las violaciones a los supuestos 6,7 y 8
Sesión 9
2/Mayo/2007
Dos tipos de errores al realizar
estimaciones econométricas
 Sesgo en la estimación de los coeficientes:
 E(bi)=βi+ξi
 El riesgo es afirmar que βi es igual a bi cuando existe
un valor que lo sesga sistemáticamente.
 Sesgo en la estimación de la varianza del
modelo:
 E(s2
)=σ2
(X´X)-1
 Al momento de fallar en esta estimación puede
llegarse a concluir que un coeficiente no es (o sí es)
significativo cuando realmente no lo es.
Recordando: derivación de los
supuestos
 ¿Qué condiciones deben existir para poder inferir
el valor de β?
[ ]
[ ]
[ ] IuuE
uEuEuE
uEuEuE
uEuEuE
uuE
XXXuuXXXbbE
TTT
T
T
⋅=′⋅














=′⋅
⋅′⋅⋅′⋅⋅′⋅⋅′=′−⋅− −−
2
2
2,1,
,2
2
11,2
,12,1
2
1
11
)(...)()(
............
)(...)()(
)(...)()(
)()()()(
σ
ββ
Varianza de los
Errores para
cada
observación.
Covarianza de
los errores entre
las observaciones
xi y xj.
Supuesto sobre el
valor esperado de
esta matriz.
Recordando: derivación de los
supuestos
 ¿Qué condiciones deben existir para poder inferir
el valor de β?
[ ]
[ ]














=′⋅
⋅=′⋅
2
2
2
2
...00
............
0...0
0...0
σ
σ
σ
σ
uuE
IuuE
Supuestos
1. La varianza de
los errores para
cada observación
es constante.
2. No existe
relación entre los
errores.
Cuando estos dos supuestos se violan la
estimación de la matriz varianza
covarianza es sesgada y altera la
eficiencia global del modelo.
Ejemplo: supuesto 1
Fuente: Stock & Watson, 2006
VariableDependiente
Variable Independiente
La varianza de los errores debe ser constante para cada xi.
Heteroscedasticidad
 E(u.
u´) ≠ σ2
 A pesar que el estimador de β de mínimos
cuadrados sea insesgado las pruebas
estadísticas son erróneas.
 ¿Por qué pueden ser variables los errores?
 Cambios en el comportamiento a lo largo de la
distribución.
 Que existan distintas tecnologías para recopilar la
información.
 Presencia de factores atípicos.
 Incorrectas transformaciones de los datos.
¿Cómo detectar la
Heteroscedasticidad?
 Hipótesis de homoscedasticidad
 Ho) Homoscedasticidad.
 Hi) Heteroscedasticidad
 ¿Qué prueba utilizar?
 Goldfeld Quandt
 Breusch Pagan Godfrey
 Prueba de White
 Prueba general que no necesita identificar la
variable que causa heteroscedasticidad.
 Prueba de heteroscedasticidad y de
especificación.
Pasos para realizar la prueba de
White
 Tratamiento del error por medio de la prueba
de White
1. Estima el modelo original:
Y = β0 + β1x1 + β2x2 +ui
2. Realiza una regresión auxiliar:
e2
= β0 + β1x1 + β2x2 + β3x1
2
+ β4x2
2
+ β5x1x2 +ui
3. La prueba se distribuye con k grados de libertad en
la regresión auxiliar.
4. Valor obtenido χ2
= n*R2
(de la regresión auxiliar)
5. Si el valor obtenido (χ2
) excede al valor crítico se
rechaza Ho.
¿Cómo corregir la
Heteroscedasticidad?
 Tomar en cuenta lo siguiente:
 Es un problema de eficiencia, no de estimación
insesgada de βi.
 Un problema de especificación puede causar errores
heteroscedásticos.
 Cualquier ajuste en la matriz varianza covarianza que
corrija la heteroscedasticidad sirve para realizar
inferencia estadística.
 Corrección de White:
 Los coeficientes son constantes pero la estimación de
las varianzas es ponderada por una matriz Ω.
Ejemplo
Autocorrelación
Tratando las violaciones a los supuestos 6,7 y 8
Sesión 9
2/Mayo/2007
Recordando: derivación de los
supuestos
 ¿Qué condiciones deben existir para poder inferir
el valor de β?
[ ]
[ ]














=′⋅
⋅=′⋅
2
2
2
2
...00
............
0...0
0...0
σ
σ
σ
σ
uuE
IuuE
Supuestos
1. La varianza de
los errores para
cada observación
es constante.
2. No existe
relación entre los
errores.
Cuando estos dos supuestos se violan la
estimación de la matriz varianza
covarianza es sesgada y altera la
eficiencia global del modelo.
Naturaleza de la autocorrelación
 Es importante saber el tipo de datos que se
utiliza:
 Corte transversal.
 Series de tiempo.
 Panel.
 E(ui,uj)=0 Los errores no se encuentran
correlacionados uno con otro.
 Cuando este supuesto se rompe existe
autocorrelación.
 Tipos de auto correlación:
 Espacial.
 Serial.
¿Por qué ocurre la autocorrelación?
 Causas:
 Sesgo de especificación.
 Variables omitidas y redundantes.
 Forma funcional del modelo.
 Rezagos:
 Variables independientes.
 Variables dependientes.
 Manipulación de los datos.
 No estacionariedad.
¿Cómo probar la presencia de
autocorrelación?
 Suponga el siguiente modelo:
 Para la autocorrelación serial se puede decir que el
término de error sigue un proceso autorregresivo AR(p).
 Si se llegara a probar que ρ es distinta de cero,
entonces existe autocorrelación de los errores.
 Si no se llegara a conseguir información estadística que
indique esto, entonces se puede decir que ui = εi,
distribuyéndose N(0,σ2
) y cuya cov(εi,εj)=0.
ijt
ii
uu
uxY
ερ
ββ
+⋅=
++= 10
¿Cómo detectar la autocorrelación?
 Método Gráfico:
 Residuos de Ui vs el tiempo y vs Uj.
 Permite generar una intuición de los problemas de
heteroscedasticidad y autocorrelación.
 Prueba Durbin Watson:
 Estadístico a estimar:
∑
∑
=
=
=
=
−−
= nt
t
t
nt
t
tt
u
uu
d
1
2
2
2
1
)ˆ(
)ˆˆ(
Método Durbin Watson
 EstadísticoDurbin Watson:
 Supuestos:
 El modelo global debe incluir un intercepto.
 Las variables explicativas son fijas.
 Las perturbaciones del error se dan en un esquema
autorregresivo de primer orden.
 El error está normalmente distribuido.
 El modelo de regresión no incluye rezagos de las variables
dependientes.
 No existen observaciones faltante (brincos en la serie).
∑
∑
=
=
=
=
−−
= nt
t
t
nt
t
tt
u
uu
d
1
2
2
2
1
)ˆ(
)ˆˆ(
Método Durbin Watson
 Estadístico DW:
 Regla de decisión:
ρ⋅−≈












⋅
−=
−
=
∑
∑
∑
∑
=
=
−
=
=
=
=
−
22
ˆ
ˆˆ
12
ˆ
)ˆˆ(
1
2
1
1
2
2
2
1
nt
t
t
tt
nt
t
t
nt
t
tt
u
uu
u
uu
d
2
Ho) No hay autocorrelaciónNo se rechaza Ho,
Con α de significancia.
du 4-dudL 4- dL
Zona de
Indecisión
Zona de
Indecisión
Rechazo
Ho
Rechazo
Ho
ρ=0ρ=1 ρ=2
Resumen de los pasos para prueba
DW.
 Efectuar la estimación global por medio de
OLS.
 Establecer la regla de decisión.
 Tratamiento del área de indecisión: depende
del error α y β.
 Calcular el valor d a partir de los datos.
 Tomar una decisión justificada.
Prueba general Breusch Godfrey
(LM)
 Esta prueba libera restricciones como:
 Estimaciones cuyos regresores son estocásticos.
 Esquemas autoregresivos de mayor orden.
 Promedios móviles (tema de series de tiempo).
 Suponga el siguiente modelo:
 El término de error sigue un proceso autorregresivo
de orden p (AR(p)).
ippttt
ii
uuuu
uxY
ερρρ
ββ
+⋅+⋅+⋅=
++=
−−− 12211
10
...
Hipótesis de la prueba LM
 Hipótesis de la prueba LM
 Ho) ρ1= ρ2=…= ρp=0 (No hay
autocorrelación)
 Hi) Al menos un ρ difiere (sí existe autoc.)
 Al no rechazar Ho, no se puede probar
que exista autocorrelación serial.
 No sólo prueba para procesos
autorregresivos de orden primero entre los
errores.
Pasos para realizar la prueba LM
Pasos:
1. Estimar el modelo general y guardar los errores.
2. Estimar el siguiente modelo:
ut=α+α1x1+α2x2+…αkxk+ρ1ut−1+…ρput−p+εt
3. El estadístico LM a estimar es el siguiente:
LM = (n-p)R2
~ χ2
p
4. Si el valor LM obtenido excede al valor c2 crítico con
p grados de libertad se rechaza Ho.
¿Cuál debe ser el p óptimo a estimar?
 No existe mecanismo formal.
 Experimentación utilizando los criterios de
información.
¿Cómo corregir la autocorrelación?
1. Evaluar si se debe a una mala especificación
del modelo.
 Incluir variables relevantes y cambiar las formas
funcionales pueden librar la autocorrelación.
2. Método Newey West para corregir los errores
estándar
 Tal como la prueba white, este método corrige la
estimación de los errores estándar de forma tal que
sean consistentes con heteroscedasticidad y
autocorrelación (HAC)
 Esta corrección es exclusiva para muestras
grandes.
¿Cómo corregir la autocorrelación?
1. Regresión generalizada o de diferencias.
Corregir la estimación por el coeficiente ρ.
tT
ttttt
ttt
ttt
itt
ttt
xY
xxYY
uxY
uxY
uu
uxY
εββ
ερβρβρ
ρβρβρρ
ββ
ερ
ββ
++=
+⋅−+−=⋅−
⋅+⋅+⋅=⋅
++=
+⋅=
++=
−−
−−−
−−−
−
*
1
*
1
*
0
*
1101
11101
11101
11
10
)()1()(
Cómo ajustar la regresión
generalizada o de diferencias
1. ¿Es conocido el valor de ρ?
 Si es conocido sólo se transforman las variables Y y X
calculando las diferencias.
 Si no es conocido puede realizarse transformaciones para
las variables extremas: cuando ρ es igual a 1 (primera
diferencia) y cuando ρ es igual a -1.
 Regla de Maddala: cuando el valor del estadístico d (DW)
es menor que el R2
entonces usar la primera diferencia
(suponer que ρ es igual a 1)
Cómo ajustar la regresión
generalizada o de diferencias
2. Estimación de la primera diferencia:
∆y=∆x+εt
 Esta estimación se deriva del supuesto que r es igual a 1.
 Tomar en cuenta que se asume que la regresión no tiene
constante.
 Si el modelo se especifica con una constante, entonces esta
representa una tendencia a lo largo del tiempo.
3. Para probar si realmente r=1 se realiza la prueba
Berenblutt Webb, o el estadístico g:
∑
∑
= n
t
n
t
u
g
1
2
2
2
ˆ
ˆε
Donde ut son los residuos de la regresión
original y εt son los residuos de la regresión de
la primera diferencia.
 Pasos para realizar la prueba Beremblutt Webb:
1. Estimación de la regresión general.
2. Estimación de la regresión con primera diferencia.
3. Planteamiento de hipótesis:
Ho) ρ=1
Hi) ρ≠1
4. Estimación del estadístico g.
5. Utilizar el estadísitco crítico d (Durbin Watson).
6. Se rechazará Ho si el valor obtenido excede al límite inferior
del estadístico d.
 Tomar en cuenta que ahora el estadístico d=2 refleja ρ=0, pero la
hipótesis nula es que ρ=1 (ver el límite derecho únicamente).
Cómo ajustar la regresión
generalizada o de diferencias
Cómo ajustar la regresión
generalizada o de diferencias
Si el valor ρ es desconocido y distinto de 1entonces:
1. Se puede aproximar ρ = 1-d/2.
2. Se puede estimar a partir de los residuos:
 Esquema AR(1) ut = ρut-1 + εt
3. Estimación de métodos iterativos (Chochrane Orcutt):
 Permiten estimar los parámetros con esquemas autoregresivos de un
orden superior.
 Asume un ρ inicial y reestima el parámetro ρ hasta que converga.
 Cuidado al utilizar este método, ya que sus iteraciones no son más
que una imputación forzosa de la estimación del parámetro ρ.
Errores comunes al estimar
modelos econométricos
Tratamiento de errores al estimar modelos
Sesión 9
2/Mayo/2007

Más contenido relacionado

La actualidad más candente

Clase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentalesClase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentales
Nerys Ramírez Mordán
 
11 Relaciones Entre Variables
11 Relaciones Entre Variables11 Relaciones Entre Variables
11 Relaciones Entre Variables
Juan Timana
 
2.ejeercicios
2.ejeercicios2.ejeercicios
2.ejeercicios
zooneerborre
 
presentacion de econometria
presentacion de econometriapresentacion de econometria
presentacion de econometria
Maldoclaudia
 
Método de Mínimos Cuadrados
Método de Mínimos CuadradosMétodo de Mínimos Cuadrados
Método de Mínimos Cuadrados
Arturo Sanchez Padilla
 
Análisis de Regresión Múltiple
Análisis de Regresión MúltipleAnálisis de Regresión Múltiple
Análisis de Regresión Múltiple
Universidad Nacional Mayor de San Marcos
 
Propiedades de los estimadores puntuales (2)
Propiedades de los estimadores puntuales (2)Propiedades de los estimadores puntuales (2)
Propiedades de los estimadores puntuales (2)
Luz Hernández
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con Eviews
Rodrigo Paniagua
 
Métodos de ecuaciones simultaneas
Métodos de ecuaciones simultaneasMétodos de ecuaciones simultaneas
Métodos de ecuaciones simultaneas
Michael Vega
 
4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf
JoseFlores569854
 
Propiedades mco
Propiedades mcoPropiedades mco
Propiedades mco
jecuy
 
Módulo 2: La Restricción Presupuestaria
Módulo 2: La Restricción PresupuestariaMódulo 2: La Restricción Presupuestaria
Módulo 2: La Restricción Presupuestaria
Horacio Santander
 
Trabajo final de econometria upc
Trabajo final de econometria upcTrabajo final de econometria upc
Trabajo final de econometria upc
Jose Matos
 
Clase12 heterocedasticidad
Clase12 heterocedasticidadClase12 heterocedasticidad
Clase12 heterocedasticidad
Nerys Ramírez Mordán
 
Clase7 Supuestos del modelo de regresión
Clase7 Supuestos del modelo de regresiónClase7 Supuestos del modelo de regresión
Clase7 Supuestos del modelo de regresión
Nerys Ramírez Mordán
 
tasa natural de desempleo y la curva phillips
tasa natural de desempleo y la curva phillipstasa natural de desempleo y la curva phillips
tasa natural de desempleo y la curva phillips
frmarcelo
 
Análisis de regresión múltiple
Análisis de regresión múltipleAnálisis de regresión múltiple
Análisis de regresión múltiple
Alberth ibañez Fauched
 
Cálculo de la muestra
Cálculo de la muestraCálculo de la muestra
Cálculo de la muestra
Universidad Técnica de Manabí
 
Modulo 3: Las Preferencias y la Utilidad (Parte 2)
Modulo 3: Las Preferencias y la Utilidad (Parte 2)Modulo 3: Las Preferencias y la Utilidad (Parte 2)
Modulo 3: Las Preferencias y la Utilidad (Parte 2)
Horacio Santander
 
Chi cuadrado
Chi cuadradoChi cuadrado
Chi cuadrado
deicycumbal
 

La actualidad más candente (20)

Clase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentalesClase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentales
 
11 Relaciones Entre Variables
11 Relaciones Entre Variables11 Relaciones Entre Variables
11 Relaciones Entre Variables
 
2.ejeercicios
2.ejeercicios2.ejeercicios
2.ejeercicios
 
presentacion de econometria
presentacion de econometriapresentacion de econometria
presentacion de econometria
 
Método de Mínimos Cuadrados
Método de Mínimos CuadradosMétodo de Mínimos Cuadrados
Método de Mínimos Cuadrados
 
Análisis de Regresión Múltiple
Análisis de Regresión MúltipleAnálisis de Regresión Múltiple
Análisis de Regresión Múltiple
 
Propiedades de los estimadores puntuales (2)
Propiedades de los estimadores puntuales (2)Propiedades de los estimadores puntuales (2)
Propiedades de los estimadores puntuales (2)
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con Eviews
 
Métodos de ecuaciones simultaneas
Métodos de ecuaciones simultaneasMétodos de ecuaciones simultaneas
Métodos de ecuaciones simultaneas
 
4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf
 
Propiedades mco
Propiedades mcoPropiedades mco
Propiedades mco
 
Módulo 2: La Restricción Presupuestaria
Módulo 2: La Restricción PresupuestariaMódulo 2: La Restricción Presupuestaria
Módulo 2: La Restricción Presupuestaria
 
Trabajo final de econometria upc
Trabajo final de econometria upcTrabajo final de econometria upc
Trabajo final de econometria upc
 
Clase12 heterocedasticidad
Clase12 heterocedasticidadClase12 heterocedasticidad
Clase12 heterocedasticidad
 
Clase7 Supuestos del modelo de regresión
Clase7 Supuestos del modelo de regresiónClase7 Supuestos del modelo de regresión
Clase7 Supuestos del modelo de regresión
 
tasa natural de desempleo y la curva phillips
tasa natural de desempleo y la curva phillipstasa natural de desempleo y la curva phillips
tasa natural de desempleo y la curva phillips
 
Análisis de regresión múltiple
Análisis de regresión múltipleAnálisis de regresión múltiple
Análisis de regresión múltiple
 
Cálculo de la muestra
Cálculo de la muestraCálculo de la muestra
Cálculo de la muestra
 
Modulo 3: Las Preferencias y la Utilidad (Parte 2)
Modulo 3: Las Preferencias y la Utilidad (Parte 2)Modulo 3: Las Preferencias y la Utilidad (Parte 2)
Modulo 3: Las Preferencias y la Utilidad (Parte 2)
 
Chi cuadrado
Chi cuadradoChi cuadrado
Chi cuadrado
 

Similar a Sesión 9, errores comunes en las estimaciones

Clase 7, regresión_múltiple-supuestos
Clase 7, regresión_múltiple-supuestosClase 7, regresión_múltiple-supuestos
Clase 7, regresión_múltiple-supuestos
Hugo Maul
 
Endogeneidad y estimación por variables instrumentales
Endogeneidad y estimación por variables instrumentalesEndogeneidad y estimación por variables instrumentales
Endogeneidad y estimación por variables instrumentales
Javier816403
 
Clase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfClase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdf
AnaParave1
 
Clase2 El modelo de regresión simple
Clase2 El modelo de regresión simpleClase2 El modelo de regresión simple
Clase2 El modelo de regresión simple
Nerys Ramírez Mordán
 
que econometra
que econometra que econometra
que econometra
rblanca
 
resolucion regresion lineal
resolucion regresion linealresolucion regresion lineal
resolucion regresion lineal
guardiandelcaos
 
Clase3 El modelo de regresión múltiple
Clase3 El modelo de regresión múltipleClase3 El modelo de regresión múltiple
Clase3 El modelo de regresión múltiple
Nerys Ramírez Mordán
 
2. reg.lin.multiple
2. reg.lin.multiple2. reg.lin.multiple
2. reg.lin.multiple
Robinson Cruz
 
Econometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades olsEconometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades ols
Hugo Maul
 
Clase6 Selección del modelo y problemas de datos
Clase6 Selección del modelo y problemas de datosClase6 Selección del modelo y problemas de datos
Clase6 Selección del modelo y problemas de datos
Nerys Ramírez Mordán
 
1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresion1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresion
SociedadIncluyente
 
2015 word
2015 word2015 word
2015 word
kyori035
 
REGRESION LINEAL SIMPLE CURSO ESTADISTICA
REGRESION LINEAL SIMPLE CURSO ESTADISTICAREGRESION LINEAL SIMPLE CURSO ESTADISTICA
REGRESION LINEAL SIMPLE CURSO ESTADISTICA
OmarBarreto23
 
Modelo de regresion lineal simple
Modelo de regresion lineal simpleModelo de regresion lineal simple
Modelo de regresion lineal simple
AnaMariaSfer
 
Modelo de regresion lineal simple
Modelo de regresion lineal simpleModelo de regresion lineal simple
Modelo de regresion lineal simple
AnaMariaSfer
 
T6
T6T6
Analisis de regresion multiple
Analisis de regresion multipleAnalisis de regresion multiple
Analisis de regresion multiple
JhosepAlexFernndez
 
Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011
Robinho Navarrete
 
Trabajo
TrabajoTrabajo
Trabajo
rousdelia
 
P4 16 regresion_lineal_multiple
P4 16 regresion_lineal_multipleP4 16 regresion_lineal_multiple
P4 16 regresion_lineal_multiple
Evelyn Arrey
 

Similar a Sesión 9, errores comunes en las estimaciones (20)

Clase 7, regresión_múltiple-supuestos
Clase 7, regresión_múltiple-supuestosClase 7, regresión_múltiple-supuestos
Clase 7, regresión_múltiple-supuestos
 
Endogeneidad y estimación por variables instrumentales
Endogeneidad y estimación por variables instrumentalesEndogeneidad y estimación por variables instrumentales
Endogeneidad y estimación por variables instrumentales
 
Clase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfClase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdf
 
Clase2 El modelo de regresión simple
Clase2 El modelo de regresión simpleClase2 El modelo de regresión simple
Clase2 El modelo de regresión simple
 
que econometra
que econometra que econometra
que econometra
 
resolucion regresion lineal
resolucion regresion linealresolucion regresion lineal
resolucion regresion lineal
 
Clase3 El modelo de regresión múltiple
Clase3 El modelo de regresión múltipleClase3 El modelo de regresión múltiple
Clase3 El modelo de regresión múltiple
 
2. reg.lin.multiple
2. reg.lin.multiple2. reg.lin.multiple
2. reg.lin.multiple
 
Econometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades olsEconometría UFM/FCE: Clase 2, propiedades ols
Econometría UFM/FCE: Clase 2, propiedades ols
 
Clase6 Selección del modelo y problemas de datos
Clase6 Selección del modelo y problemas de datosClase6 Selección del modelo y problemas de datos
Clase6 Selección del modelo y problemas de datos
 
1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresion1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresion
 
2015 word
2015 word2015 word
2015 word
 
REGRESION LINEAL SIMPLE CURSO ESTADISTICA
REGRESION LINEAL SIMPLE CURSO ESTADISTICAREGRESION LINEAL SIMPLE CURSO ESTADISTICA
REGRESION LINEAL SIMPLE CURSO ESTADISTICA
 
Modelo de regresion lineal simple
Modelo de regresion lineal simpleModelo de regresion lineal simple
Modelo de regresion lineal simple
 
Modelo de regresion lineal simple
Modelo de regresion lineal simpleModelo de regresion lineal simple
Modelo de regresion lineal simple
 
T6
T6T6
T6
 
Analisis de regresion multiple
Analisis de regresion multipleAnalisis de regresion multiple
Analisis de regresion multiple
 
Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011
 
Trabajo
TrabajoTrabajo
Trabajo
 
P4 16 regresion_lineal_multiple
P4 16 regresion_lineal_multipleP4 16 regresion_lineal_multiple
P4 16 regresion_lineal_multiple
 

Más de Hugo Maul

Econometria UFM: Clase 1, qué es econometría
Econometria UFM: Clase 1, qué es econometríaEconometria UFM: Clase 1, qué es econometría
Econometria UFM: Clase 1, qué es econometría
Hugo Maul
 
Econometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometríaEconometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometría
Hugo Maul
 
Clase 1, qué es econometría
Clase 1, qué es econometríaClase 1, qué es econometría
Clase 1, qué es econometría
Hugo Maul
 
Clase 3, inferencia estadística
Clase 3, inferencia estadísticaClase 3, inferencia estadística
Clase 3, inferencia estadística
Hugo Maul
 
Clase 4, inferencia estadística copy
Clase 4, inferencia estadística   copyClase 4, inferencia estadística   copy
Clase 4, inferencia estadística copy
Hugo Maul
 
Clase 8, modelos_no_lineales_de_regresión
Clase 8, modelos_no_lineales_de_regresiónClase 8, modelos_no_lineales_de_regresión
Clase 8, modelos_no_lineales_de_regresión
Hugo Maul
 
Clip 10 grabada ok
Clip 10 grabada okClip 10 grabada ok
Clip 10 grabada ok
Hugo Maul
 
Clase 5, variables_binarias
Clase 5, variables_binariasClase 5, variables_binarias
Clase 5, variables_binarias
Hugo Maul
 
Presentación proyecto records
Presentación proyecto recordsPresentación proyecto records
Presentación proyecto records
Hugo Maul
 

Más de Hugo Maul (9)

Econometria UFM: Clase 1, qué es econometría
Econometria UFM: Clase 1, qué es econometríaEconometria UFM: Clase 1, qué es econometría
Econometria UFM: Clase 1, qué es econometría
 
Econometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometríaEconometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometría
 
Clase 1, qué es econometría
Clase 1, qué es econometríaClase 1, qué es econometría
Clase 1, qué es econometría
 
Clase 3, inferencia estadística
Clase 3, inferencia estadísticaClase 3, inferencia estadística
Clase 3, inferencia estadística
 
Clase 4, inferencia estadística copy
Clase 4, inferencia estadística   copyClase 4, inferencia estadística   copy
Clase 4, inferencia estadística copy
 
Clase 8, modelos_no_lineales_de_regresión
Clase 8, modelos_no_lineales_de_regresiónClase 8, modelos_no_lineales_de_regresión
Clase 8, modelos_no_lineales_de_regresión
 
Clip 10 grabada ok
Clip 10 grabada okClip 10 grabada ok
Clip 10 grabada ok
 
Clase 5, variables_binarias
Clase 5, variables_binariasClase 5, variables_binarias
Clase 5, variables_binarias
 
Presentación proyecto records
Presentación proyecto recordsPresentación proyecto records
Presentación proyecto records
 

Sesión 9, errores comunes en las estimaciones

  • 1. Errores comunes al estimar modelos econométricos Tratamiento de errores al estimar modelos Sesión 9 25/Abril/2007
  • 2. Recordando los supuestos del modelo clásico  Extendiendo los supuestos: 1. E(ui|xi)=0 No existe un sesgo en la estimación de βi 2. E(u2 i|xi)=σ2 La varianza de ui es homoscedástica. 3. E(uhui)=0 Los errores no están relacionados. 4. Ui~N(0,s2 ) Los errores siguen una distribución normal 5. Si xi es estocástica, las xi y ui no están correlacionadas. 6. El número de observaciones debe ser mayor que el número de regresoras. 7. Debe existir variabilidad para los valores que toman las regresoras. 8. No hay relación lineal exacta entre los regresores.
  • 3. Profundizando en la multicolineidad Tratando las violaciones a los supuestos 6,7 y 8 Sesión 9 2/Mayo/2007
  • 4. ¿Qué sucede si las variables independientes están relacionadas?  Relación lineal perfecta (determinística):  λ1x1+ λ2x2+ λ3x3+…+ λkxk=0  x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki  Si λ2 no es cero entonces existe una relación exactamente lineal entre x2 y el resto de variables x.  Relación lineal imperfecta (estocástica):  λ1x1+ λ2x2+ λ3x3+…+ λkxk + v =0  x2i=-λ1/λ2x1i-λ3/λ2x3i-…-λk/λ2xki-1/λ2vi  La existencia de un error estocástico vi impide que x2 se relacione de forma perfecta con los demás regresores.  ¿Cuál es el efecto aislado de x1?
  • 5. Consecuencias de la multicolineidad  Multicolineidad perfecta:  Los coeficientes son indeterminados.  Los errores estándar son infinitos.  Demostración: ( )( ) ( )( ) ( )( ) ( )2 32 2 3 2 2 323 2 32 2 3322 ˆ iiii iiiiiii ii xxxx xxxyxxy b uxbxby ∑∑∑ ∑∑∑∑ − ⋅−⋅ = ++= ( )( ) ( )( ) ( )( ) ( ) 0 0 : 22 2 22 2 22 2 2 22 2 2 2 2 2 23 = − ⋅−⋅ = = ∑∑∑ ∑∑∑∑ iii iiiiii ii xxx xxyxxy b xxSuponga λλ λλλ λ
  • 6. Consecuencias de la multicolineidad  Multicolineidad imperfecta:  El valor de vi determina su importancia.  Dificultad para estimar coeficientes con errores estándar pequeños.  Demostración: ( )( ) ( )( ) ( )( ) ( )2 32 2 3 2 2 323 2 32 2 2211 ˆ iiii iiiiiii ii xxxx xxxyxxy b uxbxby ∑∑∑ ∑∑∑∑ − ⋅−⋅ = ++= ( )( ) ( )( ) ( )( ) ( ) 0 0 : 22 2 222 2 22 2 2 22 22 2 2 2 2 23 ≠ −+ +⋅−+⋅ = += ∑∑ ∑∑ ∑∑ ∑∑ ∑∑ iiii iiiiiiiii iii xvxx xvyxyvxxy b vxxSuponga λλ λλλ λ
  • 7. Consecuencias prácticas  ¿Es un problema real?  Aun bajo colineidad los coeficientes estimados por OLS son insesgados.  La colineidad no destruye la característica de varianza mínima.  La multicolineidad es un fenómeno muestral.  Consecuencias prácticas:  La estimación presenta grandes varianzas y covarianzas lo que hace difícil la estimación precisa de βi.  Puede generar R2 muy altos a pesar de la eficiencia del modelo.  Los estimadores y errores estándar son sensibles a cambios pequeños de información.
  • 8. Detección de Multicolineidad  R2 elevado pero sus coeficientes poco significativos.  Correlaciones entre parejas de regresores.  Tener cuidado que una alta correlación es una condición suficiente pero no necesaria.  Regresiones auxiliares:  Regla de Klien: sugiere multicolineidad cuando el R2 obtenido de las auxiliares es mayor que el global.  Factores de tolerancia e índices de condición.
  • 9. ¿Qué hacer ante la presencia de multicolineidad? 1. No hacer nada:  Muchas veces es un problema de los datos y no hay elección para hacer algo más. 2. Información A priori:  Saber qué relacionar y qué no relacionar (ejemplo ingresos y nivel socioeconómico). 3. Eliminar una de las variables colineales:  Tener cuidado de incurrir en sesgos de especificación. 4. Transformación de las variables.  Calcular diferencias.  Dividir dentro de una tercera variable (ejemplo población).  Estimaciones polinomiales. 5. Incluir datos adicionales.  Expandir la muestra permite mayor eficiencia.
  • 10. Heteroscedasticidad Tratando las violaciones a los supuestos 6,7 y 8 Sesión 9 2/Mayo/2007
  • 11. Dos tipos de errores al realizar estimaciones econométricas  Sesgo en la estimación de los coeficientes:  E(bi)=βi+ξi  El riesgo es afirmar que βi es igual a bi cuando existe un valor que lo sesga sistemáticamente.  Sesgo en la estimación de la varianza del modelo:  E(s2 )=σ2 (X´X)-1  Al momento de fallar en esta estimación puede llegarse a concluir que un coeficiente no es (o sí es) significativo cuando realmente no lo es.
  • 12. Recordando: derivación de los supuestos  ¿Qué condiciones deben existir para poder inferir el valor de β? [ ] [ ] [ ] IuuE uEuEuE uEuEuE uEuEuE uuE XXXuuXXXbbE TTT T T ⋅=′⋅               =′⋅ ⋅′⋅⋅′⋅⋅′⋅⋅′=′−⋅− −− 2 2 2,1, ,2 2 11,2 ,12,1 2 1 11 )(...)()( ............ )(...)()( )(...)()( )()()()( σ ββ Varianza de los Errores para cada observación. Covarianza de los errores entre las observaciones xi y xj. Supuesto sobre el valor esperado de esta matriz.
  • 13. Recordando: derivación de los supuestos  ¿Qué condiciones deben existir para poder inferir el valor de β? [ ] [ ]               =′⋅ ⋅=′⋅ 2 2 2 2 ...00 ............ 0...0 0...0 σ σ σ σ uuE IuuE Supuestos 1. La varianza de los errores para cada observación es constante. 2. No existe relación entre los errores. Cuando estos dos supuestos se violan la estimación de la matriz varianza covarianza es sesgada y altera la eficiencia global del modelo.
  • 14. Ejemplo: supuesto 1 Fuente: Stock & Watson, 2006 VariableDependiente Variable Independiente La varianza de los errores debe ser constante para cada xi.
  • 15. Heteroscedasticidad  E(u. u´) ≠ σ2  A pesar que el estimador de β de mínimos cuadrados sea insesgado las pruebas estadísticas son erróneas.  ¿Por qué pueden ser variables los errores?  Cambios en el comportamiento a lo largo de la distribución.  Que existan distintas tecnologías para recopilar la información.  Presencia de factores atípicos.  Incorrectas transformaciones de los datos.
  • 16. ¿Cómo detectar la Heteroscedasticidad?  Hipótesis de homoscedasticidad  Ho) Homoscedasticidad.  Hi) Heteroscedasticidad  ¿Qué prueba utilizar?  Goldfeld Quandt  Breusch Pagan Godfrey  Prueba de White  Prueba general que no necesita identificar la variable que causa heteroscedasticidad.  Prueba de heteroscedasticidad y de especificación.
  • 17. Pasos para realizar la prueba de White  Tratamiento del error por medio de la prueba de White 1. Estima el modelo original: Y = β0 + β1x1 + β2x2 +ui 2. Realiza una regresión auxiliar: e2 = β0 + β1x1 + β2x2 + β3x1 2 + β4x2 2 + β5x1x2 +ui 3. La prueba se distribuye con k grados de libertad en la regresión auxiliar. 4. Valor obtenido χ2 = n*R2 (de la regresión auxiliar) 5. Si el valor obtenido (χ2 ) excede al valor crítico se rechaza Ho.
  • 18. ¿Cómo corregir la Heteroscedasticidad?  Tomar en cuenta lo siguiente:  Es un problema de eficiencia, no de estimación insesgada de βi.  Un problema de especificación puede causar errores heteroscedásticos.  Cualquier ajuste en la matriz varianza covarianza que corrija la heteroscedasticidad sirve para realizar inferencia estadística.  Corrección de White:  Los coeficientes son constantes pero la estimación de las varianzas es ponderada por una matriz Ω. Ejemplo
  • 19. Autocorrelación Tratando las violaciones a los supuestos 6,7 y 8 Sesión 9 2/Mayo/2007
  • 20. Recordando: derivación de los supuestos  ¿Qué condiciones deben existir para poder inferir el valor de β? [ ] [ ]               =′⋅ ⋅=′⋅ 2 2 2 2 ...00 ............ 0...0 0...0 σ σ σ σ uuE IuuE Supuestos 1. La varianza de los errores para cada observación es constante. 2. No existe relación entre los errores. Cuando estos dos supuestos se violan la estimación de la matriz varianza covarianza es sesgada y altera la eficiencia global del modelo.
  • 21. Naturaleza de la autocorrelación  Es importante saber el tipo de datos que se utiliza:  Corte transversal.  Series de tiempo.  Panel.  E(ui,uj)=0 Los errores no se encuentran correlacionados uno con otro.  Cuando este supuesto se rompe existe autocorrelación.  Tipos de auto correlación:  Espacial.  Serial.
  • 22. ¿Por qué ocurre la autocorrelación?  Causas:  Sesgo de especificación.  Variables omitidas y redundantes.  Forma funcional del modelo.  Rezagos:  Variables independientes.  Variables dependientes.  Manipulación de los datos.  No estacionariedad.
  • 23. ¿Cómo probar la presencia de autocorrelación?  Suponga el siguiente modelo:  Para la autocorrelación serial se puede decir que el término de error sigue un proceso autorregresivo AR(p).  Si se llegara a probar que ρ es distinta de cero, entonces existe autocorrelación de los errores.  Si no se llegara a conseguir información estadística que indique esto, entonces se puede decir que ui = εi, distribuyéndose N(0,σ2 ) y cuya cov(εi,εj)=0. ijt ii uu uxY ερ ββ +⋅= ++= 10
  • 24. ¿Cómo detectar la autocorrelación?  Método Gráfico:  Residuos de Ui vs el tiempo y vs Uj.  Permite generar una intuición de los problemas de heteroscedasticidad y autocorrelación.  Prueba Durbin Watson:  Estadístico a estimar: ∑ ∑ = = = = −− = nt t t nt t tt u uu d 1 2 2 2 1 )ˆ( )ˆˆ(
  • 25. Método Durbin Watson  EstadísticoDurbin Watson:  Supuestos:  El modelo global debe incluir un intercepto.  Las variables explicativas son fijas.  Las perturbaciones del error se dan en un esquema autorregresivo de primer orden.  El error está normalmente distribuido.  El modelo de regresión no incluye rezagos de las variables dependientes.  No existen observaciones faltante (brincos en la serie). ∑ ∑ = = = = −− = nt t t nt t tt u uu d 1 2 2 2 1 )ˆ( )ˆˆ(
  • 26. Método Durbin Watson  Estadístico DW:  Regla de decisión: ρ⋅−≈             ⋅ −= − = ∑ ∑ ∑ ∑ = = − = = = = − 22 ˆ ˆˆ 12 ˆ )ˆˆ( 1 2 1 1 2 2 2 1 nt t t tt nt t t nt t tt u uu u uu d 2 Ho) No hay autocorrelaciónNo se rechaza Ho, Con α de significancia. du 4-dudL 4- dL Zona de Indecisión Zona de Indecisión Rechazo Ho Rechazo Ho ρ=0ρ=1 ρ=2
  • 27. Resumen de los pasos para prueba DW.  Efectuar la estimación global por medio de OLS.  Establecer la regla de decisión.  Tratamiento del área de indecisión: depende del error α y β.  Calcular el valor d a partir de los datos.  Tomar una decisión justificada.
  • 28. Prueba general Breusch Godfrey (LM)  Esta prueba libera restricciones como:  Estimaciones cuyos regresores son estocásticos.  Esquemas autoregresivos de mayor orden.  Promedios móviles (tema de series de tiempo).  Suponga el siguiente modelo:  El término de error sigue un proceso autorregresivo de orden p (AR(p)). ippttt ii uuuu uxY ερρρ ββ +⋅+⋅+⋅= ++= −−− 12211 10 ...
  • 29. Hipótesis de la prueba LM  Hipótesis de la prueba LM  Ho) ρ1= ρ2=…= ρp=0 (No hay autocorrelación)  Hi) Al menos un ρ difiere (sí existe autoc.)  Al no rechazar Ho, no se puede probar que exista autocorrelación serial.  No sólo prueba para procesos autorregresivos de orden primero entre los errores.
  • 30. Pasos para realizar la prueba LM Pasos: 1. Estimar el modelo general y guardar los errores. 2. Estimar el siguiente modelo: ut=α+α1x1+α2x2+…αkxk+ρ1ut−1+…ρput−p+εt 3. El estadístico LM a estimar es el siguiente: LM = (n-p)R2 ~ χ2 p 4. Si el valor LM obtenido excede al valor c2 crítico con p grados de libertad se rechaza Ho. ¿Cuál debe ser el p óptimo a estimar?  No existe mecanismo formal.  Experimentación utilizando los criterios de información.
  • 31. ¿Cómo corregir la autocorrelación? 1. Evaluar si se debe a una mala especificación del modelo.  Incluir variables relevantes y cambiar las formas funcionales pueden librar la autocorrelación. 2. Método Newey West para corregir los errores estándar  Tal como la prueba white, este método corrige la estimación de los errores estándar de forma tal que sean consistentes con heteroscedasticidad y autocorrelación (HAC)  Esta corrección es exclusiva para muestras grandes.
  • 32. ¿Cómo corregir la autocorrelación? 1. Regresión generalizada o de diferencias. Corregir la estimación por el coeficiente ρ. tT ttttt ttt ttt itt ttt xY xxYY uxY uxY uu uxY εββ ερβρβρ ρβρβρρ ββ ερ ββ ++= +⋅−+−=⋅− ⋅+⋅+⋅=⋅ ++= +⋅= ++= −− −−− −−− − * 1 * 1 * 0 * 1101 11101 11101 11 10 )()1()(
  • 33. Cómo ajustar la regresión generalizada o de diferencias 1. ¿Es conocido el valor de ρ?  Si es conocido sólo se transforman las variables Y y X calculando las diferencias.  Si no es conocido puede realizarse transformaciones para las variables extremas: cuando ρ es igual a 1 (primera diferencia) y cuando ρ es igual a -1.  Regla de Maddala: cuando el valor del estadístico d (DW) es menor que el R2 entonces usar la primera diferencia (suponer que ρ es igual a 1)
  • 34. Cómo ajustar la regresión generalizada o de diferencias 2. Estimación de la primera diferencia: ∆y=∆x+εt  Esta estimación se deriva del supuesto que r es igual a 1.  Tomar en cuenta que se asume que la regresión no tiene constante.  Si el modelo se especifica con una constante, entonces esta representa una tendencia a lo largo del tiempo. 3. Para probar si realmente r=1 se realiza la prueba Berenblutt Webb, o el estadístico g: ∑ ∑ = n t n t u g 1 2 2 2 ˆ ˆε Donde ut son los residuos de la regresión original y εt son los residuos de la regresión de la primera diferencia.
  • 35.  Pasos para realizar la prueba Beremblutt Webb: 1. Estimación de la regresión general. 2. Estimación de la regresión con primera diferencia. 3. Planteamiento de hipótesis: Ho) ρ=1 Hi) ρ≠1 4. Estimación del estadístico g. 5. Utilizar el estadísitco crítico d (Durbin Watson). 6. Se rechazará Ho si el valor obtenido excede al límite inferior del estadístico d.  Tomar en cuenta que ahora el estadístico d=2 refleja ρ=0, pero la hipótesis nula es que ρ=1 (ver el límite derecho únicamente). Cómo ajustar la regresión generalizada o de diferencias
  • 36. Cómo ajustar la regresión generalizada o de diferencias Si el valor ρ es desconocido y distinto de 1entonces: 1. Se puede aproximar ρ = 1-d/2. 2. Se puede estimar a partir de los residuos:  Esquema AR(1) ut = ρut-1 + εt 3. Estimación de métodos iterativos (Chochrane Orcutt):  Permiten estimar los parámetros con esquemas autoregresivos de un orden superior.  Asume un ρ inicial y reestima el parámetro ρ hasta que converga.  Cuidado al utilizar este método, ya que sus iteraciones no son más que una imputación forzosa de la estimación del parámetro ρ.
  • 37. Errores comunes al estimar modelos econométricos Tratamiento de errores al estimar modelos Sesión 9 2/Mayo/2007