3. Definición general de colinealidad
Uno de los supuesto del modelo de regresión
múltiple indican que no existe relación lineal
exacta entre cualquiera de las variables
independientes.
Si existe dicha relación lineal decimos que las
variables independientes son perfectamente
colineales o que existe colinealidad perfecta
No se cumple
1
,
Xj
Xi
r
5. Síntomas de multicolinealidad
1.- Un coeficiente de determinación, relativamente alto en
una ecuación, donde los estadísticos t son poco significativos
es un indicador de multicolinealidad, es posible que F
estadística sea representativa , mientras que ninguna de las t
individuales sea significativas en si mismas.
2.- Los errores estándar de los parámetros son excesivamente
altos , o son indeterminados .
3,.- Debido a la presencia de multicolinealidad, en muchos de
los casos los parámetros son indeterminados
4.-Pequeños cambios en los datos pueden producir grandes
cambios en los parámetros estimados.
5.-Los coeficientes pueden tener signo opuesto al esperado o
una magnitud poco creíble.
6. Ejemplo
Para ilustrar la multicolinealidad , asúmase el siguiente MODELO :
Donde :
• Y = Soporte presupuestario TGN
• X2 = Participación SCZ en la POB nacional
• X3 = Participación SCZ en el PIB
• X4 = Numero de estudiantes matriculados
Modelo construido para estimar el soporte Por TGN para la
UAGRM.(Salas,2003)
Ui
X
B
X
B
X
B
B
Y
4
4
3
3
2
2
1
7. Método de identificación
• Para localizar el factor que es causante de multicolinealidad Glauber y
Farrar construyeron coeficiente de correlaciones múltiples a través de las
variables independientes
Donde:
• Ellos probaron el significado estadístico de las variables a través de los
múltiples coeficientes de determinación con la prueba F. la cual obedece
a la siguiente formula general.
• Donde:
• n = es el tamaño de la muestra
• k = numero de variables explicativas.
Adicionalmente se puede utilizar
)
,
,
( ....
2
,
1
.
2
.....
4
,
2
.
2
2
..........
3
,
2
.
1
2
XJ
X
X
XK
XK
X
X
X
XK
X
X
X R
R
R
)
/(
)
1
(
)
1
/(
)
(
*
...
.
1
.
...
2
,
1
.
2
K
n
R
K
R
F
XK
X
X
XJ
XK
X
X
XJ
8. Formas de corrección de la Multicolinealidad
•1.- Eliminación de las variables causantes de
multicolinealidad.
•2.- Incrementar el numero de observaciones
de serie de tiempo
•3.- Inclusión de otras variables al modelo.
•4.- Introducción de una nueva ecuación en el
modelo
Otras corrientes (Blanchard,1998)
9. Decisiones que tomar
Predicción
• Los econometristas afirman que un modelo se puede
trabajar con indicios de multicolinealidad cuando los
propósitos son de predicción.
Identificación y explicación.
• Cuando se trata de identificar y explicar la estructura de un
modelo la multicolinealidad representa un serio problema
debido a la relación funcional de las variables
independiente, lo cual dificulta enormemente el análisis
estructural de los modelos.
11. Definición de Heteroscedasticidad
• En el modelo econométrico hay ocasiones en que la
suposición de error constante u homocedasticidad no es
razonable.
• Si se examinara un corte trasversal de empresas en una
industria , los términos del error asociados con empresas
muy grandes podrían tener varianzas mayores , que aquellos
términos de error asociados con empresas mas pequeñas, es
decir las ventas de las empresas mas grandes podrían ser
mas volátiles que las ventas de las empresas mas pequeñas.
13. 13
• Heteroskedasticity invalidates variance formulas for OLS estimators
• The usual F tests and t tests are not valid under heteroskedasticity
• Under heteroskedasticity, OLS is no longer the best linear unbiased
estimator (BLUE); there may be more efficient linear estimators
• Consequences of heteroskedasticity for OLS
• OLS still unbiased and consistent under heteroskedastictiy!
• Also, interpretation of R-squared is not changed
Heteroskedasticity (1 of 18)
Source : Wooldridge, 2020
15. 15
• Disadvantage of this form of the White test
• Including all squares and interactions leads to a large number of estimated parameters
(e.g. k=6 leads to 27 parameters to be estimated).
•The White test for heteroskedasticity
Heteroskedasticity (7 of 18)
Source : Wooldridge, 2020
16. 16
• Example: Heteroskedasticity in (log) housing price equations
•Alternative form of the White test
Heteroskedasticity (8 of 18)
Source : Wooldridge, 2020
17. 17
• Weighted least squares estimation
• Heteroskedasticity is known up to a multiplicative constant
Heteroskedasticity (9 of 18)
Source : Wooldridge, 2020
18. 18
• If the other Gauss-Markov assumptions hold as well, OLS applied to
the transformed model is the best linear unbiased estimator.
• The transformed model is homoskedastic
• Example: Savings and income
Heteroskedasticity (10 of 18)
Source : Wooldridge, 2020
19. 19
• Why is WLS more efficient than OLS in the original model?
• Observations with a large variance are less informative than observations with small variance and therefore should get less
weight.
• WLS is a special case of generalized least squares (GLS)
• OLS in the transformed model is weighted least squares (WLS)
Heteroskedasticity (11 of 18)
Source : Wooldridge, 2020
20. Solución al problema de Heteroscedasticidad
•La heteroscedasticidad no destruye las propiedades
de anegamiento y consistencia de los MCO, sin
embargo estos ya no son eficientes , ni siquiera
asintóticamente. Esta falta de eficiencia resta
credibilidad a los procedimientos corrientes de
pruebas de hipótesis
22. DEFINICION
• Un supuesto importante del modelo clásico lineal presentado es
que no existe auto correlación o correlación serial entre las
perturbaciones Ui consideradas dentro de la función de regresión
poblacional.
• El termino autocorrelación se puede definir como la “correlación
entre miembros de series de observaciones ordenadas en el
tiempo (como en información de series de tiempo) o en el espacio
(como en información de corte trasversal).
•
j
i
Xj
uj
E
uj
Xi
ui
E
ui
E
Xj
Xi
uj
ui /
)
(
/
)
(
)
,
/
,
cov(
)
/
)(
/
(
)
,
/
,
cov( Xj
uj
Xi
ui
E
Xj
Xi
uj
ui
0
)
,
/
,
cov(
Xj
Xi
uj
ui
23. Razones principales de la Autocorrelación
• Inercia.- En la series de tiempo económicas , es
característica la inercia o la lentitud, ej el PIB, Índices de
precios presentan ciclos económicos .
• Sesgo de especificación: variables excluidas.- El análisis
empírico , el investigador hará un modelo de regresión
razonable, que puede ser el no mas perfecto. Después este
hará un examen “post – mortem" para encontrar si lo
resultados están de acuerdo a las expectativas a priori, de no
ser así se iniciara “la cirugía”
24. Razones principales de la Autocorrelación
ui
P
B
B
Oferta t
t
1
2
1
• Fenómeno telaraña.- La oferta de muchos productos
agrícolas refleja el efecto telaraña, donde la oferta reacciona
al precio de un rezago de un periodo de tiempo debido a
que la implementación de las decisiones de oferta toman
tiempo ( periodo de gestación).Por tanto la siembre a
principios de este año estarán influenciados por el precio
prevaleciente del año anterior de tal forma la función de
oferta es:
• Supóngase que al final del periodo t, el precio Pt resulta ser
inferior a Pt-1. por lo tanto es probable que se decida
producir en el periodo t +1 menos de lo que produjeron en el
periodo t
25. Razones principales de la Autocorrelación
ui
X
B
X
B
X
B
B
Y t
t
t
4
4
3
3
2
2
1
• Puede ser que erróneamente se haya excluido una variable
independiente que inicialmente se tendría que haber
considerado, en este caso existiría un sesgo de especificación.
Por ejemplo:
•
• Y: Cantidad carne de res demandada.
• X2: Precio de la carne de res
• X3: Ingreso del consumidor
• X4: Precio del cerdo
Sin embargo se estimo el siguiente modelo :
Es así que en la medida que el precio de cerdo afecte al consumo
de la carne de res , el termino de error “v” reflejara un patrón
sistemático creando así (una falsa) autocorrelación
vt
X
B
X
B
B
Y
3
3
2
2
1
:
ui
X
B
vt
4
4
26. Razones principales de la Autocorrelación
•Sesgo de especificación.- forma funcional incorrecta:
Supóngase que el modelo" verdadero” o correcto
en un estudio de costo – producción siguiente :
Costo marginal = B1 +B2 producción +B3 producción ^2 +ui
• 𝐶𝑜𝑠𝑡𝑜 𝑚𝑎𝑟𝑔𝑖𝑛𝑎𝑙 = 𝛼1 + 𝛼2𝑃𝑟𝑜𝑑𝑢𝑐𝑐𝑖𝑜𝑛 + 𝑉𝑖
•Pero se ajusta el siguiente modelo : Se puede dar que
la función de costo lineal sobre estima el costo
marginal verdadero
27. Estimación de MCO bajo la presencia de autocorrelación
1.- Es posible que la varianza residual
Sobre estime a la verdadera
2.- Como resultado es posible que se sobre estime R2
3.- bajo este problema es posible que sobre
estime VarBn
4.- Por consiguiente las pruebas t y F usuales dejan de
ser validas y de ser estas aplicadas , es probable que
se conduzcan a conclusiones erróneas sobre la
significancia estadística de los coeficientes de
regresión estimados.
2
ui
2
2
ui
28. Medidas de detección
•Durbin Watson.- La prueba mas conocida para
detectar la correlación serial es el estadístico, d de
Durbin Watson definido como :
•La gran ventaja del estadístico d es que esta basado
en residuales estimados que aparecen
sistematizados en los análisis de regresión.
n
t
t
t
n
t
t
t
t
u
u
u
d
2
2
2
2
1)
(
30. ‘Source :Brooks 2019
Another Test for Autocorrelation: The Breusch-Godfrey Test
• It is a more general test for rth order autocorrelation:
N(0, )
• The null and alternative hypotheses are:
H0 : 1 = 0 and 2 = 0 and ... and r = 0
H1 : 1 0 or 2 0 or ... or r 0
• The test is carried out as follows:
1. Estimate the linear regression using OLS and obtain the residuals,
2. Regress on all of the regressors from stage 1 (the x’s) plus
Obtain R2 from this regression.
3. It can be shown that (T-r)R2 2(r)
• If the test statistic exceeds the critical value from the statistical tables, reject
the null hypothesis of no autocorrelation.
ut
ut
u u u u u v v
t t t t r t r t t
1 1 2 2 3 3 ... ,
, ,...,
u u u
t t t r
1 2
2
v
31. Medidas de corrección
• Calcular: el coeficiente de autocorrelación
• Modificar las variables iniciales.
• Calcular nuevamente al regresión y probar el estadístico Durbin-
Watson
2
1
ˆ
t
t
t
u
u
u
1
1
ˆ
*
ˆ
*
t
t
t
t
X
X
X
Y
Y
Y