2. 2Mg. Beatriz Castañeda
Econometría
La Econometría se ocupa del estudio de
estructuras que permitan analizar
características o propiedades de una
variable económica utilizando como
causas explicativas otras variables
económicas.
3. 3Mg. Beatriz Castañeda
Modelo
Un modelo es la representación
simplificada de cualquier fenómeno,
proceso, institución y en general de
cualquier sistema.
Un sistema es un conjunto de elementos
que se encuentran en interacción.
4. 4Mg. Beatriz Castañeda
Tipos de modelo
Modelo mental: Representación no explícita o
exteriorizada.
Modelo verbal: Descripción del modelo mental
en lenguaje ordinario.
Modelo físico: Representación de un sistema en
forma material o mediante objetos.
Modelo matemático: Descripción del sistema
con la ayuda del lenguaje matemático.
5. 5Mg. Beatriz Castañeda
Modelo económico y modelo
econométrico
Modelo económico. Son leyes o relaciones económicas
que son aplicables con validez general a diversos
sistemas concretos a través del tiempo.
Modelo econométrico: Es un modelo específico de
aplicación a sistemas reales concretos, basado en un
modelo económico pero desarrollado con las
características particulares del sistema en estudio. Tiene
validez limitada por el sistema de referencia o el periodo
temporal.
6. 6Mg. Beatriz Castañeda
Objeto y método de la investigación
econométrica
El papel esencial de la econometría es la estimación y
verificación de los modelos econométricos.
Proceso:
Especificación del modelo en forma matemática.
Reunión de datos apropiados y relevantes de la
economía o sector que el modelo se propone
describir.
Con los datos se estima los parámetros del modelo
Realizar pruebas con el modelo para analizar si es
valido o si es necesario modificar la especificación.
7. 7Mg. Beatriz Castañeda
Tipos de modelos econométricos
Modelos estructurales: la especificación,
lineal o no lineal, del modelo se basa en
las relaciones estructurales establecidas
por el modelo económico para explicar el
comportamiento, la variable o sistema
bajo estudio
Modelos de regresión uniecuacionales
Modelos de simulación o multiecuacional
8. 8Mg. Beatriz Castañeda
Tipos de modelos econométricos
Modelos de series temporales: Examinan el
comportamiento pasado de una serie temporal
para inferir su comportamiento futuro. Se utiliza
cuando se tiene escaso conocimiento sobre las
relaciones causales del proceso que se trata de
predecir. Son muy fiables para predicciones a
corto plazo.
Modelos Uniecuacionales: ARIMA, SARIMA
Modelos Multiecuacionales: VAR
9. 9Mg. Beatriz Castañeda
Relación entre variables económicas
y regresión espúrea
Todo modelo econométrico exige una
teoría económica previa, sin ella caere-
mos en el mero cálculo de relaciones
observacionales entre las variables.
Regresión espúrea: Es aquella regresión
que no tiene significado ni explicación en
la teoría económica
10. 10Mg. Beatriz Castañeda
El cálculo de coeficientes de correlación y el trazado satisfactorio de
líneas de regresión no debe confundirse con un método para hallar
leyes, confusión tan frecuente en las ciencias sociales.
Cuando se adopta un modelo de regresión lineal y se calculan los
parámetros a partir de los datos, la ley central que se supone rige esa
información ruidosa (dispersa) no se ha descubierto, sino que se ha
supuesto desde el principio.
No hay elaboración de datos estadísticos que produzca por si nuevas
hipótesis, por no hablar ya de leyes, en general, no hay esfuerzo
técnico, por grande que sea, ni empírico, ni matemático, que pueda
ahorrarnos el trabajo de inventar nuevas ideas, aunque sin duda
aquel trabajo técnico puede muy bien disimular la falta de ideas.
Mario Bunge
11. 11Mg. Beatriz Castañeda
Proceso de contrastación de teorías según
Koutsoyiannis (1973)
Teoría
Expresión matemática de la teoría:
Modelo
Confrontación del modelo
con los datos
Aceptación de la
teoría si es compatible
con lo datos
Confrontación con
nuevos datos
Rechazo de la teoría
si es incompatible
con lo datos
Revisión de la teoría
si es incompatible
con lo datos
12. 12Mg. Beatriz Castañeda
Compatibilidad con datos
con elevada probabilidad
Incompatibilidad con datos
con elevada probabilidad
Contraste con datos no con-
cluyente (reducida prob. o resul-
tados opuestos compensados)
Teoría
Modelo adoptado para contrastación
Confrontación del modelo
con datos del marco de referencia
Conjunto de
datos 1
Modelo econo-
métrico 1
Modelo econo-
métrico 2
Modelo econo-
métrico N-1
Modelo econo-
métrico N
Conjunto de
datos 2
Conjunto de
datos N-1
Conjunto de
datos N
Para todos los modelos
y conjuntos de datos
Confirma eventualmente
la bondad de la teoría
Nuevos
modelos
econométricos
y aplicación
con nuevos
datos
Nuevos
desarrollos
teóricos
Nuevos desarrollos teó-
ricos en la misma línea
Para algunos modelos
y conjuntos de datos
Informa sobre grado de
aceptabilidad de la teoría
Nuevos desarrollos teó-
ricos c/posibles correc.
Para todos los modelos
y conjuntos de datos
Rechazo
de la teoría
Búsqueda de nuevos
caminos teóricos
PROCESO GENERAL DE CONTRASTACIÓN DE TEORIAS
13. 13Mg. Beatriz Castañeda
El papel de los modelos econométricos en la
investigación económica aplicada
a) Análisis estructural: Nos permite evaluar el impacto en Yt de
las variaciones ocurridas en Xt y Zt.
b) Predicción de Yt dados unos hipotéticos valores futuros para
Xt y Zt.
c) Evaluación de políticas o simulación de los efectos que
tienen sobre YT+h diferentes estrategias que afectan a las
variables explicativas.
ttt ZbXbbY 210 ++=Sea el modelo estimado
El conocimiento de los coeficientes b0, b1 y b2 nos permite realizar
17. 17Mg. Beatriz Castañeda
1. Yi es variable observable, variable dependiente.
2. Xi son variables fijas (con valores predeterminados, no colineales
(linealmente independientes). Rango (X) = K. Variables explicativas o
independientes.
3. εi son variables aleatorias homocedasticas e incorrelacionadas, es decir,
E(εi ) = 0; V(εi ) = σ2
; Cov (εi, εj ) = 0.
Supuestos del modelo
=
=
=
=
0)(
.....
0)(
0)(
)(
2
1
n
E
E
E
E
ε
ε
ε
ε
[ ]
=
=
==
2
2
2
2
21
2
2
212
121
2
1
21
2
1
...00
............
0...0
0...0
)(...)()(
............
)(...)()(
)(...)()(
...
...
´)()(
σ
σ
σ
εεεεε
εεεεε
εεεεε
εεε
ε
ε
ε
εεε
nnn
n
n
n
n
EEE
EEE
EEE
EEV
4. El número de observaciones excede al de parámetros a estimar.
18. 18Mg. Beatriz Castañeda
Propiedades de matrices y
Distribuciones de probabilidad
1. A es simétrica AT
= A
2. A es idempotente An
= A
3. A es simétrica e idempotente ρ(A) = Traza (A)
4. Si ∃ AB y BA Traza (AB) = Traza (BA)
19. 19Mg. Beatriz Castañeda
Propiedades de matrices y
Distribuciones de probabilidad
5. Si X(kx1) es N(µ, V) y si Tpxk es una matriz de coeficientes con ρ(T) = p
TX tiene distribución N(Tµ, TVT´)
Puesto que TX genera
combinaciones lineales de
variables normales
6. Si X(kx1) es N(0, I) y A es una matriz simétrica e idempotente
X´AX es χ2
(r) con r = Traza(A)
7. X´AX y X´BX son formas cuadráticas independientes AB=0
20. 20Mg. Beatriz Castañeda
Estimador de Mínimos Cuadrados
Ordinarios (MCO)
niparaXXY ikikii ,1,....221 =++++= εβββ
=
kβ
β
β
β
ˆ
...
ˆ
ˆ
ˆ 2
1
)ˆ...ˆˆˆ(ˆ
33221 kikiiiiii XXXYYYe ββββ ++++−=−=
Dado el estimador
Obtenemos el valor calculado
kikiii XXXY ββββ ˆ...ˆˆˆˆ
33221 ++++=
y el residuo o error de estimación
Sea
21. 21Mg. Beatriz Castañeda
El método de mínimos cuadrados ordinarios consiste en obtener los estimadores
de βi minimizando la suma de cuadrados de los errores, esto es,
eeXXXYeS kikii
n
i
i
n
i
i
´)]ˆ...ˆˆˆ([)ˆ( 2
3322
1
1
1
2
=++++−== ∑∑ ==
βββββ
[ ] ∑=
=
==
n
i
n
n i
e
e
e
e
eeeeeS
1
22
1
21
...
...´)ˆ(β
)ˆ)´(ˆ()ˆ)´(ˆ(´)ˆ( βββ XYXYYYYYeeS −−=−−==
YY
YY
YY
YY
e
nn
ˆ
ˆ
......
ˆ
ˆ
22
11
−=
−
−
−
=
22. 22Mg. Beatriz Castañeda
Para minimizar )ˆ(βS por la condición de primer orden obtenemos las derivadas
respecto a cada
iβˆ
2
3322
1
1 )]ˆ...ˆˆˆ([)ˆ( kikii
n
i
i XXXYS βββββ ++++−= ∑=
e igualamos a 0
0)1()ˆ...ˆˆˆ((2
ˆ
)ˆ(
3322
1
1
1
=−++++−=
∂
∂
∑=
kikii
n
i
i XXXY
S
ββββ
β
β
0)()ˆ...ˆˆˆ((2
ˆ
)ˆ(
23322
1
1
2
=−++++−=
∂
∂
∑=
ikikii
n
i
i XXXXY
S
ββββ
β
β
0))(ˆ...ˆˆˆ((2
ˆ
)ˆ(
3322
1
1 =−++++−=
∂
∂
∑=
kikikii
n
i
i
k
XXXXY
S
ββββ
β
β
…………………………….
Con estas igualdades formamos un sistema de ecuaciones, denominadas ecuaciones normales
23. 23Mg. Beatriz Castañeda
∑∑∑∑ ====
++++=
n
i
kik
n
i
i
n
i
i
n
i
i XXXnY
11
33
1
22
1
1
ˆ...ˆˆˆ ββββ
ki
n
i
iki
n
i
i
n
i
n
i
i
n
i
ii XXXXXXXY i ∑∑∑∑∑ =====
++++=
1
23
1
23
1
2
2
1
2
1
12
ˆ...ˆˆˆ
2
ββββ
∑∑∑∑∑ =====
++++=
n
i
ki
n
i
kii
n
i
ki
n
i
ki
n
i
kii ki
XXXXXXXY
1
2
3
1
32
1
2
11
1
ˆ...ˆˆˆ ββββ
…………………………….
=
∑∑∑∑
∑∑∑∑
∑∑∑
kkiikiiki
kiiiiii
kiii
nknkkk
n
ki
xxxxxx
xxxxxx
xxxn
y
y
y
xxxx
xxxx
β
β
β
ˆ
...
ˆ
ˆ
...
...............
...
...
...
...
...............
...
1...111
2
1
2
32
2322
2
2
32
2
1
321
2232221
X´Y = (X´X)βˆ YXXX ´)´(ˆ 1−
=β
Sistema de ecuaciones normales
32. 32Mg. Beatriz Castañeda
y
ii XY 21
ˆˆˆ ββ +=
y
x
•
•
•
•
• •
• •
•
xi
yi
Coeficiente de determinación R2
)ˆ()ˆ( yyyYyY iiii −+−=−
Variación
Total
Variación
explicada por
la regresión
Variación
no explicada
error
∑
∑
−
−
== 2
2
2
)(
)ˆ(
yY
yy
SCT
SCR
R
i
i
Este coeficiente indica en que proporción
la variación de Y es explicada por el
modelo de regresión
∑
∑
−
−=−= 2
2
2
)(
11
yY
e
SCT
SCE
R
i
i
∑∑∑ ===
−+−=−
n
i
i
n
i
ii
n
i
i YyyYYY
1
2
1
2
1
2
)ˆ()ˆ()(
SCT SCE SCR= +
33. 33Mg. Beatriz Castañeda
∑
∑
−
−=−= 2
2
2
)(
11
yY
e
SCT
SCE
R
i
i
22
22
2
22
2
)´´ˆ´(
)(
)(
YnY
YXYYYnY
YY
eYY
R
i
i
i
ii
−
−−−
=
−
−−
=
∑
∑
∑
∑∑ β
2
2
2
´
´´ˆ
YnYY
YnYX
R
−
−
=
β
34. 34Mg. Beatriz Castañeda
Coeficiente de determinación ajustado
2
R
∑
∑
−
−= 2
2
2
)(
1
yY
e
R
i
i
Al considerar a R2
como un indicador del poder explicativo del modelo, debemos
tener en cuenta que al comparar dos modelos con diferente número de variables
explicativas, el modelo con más variables siempre tendrá un R2
mayor.
Para determinar que tanto mejora el poder explicativo del modelo al adicionar
nuevas variables se propone una modificación en el cálculo del R2
al que se
denomina R2
ajustado.
)1(
1
1
)]1/([
)]/([
1 22
R
kn
n
nSCT
knSCE
R −
−
−
−=
−
−
−=
Este coeficiente es sensible al número de variables adicionadas, de manera que si las
variables adicionadas no incrementan de manera significativa el poder explicativo el
R2
ajustado se reducirá.
35. 35Mg. Beatriz Castañeda
Distribuciones de los estimadores
Si el vector de perturbaciones ε tiene distribución normal multivariante ),0( 2
IN εσ
entonces:
εββ ´)´(´)´(ˆ 11
XXXYXXX −−
+==
Es función lineal de las perturbaciones, y por lo tanto
))´(,(ˆ 12 −
XXNnormalóndistribucitiene εσββ
1)
Luego, cada 12
)´();,(.ˆ −
∈ XXadondeaNdistribtiene iiiiii εσββ
2)
2
)(22
2
.
´)(
kn
e
disttiene
MSkn
−=
−
χ
σ
εε
σ εε
),0(.1
nINdisttieneε
εσ
38. 38Mg. Beatriz Castañeda
Estimación y Prueba de Hipótesis para los parámetros del modelo
1. Para iβ
),(ˆ 2
iiii aNesComo εσββ
2
)(2
2
.
)(
kn
e
disttiene
Skn
y −
−
χ
σε
)(
2)(
2)(
)ˆ(
)ˆ(
kn
iie
ii
kn
eSkn
iia
ii
tes
aS
T −
−
−
−
−
==
ββ
εσ
εσ
ββ
0 t1-α/2
t(n-k)
α/2α/2
- t1-α/2
2/12/1
)ˆ(
αα
ββ
−− <
−
=<− t
aS
Tt
iie
ii
Obtenemos
i
StL i βαβ ˆ2/1
ˆ
−±=
Estimación por intervalo
39. 39Mg. Beatriz Castañeda
Prueba de Hipótesis
*
1
*
0 :: ii ii HH ββββ ≠=
Estadística de la Prueba
ciertaesHsites
aS
T kn
iie
ii
0)(
*
)ˆ(
−
−
=
ββ
0 t1-α/2
t(n-k)
α/2α/2
- t1-α/2
Decisión
Rechazar la H0 a favor de H1 si
2/12/1 αα −− >−< tTotT
40. 40Mg. Beatriz Castañeda
2. Para
2
εσ
2
)(2
2
.
)(
kn
e
disttiene
Skn
−
−
χ
σε
α/2
α/2
2
)( kn−χ2
2/αχ 2
2/1 αχ −
2
2/12
2
2
2/
)(
α
ε
α χ
σ
χ −<
−
< eSkn
Obtenemos 2
2/1
2
)(
αχ −
−
= e
i
Skn
L
2
2/
2
)(
αχ
e
s
Skn
L
−
=
1-α
41. 41Mg. Beatriz Castañeda
Prueba de Hipótesis
0
1
0
0 :: ββββ ≠= HH
=
0
0
2
0
1
0
....
kβ
β
β
β
Estadística de la Prueba
ciertaesHsiFdisttiene
S
kXX
F knk
e
0),(2
00
.
/)]ˆ](´)´[ˆ[(
−
−−
=
ββββ
α
F(k ,n-k)F1-α
Decisión
Rechazar la H0 a favor de H1 si
F > F1-α
42. 42Mg. Beatriz Castañeda
Prueba de Hipótesis para restricciones lineales
Sea el modelo
niparaXXY iiii ,1,.... 55221 =++++= εβββ
Para el cual se formula las siguientes hipótesis
=−
=+
=−
23
04
83
:.1
25
14
53
0
ββ
ββ
ββ
H
rRH =β:0
=
−
−
2
0
8
30010
04001
10300
5
4
3
2
1
β
β
β
β
β
R β r
Restricciones lineales
48. 48Mg. Beatriz Castañeda
Aparece una planilla en blanco en la que se asigna nombre a las variables y se ingresa los
datos como en una planilla excel
50. 50Mg. Beatriz Castañeda
En la ventana se especifica el modelo ingresando a la izquierda la v. dependiente luego la
constante y las variables explicativas, luego presionar en OK
54. 54Mg. Beatriz Castañeda
Análisis de significancia de las variables
niparaXXY ikikii ,1,....221 =++++= εβββ
Sea el modelo
0:0: 10 ≠= ii HH ββ
Estadística de la Prueba
ciertaesHsites
S
T kn
i
i
0)(
ˆ
ˆ
−=
β
β
1) Análisis de significancia de la variable Xi
0 t1-α/2
t(n-k)
α/2α/2
- t1-α/2
55. 55Mg. Beatriz Castañeda
2) Análisis de la significancia de un subvector de s variables
11
2
1
0
0
...
0
0
.....
:
sxsxk
q
q
H
=
+
+
β
β
β
1
1
2
1
1
0
...
0
0
...
...
1...000...0
.....................
0...100...0
0...010...0
sx
kxk
q
q
q
sxk
=
+
+
β
β
β
β
β
q s
Ninguna de las s variables es
significativa para explicar a Y
Con H0 se define una partición en la matriz X :
=
+
+
+
knnqqnn
kqq
kqq
XXXX
XXXX
XXXX
X
......1
.....................
......1
......1
12
221222
111121
X1 X2
[ ]21 XXX =
( )sxsqxs IR 0=
56. 56Mg. Beatriz Castañeda
[ ]21 XXX =
=
2
1
B
B
β [ ] εε ++=+
= 2211
2
1
21 BXBX
B
B
XXY
0:0: 2120 ≠= BHBH
( ) 00: 2
2
1
0 ==
= B
B
B
IRH sxssxqβ
[ ] 22
2221
12111 0
0´)´( A
IAA
AA
IRXXR =
=−
62. 62Mg. Beatriz Castañeda
0:0: 2120 ≠= BHBH
),(2
221
'
2
'
/ˆ][ˆ
2
kns
e
Fes
S
sXMX
F −=
ββ
Estadística de la prueba
Equivale a:
),(
)/()(
/)]()([
)/()(
/)]()([
knsFes
knMSRSCE
sMRSCRMSRSCR
knMSRSCE
sMSRSCEMRSCE
F −
−
−
=
−
−
=
)/(]´´ˆ´[
/]´´ˆ´´ˆ[ 11
knYXYY
sYXYX
F
−−
−
=
β
ββ
63. 63Mg. Beatriz Castañeda
2
´´ˆ YnYXSCR −= β 1−K
SCR
knSCE
kSCR
−
−
/
1/
2
111 ´´ˆ YnYXSCR −= β
YXYXSCR ´´ˆ´´ˆ
112 ββ −= rk
SCR
−
2
knSCE
rkSCR
−
−
/
/2
kkk aYnYXSCR /ˆ´´ˆ 2
1 ββ −−=
kkk aSCR /ˆ 2
2 β= 2SCR
knSCE
akkk
−/
/ˆ 2
β
YXYYSCE ´´ˆ´ β−=
kn
SCE
−
2
´ YnYY −
Fuente de variación Suma de cuadrados G.L. C.M. Razón F p
Debido a X2
, …, XK k-1
Debido a X2
, …, Xr
Debido a Xr+1
, …, XK
r-1
k-r
Debido a X2
, …, XK-1
Debido a XK
k-2
1
Debido al error n-k
Total n-1
ANALISIS DE VARIANZA: Contraste de significación
64. 64Mg. Beatriz Castañeda
niparaXXY ikikii ,1,....221 =++++= εβββ
∑ =+++= 0ˆ....ˆˆ
221 ikk equeyaXXY βββ
Modelo en desviaciones de media
niparaeXXY ikikii ,1,ˆ....ˆˆ
221 =++++= βββ
)ˆ....ˆ(ˆ
221 kk XXY βββ ++−=
ikkikii eXXXXYY +−++−=− )(ˆ....)(ˆ
222 ββ
ikikii exxy +++= ββ ˆ....ˆ
22 eBxy += 2
ˆ
:y Vector de las observaciones Y en desviaciones de media
:x Matriz de observaciones de las variables X´s en desviaciones de media
67. 67Mg. Beatriz Castañeda
Predicción utilizando el modelo de Regresión Múltiple
niparaXXY ikikii ,1,....221 =++++= εβββModelo:
ββββ '
221 ....)( i
XXXYE kikii =+++=
Predicción del promedio
βββββ ˆˆ...ˆˆˆˆ '
33221 i
XXXXY kikiii =++++=Predicción puntual
Predicción por intervalo
ββ ''
)ˆ()ˆ( ii
XXEYE i ==
ii XVXXVYV ii
)ˆ()ˆ()ˆ( ''
ββ ==
),0( 2
σε NesSi i
)(1'2
)´(
)(ˆ
kn
iie
ii
tes
XXXXS
YEY
T −−
−
=
iiei XXXXStYL 1'2
2/1 )´(ˆ −
−±= α
68. 68Mg. Beatriz Castañeda
Predicción de un valor individual
βββββ ˆˆ...ˆˆˆˆ '
33221 i
XXXXY kikiii =++++=Predicción puntual
Predicción por intervalo
ii XVXeV i
)ˆ()( '2
βσ +=
),0( 2
σε NesSi i
)(1'2
))´(1(
ˆ
kn
iie
ii
tes
XXXXS
YY
T −−
+
−
=
))´(1(ˆ 1'2
2/1 iiei XXXXStYL −
− +±= α
ikikii XXY εβββ ++++= ....221
βεβ ˆˆ ''
iiiiii XXYYe −+=−=
0)( =ieE
69. 69Mg. Beatriz Castañeda
Coeficientes estandarizados
niparaXXY ikikii ,1,....221 =++++= εβββ Variables en su nivel
ikkikii XXXXYY εββ +−++−=− )(....)( 222 Variables en
desviaciones de media
( ) ( ) iS
XiX
Y
kS
XiX
YY
i
X
kX
X
X
S
S
S
S
S
YY
εββ +++=
− −−
22
2 2222
2 .... Variables estandarizadas
Y
X
j
S
S j
j
ββ =* Se denomina coeficiente estandarizado o coeficiente Beta
Los coeficientes beta informan respecto de la importancia relativa de las variables
explicativas en el modelo de regresión múltiple.
Indican cual es el cambio en unidades estandarizadas de la variable dependiente
ante un cambio en una desviación estándar de la variable dependiente.
70. 70Mg. Beatriz Castañeda
Correlación Parcial
En el modelo de regresión múltiple interesa medir cuán relacionada está la
variable dependiente con cada una de las variables independientes, luego de
eliminar completamente el efecto de las otras variables independientes en el
modelo.
iiii XXY εβββ +++= 33221
Ejemplo
Sea el modelo:
ii XY 321
ˆˆˆ)1 αα +=
y sean los modelos auxiliares
ii XX 3212
ˆˆˆ)2 αα +=
Eliminamos de Y y X2 la influencia lineal de X3 y obtenemos:
ii YYYde ˆ*)1 −= ii XXXde i 22
* ˆ)2 2
−=
Al coeficiente de correlación entre Y* y X*2 se denomina correlación parcial
entre Y y X2.
71. 71Mg. Beatriz Castañeda
2:2
XyYentresimplenCorrelacióYXr
3232
: XyXentresimplenCorrelacióXXr
3:3
XyYentresimplenCorrelacióYXr
332
(2. : XporcontroladaXyYentreparcialnCorrelacióXYXr
2121
.
332
3232
32
YXXX rr
rrr
r
XXYXYX
XYX
−−
−
= 3.2
3.
3.22
ˆ
S
S
r Y
Y=β
SY.3 : Desv. est. de los residuos en la regresión de Y en X3
S2.3 : Desv. est. de los residuos en la regresión de X2 en X3
X2
X3
Y
72. 72Mg. Beatriz Castañeda
Análisis del modelo
Supuestos del modelo
1) Las variables X son no colineales
2) Las perturbaciones tienen distribución normal
3) Regresores son no estocásticos
4) Las perturbaciones tienen varianza constante
5) Las perturbaciones son incorrelacionadas
Violación del supuesto
Multicolinealidad
No normalidad de las
perturbaciones
Regresores estocásticos
Heterocedasticidad
Autocorrelación
73. 73Mg. Beatriz Castañeda
Problema de Multicolinealidad
YXXXMCO ´)´(ˆ 1−
=β
Si alguna variable X es combinación lineal de las otras, entonces
1
)´()´( −
∴< XXexisteNoKXXρ
Si no existe colinealidad perfecta pero las correlaciones son muy altas, esto
implicaría distorsiones en las estimaciones de los coeficientes, pues su varianza
sería muy grande (estimadores poco precisos).
Por lo tanto no podríamos obtener los estimadores de los coeficientes del modelo,
lo que nos llevaría a reformular el modelo en función de las otras variables
teniendo en cuenta la relación lineal.
74. 74Mg. Beatriz Castañeda
Problema de Multicolinealidad
Ejemplo: iiii XXY εβββ +++= 33221Sea el modelo
−=
−= 2
33223
3223
2
2
2
323
23
2
2
)1()1(´
SSSr
SSrS
n
SS
SS
nxx
−
−
−−
=−
2
23223
3223
2
3
2
3
2
2
22
3
2
2
1
])[1(
1
)´(
23 SSSr
SSrS
SSrSSn
xx
)1()1()1()1(
)ˆ( 2
23
2
2
2
2
23
2
3
2
2
22
3
2
rSnrSSn
S
V
−−
=
−−
= εε σσ
β ∞ Si r23
1
)1()1()1()1(
)ˆ( 2
23
2
3
2
2
23
2
3
2
2
22
2
3
rSnrSSn
S
V
−−
=
−−
= εε σσ
β ∞ Si r23
1
FIV
r
=
− 2
231
1 Factor de incremento varianza
75. 75Mg. Beatriz Castañeda
Consideremos el modelo restringido
iii uXY ++= 2211 ββ 2
2
2
21
)1(
)ˆ(
Sn
V u
−
=
σ
β
En cambio para el modelo sin restricción iiii XXY εβββ +++= 33221
2
2
2
2
2
2
23
2
)1()1(
1
)ˆ(
u
u
Snr
V
σ
σσ
β ε
−−
= Donde
12
2
<
uσ
σε
Si r23 = 0 )ˆ()ˆ( 212 ββ VV ≤
Así 2
231
1
r
FIV
−
=
Indica en que medida irá creciendo la varianza del estimador
cuando las variables estén correlacionadas.
En general 2
1
1
iR
FIV
−
= es el coeficiente de determinación en el modelo
de Xi dadas las otras variables Xs:2
iR
76. 76Mg. Beatriz Castañeda
Detección del problema de Multicolinealidad
1. Característica típica de la multicolinealidad es que todos los coeficientes de
regresión pueden ser no significativamente diferentes de cero a nivel
individual, aunque en conjunto todas las variables sean muy significativas.
2. Al examinar la matriz de correlación de las variables regresoras, R, y su
inversa R-1
, se encuentra que el i-ésimo elemento de la diagonal principal de
R-1
(tii) es el factor de incremento de varianza (FIV) del coeficiente de la
variable Xi.
10
1
1
)( 2
>
−
==
i
iii
R
XFIVtSi Indica una alta multicolinealidad
Tolerancia = 1- R2
i
Indica la porción de la variable que no es explicada por las
otras variables
77. 77Mg. Beatriz Castañeda
3. Al examinar los valores propios de (X´X) o R y calcular el índice de
condicionamiento
RdepropiovalorMínimo
RdepropiovalorMáximo
IC =
Se tiene el siguiente criterio
IC > 30 Existe alta multicolinealidad
Existe multicolinealidad moderada10 ≤ IC ≤ 30
IC < 10 Matriz de datos está bien definida
78. 78Mg. Beatriz Castañeda
4. Test de Farrar Glauber
i) Test de ortogonalidad
síentresortogonalesonnoXLasH
síentresortogonalesonXLasH
:
:
1
0
( ) Rn k
calc ln1 6
)52(2 +
−−−=χ
Estadística
2
2/)1(
2
−≈ kkcalc χχ
K: nº de variables explicativas
R: matriz de correlaciones simples
p
2
)2/)1(( −kkχ2
calcχ
R.C.
79. 79Mg. Beatriz Castañeda
ii) Test F
Para determinar que regresor se encuentra más colineado con las demás
variables.
Se obtiene la regresión de cada variable en función del resto de variables
y se calcula el R2
para el modelo de cada variable.
0:0: 2
max1
2
max0 ≠= RHRH
),1(2
max
2
max
)/()1(
)1/(
knki F
knR
kR
F −−→
−−
−
=
Estadística
K: nº de variables explicativas
p
),( knkF −
iF
R.C
80. 80Mg. Beatriz Castañeda
iii) Test t
Para determinar que regresor se encuentra más correlacionado con una de
las otras variables
0:0: 2
max1
2
max0 ≠= rHrH
22
max
2max
1
−
−
→
−
= n
n
t
r
r
T
Estadística
Rmax es el coeficiente de
correlación simple máximo
0 t1-α/2
t(n-k)
α/2α/2
- t1-α/2
R.CR.C.
81. 81Mg. Beatriz Castañeda
Tratamiento
1. Eliminar o excluir regresores del modelo, eligiendo aquellos que tengan mayor
multicolinealidad con las otras variables, es decir, FIV > 10
2. Incluir información externa a los datos de manera que se rompa el problema
de multicolinealidad (Se considera que este problema es un “problema de la
muestra a mano”)
3. Utilizar un modelo multiecuacional
4. Estimar los coeficientes utilizando el método de “regresión cresta”, el cual es
un método exploratorio que consiste en utilizar una modificación a la matriz
(X´X)
IXX α+)´(
Eligiendo α desde 0.01 hasta obtener resultados estables, es
decir, tales que las varianzas de los estimadores no cambien
significativamente al cambiar algunos datos
5. Utilizar restricciones lineales para los coeficientes
6. Utilizar un modelo de componentes principales