1
Clase 3. Modelo de regresi´on m´ultiple
Nerys Ram´ırez Mord´an
Pontificia Universidad Cat´olica Madre y Maestra
Econometr´ıa I (EC-411-T)
15 de junio de 2018
2
Contenido
1 Introducci´on
Omisi´on de variables
relevantes
Generalizar formas
funcionales
Efecto ceteris paribus
Cambio simult´aneo de varias
variables
2 Modelo de regresi´on m´ultiple
Generalizaci´on del modelo
Estimaci´on
Valor ajustado y residuales
Varianza de los estimadores
R cuadrada ajustada
3 Supuestos del modelo
Linealidad
Muestreo aleatorio
Independencia de u|x
X s no estoc´asticas
Multicolinealidad
Homocedasticidad
Autocorrelaci´on
Normalidad
4 Referencias
3
Introducci´on
4
Introducci´on
El modelo de regresi´on simple con frecuencia es inadecuado en la
pr´actica (Gujarati, 2007, p.195), especialmente, porque la variable
dependiente, o regresada, depende de m´as de una variable.
Lo anterior, dificulta obtener relaciones cesteris paribus, porque no
es posible mantener el supuesto de que los dem´as factores que
afectan a y −contenidos en ui − se mantienen constantes
(Wooldridge, 2009, p.68).
5
Introducci´on
Por tanto, es recomendable utilizar un modelo de regresi´on que
incorpore m´as de una variable entre los factores explicativos.
yi = β0 + β1x1i + β2x2i + ... + βkxki + ui (1)
Este modelo se conoce como el regresi´on m´ultiple, y permite:
1 Explicar una mayor proporci´on de la variaci´on de Y .
2 Evitar sesgo ocasionado por variable omitida.
3 Incorporar formas funcionales.
4 Garantizar el efecto ceteris paribus.
5 Estudiar cambios simult´aneos entre variables.
6
Omisi´on de variables relevantes
La omisi´on de una variable relevante relacionada con el resto
de variables del modelo, causa sesgo en nuestras estimaciones de
los par´ametros.
Este sesgo depender´a de la correlaci´on de la variable omitida con
las dem´as variables independientes y su efecto sobre la variable
dependiente (Wooldridge, 2009, p.91).
7
Omisi´on de variables relevantes
Suponga el modelo correcto es:
yi = β0 + β1x1i + β2x2i + u (2)
Pero ha estimado:
yi = α0 + α1x1 + u∗ (3)
Por lo que:
α1 =
Cov(x1, y)
var(x1)
=
Cov(x1, β0 + β1x1 + β2x2 + u)
var(x1)
(4)
α1 = β1 + β2
Cov(x1, x2)
V ar(x1)
(5)
8
Ecuaci´on de salarios: sesgo por variable omitida
Suponga desea estudiar el efecto de la educaci´on sobre el salario
y ha modificado los ejemplos anteriores agregando la variable
experiencia entre las variables explicativas:
salarioi = β0 + β1educi + β2expi + ui (6)
Ahora podemos estar seguro que se esta midiendo el efecto de la
ecuaci´on, manteniendo constante la experiencia.
¿Puede determinar la direcci´on del sesgo del coeficiente asociado
con Educaci´on en el modelo donde se omite la variable exp?
9
Generalizar formas funcionales
Adicionalmente, el modelo de regresi´on m´ultiple permite establecer
relaciones funcionales entre variables, como es el caso de funciones
cuadr´aticas.
yi = β0 + β1xi + β2x2
i + ui (7)
Este modelo cae fuera de la regresi´on simple porque contiene dos
funciones de ingreso (x y x2), lo que modifica la interpretaci´on de
los par´ametros, dado que ahora el efecto marginal de x depende de
β1, β2 y el nivel de x:
∆yi
∆xi
= β1 + 2β2x (8)
10
Ecuaci´on de salarios: formas funcionales
Ahora, suponga incorpora el valor de la experiencia al cuadrado
en la ecuaci´on de ingresos, lo que modifica el efecto marginal
derivado de un a˜no adicional de experiencia.
salarioi = β0 + β1educi + β2expi + β3exp2
i + ui (9)
Este efecto marginal viene dado por:
∆salarioi
∆expi
= β2 + 2β3exp (10)
11
Efecto ceteris paribus
La ventaja del m´etodo m´ultiple, es que permite estimaciones
ceteris paribus aun cuando los datos no se recolectaron de esa
manera −no se impusieron restricciones a los valores muestrales,
como para darse el lujo de mantener constante ciertas variables−.
Imagine que omite una variable relevante de la ecuaci´on de salario,
esta variable relevante pasa a estar contenida en ui, pero se
correlaciona con las variables incluidas en el modelo, por lo que,
no es posible obtener una interpretaci´on ceteris paribus.
12
Efecto ceteris paribus
Tambi´en, el modelo m´ultiple permite verificar el efecto del cambio
de dos o m´as variables de forma conjunta.
Por ejemplo, dado el modelo sobre salarios:
salario = 107,16 + 12,8edu + 5,3exp + ui (11)
ˆ∆salario = 12,8∆edu + 5,3∆exp = 18,1 (12)
13
Modelo de regresi´on m´ultiple
14
Modelo de regresi´on m´ultiple
Ahora, el modelo se generaliza para controlar de forma expl´ıcita
los dem´as factores que afectan la variable independiente, en el
conocido modelo de regresi´on lineal m´ultiple:
yi = β0 + β1x1
i + β2x2
i + ... + βkxk
i + ui (13)
Donde, β0 indica al efecto medio sobre Y de todas las variables
excluidas del modelo, aunque su interpretaci´on mec´anica del valor
promedio de Y cuando todas las x s se hacen cero continua siendo
valida; las βi ∀i ∈ [1, ..., k] se conocen como coeficientes de
regresi´on parciales; y, ui continua siendo el t´ermino de error.
15
Modelo de regresi´on m´ultiple
Tomando esperanza condicionales:
E[yi|x1
i , x2
i , ..., xk
i ] = β0 + β1x1
i + β2x2
i + ... + βkxk
i (14)
Donde el supuesto clave de la relaci´on de ui con X se establece en
t´erminos de esperanza condicional, indicando que el promedio de
los efectos de los factores no observados es igual a cero,
independientemente de los valores de las xi. Es decir,
corr(u, x) = 0.
E[ui|x1
i , x2
i , ..., xk
i ] = 0 (15)
16
Estimaci´on
El modelo se continua estimando a partir de M´ınimos
Cuadrados Ordinarios, obteniendo las estimaciones que
minimicen la suma de los residuales al cuadrado.
Dadas n observaciones sobre las variables (yi, x1
i , x2
i ..., xk
i :
i = 1, 2, ..., n), se eligen los estimadores que:
min
n
i=1
u2
=
n
i=1
(yi − ˆβ0 − ˆβ1x1
i − ˆβ2x2
i − ... − ˆβkxk
i )
2
(16)
17
Estimaci´on
Empleando c´alculo multivariado se obtienen las k + 1 condiciones
de primer orden:
n
i=1 (yi − ˆβ0 − ˆβ1x1
i − ˆβ2x2
i − ... − ˆβkxk
i ) = 0
n
i=1 (yi − ˆβ0 − ˆβ1x1
i − ˆβ2x2
i − ... − ˆβkxk
i )x1
i = 0
n
i=1 (yi − ˆβ0 − ˆβ1x1
i − ˆβ2x2
i − ... − ˆβkxk
i )x2
i = 0
...
n
i=1 (yi − ˆβ0 − ˆβ1x1
i − ˆβ2x2
i − ... − ˆβkxk
i )xk
i = 0
18
Estimaci´on
En el caso de dos variables independientes, la soluci´on al sistema
anterior, arroja las siguientes estimaciones:
ˆβ0 = ¯y − ˆβ1¯x1
− ˆβ2¯x2
− ... − ˆβk ¯xk
(17)
ˆβ1 =
( yix1i)( x2
2i) − ( yix2i)( x1ix2i)
( x2
1i)( x2
2i) − ( x1ix2i)2 (18)
ˆβ2 =
( yix2i)( x2
1i) − ( yix1i)( x1ix2i)
( x2
1i)( x2
2i) − ( x1ix2i)2 (19)
19
Interpretaci´on de los coeficientes
Consideremos nuevamente la ecuaci´on del salario:
ˆsal = 2,87 + 0,60educ + 0,02exper + 0,17antig (20)
Ahora, el coeficiente asociado con educaci´on mide el efecto de un
a˜no adicional de educaci´on, manteniendo constante la experiencia
y la antig¨uedad en la empresa.
Alternativamente, si comparamos dos personas con el mismo nivel
de experiencia y antig¨uedad, el coeficiente de educ es la
diferencia en el salario esperado cuando sus niveles de educaci´on
difieren en un a˜no (UC3, 2017, p.21).
20
Valor ajustado y residuales
El valor ajustado (ˆyi) se obtiene como:
ˆyi = ˆβ0 + ˆβ1x1
i + ˆβ2x2
i + ... + ˆβkxk
i (21)
El residual (ˆui) esta definido como en el caso del modelo de
regresi´on simple, a partir de la diferencia entre el y observado y el
ˆy estimado:
ˆui = yi − ˆyi = yi − ˆβ0 − ˆβ1x1
i − ˆβ2x2
i − ... − ˆβkxk
i (22)
21
Varianza de los estimadores
Ahora, la varianza de los estimadores se obtiene como:
var(ˆβj) =
ˆσ2
n
i=1 (xij − ¯xj)2
(1 − R2
j )
(23)
R2
j se conoce como R-cuadrado auxiliar.
El estimador insesgado de σ2 (aqu´ı k es el n´umero de par´ametros
estimados):
ˆσ2
=
n
i=1 ˆu2
i
n − k
(24)
22
R cuadrada ajustada
Como el R-cuadrado es una funci´on creciente del n´umero de
variables incluidas en el modelo, se suele utilizar el R2-ajustado
(por los grados de libertad del modelo), que pone como restricci´on
(n − k) los grados de libertad (gl) para compensar la p´erdida de gl
que implica el incremento del n´umero de par´ametros.
¯R2
=
n
i=1 ˆu2/(n − k)
n
i=1 (yi − ¯y)2/(n − 1)
= 1 − 1 − R2 n − 1
n − k
(25)
Para comparar las ¯R2 ajustados o no, es necesario que los modelos
tengan la misma cantidad de observaciones y las mismas variables
independientes (aunque adopten cualquier forma) (Gujarati y
Swan, 2009, p.203).
23
Ejemplo
Continuando con el ejemplo de clases:
1 Obtenga el R2
ajustado del modelo.
2 Reproducir los ejercicios en Excel y en R para confirmar resultados.
¯R2
= 1 − 1 − R2 n − 1
n − k
= 1 − (1 − 0,57742) ∗
8 − 1
8 − 2
= 0,5070 (26)
24
Supuestos del modelo
25
Supuestos del modelo
Linealidad. El modelo de regresi´on poblacional es lineal en los
par´ametros (no sobre las variables).
Este supuesto permite establecer la forma funcional de la relaci´on
entre las variables.
yi = β0 +
k
i=1
βixi + ui (27)
Implica que el efecto de xi sobre y, es el mismo
independientemente al nivel de x, no obstante, el modelo lineal
permite incorporar no linealidades (Novales, 2010, p.16).
26
Supuestos del modelo
Muestreo aleatorio. Se cuenta con una muestra aleatoria de
tama˜no n (xi, yi : i = 1, 2, 3, ..., n).
Variaci´on muestral de la variable explicativas. No todos los
valores de (xi : i = 1, 2, 3, ..., n) son iguales. S´ı xi varia en la
poblaci´on, las muestras aleatorias recoger´an dicha propiedad.
27
Supuestos del modelo
Independencia entre el error y las regresoras del modelo.
E[ui|xi] = E[ui] = 0 ∀i = 1, 2, 3, ..., n (28)
Seg´un Gujarati y Swan (2009, p.4), la raz´on de este supuesto es
que la especificaci´on de la regresi´on supon´ıa un efecto aditivo e
independiente entre x e u, de lo contrario, no es posible evaluar los
efectos individuales de las regresoras.
28
Supuestos del modelo
Cuando ui no cumple la independencia se obtienen relaciones
espurias, dado que la relaci´on entre u y x se debe a factores no
observados que afectan a y y est´an relacionados con x
(Wooldridge, 2009, p.52).
Suponga ha especificado el modelo siguiente, omitiendo la variable
relevante (x2i).
yi = β0 + β1x1i + νi (29)
Ahora, E[νi] = E[β2x2i + ui] = β2E[x2i].
29
Desempe˜no en matem´aticas y desayuno escolar
Suponga el porcentaje de estudiantes que aprueban el examen
estandarizado de matem´aticas en el primer a˜no de bachillerato de
una escuela (math10). Suponga que se desea estimar el efecto del
programa federal de desayunos escolares (que se otorga a los
estudiantes m´as pobres) sobre el desempe˜no de los estudiantes.
Sea lnchprg el porcentaje de estudiantes beneficiados con el
programa de desayunos escolares, se estima la siguiente relaci´on
(MEAP93.txt).
ˆmath10 = 3,14 − 0,319lnchprg + u (30)
¿Se puede creer que un aumento en el porcentaje de estudiantes
que reciben el desayuno escolar cause un peor desempe˜no?
30
Supuestos del modelo
Valores fijos de X o los valores de X son no estoc´asticos.
Cov(xji, ui) = 0 (31)
Muchas veces, se requiere fijar valores de las x s para verificar
valores de y. Supone se escogen primero n valores muestrales de
Xi, y posteriormente, dados estos valores, se obtiene la muestra.
T´ecnicamente, condicionar sobre los valores muestrales de la
variable independiente es lo mismo que tratar a las x s como fijas
en muestreo repetidos (Wooldridge, 2009, p.49).
En contexto no experimentales no tiene mucho sentido pensar en
este supuesto, dado las muestras se construyen de forma aleatoria,
aunque una vez se obtiene este muestreo, no cambia nada en
suponer las x s como no aleatorias.
31
Supuestos del modelo
Multicolinealidad. No hay ninguna relaci´on lineal exacta entre los
regresores, esto implica que no ninguna variable es constante.
Este supuesto permite correlaci´on entre las variables, lo que no
permite es una correlaci´on perfecta.
El efecto de la violaci´on de este supuesto, puede apreciarse en la
ecuaci´on 23, dado el R-cuadrado auxiliar (R2
j ).
var(ˆβj) =
ˆσ2
n
i=1 (xij − ¯xj)2
(1 − R2
j )
(32)
32
Supuestos del modelo
Los supuestos anteriores se utilizan para demostrar el
insesgamiento de los estimadores.
1 Linealidad.
2 Muestreo aleatorio.
3 Variaci´on muestral de las variables explicativas.
4 Independencia entre u y x.
5 Valores fijos de x en muestras repetidas.
6 Multicolinealidad.
El insesgamiento es una propiedad de las estimaciones muestrales
de los coeficientes de MCO, no dice nada sobre los coeficientes
obtenidos en una determinada muestra.
33
Supuestos del modelo
Homocedasticidad o varianza constante de ui condicionada a los
valores de x s, que indica que la varianza es independiente a los
valores de x.
var[ui|xi] = E[ui] = var(ui) = σui (33)
Este supuesto no se utiliza para demostrar insesgamiento.
34
Supuestos del modelo
No hay autocorrelaci´on en el residuo, es decir entre dos ui e uj
(∀i = j). Aunque este supuesto suele asumirse con mayor seriedad
en el contexto de las series temporales, los datos transversales
pueden presentar correlaci´on espacial.
35
Supuestos del modelo
Normalidad de ui.
ui ∼ N(0, σu) (34)
No tiene ning´un papel en las propiedades de insesgadez y
consistencia (Velasco, 2006, p.12).
36
Referencias
37
Referencias
1 Gujarati, Damodar (2007). Introducci´on a la Econometr´ıa. 5th. Ed.
2 Hill, C; Griffinths, W and Lim, G. (2011). Principle of Econometric. United
States of America. Foruth edition.
3 Novales, Alfonso (2010). An´alisis de regresi´on. Universidad Complutense de
Madrid.
4 Wooldridge, J. (2009). Introducci´on a la Econometr´ıa: un enfoque moderno.
4ta. ed. Michigan State University. Cengage Learning

Clase3 El modelo de regresión múltiple

  • 1.
    1 Clase 3. Modelode regresi´on m´ultiple Nerys Ram´ırez Mord´an Pontificia Universidad Cat´olica Madre y Maestra Econometr´ıa I (EC-411-T) 15 de junio de 2018
  • 2.
    2 Contenido 1 Introducci´on Omisi´on devariables relevantes Generalizar formas funcionales Efecto ceteris paribus Cambio simult´aneo de varias variables 2 Modelo de regresi´on m´ultiple Generalizaci´on del modelo Estimaci´on Valor ajustado y residuales Varianza de los estimadores R cuadrada ajustada 3 Supuestos del modelo Linealidad Muestreo aleatorio Independencia de u|x X s no estoc´asticas Multicolinealidad Homocedasticidad Autocorrelaci´on Normalidad 4 Referencias
  • 3.
  • 4.
    4 Introducci´on El modelo deregresi´on simple con frecuencia es inadecuado en la pr´actica (Gujarati, 2007, p.195), especialmente, porque la variable dependiente, o regresada, depende de m´as de una variable. Lo anterior, dificulta obtener relaciones cesteris paribus, porque no es posible mantener el supuesto de que los dem´as factores que afectan a y −contenidos en ui − se mantienen constantes (Wooldridge, 2009, p.68).
  • 5.
    5 Introducci´on Por tanto, esrecomendable utilizar un modelo de regresi´on que incorpore m´as de una variable entre los factores explicativos. yi = β0 + β1x1i + β2x2i + ... + βkxki + ui (1) Este modelo se conoce como el regresi´on m´ultiple, y permite: 1 Explicar una mayor proporci´on de la variaci´on de Y . 2 Evitar sesgo ocasionado por variable omitida. 3 Incorporar formas funcionales. 4 Garantizar el efecto ceteris paribus. 5 Estudiar cambios simult´aneos entre variables.
  • 6.
    6 Omisi´on de variablesrelevantes La omisi´on de una variable relevante relacionada con el resto de variables del modelo, causa sesgo en nuestras estimaciones de los par´ametros. Este sesgo depender´a de la correlaci´on de la variable omitida con las dem´as variables independientes y su efecto sobre la variable dependiente (Wooldridge, 2009, p.91).
  • 7.
    7 Omisi´on de variablesrelevantes Suponga el modelo correcto es: yi = β0 + β1x1i + β2x2i + u (2) Pero ha estimado: yi = α0 + α1x1 + u∗ (3) Por lo que: α1 = Cov(x1, y) var(x1) = Cov(x1, β0 + β1x1 + β2x2 + u) var(x1) (4) α1 = β1 + β2 Cov(x1, x2) V ar(x1) (5)
  • 8.
    8 Ecuaci´on de salarios:sesgo por variable omitida Suponga desea estudiar el efecto de la educaci´on sobre el salario y ha modificado los ejemplos anteriores agregando la variable experiencia entre las variables explicativas: salarioi = β0 + β1educi + β2expi + ui (6) Ahora podemos estar seguro que se esta midiendo el efecto de la ecuaci´on, manteniendo constante la experiencia. ¿Puede determinar la direcci´on del sesgo del coeficiente asociado con Educaci´on en el modelo donde se omite la variable exp?
  • 9.
    9 Generalizar formas funcionales Adicionalmente,el modelo de regresi´on m´ultiple permite establecer relaciones funcionales entre variables, como es el caso de funciones cuadr´aticas. yi = β0 + β1xi + β2x2 i + ui (7) Este modelo cae fuera de la regresi´on simple porque contiene dos funciones de ingreso (x y x2), lo que modifica la interpretaci´on de los par´ametros, dado que ahora el efecto marginal de x depende de β1, β2 y el nivel de x: ∆yi ∆xi = β1 + 2β2x (8)
  • 10.
    10 Ecuaci´on de salarios:formas funcionales Ahora, suponga incorpora el valor de la experiencia al cuadrado en la ecuaci´on de ingresos, lo que modifica el efecto marginal derivado de un a˜no adicional de experiencia. salarioi = β0 + β1educi + β2expi + β3exp2 i + ui (9) Este efecto marginal viene dado por: ∆salarioi ∆expi = β2 + 2β3exp (10)
  • 11.
    11 Efecto ceteris paribus Laventaja del m´etodo m´ultiple, es que permite estimaciones ceteris paribus aun cuando los datos no se recolectaron de esa manera −no se impusieron restricciones a los valores muestrales, como para darse el lujo de mantener constante ciertas variables−. Imagine que omite una variable relevante de la ecuaci´on de salario, esta variable relevante pasa a estar contenida en ui, pero se correlaciona con las variables incluidas en el modelo, por lo que, no es posible obtener una interpretaci´on ceteris paribus.
  • 12.
    12 Efecto ceteris paribus Tambi´en,el modelo m´ultiple permite verificar el efecto del cambio de dos o m´as variables de forma conjunta. Por ejemplo, dado el modelo sobre salarios: salario = 107,16 + 12,8edu + 5,3exp + ui (11) ˆ∆salario = 12,8∆edu + 5,3∆exp = 18,1 (12)
  • 13.
  • 14.
    14 Modelo de regresi´onm´ultiple Ahora, el modelo se generaliza para controlar de forma expl´ıcita los dem´as factores que afectan la variable independiente, en el conocido modelo de regresi´on lineal m´ultiple: yi = β0 + β1x1 i + β2x2 i + ... + βkxk i + ui (13) Donde, β0 indica al efecto medio sobre Y de todas las variables excluidas del modelo, aunque su interpretaci´on mec´anica del valor promedio de Y cuando todas las x s se hacen cero continua siendo valida; las βi ∀i ∈ [1, ..., k] se conocen como coeficientes de regresi´on parciales; y, ui continua siendo el t´ermino de error.
  • 15.
    15 Modelo de regresi´onm´ultiple Tomando esperanza condicionales: E[yi|x1 i , x2 i , ..., xk i ] = β0 + β1x1 i + β2x2 i + ... + βkxk i (14) Donde el supuesto clave de la relaci´on de ui con X se establece en t´erminos de esperanza condicional, indicando que el promedio de los efectos de los factores no observados es igual a cero, independientemente de los valores de las xi. Es decir, corr(u, x) = 0. E[ui|x1 i , x2 i , ..., xk i ] = 0 (15)
  • 16.
    16 Estimaci´on El modelo secontinua estimando a partir de M´ınimos Cuadrados Ordinarios, obteniendo las estimaciones que minimicen la suma de los residuales al cuadrado. Dadas n observaciones sobre las variables (yi, x1 i , x2 i ..., xk i : i = 1, 2, ..., n), se eligen los estimadores que: min n i=1 u2 = n i=1 (yi − ˆβ0 − ˆβ1x1 i − ˆβ2x2 i − ... − ˆβkxk i ) 2 (16)
  • 17.
    17 Estimaci´on Empleando c´alculo multivariadose obtienen las k + 1 condiciones de primer orden: n i=1 (yi − ˆβ0 − ˆβ1x1 i − ˆβ2x2 i − ... − ˆβkxk i ) = 0 n i=1 (yi − ˆβ0 − ˆβ1x1 i − ˆβ2x2 i − ... − ˆβkxk i )x1 i = 0 n i=1 (yi − ˆβ0 − ˆβ1x1 i − ˆβ2x2 i − ... − ˆβkxk i )x2 i = 0 ... n i=1 (yi − ˆβ0 − ˆβ1x1 i − ˆβ2x2 i − ... − ˆβkxk i )xk i = 0
  • 18.
    18 Estimaci´on En el casode dos variables independientes, la soluci´on al sistema anterior, arroja las siguientes estimaciones: ˆβ0 = ¯y − ˆβ1¯x1 − ˆβ2¯x2 − ... − ˆβk ¯xk (17) ˆβ1 = ( yix1i)( x2 2i) − ( yix2i)( x1ix2i) ( x2 1i)( x2 2i) − ( x1ix2i)2 (18) ˆβ2 = ( yix2i)( x2 1i) − ( yix1i)( x1ix2i) ( x2 1i)( x2 2i) − ( x1ix2i)2 (19)
  • 19.
    19 Interpretaci´on de loscoeficientes Consideremos nuevamente la ecuaci´on del salario: ˆsal = 2,87 + 0,60educ + 0,02exper + 0,17antig (20) Ahora, el coeficiente asociado con educaci´on mide el efecto de un a˜no adicional de educaci´on, manteniendo constante la experiencia y la antig¨uedad en la empresa. Alternativamente, si comparamos dos personas con el mismo nivel de experiencia y antig¨uedad, el coeficiente de educ es la diferencia en el salario esperado cuando sus niveles de educaci´on difieren en un a˜no (UC3, 2017, p.21).
  • 20.
    20 Valor ajustado yresiduales El valor ajustado (ˆyi) se obtiene como: ˆyi = ˆβ0 + ˆβ1x1 i + ˆβ2x2 i + ... + ˆβkxk i (21) El residual (ˆui) esta definido como en el caso del modelo de regresi´on simple, a partir de la diferencia entre el y observado y el ˆy estimado: ˆui = yi − ˆyi = yi − ˆβ0 − ˆβ1x1 i − ˆβ2x2 i − ... − ˆβkxk i (22)
  • 21.
    21 Varianza de losestimadores Ahora, la varianza de los estimadores se obtiene como: var(ˆβj) = ˆσ2 n i=1 (xij − ¯xj)2 (1 − R2 j ) (23) R2 j se conoce como R-cuadrado auxiliar. El estimador insesgado de σ2 (aqu´ı k es el n´umero de par´ametros estimados): ˆσ2 = n i=1 ˆu2 i n − k (24)
  • 22.
    22 R cuadrada ajustada Comoel R-cuadrado es una funci´on creciente del n´umero de variables incluidas en el modelo, se suele utilizar el R2-ajustado (por los grados de libertad del modelo), que pone como restricci´on (n − k) los grados de libertad (gl) para compensar la p´erdida de gl que implica el incremento del n´umero de par´ametros. ¯R2 = n i=1 ˆu2/(n − k) n i=1 (yi − ¯y)2/(n − 1) = 1 − 1 − R2 n − 1 n − k (25) Para comparar las ¯R2 ajustados o no, es necesario que los modelos tengan la misma cantidad de observaciones y las mismas variables independientes (aunque adopten cualquier forma) (Gujarati y Swan, 2009, p.203).
  • 23.
    23 Ejemplo Continuando con elejemplo de clases: 1 Obtenga el R2 ajustado del modelo. 2 Reproducir los ejercicios en Excel y en R para confirmar resultados. ¯R2 = 1 − 1 − R2 n − 1 n − k = 1 − (1 − 0,57742) ∗ 8 − 1 8 − 2 = 0,5070 (26)
  • 24.
  • 25.
    25 Supuestos del modelo Linealidad.El modelo de regresi´on poblacional es lineal en los par´ametros (no sobre las variables). Este supuesto permite establecer la forma funcional de la relaci´on entre las variables. yi = β0 + k i=1 βixi + ui (27) Implica que el efecto de xi sobre y, es el mismo independientemente al nivel de x, no obstante, el modelo lineal permite incorporar no linealidades (Novales, 2010, p.16).
  • 26.
    26 Supuestos del modelo Muestreoaleatorio. Se cuenta con una muestra aleatoria de tama˜no n (xi, yi : i = 1, 2, 3, ..., n). Variaci´on muestral de la variable explicativas. No todos los valores de (xi : i = 1, 2, 3, ..., n) son iguales. S´ı xi varia en la poblaci´on, las muestras aleatorias recoger´an dicha propiedad.
  • 27.
    27 Supuestos del modelo Independenciaentre el error y las regresoras del modelo. E[ui|xi] = E[ui] = 0 ∀i = 1, 2, 3, ..., n (28) Seg´un Gujarati y Swan (2009, p.4), la raz´on de este supuesto es que la especificaci´on de la regresi´on supon´ıa un efecto aditivo e independiente entre x e u, de lo contrario, no es posible evaluar los efectos individuales de las regresoras.
  • 28.
    28 Supuestos del modelo Cuandoui no cumple la independencia se obtienen relaciones espurias, dado que la relaci´on entre u y x se debe a factores no observados que afectan a y y est´an relacionados con x (Wooldridge, 2009, p.52). Suponga ha especificado el modelo siguiente, omitiendo la variable relevante (x2i). yi = β0 + β1x1i + νi (29) Ahora, E[νi] = E[β2x2i + ui] = β2E[x2i].
  • 29.
    29 Desempe˜no en matem´aticasy desayuno escolar Suponga el porcentaje de estudiantes que aprueban el examen estandarizado de matem´aticas en el primer a˜no de bachillerato de una escuela (math10). Suponga que se desea estimar el efecto del programa federal de desayunos escolares (que se otorga a los estudiantes m´as pobres) sobre el desempe˜no de los estudiantes. Sea lnchprg el porcentaje de estudiantes beneficiados con el programa de desayunos escolares, se estima la siguiente relaci´on (MEAP93.txt). ˆmath10 = 3,14 − 0,319lnchprg + u (30) ¿Se puede creer que un aumento en el porcentaje de estudiantes que reciben el desayuno escolar cause un peor desempe˜no?
  • 30.
    30 Supuestos del modelo Valoresfijos de X o los valores de X son no estoc´asticos. Cov(xji, ui) = 0 (31) Muchas veces, se requiere fijar valores de las x s para verificar valores de y. Supone se escogen primero n valores muestrales de Xi, y posteriormente, dados estos valores, se obtiene la muestra. T´ecnicamente, condicionar sobre los valores muestrales de la variable independiente es lo mismo que tratar a las x s como fijas en muestreo repetidos (Wooldridge, 2009, p.49). En contexto no experimentales no tiene mucho sentido pensar en este supuesto, dado las muestras se construyen de forma aleatoria, aunque una vez se obtiene este muestreo, no cambia nada en suponer las x s como no aleatorias.
  • 31.
    31 Supuestos del modelo Multicolinealidad.No hay ninguna relaci´on lineal exacta entre los regresores, esto implica que no ninguna variable es constante. Este supuesto permite correlaci´on entre las variables, lo que no permite es una correlaci´on perfecta. El efecto de la violaci´on de este supuesto, puede apreciarse en la ecuaci´on 23, dado el R-cuadrado auxiliar (R2 j ). var(ˆβj) = ˆσ2 n i=1 (xij − ¯xj)2 (1 − R2 j ) (32)
  • 32.
    32 Supuestos del modelo Lossupuestos anteriores se utilizan para demostrar el insesgamiento de los estimadores. 1 Linealidad. 2 Muestreo aleatorio. 3 Variaci´on muestral de las variables explicativas. 4 Independencia entre u y x. 5 Valores fijos de x en muestras repetidas. 6 Multicolinealidad. El insesgamiento es una propiedad de las estimaciones muestrales de los coeficientes de MCO, no dice nada sobre los coeficientes obtenidos en una determinada muestra.
  • 33.
    33 Supuestos del modelo Homocedasticidado varianza constante de ui condicionada a los valores de x s, que indica que la varianza es independiente a los valores de x. var[ui|xi] = E[ui] = var(ui) = σui (33) Este supuesto no se utiliza para demostrar insesgamiento.
  • 34.
    34 Supuestos del modelo Nohay autocorrelaci´on en el residuo, es decir entre dos ui e uj (∀i = j). Aunque este supuesto suele asumirse con mayor seriedad en el contexto de las series temporales, los datos transversales pueden presentar correlaci´on espacial.
  • 35.
    35 Supuestos del modelo Normalidadde ui. ui ∼ N(0, σu) (34) No tiene ning´un papel en las propiedades de insesgadez y consistencia (Velasco, 2006, p.12).
  • 36.
  • 37.
    37 Referencias 1 Gujarati, Damodar(2007). Introducci´on a la Econometr´ıa. 5th. Ed. 2 Hill, C; Griffinths, W and Lim, G. (2011). Principle of Econometric. United States of America. Foruth edition. 3 Novales, Alfonso (2010). An´alisis de regresi´on. Universidad Complutense de Madrid. 4 Wooldridge, J. (2009). Introducci´on a la Econometr´ıa: un enfoque moderno. 4ta. ed. Michigan State University. Cengage Learning