REGRESI ´ON LINEAL M ´ULTIPLE
Adriana Quintero Palomino
Departamento de Matem´aticas, F´ısica y Estad´ıstica
Universidad de La Sabana
REGRESI ´ON LINEAL M ´ULTIPLE
DEFINICI ´ON: REGRESI ´ON LINEAL M ´ULTIPLE
REGRESI ´ON LINEAL M ´ULTIPLE
Cuando un modelo es lineal en los coefi cientes se denomina modelo de
regresi´on lineal m´ultiple. Para el caso de k variables independientes, el
modelo que da x1, x2, . . . , xk, la media de Y |x1, x2, . . . , xk es el modelo de
regresi´on lineal m´ultiple µY |x1,x2,...,xk
= β0 + β1x1 + . . . + βkxk, y la
respuesta estimada se obtiene a partir de la ecuaci´on de regresi´on muestral
ˆy = b0 + b1x1 + . . . + bkxk
donde cada coeficiente de regresi´on βi se estima por medio de bi, a partir de
los datos muestrales, usando el m´etodo de los m´ınimos cuadrados.
REGRESI ´ON LINEAL M ´ULTIPLE
REGRESI ´ON LINEAL M ´ULTIPLE
ESTIMACI ´ON DE LOS COEFICIENTES
Los estimadores de m´ınimos cuadrados de los par´ametros β0, β1, . . . , βk se
calculan mediante el ajuste del modelo de regresi´on lineal m´ultiple
µY |x1,x2,...,xk
= β0 + β1x1 + . . . + βkxk
a los puntos de los datos (x1i, x2i, . . . , xki, yi); i = 1, 2, . . . , n/n > k, donde
yi es la respuesta observada a los valores x1i, x2i,..., xki de las k variables
independientes x1, x2, . . . , xk. Se supone que cada observaci´on
(x1i, x2i, . . . , xki, yi) satisface la siguiente ecuaci´on:
yi = β0 + β1x1i + β2x2i + . . . + βkxki + i
REGRESI ´ON LINEAL M ´ULTIPLE
REGRESI ´ON LINEAL M ´ULTIPLE
ESTIMACI ´ON DE LOS COEFICIENTES
o bien,
yi = ˆyi + ei = b0 + b1x1i + b2x2i + . . . + bkxki + ei
donde i y ei son el error aleatorio y el residual, respectivamente, asociados
con la respuesta yi y con el valor ajustado ˆyi.
Como en el caso de la regresi´on lineal simple, se supone que los ηi son
independientes y est´an distribuidos en forma id´entica con media cero y
varianza com´un σ2. Si usamos el concepto de m´ınimos cuadrados para
obtener los estimados b0, b1, . . . , bk, minimizamos la expresi´on
SCE =
n
i=1
e2
i =
n
i=1
(yi − b0 − b1x1i − b2x2i − . . . − bkxki)2
Si, a su vez, diferenciamos la SCE respecto a b0, b1, . . . , bk e igualamos el
resultado a cero, generamos el conjunto de k + 1 ecuaciones normales para la
regresi´on lineal m´ultiple.
REGRESI ´ON LINEAL M ´ULTIPLE
REGRESI ´ON LINEAL M ´ULTIPLE
ECUACIONES NORMALES DE ESTIMACI ´ON PARA LA REGRESI ´ON LINEAL
M ´ULTIPLE:
nb0 + b1
n
i=1
x1i + b2
n
i=1
x2i + . . . + bk
n
i=1
xki =
i
b0
n
i=1
x1i + b1
n
i=1
x2
1i + b2
n
i=1
x1ix2i + . . . + bk
n
i=1
x1ixki =
i
...
...
...
b0
n
i=1
xki + b1
n
i=1
xiixki + b2
n
i=1
x1ix2i + . . . + bk
n
i=1
x2
ki =
n
i=1
xkiyi
Estas ecuaciones se pueden resolver para b0, b1, b2, . . . , bk utilizando
cualquier m´etodo apropiado que permita resolver sistemas de ecuaciones
lineales.
REGRESI ´ON LINEAL M ´ULTIPLE
BIBLIOGRAF´IA
Walpole, Ronald E and Myers, Raymond H and Myers, Sharon L.
Probabilidad y estad´ıstica para ingenier´ıa y ciencias. Pearson Educaci´on.
Novena edici´on. 2012.
Navidi, William Cyrus. Statistics for engineers and scientists.
McGraw-Hill Higher Education. Third edition. 2011.

Rlm

  • 2.
    REGRESI ´ON LINEALM ´ULTIPLE Adriana Quintero Palomino Departamento de Matem´aticas, F´ısica y Estad´ıstica Universidad de La Sabana
  • 3.
    REGRESI ´ON LINEALM ´ULTIPLE DEFINICI ´ON: REGRESI ´ON LINEAL M ´ULTIPLE REGRESI ´ON LINEAL M ´ULTIPLE Cuando un modelo es lineal en los coefi cientes se denomina modelo de regresi´on lineal m´ultiple. Para el caso de k variables independientes, el modelo que da x1, x2, . . . , xk, la media de Y |x1, x2, . . . , xk es el modelo de regresi´on lineal m´ultiple µY |x1,x2,...,xk = β0 + β1x1 + . . . + βkxk, y la respuesta estimada se obtiene a partir de la ecuaci´on de regresi´on muestral ˆy = b0 + b1x1 + . . . + bkxk donde cada coeficiente de regresi´on βi se estima por medio de bi, a partir de los datos muestrales, usando el m´etodo de los m´ınimos cuadrados.
  • 4.
    REGRESI ´ON LINEALM ´ULTIPLE REGRESI ´ON LINEAL M ´ULTIPLE ESTIMACI ´ON DE LOS COEFICIENTES Los estimadores de m´ınimos cuadrados de los par´ametros β0, β1, . . . , βk se calculan mediante el ajuste del modelo de regresi´on lineal m´ultiple µY |x1,x2,...,xk = β0 + β1x1 + . . . + βkxk a los puntos de los datos (x1i, x2i, . . . , xki, yi); i = 1, 2, . . . , n/n > k, donde yi es la respuesta observada a los valores x1i, x2i,..., xki de las k variables independientes x1, x2, . . . , xk. Se supone que cada observaci´on (x1i, x2i, . . . , xki, yi) satisface la siguiente ecuaci´on: yi = β0 + β1x1i + β2x2i + . . . + βkxki + i
  • 5.
    REGRESI ´ON LINEALM ´ULTIPLE REGRESI ´ON LINEAL M ´ULTIPLE ESTIMACI ´ON DE LOS COEFICIENTES o bien, yi = ˆyi + ei = b0 + b1x1i + b2x2i + . . . + bkxki + ei donde i y ei son el error aleatorio y el residual, respectivamente, asociados con la respuesta yi y con el valor ajustado ˆyi. Como en el caso de la regresi´on lineal simple, se supone que los ηi son independientes y est´an distribuidos en forma id´entica con media cero y varianza com´un σ2. Si usamos el concepto de m´ınimos cuadrados para obtener los estimados b0, b1, . . . , bk, minimizamos la expresi´on SCE = n i=1 e2 i = n i=1 (yi − b0 − b1x1i − b2x2i − . . . − bkxki)2 Si, a su vez, diferenciamos la SCE respecto a b0, b1, . . . , bk e igualamos el resultado a cero, generamos el conjunto de k + 1 ecuaciones normales para la regresi´on lineal m´ultiple.
  • 6.
    REGRESI ´ON LINEALM ´ULTIPLE REGRESI ´ON LINEAL M ´ULTIPLE ECUACIONES NORMALES DE ESTIMACI ´ON PARA LA REGRESI ´ON LINEAL M ´ULTIPLE: nb0 + b1 n i=1 x1i + b2 n i=1 x2i + . . . + bk n i=1 xki = i b0 n i=1 x1i + b1 n i=1 x2 1i + b2 n i=1 x1ix2i + . . . + bk n i=1 x1ixki = i ... ... ... b0 n i=1 xki + b1 n i=1 xiixki + b2 n i=1 x1ix2i + . . . + bk n i=1 x2 ki = n i=1 xkiyi Estas ecuaciones se pueden resolver para b0, b1, b2, . . . , bk utilizando cualquier m´etodo apropiado que permita resolver sistemas de ecuaciones lineales.
  • 7.
    REGRESI ´ON LINEALM ´ULTIPLE BIBLIOGRAF´IA Walpole, Ronald E and Myers, Raymond H and Myers, Sharon L. Probabilidad y estad´ıstica para ingenier´ıa y ciencias. Pearson Educaci´on. Novena edici´on. 2012. Navidi, William Cyrus. Statistics for engineers and scientists. McGraw-Hill Higher Education. Third edition. 2011.