SlideShare una empresa de Scribd logo
1 de 23
CAPÍTULO 4
TRANSFORMACIONES EN
REGRESIÓN
Edgar Acuña Fernández
Departamento de Matemáticas
Universidad de Puerto Rico
Recinto Universitario de Mayagüez

Edgar Acuña

Analisis de Regresion

1
Transformaciones para linealizar
modelos
Consideremos por ahora solo modelos con una
variable predictora.
El objetivo es tratar de transformar las variables
es aumentar la medida de ajuste R2 del modelo,
sin incluir variables predictoras adicionales.
Se recomienda hacer un plot para obervar el
tipo de tendencia.
Edgar Acuña

Analisis de Regresion

2
Transformaciones de la variable predictora y/o
respuesta para linealizar varios modelos.

Edgar Acuña

Analisis de Regresion

3
• Los modelos exponencial y doblemente
logarítmico son válidos bajo la suposición de
que los errores son multiplicativos, esto se
debe cotejar haciendo análisis de residuales, si
los logaritmos de los errores tiene una media
de cero y varianza constante.
• Si los errores no son multiplicativos entonces
deberían aplicarse técnicas de regresión no
lineal.
Edgar Acuña

Analisis de Regresion

4
4.2 Transformaciones de las variables
predictoras en regresión múltiple
• Supongamos que uno tiene una variable de respuesta
Y y varias variables predictoras y desea hacer
transformaciones en las variables predictoras para
mejorar la medida de ajuste del modelo.
• Del plot matricial se extrae las relaciones de y con
cada una de las variables predictoras.

• Las transformaciones pueden ser
afectadas por la colinealidad existente
entre las variables predictoras.
Edgar Acuña

Analisis de Regresion

5
Modelo basado en series de taylor
En 1962, Box y Tidwell , propusieron un método para
transformar las variables predictoras, usando solamente
potencias de ellas. ellos consideraron el modelo:
y = β o + β 1 w1 + .....β k wk + e
αj
donde: w j = x j si α j ≠ 0 y wj=ln(xj) si α j = 0 .
El desarrollo de la serie de Taylor se hace con respecto a
α = (α 1 ,.....α k ) y alrededor de α 0 = (α 1, 0 ,....., α k , 0 ) = (1,....,1)
Luego se tiene
y ≅ β 0 + β 1 x1 + ..... + β k x k + γ 1 z1 + γ 2 z 2 + ..... + γ k z k

Donde: γ
Edgar Acuña

j

= (α j − 1) β j

y

z j = x j ln x j

para j=1,2….k.

Analisis de Regresion

6
Procedimiento para la estimación de los αj
1. Hacer la regresión lineal múltiple considerando las
variables predictoras originales xj y denotar los
estimados de los coeficientes por bj.
2.

Hacer una regresión lineal múltiple de y versus las
variables predictoras originales mas las variables
zj=xjln(xj)  denotar los estimados de los coeficientes
y
γ j.
de zj por

3. Estimar αj por
Edgar Acuña


αj =


γj
bj

+1

Analisis de Regresion

7
Procedimiento para la estimación de los αj
El procedimiento se puede repetir varias veces usando
en cada etapa las nuevas variables transformadas y la
siguiente relación de recurrencia:

α (j m +1) = (

 (m)
γj
b (j m )


+ 1)α (j m )
| α (j m +1) − α (j m ) |< TOL

El proceso termina cuando
, donde
TOL es la tolerancia su valor es muy cercano a cero.
Sin embargo, muy a menudo un solo paso es suficiente.
Edgar Acuña

Analisis de Regresion

8
Técnica sugerida por Box and Tidwell
aplicado al conjunto de datos millaje
La regresión con las variables originales
MPG = 192 - 0.0156 VOL + 0.392 HP - 1.29 SP - 1.86 WT

Predictor
Coef
SE Coef
T
Constant
192.44
23.53
8.18
VOL
-0.01565 0.02283
-0.69
HP
0.39221 0.08141
4.82
SP
-1.2948
0.2448
-5.29
WT
-1.8598
0.2134
-8.72
R-Sq = 87.3% R-Sq(adj) = 86.7%
Edgar Acuña

Analisis de Regresion

P
0.000
0.495
0.000
0.000
0.000
9
continuación…
Creamos cuatro variables predictoras x1lnx1, x2lnx2, x3lnx3 y x4lnx4.
La regresión múltiple con las 8 variables predictoras es
MPG = 1048 - 1.00 VOL + 5.47 HP - 38.9 SP - 17.9 WT + 0.180 x1lnx1
- 0.801 x2lnx2 + 6.36 x3lnx3 + 3.33 x4lnx4
Predictor
Constant
VOL
HP
SP
WT
x1lnx1
x2lnx2
x3lnx3
x4lnx4

Coef
SE Coef
1048.2
268.4
-1.0023
0.5916
5.468
1.849
-38.85
11.81
-17.902
4.324
0.1803
0.1086
-0.8006
0.2744
6.362
1.971
3.3263
0.8739

S = 3.247

R-Sq = 90.5% Analisis de Regresion89.5%
R-Sq(adj) =

Edgar Acuña

T
3.91
-1.69
2.96
-3.29
-4.14
1.66
-2.92
3.23
3.81

P
0.000
0.094
0.004
0.002
0.000
0.101
0.005
0.002
0.000
10
continuación …
Estimando αj segun el paso 3 se tiene
α1=0.1803/(-0.01565)+1=-10.52, α2 =8006/0.39221)+1=-1.04,
α3=(6.362)/(-1.2948)+1=-3.91, α4=3.3263/(-1.8598)+1=-0.79.
Asi la regresión con las nuevas variables vol-10.52, hp-1.04, sp-3.91 y
wt-0.79 es:
MPG = - 2.298 + 1668 hp1 +1.843E+18 -1.465E+08 sp1 + 332.9 wt1
Coefficients:

Estimate Std. Error t value Pr(>|t|)
(Intercept) -2.298e+00 4.420e+00 -0.520 0.604656
sp1
-1.465e+08 4.698e+08 -0.312 0.755972
wt1
3.329e+02 9.382e+01 3.548 0.000665 ***
vol1
1.843e+18 8.827e+17 2.088 0.040082 *
hp1
1.668e+03 8.078e+02 2.065 0.042325 *
Residual standard error: 3.095 on 77 degrees of freedom
Multiple R-Squared: 0.909,
Adjusted R-squared: 0.9043

Se puede repetir el proceso, eliminando VOL antes de aplicar el
método de Box and Tidwell
Edgar Acuña
Analisis de Regresion

11
Transformaciones para mejorar la
normalidad de la variable de respuesta
En 1964, Box y Cox introdujeron una transformación de
la variable de respuesta (transformación potencia) con el
objetivo de satisfacer la suposición de normalidad del
modelo de regresión.
yλ −1
la transformación está definida por w= λ
si λ≠0 y w=ln(y) si λ=0.
Notar que:
Edgar Acuña

y λ −1
lim λ = ln y
λ →0
Analisis de Regresion

12
Estimación del parámetro λ
Se usa el método de Máxima verosimilitud,
conjuntamente con los coeficientes del modelo
de regresión lineal múltiple
w = β o + β 1 x1 + .....β k x k + e

La transformación estandarizada de los w’s se
n
wi
~ = (∏ y ) 1 / n
define por z i = ~ λ−1 donde y i =1 i
y
es la media geométrica de las y’s.
El método asume que para algún λ las zi’s son normales e
independientes con varianza común σ2

Edgar Acuña

Analisis de Regresion

13
Función de verosimilitud en términos de las zi’s
La función de verosimilitud esta dada por :
L(β, λ )] =

e

−

1
( z − Xβ )'( z − Xβ )
2σ 2

(2πσ 2 ) n / 2

Luego

n
n
1
ˆ
ˆ
ˆ
max[ LnL(β, λ )] = − ln(2π ) − ln(σ 2 ) − 2 (z − Xβ)' (z − Xβ)
ˆ
2
2
2σ

ˆ
donde σ 2
Así

ˆ
ˆ
= SSE / n = (z − Xβ)' (z − Xβ) / n

n
n
n
n
ˆ 2 ) − ≡ − ln(σ 2 )
ˆ
max[ LnL(β, λ )] = − ln(2π ) − ln(σ
2
2
2
2

Edgar Acuña

Analisis de Regresion

14
Procedimiento para estimar el parámetro λ
1. Seleccionar un conjunto de valores de λ
entre –2 y 2, usualmente entre 10 y 20
valores
2. Para cada valor de λ, ajustar el modelo
z=Xβ+e
3. Plotear max[Ln L(β,λ)] versus λ.
4. Escoger como parámetro λ aquel que otorgue
el mayor valor para max[Ln L(β,λ)].
Edgar Acuña

Analisis de Regresion

15
Transformaciones para estabilizar la
varianza.

Edgar Acuña

Analisis de Regresion

16
Justificación de las transformaciones
Expandiendo en series de Taylor una función h(Y)
alredededor de µ=E(Y) se obtiene:
h(Y ) ≈ h( µ ) + h' ( µ )(Y − µ ) + h" ( µ )(Y − µ ) 2 / 2

Tomando varianza a ambos lados y considerando
solamente la aproximación lineal se obtiene:

Var (h(Y )) ≈ [h' ( E ( y ))]2 Var (Y )
Ejemplo: Si Var(Y)∝[E(y)]2 hallar h(Y) tal que su
varianza sea constante:[h’(E(Y))]2≈constante/[E(y)]2 ,
luego, h’(µ)≈1/µ, de donde h(µ)≈log(µ).
Edgar Acuña

Analisis de Regresion

17
Mínimos cuadrados ponderados.
Es otra manera de tratar de remediar la falta de
homogeneidad de varianza de los errores.
suponiendo que los errores son todavía no
correlacionados.
n

ˆ
wi ( y i − y i ) 2, donde w representa
Se minimiza ∑
i
i =1

el peso asignado a la i-ésima observación.
Edgar Acuña

Analisis de Regresion

18
Cómo escoger los pesos?
Si en el plot de, residuales versus la variable predictora
se observa que la dispersión aumenta cuando x
aumenta sería conveniente usar
. 1
wi = 2
σi

σ i2
Donde,

son las varianzas poblacionales de la Y
(estimadas por s2) para cada observación xi en caso de
regresión lineal simple, o para cada combinación de las
variables predictoras en el caso de regresión lineal
múltiple.
La idea de dar a las observaciones anómalas un menor peso.
Tambien se pueden calcular los pesos basado en los
diagnósticos de regresión.
Edgar Acuña

Analisis de Regresion

19
Consideremos el modelo de regresión lineal múltiple
y = Xβ + e

con Var(e)=Vσ2, donde V es una matríz diagonal
k 2
 1
0
V=0

 .

0


0

.

2
k2

.

0

2
k3

.

.

0

0

0

. 0

. 0
. 0
2
0 kn 

.

Sea W=(V1/2)-1 , luego Wy = WXβ + We
Sea y*=Wy, e*=We y X*=WX, luego y*=X*β + e*
Edgar Acuña

Analisis de Regresion

20
Algunas Propiedades
La varianza de los errores es constante.
Var(e*)=Var(We)=WVar(e)W’=WVW’σ2=Iσ2
El estimador mínimo cuadrático de β es
β* = (X*' X) −1 X*' Y* = (X' V −1 X) −1 X' V −1 Y

Para el cual se tiene
E(β*)=β
Var(β*)= (X' V X) X' V
−1

Edgar Acuña

−1

−1

Var (Y)V −1 X(X' V −1 X) −1 = (X' V −1 X) −1

Analisis de Regresion

σ2
21
Mínimos Cuadrados generalizados
Considera la situación más general donde:
Los errores no tienen varianza constante y ademas
son correlacionados.
Sea el modelo de regresión lineal múltiple
y = Xβ + e

Supongamos que: Var(e)=Vσ2
donde V es una matriz simétrica y definida
positiva. Sea T una matríz nosingular y simétrica tal que
TT=T2=V , luego se tiene
T −1 y = T −1 Xβ + T −1e
Edgar Acuña

Analisis de Regresion

22
Mínimos Cuadrados generalizados
Sea e*= T-1e,
Var(e*)=Var(T-1e)=T-1Var(e)T-1=Iσ2 entonces el
estimador mínimo cuadrático de β se obtiene
minimizando
e*' e* = (Y − Xβ)' V −1 (Y − Xβ)

luego

β* = (X' V −1 X) −1 X' V −1 Y

E(β*)=β
Var(β*)= (X' V −1 X) −1 X' V −1Var (Y)V −1 X(X' V −1 X) −1 = (X' V −1 X) −1σ2
Edgar Acuña

Analisis de Regresion

23

Más contenido relacionado

La actualidad más candente

regresion lineal simple
regresion lineal simpleregresion lineal simple
regresion lineal simpleJano Aranís
 
Demostraciones probabilidad
Demostraciones probabilidadDemostraciones probabilidad
Demostraciones probabilidadRaul Aguirre
 
Regresion lineal
Regresion linealRegresion lineal
Regresion linealzai93
 
Coeficiente de determinación
Coeficiente de determinaciónCoeficiente de determinación
Coeficiente de determinaciónSteve Rodriguez
 
Analisis de regresion y correlacion lineal
Analisis de regresion y correlacion linealAnalisis de regresion y correlacion lineal
Analisis de regresion y correlacion linealmikewanda4
 
Aplicaciones de ecuaciones diferenciales
Aplicaciones de ecuaciones diferencialesAplicaciones de ecuaciones diferenciales
Aplicaciones de ecuaciones diferencialesvictormanuelmar
 
Ejercicios propuestos de dependencia e independencia lineal
Ejercicios propuestos de dependencia e independencia linealEjercicios propuestos de dependencia e independencia lineal
Ejercicios propuestos de dependencia e independencia linealalgebra
 
Modelo de regresión lineal múltiple
Modelo de regresión lineal múltipleModelo de regresión lineal múltiple
Modelo de regresión lineal múltipleammontoyaj
 
Regresion simple.
Regresion simple.Regresion simple.
Regresion simple.ITCG
 
Regresion Multiple2
Regresion Multiple2Regresion Multiple2
Regresion Multiple2juancasa2791
 

La actualidad más candente (20)

regresion lineal simple
regresion lineal simpleregresion lineal simple
regresion lineal simple
 
Homocedasticidad y prueba de levene
Homocedasticidad y prueba de leveneHomocedasticidad y prueba de levene
Homocedasticidad y prueba de levene
 
Distribucion normal completo
Distribucion normal completoDistribucion normal completo
Distribucion normal completo
 
Clase04 eyp
Clase04 eypClase04 eyp
Clase04 eyp
 
Demostraciones probabilidad
Demostraciones probabilidadDemostraciones probabilidad
Demostraciones probabilidad
 
Teoría de regresión y correlación lineal
Teoría de regresión y correlación linealTeoría de regresión y correlación lineal
Teoría de regresión y correlación lineal
 
Regresion lineal
Regresion linealRegresion lineal
Regresion lineal
 
Coeficiente de determinación
Coeficiente de determinaciónCoeficiente de determinación
Coeficiente de determinación
 
Analisis de regresion y correlacion lineal
Analisis de regresion y correlacion linealAnalisis de regresion y correlacion lineal
Analisis de regresion y correlacion lineal
 
Ejercicios cuadrados latinos ejercicio 2
Ejercicios cuadrados latinos ejercicio 2Ejercicios cuadrados latinos ejercicio 2
Ejercicios cuadrados latinos ejercicio 2
 
Propagacionde errores
Propagacionde erroresPropagacionde errores
Propagacionde errores
 
Regresion y Correlacion
Regresion y CorrelacionRegresion y Correlacion
Regresion y Correlacion
 
Analisis de la varianza Est ind clase04
Analisis de la varianza Est ind clase04Analisis de la varianza Est ind clase04
Analisis de la varianza Est ind clase04
 
Aplicaciones de ecuaciones diferenciales
Aplicaciones de ecuaciones diferencialesAplicaciones de ecuaciones diferenciales
Aplicaciones de ecuaciones diferenciales
 
Análisis de la varianza
Análisis de la varianzaAnálisis de la varianza
Análisis de la varianza
 
Ejercicios propuestos de dependencia e independencia lineal
Ejercicios propuestos de dependencia e independencia linealEjercicios propuestos de dependencia e independencia lineal
Ejercicios propuestos de dependencia e independencia lineal
 
Modelo de regresión lineal múltiple
Modelo de regresión lineal múltipleModelo de regresión lineal múltiple
Modelo de regresión lineal múltiple
 
Regresion lineal
Regresion linealRegresion lineal
Regresion lineal
 
Regresion simple.
Regresion simple.Regresion simple.
Regresion simple.
 
Regresion Multiple2
Regresion Multiple2Regresion Multiple2
Regresion Multiple2
 

Destacado (8)

Regresión lineal y correlación
Regresión lineal y correlaciónRegresión lineal y correlación
Regresión lineal y correlación
 
Apuntes Clase Estadistica Ii(Itsz)
Apuntes Clase Estadistica Ii(Itsz)Apuntes Clase Estadistica Ii(Itsz)
Apuntes Clase Estadistica Ii(Itsz)
 
ESTADISTICA II
ESTADISTICA IIESTADISTICA II
ESTADISTICA II
 
Funciones hiperbolicas
Funciones hiperbolicasFunciones hiperbolicas
Funciones hiperbolicas
 
Analisis De Regresion Y Correlacion
Analisis De Regresion Y CorrelacionAnalisis De Regresion Y Correlacion
Analisis De Regresion Y Correlacion
 
Función potencia
Función potenciaFunción potencia
Función potencia
 
Ejercicios estadistica
Ejercicios estadisticaEjercicios estadistica
Ejercicios estadistica
 
Introducción a la Estadística. Tema 4
Introducción a la Estadística. Tema 4Introducción a la Estadística. Tema 4
Introducción a la Estadística. Tema 4
 

Similar a Transformaciones en regresion

Similar a Transformaciones en regresion (20)

Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
Algebra Pdf
Algebra PdfAlgebra Pdf
Algebra Pdf
 
Ejercicios econometría1
Ejercicios econometría1Ejercicios econometría1
Ejercicios econometría1
 
Metodos de la fisica 2
Metodos de la fisica 2Metodos de la fisica 2
Metodos de la fisica 2
 
Semana 1.pdf
Semana 1.pdfSemana 1.pdf
Semana 1.pdf
 
Guia_04.pdf
Guia_04.pdfGuia_04.pdf
Guia_04.pdf
 
Transformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectorialesTransformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectoriales
 
solucion-de-examen-de-ecuaciones-diferenciales-espol
 solucion-de-examen-de-ecuaciones-diferenciales-espol  solucion-de-examen-de-ecuaciones-diferenciales-espol
solucion-de-examen-de-ecuaciones-diferenciales-espol
 
Informe de practica 3.pdf
Informe de practica 3.pdfInforme de practica 3.pdf
Informe de practica 3.pdf
 
Matematica 1
Matematica 1Matematica 1
Matematica 1
 
Clase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfClase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdf
 
Guia int de_linea_teo_de_green_02_15
Guia int de_linea_teo_de_green_02_15Guia int de_linea_teo_de_green_02_15
Guia int de_linea_teo_de_green_02_15
 
Metodos numericos capitulo 4
Metodos numericos capitulo 4Metodos numericos capitulo 4
Metodos numericos capitulo 4
 
2-Ajuste_de_Curvas.pdf
2-Ajuste_de_Curvas.pdf2-Ajuste_de_Curvas.pdf
2-Ajuste_de_Curvas.pdf
 
4 sel metodos iterativos
4 sel metodos iterativos4 sel metodos iterativos
4 sel metodos iterativos
 
Análisis Vectorial
Análisis VectorialAnálisis Vectorial
Análisis Vectorial
 
Jacobi y gauss
Jacobi y gaussJacobi y gauss
Jacobi y gauss
 
Trabajo computacion runge kutta
Trabajo computacion runge kuttaTrabajo computacion runge kutta
Trabajo computacion runge kutta
 
Regresión Lineal Múltiple
Regresión Lineal MúltipleRegresión Lineal Múltiple
Regresión Lineal Múltiple
 
Clase8 minisem
Clase8 minisemClase8 minisem
Clase8 minisem
 

Más de PSICOLOGIA Y EDUCACION INTEGRAL A.C.

Wing Chun Kung Fu: “Gong fa” (功法) ver. 1.5 Revisión de “Un método para el de...
Wing Chun Kung Fu: “Gong fa” (功法) ver. 1.5  Revisión de “Un método para el de...Wing Chun Kung Fu: “Gong fa” (功法) ver. 1.5  Revisión de “Un método para el de...
Wing Chun Kung Fu: “Gong fa” (功法) ver. 1.5 Revisión de “Un método para el de...PSICOLOGIA Y EDUCACION INTEGRAL A.C.
 

Más de PSICOLOGIA Y EDUCACION INTEGRAL A.C. (20)

Wing Chun Kung Fu: “Gong fa” (功法) ver. 1.5 Revisión de “Un método para el de...
Wing Chun Kung Fu: “Gong fa” (功法) ver. 1.5  Revisión de “Un método para el de...Wing Chun Kung Fu: “Gong fa” (功法) ver. 1.5  Revisión de “Un método para el de...
Wing Chun Kung Fu: “Gong fa” (功法) ver. 1.5 Revisión de “Un método para el de...
 
JUNG Y EL ROSARIUM PHILOSOPHORUM 2da parte
JUNG Y EL ROSARIUM PHILOSOPHORUM 2da parteJUNG Y EL ROSARIUM PHILOSOPHORUM 2da parte
JUNG Y EL ROSARIUM PHILOSOPHORUM 2da parte
 
JUNG Y EL ROSARIUM PHILOSOPHORUM
JUNG Y EL ROSARIUM PHILOSOPHORUMJUNG Y EL ROSARIUM PHILOSOPHORUM
JUNG Y EL ROSARIUM PHILOSOPHORUM
 
JUNG Y LAS ETAPAS DEL PROCESO ALQUÍMICO
JUNG Y LAS ETAPAS DEL PROCESO ALQUÍMICOJUNG Y LAS ETAPAS DEL PROCESO ALQUÍMICO
JUNG Y LAS ETAPAS DEL PROCESO ALQUÍMICO
 
JUNG Y EL PROCESO ALQUÍMICO DE INDIVIDUACIÓN
JUNG Y EL PROCESO ALQUÍMICO DE INDIVIDUACIÓNJUNG Y EL PROCESO ALQUÍMICO DE INDIVIDUACIÓN
JUNG Y EL PROCESO ALQUÍMICO DE INDIVIDUACIÓN
 
JUNG Y LOS CONCEPTOS GENERALES EN PSICOLOGÍA ANALÍTICA
JUNG Y LOS CONCEPTOS GENERALES EN PSICOLOGÍA ANALÍTICAJUNG Y LOS CONCEPTOS GENERALES EN PSICOLOGÍA ANALÍTICA
JUNG Y LOS CONCEPTOS GENERALES EN PSICOLOGÍA ANALÍTICA
 
Sobre los tipos psicológicos y la dinámica del inconsciente
Sobre los tipos psicológicos y la dinámica del inconscienteSobre los tipos psicológicos y la dinámica del inconsciente
Sobre los tipos psicológicos y la dinámica del inconsciente
 
JUNG Y LA DESCRIPCIÓN GENERAL DE LOS TIPOS
JUNG Y LA DESCRIPCIÓN GENERAL DE LOS TIPOSJUNG Y LA DESCRIPCIÓN GENERAL DE LOS TIPOS
JUNG Y LA DESCRIPCIÓN GENERAL DE LOS TIPOS
 
JUNG Y LOS TIPOS EN LA BIOGRAFÍA
JUNG Y LOS TIPOS EN LA BIOGRAFÍAJUNG Y LOS TIPOS EN LA BIOGRAFÍA
JUNG Y LOS TIPOS EN LA BIOGRAFÍA
 
JUNG Y LOS TIPOS EN LA FILOSOFÍA
JUNG Y LOS TIPOS EN LA FILOSOFÍAJUNG Y LOS TIPOS EN LA FILOSOFÍA
JUNG Y LOS TIPOS EN LA FILOSOFÍA
 
JUNG Y LOS TIPOS EN LA ESTÉTICA
JUNG Y LOS TIPOS EN LA ESTÉTICAJUNG Y LOS TIPOS EN LA ESTÉTICA
JUNG Y LOS TIPOS EN LA ESTÉTICA
 
JUNG Y LOS TIPOS EN LA PSICOPATOLOGÍA
JUNG Y LOS TIPOS EN LA PSICOPATOLOGÍAJUNG Y LOS TIPOS EN LA PSICOPATOLOGÍA
JUNG Y LOS TIPOS EN LA PSICOPATOLOGÍA
 
JUNG Y LOS TIPOS EN LA POESÍA
JUNG Y LOS TIPOS EN LA POESÍAJUNG Y LOS TIPOS EN LA POESÍA
JUNG Y LOS TIPOS EN LA POESÍA
 
JUNG Y LOS TIPOS EN LA OBSERVACIÓN DE LA CONDUCTA
JUNG Y LOS TIPOS EN LA OBSERVACIÓN DE LA CONDUCTAJUNG Y LOS TIPOS EN LA OBSERVACIÓN DE LA CONDUCTA
JUNG Y LOS TIPOS EN LA OBSERVACIÓN DE LA CONDUCTA
 
JUNG, LO APOLINESO Y LO DIONISIACO
JUNG, LO APOLINESO Y LO DIONISIACOJUNG, LO APOLINESO Y LO DIONISIACO
JUNG, LO APOLINESO Y LO DIONISIACO
 
JUNG, SCHILLER Y LOS TIPOS
JUNG, SCHILLER Y LOS TIPOSJUNG, SCHILLER Y LOS TIPOS
JUNG, SCHILLER Y LOS TIPOS
 
UNG Y LOS TIPOS EN LA HISTORIA
UNG Y LOS TIPOS EN LA HISTORIAUNG Y LOS TIPOS EN LA HISTORIA
UNG Y LOS TIPOS EN LA HISTORIA
 
JUNG Y LOS TIPOS PSICOLÓGICOS
JUNG Y LOS TIPOS PSICOLÓGICOSJUNG Y LOS TIPOS PSICOLÓGICOS
JUNG Y LOS TIPOS PSICOLÓGICOS
 
JUNG Y UNA INTRODUCCIÓN A LOS TIPOS PSICOLÓGICOS
JUNG Y UNA INTRODUCCIÓN A LOS TIPOS PSICOLÓGICOSJUNG Y UNA INTRODUCCIÓN A LOS TIPOS PSICOLÓGICOS
JUNG Y UNA INTRODUCCIÓN A LOS TIPOS PSICOLÓGICOS
 
UNG, SINCRONICIDAD Y RELATIVIDAD
UNG, SINCRONICIDAD Y RELATIVIDADUNG, SINCRONICIDAD Y RELATIVIDAD
UNG, SINCRONICIDAD Y RELATIVIDAD
 

Último

ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSYadi Campos
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAEl Fortí
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptxdeimerhdz21
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxMaritzaRetamozoVera
 
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxYadi Campos
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
origen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioorigen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioELIASAURELIOCHAVEZCA1
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónLourdes Feria
 
proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niñoproyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niñotapirjackluis
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfPaolaRopero2
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSjlorentemartos
 
CLASE - La visión y misión organizacionales.pdf
CLASE - La visión y misión organizacionales.pdfCLASE - La visión y misión organizacionales.pdf
CLASE - La visión y misión organizacionales.pdfJonathanCovena1
 
Ecosistemas Natural, Rural y urbano 2021.pptx
Ecosistemas Natural, Rural y urbano  2021.pptxEcosistemas Natural, Rural y urbano  2021.pptx
Ecosistemas Natural, Rural y urbano 2021.pptxolgakaterin
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...JAVIER SOLIS NOYOLA
 

Último (20)

ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptx
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docx
 
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
 
origen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioorigen y desarrollo del ensayo literario
origen y desarrollo del ensayo literario
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niñoproyecto de mayo inicial 5 añitos aprender es bueno para tu niño
proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
 
CLASE - La visión y misión organizacionales.pdf
CLASE - La visión y misión organizacionales.pdfCLASE - La visión y misión organizacionales.pdf
CLASE - La visión y misión organizacionales.pdf
 
Ecosistemas Natural, Rural y urbano 2021.pptx
Ecosistemas Natural, Rural y urbano  2021.pptxEcosistemas Natural, Rural y urbano  2021.pptx
Ecosistemas Natural, Rural y urbano 2021.pptx
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
 

Transformaciones en regresion

  • 1. CAPÍTULO 4 TRANSFORMACIONES EN REGRESIÓN Edgar Acuña Fernández Departamento de Matemáticas Universidad de Puerto Rico Recinto Universitario de Mayagüez Edgar Acuña Analisis de Regresion 1
  • 2. Transformaciones para linealizar modelos Consideremos por ahora solo modelos con una variable predictora. El objetivo es tratar de transformar las variables es aumentar la medida de ajuste R2 del modelo, sin incluir variables predictoras adicionales. Se recomienda hacer un plot para obervar el tipo de tendencia. Edgar Acuña Analisis de Regresion 2
  • 3. Transformaciones de la variable predictora y/o respuesta para linealizar varios modelos. Edgar Acuña Analisis de Regresion 3
  • 4. • Los modelos exponencial y doblemente logarítmico son válidos bajo la suposición de que los errores son multiplicativos, esto se debe cotejar haciendo análisis de residuales, si los logaritmos de los errores tiene una media de cero y varianza constante. • Si los errores no son multiplicativos entonces deberían aplicarse técnicas de regresión no lineal. Edgar Acuña Analisis de Regresion 4
  • 5. 4.2 Transformaciones de las variables predictoras en regresión múltiple • Supongamos que uno tiene una variable de respuesta Y y varias variables predictoras y desea hacer transformaciones en las variables predictoras para mejorar la medida de ajuste del modelo. • Del plot matricial se extrae las relaciones de y con cada una de las variables predictoras. • Las transformaciones pueden ser afectadas por la colinealidad existente entre las variables predictoras. Edgar Acuña Analisis de Regresion 5
  • 6. Modelo basado en series de taylor En 1962, Box y Tidwell , propusieron un método para transformar las variables predictoras, usando solamente potencias de ellas. ellos consideraron el modelo: y = β o + β 1 w1 + .....β k wk + e αj donde: w j = x j si α j ≠ 0 y wj=ln(xj) si α j = 0 . El desarrollo de la serie de Taylor se hace con respecto a α = (α 1 ,.....α k ) y alrededor de α 0 = (α 1, 0 ,....., α k , 0 ) = (1,....,1) Luego se tiene y ≅ β 0 + β 1 x1 + ..... + β k x k + γ 1 z1 + γ 2 z 2 + ..... + γ k z k Donde: γ Edgar Acuña j = (α j − 1) β j y z j = x j ln x j para j=1,2….k. Analisis de Regresion 6
  • 7. Procedimiento para la estimación de los αj 1. Hacer la regresión lineal múltiple considerando las variables predictoras originales xj y denotar los estimados de los coeficientes por bj. 2. Hacer una regresión lineal múltiple de y versus las variables predictoras originales mas las variables zj=xjln(xj)  denotar los estimados de los coeficientes y γ j. de zj por 3. Estimar αj por Edgar Acuña  αj =  γj bj +1 Analisis de Regresion 7
  • 8. Procedimiento para la estimación de los αj El procedimiento se puede repetir varias veces usando en cada etapa las nuevas variables transformadas y la siguiente relación de recurrencia:  α (j m +1) = (  (m) γj b (j m )  + 1)α (j m ) | α (j m +1) − α (j m ) |< TOL El proceso termina cuando , donde TOL es la tolerancia su valor es muy cercano a cero. Sin embargo, muy a menudo un solo paso es suficiente. Edgar Acuña Analisis de Regresion 8
  • 9. Técnica sugerida por Box and Tidwell aplicado al conjunto de datos millaje La regresión con las variables originales MPG = 192 - 0.0156 VOL + 0.392 HP - 1.29 SP - 1.86 WT Predictor Coef SE Coef T Constant 192.44 23.53 8.18 VOL -0.01565 0.02283 -0.69 HP 0.39221 0.08141 4.82 SP -1.2948 0.2448 -5.29 WT -1.8598 0.2134 -8.72 R-Sq = 87.3% R-Sq(adj) = 86.7% Edgar Acuña Analisis de Regresion P 0.000 0.495 0.000 0.000 0.000 9
  • 10. continuación… Creamos cuatro variables predictoras x1lnx1, x2lnx2, x3lnx3 y x4lnx4. La regresión múltiple con las 8 variables predictoras es MPG = 1048 - 1.00 VOL + 5.47 HP - 38.9 SP - 17.9 WT + 0.180 x1lnx1 - 0.801 x2lnx2 + 6.36 x3lnx3 + 3.33 x4lnx4 Predictor Constant VOL HP SP WT x1lnx1 x2lnx2 x3lnx3 x4lnx4 Coef SE Coef 1048.2 268.4 -1.0023 0.5916 5.468 1.849 -38.85 11.81 -17.902 4.324 0.1803 0.1086 -0.8006 0.2744 6.362 1.971 3.3263 0.8739 S = 3.247 R-Sq = 90.5% Analisis de Regresion89.5% R-Sq(adj) = Edgar Acuña T 3.91 -1.69 2.96 -3.29 -4.14 1.66 -2.92 3.23 3.81 P 0.000 0.094 0.004 0.002 0.000 0.101 0.005 0.002 0.000 10
  • 11. continuación … Estimando αj segun el paso 3 se tiene α1=0.1803/(-0.01565)+1=-10.52, α2 =8006/0.39221)+1=-1.04, α3=(6.362)/(-1.2948)+1=-3.91, α4=3.3263/(-1.8598)+1=-0.79. Asi la regresión con las nuevas variables vol-10.52, hp-1.04, sp-3.91 y wt-0.79 es: MPG = - 2.298 + 1668 hp1 +1.843E+18 -1.465E+08 sp1 + 332.9 wt1 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -2.298e+00 4.420e+00 -0.520 0.604656 sp1 -1.465e+08 4.698e+08 -0.312 0.755972 wt1 3.329e+02 9.382e+01 3.548 0.000665 *** vol1 1.843e+18 8.827e+17 2.088 0.040082 * hp1 1.668e+03 8.078e+02 2.065 0.042325 * Residual standard error: 3.095 on 77 degrees of freedom Multiple R-Squared: 0.909, Adjusted R-squared: 0.9043 Se puede repetir el proceso, eliminando VOL antes de aplicar el método de Box and Tidwell Edgar Acuña Analisis de Regresion 11
  • 12. Transformaciones para mejorar la normalidad de la variable de respuesta En 1964, Box y Cox introdujeron una transformación de la variable de respuesta (transformación potencia) con el objetivo de satisfacer la suposición de normalidad del modelo de regresión. yλ −1 la transformación está definida por w= λ si λ≠0 y w=ln(y) si λ=0. Notar que: Edgar Acuña y λ −1 lim λ = ln y λ →0 Analisis de Regresion 12
  • 13. Estimación del parámetro λ Se usa el método de Máxima verosimilitud, conjuntamente con los coeficientes del modelo de regresión lineal múltiple w = β o + β 1 x1 + .....β k x k + e La transformación estandarizada de los w’s se n wi ~ = (∏ y ) 1 / n define por z i = ~ λ−1 donde y i =1 i y es la media geométrica de las y’s. El método asume que para algún λ las zi’s son normales e independientes con varianza común σ2 Edgar Acuña Analisis de Regresion 13
  • 14. Función de verosimilitud en términos de las zi’s La función de verosimilitud esta dada por : L(β, λ )] = e − 1 ( z − Xβ )'( z − Xβ ) 2σ 2 (2πσ 2 ) n / 2 Luego n n 1 ˆ ˆ ˆ max[ LnL(β, λ )] = − ln(2π ) − ln(σ 2 ) − 2 (z − Xβ)' (z − Xβ) ˆ 2 2 2σ ˆ donde σ 2 Así ˆ ˆ = SSE / n = (z − Xβ)' (z − Xβ) / n n n n n ˆ 2 ) − ≡ − ln(σ 2 ) ˆ max[ LnL(β, λ )] = − ln(2π ) − ln(σ 2 2 2 2 Edgar Acuña Analisis de Regresion 14
  • 15. Procedimiento para estimar el parámetro λ 1. Seleccionar un conjunto de valores de λ entre –2 y 2, usualmente entre 10 y 20 valores 2. Para cada valor de λ, ajustar el modelo z=Xβ+e 3. Plotear max[Ln L(β,λ)] versus λ. 4. Escoger como parámetro λ aquel que otorgue el mayor valor para max[Ln L(β,λ)]. Edgar Acuña Analisis de Regresion 15
  • 16. Transformaciones para estabilizar la varianza. Edgar Acuña Analisis de Regresion 16
  • 17. Justificación de las transformaciones Expandiendo en series de Taylor una función h(Y) alredededor de µ=E(Y) se obtiene: h(Y ) ≈ h( µ ) + h' ( µ )(Y − µ ) + h" ( µ )(Y − µ ) 2 / 2 Tomando varianza a ambos lados y considerando solamente la aproximación lineal se obtiene: Var (h(Y )) ≈ [h' ( E ( y ))]2 Var (Y ) Ejemplo: Si Var(Y)∝[E(y)]2 hallar h(Y) tal que su varianza sea constante:[h’(E(Y))]2≈constante/[E(y)]2 , luego, h’(µ)≈1/µ, de donde h(µ)≈log(µ). Edgar Acuña Analisis de Regresion 17
  • 18. Mínimos cuadrados ponderados. Es otra manera de tratar de remediar la falta de homogeneidad de varianza de los errores. suponiendo que los errores son todavía no correlacionados. n ˆ wi ( y i − y i ) 2, donde w representa Se minimiza ∑ i i =1 el peso asignado a la i-ésima observación. Edgar Acuña Analisis de Regresion 18
  • 19. Cómo escoger los pesos? Si en el plot de, residuales versus la variable predictora se observa que la dispersión aumenta cuando x aumenta sería conveniente usar . 1 wi = 2 σi σ i2 Donde, son las varianzas poblacionales de la Y (estimadas por s2) para cada observación xi en caso de regresión lineal simple, o para cada combinación de las variables predictoras en el caso de regresión lineal múltiple. La idea de dar a las observaciones anómalas un menor peso. Tambien se pueden calcular los pesos basado en los diagnósticos de regresión. Edgar Acuña Analisis de Regresion 19
  • 20. Consideremos el modelo de regresión lineal múltiple y = Xβ + e con Var(e)=Vσ2, donde V es una matríz diagonal k 2  1 0 V=0   .  0  0 . 2 k2 . 0 2 k3 . . 0 0 0  . 0  . 0 . 0 2 0 kn   . Sea W=(V1/2)-1 , luego Wy = WXβ + We Sea y*=Wy, e*=We y X*=WX, luego y*=X*β + e* Edgar Acuña Analisis de Regresion 20
  • 21. Algunas Propiedades La varianza de los errores es constante. Var(e*)=Var(We)=WVar(e)W’=WVW’σ2=Iσ2 El estimador mínimo cuadrático de β es β* = (X*' X) −1 X*' Y* = (X' V −1 X) −1 X' V −1 Y Para el cual se tiene E(β*)=β Var(β*)= (X' V X) X' V −1 Edgar Acuña −1 −1 Var (Y)V −1 X(X' V −1 X) −1 = (X' V −1 X) −1 Analisis de Regresion σ2 21
  • 22. Mínimos Cuadrados generalizados Considera la situación más general donde: Los errores no tienen varianza constante y ademas son correlacionados. Sea el modelo de regresión lineal múltiple y = Xβ + e Supongamos que: Var(e)=Vσ2 donde V es una matriz simétrica y definida positiva. Sea T una matríz nosingular y simétrica tal que TT=T2=V , luego se tiene T −1 y = T −1 Xβ + T −1e Edgar Acuña Analisis de Regresion 22
  • 23. Mínimos Cuadrados generalizados Sea e*= T-1e, Var(e*)=Var(T-1e)=T-1Var(e)T-1=Iσ2 entonces el estimador mínimo cuadrático de β se obtiene minimizando e*' e* = (Y − Xβ)' V −1 (Y − Xβ) luego β* = (X' V −1 X) −1 X' V −1 Y E(β*)=β Var(β*)= (X' V −1 X) −1 X' V −1Var (Y)V −1 X(X' V −1 X) −1 = (X' V −1 X) −1σ2 Edgar Acuña Analisis de Regresion 23