SlideShare una empresa de Scribd logo
1 de 34
Descargar para leer sin conexión
El Análisis de la Regresión 
a través de SPSS 
M. Dolores Martínez Miranda 
Profesora del Dpto. Estadística e I.O. 
Universidad de Granada 
Referencias bibliográficas 
1. Hair, J.F., Anderson, R.E., Tatham, R.L. y Black, W.C. (1999) Análisis Multivariante 
(5ª edición). Ed. Prentice Hall. 
2. Pérez, C. (2001) Técnicas estadísticas con SPSS. Ed. Prentice Hall.
INTRODUCCIÓN 
El Análisis de Regresión tiene como objetivo 
estudiar la relación entre variables. 
Permite expresar dicha relación en términos de 
una ecuación que conecta una variable de 
respuesta Y, con una o más variables 
explicativas X1,X2,…,Xk. 
Finalidad: 
 Determinación explícita del funcional que relaciona 
las variables. (Predicción) 
 Comprensión por parte del analista de las 
interrelaciones entre las variables que intervienen 
en el análisis.
PLANTEAMIENTO GENERAL 
Notación: 
Y variable de respuesta (dependiente, endógena, explicada) 
X1,X2,…,Xk variables explicativas (independientes, exógenas, 
regresores) 
Modelo general de Regresión: 
Y = m (X1,X2,…,Xk ) + 
m función de regresión 
residuos del modelo (errores de observación, inadecuación del 
modelo)
Variantes del Análisis de Regresión 
en SPSS 
 Según el número de v. explicativas: Simple o Múltiple. 
 Supuestos sobre la función de regresión 
Regresión lineal 
Y = 0 + 1 X1+ 2 X2 +…+ k Xk + 
Estimación curvilínea (Potencial, exponencial, hiperbólica, etc.) 
Y = exp (a + b X) ln Y = a + b X 
Linealización 
Regresión no lineal (Algoritmos de estimación iterativos)
Variantes del Análisis de Regresión 
en SPSS 
 Tipo de datos 
Regresión logística, Modelos Probit (La variable de respuesta es 
binaria) 
Regresión ordinal (La variable de respuesta es de tipo ordinal) 
Escalamiento óptimo o regresión categórica (Las variables 
explicativas y/o explicada, pueden ser nominales) 
 Situaciones especiales en la estimación del modelo lineal: Mínimos 
cuadrados en dos fases (correlación entre residuos y v. explicativas), 
estimacion ponderada (situación de heterocedasticidad)
Submenú REGRESIÓN 
Regresión lineal múltiple 
Ajuste de curvas mediante linealización 
Modelos de regresión con 
respuestas binarias u ordinales 
Modelos de regresión no lineales 
Modelos de regresión con 
variables categóricas Correcciones en el modelo lineal
Contenidos: Aplicaciones con SPSS 
Regresión lineal (múltiple) 
Estimación ponderada 
Mínimos cuadrados en dos fases 
Escalamiento óptimo 
Regresión curvilínea 
Regresión no lineal
Regresión lineal múltiple 
-Modelo teórico- 
Modelo lineal Y = 0 + 1 X1+ 2 X2 +…+ k Xk + (1) 
Parámetros 
j magnitud del efecto que Xj tienen sobre Y (incremento en la media de 
Y cuando Xj aumenta una unidad) 
0 término constante (promedio de Y cuando las v. explicativas valen 0) 
residuos (perturbaciones aleatorias, error del modelo) 
Datos (observaciones, muestra) { (Yi, X1i,…,Xki) : i = 1,…,n } 
PROBLEMA Suponiendo que la relación entre las variables es como 
en (1), estimar los coeficientes ( j ) utilizando la 
información proporcionada por la muestra
Regresión lineal múltiple 
-Modelo teórico- 
Expresión matricial 
Y = X + 
HIPÓTESIS 
 
 
 
X X L 
X 
11 21 k1 
X X L 
X 
12 22 k2 
Y 
1 
Y 
2 
M M O M 
 j son v.v.a.a. con media 0 e independientes de las Xj 
 Homocedasticidad: j tienen varianzas iguales ( 2 ) 
 No autocorrelación: j son incorreladas entre sí 
 
 
     
 
 j son normales e independientes (Inferencia sobre el modelo) 
 
+ 
 
0 
1 
 No multicolinealidad: Las columnas de X son linealmente 
independientes ( rango(X) = k+1 ) 
 
     
 
     
 
     
 
     
 
     
 
     
 
     
 
1 
2 
n 
k 
1n 2n kn 
n 
X X X 
= 
Y 
M M 
L 
M
Estimación del modelo 
Problema de mínimos cuadrados 
n 2 
Minimizar { Y ( X ... X ) } 
i 1 
i 0 1 i1 k ik 
0 , 1,..., k 
Σ= 
- + + + 
Solución 
( n  k+1 ) Suma residual de cuadrados 
( ) (XTX)-1 XTY 
T 
k 
ˆ = ˆ L ˆ 
= 
1 
ˆ 
0 
Yi valor predicho ^ 
Estimación de los coeficientes 
Yˆ 
Residuo estimado : ˆi = Yi - i
Ejemplo con SPSS (Coches.sav) 
Objetivo: Ajustar un modelo lineal que permita predecir el consumo en 
función de motor, cv, peso y acel 
Variable dependiente 
CONSUMO Consumo (l/100Km) 
Variables independientes 
MOTOR Cilindrada en cc 
CV Potencia (CV) 
PESO Peso total (kg) 
ACEL Aceleración 0 a 100 km/h (segundos)
Analizar 
Coeficientesa 
Coeficientes no 
estandarizados 
Coeficientes 
estandarizad 
os 
,432 1,166 ,370 ,711 
3,093E-04 ,000 ,134 1,612 ,108 
4,386E-02 ,008 ,424 5,582 ,000 
4,948E-03 ,001 ,355 4,404 ,000 
2,504E-02 ,059 ,018 ,424 ,672 
(Constante) 
Cilindrada en cc 
Potencia (CV) 
Peso total (kg) 
Aceleración 0 a 100 
km/h (segundos) 
Modelo 
1 
B Error típ. 
Beta 
t Sig. 
Variable dependiente: a. Consumo (l/100Km) 
Regresión 
Lineal 
( )T 
k 
ˆ = ˆ L 
Coeficientes tipificados 
Comparación de los efectos 
Consumo = 0.432 + 3.093E-04 Motor + 4.386E-02 CV + 
+ 4.948E-03 Peso + 2.504E-02 Acel 
ˆ 
2 
ˆ 
0 
j 
ˆ 
Xj 
Y 
bj = 
Significación 
individual de las 
variables y de la 
constante 
(Inferencia)
Inferencia sobre el modelo 
Significación individual de las variables 
Utilidad: Verficar si cada variable aporta información significativa al análisis 
Nota: Depende de las interrelaciones entre las variables, no es concluyente 
Contraste de hipótesis ( Xj ) 
H0 : j = 0 
H1 : j 0 
Aceptar H0 significa que la variable 
“no aporta información significativa” 
en el análisis de regresión realizado 
Resolución 
= ¾¾¾ ® 
T Bajo H t 
n-k-1 
ˆ 
SE( ˆ ) 
j 
j 
0 ¾
Inferencia sobre el modelo 
Significación de la constante 
Utilidad: Verficar si la v.dependiente tiene media 0 cuando las v.explicativas se anulan 
Contraste de hipótesis 
H0 : 0 = 0 
H1 : 0 0 
Aceptar H0 significa que 
“no es conveniente incluir un término constante” 
en el análisis de regresión realizado 
Resolución 
= ¾¾¾ ® 
T Bajo H t 
n-2 
ˆ 
SE( ˆ ) 
0 
0 
0 ¾
Ejemplo (Coches.sav) 
Interpretación del p-valor 
Coeficientesa 
Coeficientes no 
estandarizados 
Coeficientes 
estandarizad 
os 
,432 1,166 ,370 ,711 
3,093E-04 ,000 ,134 1,612 ,108 
4,386E-02 ,008 ,424 5,582 ,000 
4,948E-03 ,001 ,355 4,404 ,000 
2,504E-02 ,059 ,018 ,424 ,672 
(Constante) 
Cilindrada en cc 
Potencia (CV) 
Peso total (kg) 
Aceleración 0 a 100 
km/h (segundos) 
Modelo 
1 
B Error típ. 
Beta 
t Sig. 
Variable dependiente: a. Consumo (l/100Km) 
(en un contraste al nivel de significación ) 
Si p-valor  entonces se rechaza la hipótesis nula 
H0 : 0 = 0 
H1 : 0 0 
Al 5% se puede no incluir 
constante en el modelo 
H0 : j = 0 
Al nivel de significación del 5%: H1 : j 0 
Motor (0.108) y Acel (0.672) “no son significativas” 
CV (0.000) y Peso (0.000) “sí son significativas”
Inferencia sobre el modelo 
Bondad de ajuste 
Descomposición de la variabilidad 
n 
Σ Σ Σ 
= = = 
ˆ ) y Yˆ 
( Y y ) ( 
i 1 
2 
i 
n 
- = - + 
i 1 
2 
i 
n 
i 1 
2 
i 
1442443 1442443 123 
VT VE VNE 
Coeficiente de determinación R: Coeficiente correlación lineal múltiple 
VNE 
VT 
1 - 
VE 
R2 = = 
VT 
Indica la mayor correlación entre Y y las 
c.l. de las v. explicativas 
Inconveniente: Sobrevalora la bondad del ajuste 
Coeficiente de determinación corregido 
R2 = 
1- R 
2 n -1 
n - k -1
Ejemplo (Coches.sav) 
Resumen del modelob 
,869a ,755 ,752 1,970 
Modelo 
1 
R R cuadrado 
R cuadrado 
corregida 
Error típ. de la 
estimación 
Variables predictoras: (Constante), Aceleración 0 a 100 km/h 
(segundos), Peso total (kg), Potencia (CV), Cilindrada en cc 
a. 
Variable dependiente: b. Consumo (l/100Km) 
R2 = 0.755 Consumo queda explicada en un 75.5% por las variables 
explicativas según el modelo lineal considerado 
R2 corregido = 0.752 (siempre algo menor que R2)
Inferencia sobre el modelo 
Contraste de regresión (ANOVA) 
Utilidad: Verificar que (de forma conjunta) las v.explicativas aportan 
información en la explicación de la variable de respuesta 
Contraste: H0 : 1 = 2 =… = k = 0 
H1 : Algún j 0 
H0 : R = 0 
H1 : R 0 
Aceptar H0 significa que 
“las v.explicativas no están relacionadas linealmente con Y” 
Resolución (ANOVA) 
F Bajo H ¾ 
F 
k, n-k-1 0 VE / k 
= ¾¾¾ ® 
VNE / (n - k -1)
Ejemplo (Coches.sav) 
Contraste de regresión 
ANOVAb 
4626,220 4 1156,555 297,956 ,000a 
1502,188 387 3,882 
6128,408 391 
Regresión 
Residual 
Total 
Modelo 
1 
Suma de 
cuadrados gl 
Media 
cuadrática F Sig. 
Variables predictoras: (Constante), Aceleración 0 a 100 km/h (segundos), Peso 
total (kg), Potencia (CV), Cilindrada en cc 
a. 
Variable dependiente: b. Consumo (l/100Km) 
Modelo VE k VE / k 
(las variables explicativas 
influyen de forma conjunta 
y lineal sobre Y) 
Residual VNE n-k-1 VNE / (n-k-1) 
Total VT n-1 
Al 5% se rechaza H0 
Media F exp. 
cuadrática 
Grados de 
libertad 
Suma de 
cuadrados 
Fuente de 
variabilidad 
VE / k 
VNE / (n-k-1)
Predicción 
Bandas de confianza 
Predicciones para Y 
(dentro del rango de predicción) 
x ... x ) x ,..., x , x ( Yˆ 
1 2 k = 0 + 1 1 + + k k 
I.C. para los valores predichos de Y 
I.C. para la media de Y 
Gráfico de dispersión 
Variable dependiente: Consumo (l/100Km) 
0 10 20 30 
Consumo (l/100Km) 
Regresión Valor pronosticado tipificado 
3 
2 
1 
0 
-1 
-2 R² = 0.7549
El análisis de los residuos 
Objetivo: Verificar que no se violan las hipótesis sobre las 
que se estima el modelo y se realiza la inferencia 
1. Normalidad de los residuos 
2. No autocorrelación 
3. Homocedasticidad 
4. Falta de linealidad 
5. No multicolinealidad 
Posibles correcciones: 
• Detección de atípicos y 
puntos influyentes 
• Transformaciones 
• Variables ficticias 
• Ajustes polinomiales 
• Términos de interacción
1.1. Normalidad de los residuos 
Herramientas disponibles en SPSS 
Gráficos: Histograma, gráfico probabilístico normal 
Histograma 
Residuo tipificado 
Frecuencia 
100 
80 
60 
40 
20 
0 
Desv. típ. = ,99 
Media = 0,00 
N = 392,00 
Gráfico P-P normal de regresión Residuo tipificado 
1.00 
.75 
.50 
.25 
0.00 
0.00 .25 .50 .75 1.00 
Prob acum observada 
Prob acum esperada 
Contrastes: Kolmogorov-Smirknov, Shapiro-Wilks,…
1.2. No autocorrelación 
Hace referencia a los efectos de la inercia de una observación a otra 
que pueda indicar la no independencia entre los residuos. 
Se trata de buscar modelos o pautas en los gráficos residuales frente 
al número de caso (incluso con cada variable independiente). 
Herramientas disponibles en SPSS: Gráficos residuales y el 
estadístico de Durbin-Watson 
-100 0 100 200 300 400 500 
Número de orden de las observaciones 
Standardized Residual 
4 
3 
2 
1 
0 
-1 
-2 
-3 
Error típ. de la 
estimación 
Durbin-W 
atson 
1,970 1,228 
Variables predictoras: (Constante), Aceleración 0 a 100 km/h (segundos), 
H0: No hay autocorrelación 
•Si d1.18 rechazar, 
•Si d1.4 no rechazar. 
•Si 1.18d1.4 no es concluyente 
Posibles soluciones: 
- Transformaciones 
- Añadir variables
1.3. Homocedasticidad 
Hace referencia a la constancia de los residuos para los 
valores que van tomando las variables independientes. 
Herramientas disponibles en SPSS: Gráficos residuales 
1000 2000 3000 4000 5000 6000 7000 8000 
Cilindrada en cc 
Standardized Residual 
4 
3 
2 
1 
0 
-1 
-2 
-3 
0 100 200 300 
Potencia (CV) 
Standardized Residual 
4 
3 
2 
1 
0 
-1 
-2 
-3 
400 600 800 1000 1200 1400 1600 1800 
Peso total (kg) 
Standardized Residual 
4 
3 
2 
1 
0 
-1 
-2 
-3 
0 10 20 30 
Aceleración 0 a 100 km/h (segundos) 
Standardized Residual 
4 
3 
2 
1 
0 
-1 
-2 
-3 
-2 -1 0 1 2 3 
Regresión Valor pronosticado tipificado 
Consumo (l/100Km) 
30 
20 
10 
0
1.4. Falta de linealidad 
Hace referencia a las posibles desviaciones de los datos 
desde el modelo lineal que se está ajustando. 
Herramientas disponibles en SPSS: Gráficos de regresión parcial 
y gráficos residuales 
Gráfico de regresión parcial 
Variable dependiente: Consumo (l/100Km) 
-2000 -1000 0 1000 2000 3000 
Cilindrada en cc 
Consumo (l/100Km) 
30 
20 
10 
0 
-10 
Gráfico de regresión parcial 
Variable dependiente: Consumo (l/100Km) 
-40 -20 0 20 40 60 80 
Potencia (CV) 
Consumo (l/100Km) 
30 
20 
10 
0 
-10 
Gráfico de regresión parcial 
Variable dependiente: Consumo (l/100Km) 
-800 -600 -400 -200 0 200 400 
Peso total (kg) 
Consumo (l/100Km) 
20 
10 
0 
-10 
Gráfico de regresión parcial 
Variable dependiente: Consumo (l/100Km) 
-6 -4 -2 0 2 4 6 8 
Aceleración 0 a 100 km/h (segundos) 
Consumo (l/100Km) 
30 
20 
10 
0 
-10 
Son diagramas de dispersión 
de los residuos de cada v. 
independiente y los residuos 
de la v. dependiente cuando 
se regresan ambas por 
separado sobre las restantes 
v. independientes.
1.5. No multicolinealidad 
Colinealidad es la asociación, medida como correlación, 
entre dos variables explicativas (el término multicolinealidad 
se utiliza para tres o más variables explicativas). 
Impacto de la 
multicolinealidad 
Reducción del poder explicativo de cualquier v. explicativa individual en la medida 
en que está correlada con las otras v. explicativas presentes en el modelo. 
Herramientas disponibles en SPSS: Índices de condicionamiento, FIV 
Diagnósticos de colinealidada 
4,729 1,000 ,00 ,00 ,00 ,00 ,00 
,238 4,454 ,00 ,03 ,00 ,00 ,02 
2,268E-02 14,440 ,03 ,22 ,29 ,01 ,06 
6,265E-03 27,474 ,20 ,75 ,02 ,70 ,00 
3,612E-03 36,185 ,76 ,01 ,69 ,29 ,92 
Dimensión 
1 
2 
3 
4 
5 
Modelo 
1 
Autovalor 
Indice de 
condición (Constante) 
Cilindrada 
en cc Potencia (CV) 
Peso total 
(kg) 
Aceleración 
0 a 100 km/h 
(segundos) 
Proporciones de la varianza 
Variable dependiente: a. Consumo (l/100Km) 
Posibles soluciones: 
1. Identificar los índices que 
estén por encima del 
umbral: 30 
2. Para los índices 
identificados, identificar las 
variables con proporciones 
de varianza por encima del 
90%: Habrá 
multicolinealidad si ocurre 
con dos o más coeficientes. 
- ACP y utilizar las componentes principales como regresores. 
- A la vista de las correlaciones eliminar variables “redundantes”.
Datos anómalos 
Medidas de influencia 
Objetivo: Detectar datos anómalos y datos influyentes 
Datos anómalos (atípicos) 
Individuos cuyo residuos tipificado es superior a 3 (en valor 
absoluto) 
Datos influyentes 
Individuos cuya omisión produce cambios notables en los 
resultados del análisis 
Herramientas estadísticas (medidas de influencia) 
• Identificación de puntos de apalancamiento (observaciones 
aisladas del resto sobre una o más v.independientes) 
• Observaciones influyentes: influencias sobre coeficientes individuales, 
medidas globales de influencia.
Medidas para identificar puntos de apalancamiento: 
Leverage o medida de influencia: Límite: 2(k+1) / n (Si n50, 3(k+1) / n) 
Distancia de Mahalanobis: Considera la distancia de cada observación 
desde los valores medios de las v.independientes. Existen tablas para contrastar, 
pero en general se procede a identificar valores considerablemente altos 
respecto al resto. 
Medidas para identificar observaciones influyentes: 
• Influencias sobre coeficientes individuales: 
DFBETA Mide el efecto del dato i-ésimo ejerce sobre j. Límites para la versión 
estandarizada: ± 2 n - 1 / 2 (si n50 usar los límites de la normal) 
• Medidas globales de influencia: 
DFITTS Mide el efecto del dato i-ésimo ejerce en su propia predicción. Límites para la 
versión estandarizada: ± 2 [ (k+2) / (n-k-2) ]1 / 2 
COVRATIO Representa el grado al que una observación tiene impacto sobe los errores 
estándar de los coeficientes. Límites: 1 ± 3(k+1) / n 
Distancia de Cook: Localizar valores que exceden a 4 / (n-k-1)
Detección de residuos atípicos: Los valores tipificados deben estar entre -3 y 3 
Diagnósticos por casoa 
10,176 26 5,95 20,05 
Número de caso 
35 
Residuo tip. 
Consumo 
(l/100Km) 
Valor 
pronosticado Residuo bruto 
Variable dependiente: a. Consumo (l/100Km) 
Detección de puntos influyentes: Dist. De Mahalanobis, Cook, valor de influencia 
Estadísticos sobre los residuosa 
5,95 21,05 11,27 3,440 392 
-1,545 2,843 ,000 1,000 392 
,107 ,831 ,210 ,075 392 
4,57 21,08 11,26 3,447 392 
-5,16 20,05 ,00 1,960 392 
-2,618 10,176 ,000 ,995 392 
-2,641 10,520 ,001 1,011 392 
-5,25 21,43 ,00 2,024 392 
-2,661 12,433 ,006 1,067 392 
,166 68,628 3,990 4,866 392 
,000 1,520 ,007 ,077 392 
,000 ,176 ,010 ,012 392 
SPSS 
Valor pronosticado 
Valor pronosticado tip. 
Error típico del valor 
pronosticado 
Valor pronosticado 
corregido 
Residuo bruto 
Residuo tip. 
Residuo estud. 
Residuo eliminado 
Residuo eliminado estud. 
Dist. de Mahalanobis 
Distancia de Cook 
Valor de influencia 
centrado 
Mínimo Máximo Media 
Desviación 
típ. N 
a. Variable dependiente: Consumo (l/100Km) 
El rango de valores para la distancia de 
Mahalanobis es elevado 
Hay valores de la distancia de Cook 
superiores a 4 / (n-k-1) = 0.010 
Medida de influencia. Límite (k=4): 0.038 
Posible solución: Eliminar observaciones
Selección de un subconjunto óptimo 
de variables independientes 
Objetivo: Seleccionar aquellas variables que sin ser redundantes 
proporcionen la mejor explicación de la v. dependiente. 
Métodos secuenciales en SPSS: Hacia atrás, Hacia delante, Pasos sucesivos 
En términos muy muy generales… 
…Evalúan estadísticos F que controlan la 
entrada y salida de variables, además de las 
correlaciones parciales de la v. dependiente 
con cada regresor.
Método forward (hacia delante) 
Inicialmente no hay regresores, se van introduciendo uno a uno 
aquellos que tienen alta correlación parcial con la v. dependiente y 
que son significativos (valor F-entrar). 
Variables introducidas/eliminadasa 
Peso total (kg) , Hacia adelante (criterio: Prob. de F para entrar = ,050) 
Potencia (CV) , Hacia adelante (criterio: Prob. de F para entrar = ,050) 
Modelo 
1 
2 
Variables 
introducidas 
Variables 
eliminadas Método 
Variable dependiente: a. Consumo (l/100Km) 
Resumen del modelo 
,837a ,700 ,699 2,172 ,700 909,085 1 390 ,000 
,868b ,753 ,752 1,972 ,053 84,214 1 389 ,000 
Modelo 
1 
2 
R R cuadrado 
R cuadrado 
corregida 
Error típ. de la 
estimación 
Cambio en 
R cuadrado Cambio en F gl1 gl2 
Sig. del 
cambio en F 
Estadísticos de cambio 
a. Variables predictoras: (Constante), Peso total (kg) 
b. Variables predictoras: (Constante), Peso total (kg), Potencia (CV)
Método backward (hacia atrás) 
Inicialmente se incluyen todos las v. independientes, se van eliminando 
una a una las que van resultando significativas (valor F-salir). 
Variables introducidas/eliminadasb 
Aceleración 0 a 100 km/h 
(segundos), Peso total (kg), 
Potencia (CV), Cilindrada en cc a 
, Introducir 
, 
Aceleración 0 a 100 km/h 
(segundos) 
Hacia atrás (criterio: Prob. de F para eliminar = ,100). 
, Cilindrada en cc Hacia atrás (criterio: Prob. de F para eliminar = ,100). 
Modelo 
1 
2 
3 
Variables introducidas Variables eliminadas Método 
Todas las variables solicitadas a. introducidas 
b. Variable dependiente: Consumo (l/100Km) 
Resumen del modelo 
,869a ,755 ,752 1,970 ,755 297,956 4 387 ,000 
,869b ,755 ,753 1,968 ,000 ,180 1 389 ,672 
,868c ,753 ,752 1,972 -,002 2,456 1 390 ,118 
Modelo 
1 
2 
3 
R R cuadrado 
R cuadrado 
corregida 
Error típ. de la 
estimación 
Cambio en 
R cuadrado Cambio en F gl1 gl2 
Sig. del 
cambio en F 
Estadísticos de cambio 
a. Variables predictoras: (Constante), Aceleración 0 a 100 km/h (segundos), Peso total (kg), Potencia (CV), Cilindrada en cc 
b. Variables predictoras: (Constante), Peso total (kg), Potencia (CV), Cilindrada en cc 
c. Variables predictoras: (Constante), Peso total (kg), Potencia (CV)
Método Stepwise (pasos sucesivos) 
Combina los dos métodos anteriores definiendo un procedimiento en el 
que las variables independientes entran o salen del modelo dependiendo 
de su significación (valores F-entrar y F-salir). 
Variables introducidas/eliminadasa 
Peso total (kg) , 
Por pasos (criterio: Prob. de F para entrar = ,050, 
Prob. de F para salir = ,100). 
Potencia (CV) , 
Por pasos (criterio: Prob. de F para entrar = ,050, 
Prob. de F para salir = ,100). 
Modelo 
1 
2 
Variables 
introducidas 
Variables 
eliminadas Método 
Variable dependiente: a. Consumo (l/100Km) 
Resumen del modelo 
,837a ,700 ,699 2,172 ,700 909,085 1 390 ,000 
,868b ,753 ,752 1,972 ,053 84,214 1 389 ,000 
Modelo 
1 
2 
R R cuadrado 
R cuadrado 
corregida 
Error típ. de la 
estimación 
Cambio en 
R cuadrado Cambio en F gl1 gl2 
Sig. del 
cambio en F 
Estadísticos de cambio 
a. Variables predictoras: (Constante), Peso total (kg) 
b. Variables predictoras: (Constante), Peso total (kg), Potencia (CV)
Resumen 
Pasos a seguir en un análisis de regresión 
Paso 1. Objetivos del análisis 
Paso 2.Diseño de la investigación mediante regresión múltiple 
Paso 3.Supuestos del análisis 
Paso 4. Estimación del modelo de regresión y valoración global del 
ajuste 
Paso 5. Interpretación y validación de los resultados.

Más contenido relacionado

La actualidad más candente

Estimacion. limites o intervalos de confianza para la media y para las propor...
Estimacion. limites o intervalos de confianza para la media y para las propor...Estimacion. limites o intervalos de confianza para la media y para las propor...
Estimacion. limites o intervalos de confianza para la media y para las propor...eraperez
 
Probabilidad y estadística descriptiva
Probabilidad y estadística descriptivaProbabilidad y estadística descriptiva
Probabilidad y estadística descriptivaBlanca Parra Campos
 
Valor esperado o media
Valor esperado o mediaValor esperado o media
Valor esperado o mediaJag Är Omxr
 
Ejercicios de prueba de hipotesis con 𝜎 desconocida (10)
Ejercicios de prueba de hipotesis con 𝜎 desconocida (10) Ejercicios de prueba de hipotesis con 𝜎 desconocida (10)
Ejercicios de prueba de hipotesis con 𝜎 desconocida (10) Luz Hernández
 
Prueba de hipotesis 2018 final
Prueba de hipotesis 2018 finalPrueba de hipotesis 2018 final
Prueba de hipotesis 2018 finalfranciscoe71
 
Estadistica ii distribucion muestral
Estadistica ii distribucion muestralEstadistica ii distribucion muestral
Estadistica ii distribucion muestralEliasGoncalves4
 
S13 distribución de probabilidad para v.a continuas
S13 distribución de probabilidad para v.a continuasS13 distribución de probabilidad para v.a continuas
S13 distribución de probabilidad para v.a continuasYorladys Martínez Aroca
 
S14 valor esperado y varianza de variables aleatorias continuas
S14 valor esperado y varianza de variables aleatorias continuasS14 valor esperado y varianza de variables aleatorias continuas
S14 valor esperado y varianza de variables aleatorias continuasYorladys Martínez Aroca
 
Tarea 17 de probabilidad y estadistica con respuestas
Tarea 17 de probabilidad y estadistica con respuestasTarea 17 de probabilidad y estadistica con respuestas
Tarea 17 de probabilidad y estadistica con respuestasIPN
 

La actualidad más candente (20)

Estimacion. limites o intervalos de confianza para la media y para las propor...
Estimacion. limites o intervalos de confianza para la media y para las propor...Estimacion. limites o intervalos de confianza para la media y para las propor...
Estimacion. limites o intervalos de confianza para la media y para las propor...
 
Probabilidad y estadística descriptiva
Probabilidad y estadística descriptivaProbabilidad y estadística descriptiva
Probabilidad y estadística descriptiva
 
18. Regresión Lineal
18. Regresión Lineal18. Regresión Lineal
18. Regresión Lineal
 
Valor esperado o media
Valor esperado o mediaValor esperado o media
Valor esperado o media
 
Ejercicios de prueba de hipotesis con 𝜎 desconocida (10)
Ejercicios de prueba de hipotesis con 𝜎 desconocida (10) Ejercicios de prueba de hipotesis con 𝜎 desconocida (10)
Ejercicios de prueba de hipotesis con 𝜎 desconocida (10)
 
Prueba de hipotesis 2018 final
Prueba de hipotesis 2018 finalPrueba de hipotesis 2018 final
Prueba de hipotesis 2018 final
 
Regresion Y Correlacion
Regresion Y CorrelacionRegresion Y Correlacion
Regresion Y Correlacion
 
Estadistica ii distribucion muestral
Estadistica ii distribucion muestralEstadistica ii distribucion muestral
Estadistica ii distribucion muestral
 
Pruebas no parametricas de wilcoxon 2007.
Pruebas no parametricas de wilcoxon 2007.Pruebas no parametricas de wilcoxon 2007.
Pruebas no parametricas de wilcoxon 2007.
 
S13 distribución de probabilidad para v.a continuas
S13 distribución de probabilidad para v.a continuasS13 distribución de probabilidad para v.a continuas
S13 distribución de probabilidad para v.a continuas
 
S14 valor esperado y varianza de variables aleatorias continuas
S14 valor esperado y varianza de variables aleatorias continuasS14 valor esperado y varianza de variables aleatorias continuas
S14 valor esperado y varianza de variables aleatorias continuas
 
Ejercicios estadistica inferencial
Ejercicios estadistica inferencialEjercicios estadistica inferencial
Ejercicios estadistica inferencial
 
Prueba De Medias
Prueba De MediasPrueba De Medias
Prueba De Medias
 
Regresion lineal ppt
Regresion lineal pptRegresion lineal ppt
Regresion lineal ppt
 
Pruebas de hipotesis
Pruebas de hipotesisPruebas de hipotesis
Pruebas de hipotesis
 
prueba de hipotesis
prueba de hipotesisprueba de hipotesis
prueba de hipotesis
 
Formulas estadisticas
Formulas estadisticasFormulas estadisticas
Formulas estadisticas
 
Tarea 17 de probabilidad y estadistica con respuestas
Tarea 17 de probabilidad y estadistica con respuestasTarea 17 de probabilidad y estadistica con respuestas
Tarea 17 de probabilidad y estadistica con respuestas
 
Distribucion Geometrica
Distribucion GeometricaDistribucion Geometrica
Distribucion Geometrica
 
Análisis de Regresión Múltiple
Análisis de Regresión MúltipleAnálisis de Regresión Múltiple
Análisis de Regresión Múltiple
 

Destacado (13)

Regresión lineal múltiple
Regresión lineal múltipleRegresión lineal múltiple
Regresión lineal múltiple
 
Modelo de votante pp santiago de compostela regresión logística
Modelo de votante pp santiago de compostela regresión logísticaModelo de votante pp santiago de compostela regresión logística
Modelo de votante pp santiago de compostela regresión logística
 
Clase 0 presentación
Clase 0  presentaciónClase 0  presentación
Clase 0 presentación
 
Algunos casos de respuesta binaria
Algunos casos de respuesta binariaAlgunos casos de respuesta binaria
Algunos casos de respuesta binaria
 
Métodos de regresión logística
Métodos de regresión logísticaMétodos de regresión logística
Métodos de regresión logística
 
Logit
LogitLogit
Logit
 
Modelos Probit Y Logit
Modelos Probit Y LogitModelos Probit Y Logit
Modelos Probit Y Logit
 
19. Regresión Logística
19. Regresión Logística19. Regresión Logística
19. Regresión Logística
 
Análisis de Varianza (ANOVA)
Análisis de Varianza (ANOVA)Análisis de Varianza (ANOVA)
Análisis de Varianza (ANOVA)
 
Análisis de la varianza
Análisis de la varianzaAnálisis de la varianza
Análisis de la varianza
 
Análisis de Varianza
Análisis de VarianzaAnálisis de Varianza
Análisis de Varianza
 
Regresión lineal múltiple
Regresión lineal múltipleRegresión lineal múltiple
Regresión lineal múltiple
 
Paginas de matematicas
Paginas de matematicasPaginas de matematicas
Paginas de matematicas
 

Similar a Análisis de la regresión en SPSS

analisis de regresion con spps
analisis  de regresion con sppsanalisis  de regresion con spps
analisis de regresion con sppsJuan Timoteo Cori
 
Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011Robinho Navarrete
 
Analisis de regresion multiple
Analisis de regresion multipleAnalisis de regresion multiple
Analisis de regresion multipleJhosepAlexFernndez
 
Regresión y Correlación Lineal
Regresión y Correlación LinealRegresión y Correlación Lineal
Regresión y Correlación Linealjmconforte
 
Modelos de regresión lineales y no lineales au aplicación en problemas de ing...
Modelos de regresión lineales y no lineales au aplicación en problemas de ing...Modelos de regresión lineales y no lineales au aplicación en problemas de ing...
Modelos de regresión lineales y no lineales au aplicación en problemas de ing...Néstor Valles Villarreal
 
Regresion aplicada a la ingenieria
Regresion aplicada a la ingenieriaRegresion aplicada a la ingenieria
Regresion aplicada a la ingenieriaBryanRoyCordovaGomez
 
Clase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfClase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfAnaParave1
 
Biometria sesion teorica_martes_12_junio_2012
Biometria sesion teorica_martes_12_junio_2012Biometria sesion teorica_martes_12_junio_2012
Biometria sesion teorica_martes_12_junio_2012Javiera Saavedra
 
10 regresion y correlacion lineal multiple
10 regresion y correlacion lineal multiple10 regresion y correlacion lineal multiple
10 regresion y correlacion lineal multipleAnniFenty
 
S14 Regresión lineal simple.pdf
S14 Regresión lineal simple.pdfS14 Regresión lineal simple.pdf
S14 Regresión lineal simple.pdfHeynerGomez2
 
RESPUESTA EN FRECUENCIA (Métodos del Diagrama de Bode y del Diagrama Polar)
RESPUESTA EN FRECUENCIA (Métodos del Diagrama de Bode y del Diagrama Polar)RESPUESTA EN FRECUENCIA (Métodos del Diagrama de Bode y del Diagrama Polar)
RESPUESTA EN FRECUENCIA (Métodos del Diagrama de Bode y del Diagrama Polar)Elias1306
 
White y Box-Cox.pptx
White y Box-Cox.pptxWhite y Box-Cox.pptx
White y Box-Cox.pptxPedroFalcn
 
Respuesta en Frecuencia, se presentan los métodos del Diagrama de Bode y del...
 Respuesta en Frecuencia, se presentan los métodos del Diagrama de Bode y del... Respuesta en Frecuencia, se presentan los métodos del Diagrama de Bode y del...
Respuesta en Frecuencia, se presentan los métodos del Diagrama de Bode y del...Elias1306
 

Similar a Análisis de la regresión en SPSS (20)

analisis de regresion con spps
analisis  de regresion con sppsanalisis  de regresion con spps
analisis de regresion con spps
 
Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011Cap2. modelo regresión multiple-v2-2011
Cap2. modelo regresión multiple-v2-2011
 
Analisis de regresion multiple
Analisis de regresion multipleAnalisis de regresion multiple
Analisis de regresion multiple
 
Regresión
RegresiónRegresión
Regresión
 
Regresión y Correlación Lineal
Regresión y Correlación LinealRegresión y Correlación Lineal
Regresión y Correlación Lineal
 
Modelos de regresión lineales y no lineales au aplicación en problemas de ing...
Modelos de regresión lineales y no lineales au aplicación en problemas de ing...Modelos de regresión lineales y no lineales au aplicación en problemas de ing...
Modelos de regresión lineales y no lineales au aplicación en problemas de ing...
 
Regresion aplicada a la ingenieria
Regresion aplicada a la ingenieriaRegresion aplicada a la ingenieria
Regresion aplicada a la ingenieria
 
Mic sesión 10
Mic sesión 10Mic sesión 10
Mic sesión 10
 
Clase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfClase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdf
 
Transformaciones en regresion
Transformaciones en regresionTransformaciones en regresion
Transformaciones en regresion
 
Biometria sesion teorica_martes_12_junio_2012
Biometria sesion teorica_martes_12_junio_2012Biometria sesion teorica_martes_12_junio_2012
Biometria sesion teorica_martes_12_junio_2012
 
Regresion
RegresionRegresion
Regresion
 
10 regresion y correlacion lineal multiple
10 regresion y correlacion lineal multiple10 regresion y correlacion lineal multiple
10 regresion y correlacion lineal multiple
 
Ajuste de curvas regresion lineal y no lineal
Ajuste de curvas regresion lineal y no linealAjuste de curvas regresion lineal y no lineal
Ajuste de curvas regresion lineal y no lineal
 
S14 Regresión lineal simple.pdf
S14 Regresión lineal simple.pdfS14 Regresión lineal simple.pdf
S14 Regresión lineal simple.pdf
 
Jacobi y gauss
Jacobi y gaussJacobi y gauss
Jacobi y gauss
 
RESPUESTA EN FRECUENCIA (Métodos del Diagrama de Bode y del Diagrama Polar)
RESPUESTA EN FRECUENCIA (Métodos del Diagrama de Bode y del Diagrama Polar)RESPUESTA EN FRECUENCIA (Métodos del Diagrama de Bode y del Diagrama Polar)
RESPUESTA EN FRECUENCIA (Métodos del Diagrama de Bode y del Diagrama Polar)
 
EI2_MAMN_RLMultiple.ppt
EI2_MAMN_RLMultiple.pptEI2_MAMN_RLMultiple.ppt
EI2_MAMN_RLMultiple.ppt
 
White y Box-Cox.pptx
White y Box-Cox.pptxWhite y Box-Cox.pptx
White y Box-Cox.pptx
 
Respuesta en Frecuencia, se presentan los métodos del Diagrama de Bode y del...
 Respuesta en Frecuencia, se presentan los métodos del Diagrama de Bode y del... Respuesta en Frecuencia, se presentan los métodos del Diagrama de Bode y del...
Respuesta en Frecuencia, se presentan los métodos del Diagrama de Bode y del...
 

Último

QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdfQUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdflupismdo
 
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICOlupismdo
 
puntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdfpuntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdfosoriojuanpablo114
 
Principios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdfPrincipios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdfauxcompras5
 
canasta basica de la india original 2 .pptx
canasta basica de la india original 2 .pptxcanasta basica de la india original 2 .pptx
canasta basica de la india original 2 .pptxarmandoantoniomartin1
 
PRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.docPRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.docmilumenko
 
Politicas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptxPoliticas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptxvladisse
 
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.ManfredNolte
 
Análisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en UruguayAnálisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en UruguayEXANTE
 
El cheque 1 y sus tipos de cheque.pptx
El cheque  1 y sus tipos de  cheque.pptxEl cheque  1 y sus tipos de  cheque.pptx
El cheque 1 y sus tipos de cheque.pptxNathaliTAndradeS
 
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdfMANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdflupismdo
 
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdfmercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdfGegdielJose1
 
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOSTEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOSreyjuancarlosjose
 
Sistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacionSistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacionPedroSalasSantiago
 
ejemplo de tesis para contabilidad- capitulos
ejemplo de tesis para contabilidad- capitulosejemplo de tesis para contabilidad- capitulos
ejemplo de tesis para contabilidad- capitulosguillencuevaadrianal
 
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPTMETODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPTrodrigolozanoortiz
 

Último (17)

Mercado Eléctrico de Ecuador y España.pdf
Mercado Eléctrico de Ecuador y España.pdfMercado Eléctrico de Ecuador y España.pdf
Mercado Eléctrico de Ecuador y España.pdf
 
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdfQUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
QUE REQUISITOS DEBO CUMPLIR PARA PENSIONARME.pdf
 
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
 
puntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdfpuntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdf
 
Principios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdfPrincipios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdf
 
canasta basica de la india original 2 .pptx
canasta basica de la india original 2 .pptxcanasta basica de la india original 2 .pptx
canasta basica de la india original 2 .pptx
 
PRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.docPRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
 
Politicas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptxPoliticas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptx
 
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.
 
Análisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en UruguayAnálisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en Uruguay
 
El cheque 1 y sus tipos de cheque.pptx
El cheque  1 y sus tipos de  cheque.pptxEl cheque  1 y sus tipos de  cheque.pptx
El cheque 1 y sus tipos de cheque.pptx
 
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdfMANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
MANUAL PARA OBTENER MI PENSIÓN O RETIRAR MIS RECURSOS.pdf
 
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdfmercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
 
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOSTEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
 
Sistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacionSistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacion
 
ejemplo de tesis para contabilidad- capitulos
ejemplo de tesis para contabilidad- capitulosejemplo de tesis para contabilidad- capitulos
ejemplo de tesis para contabilidad- capitulos
 
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPTMETODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
 

Análisis de la regresión en SPSS

  • 1. El Análisis de la Regresión a través de SPSS M. Dolores Martínez Miranda Profesora del Dpto. Estadística e I.O. Universidad de Granada Referencias bibliográficas 1. Hair, J.F., Anderson, R.E., Tatham, R.L. y Black, W.C. (1999) Análisis Multivariante (5ª edición). Ed. Prentice Hall. 2. Pérez, C. (2001) Técnicas estadísticas con SPSS. Ed. Prentice Hall.
  • 2. INTRODUCCIÓN El Análisis de Regresión tiene como objetivo estudiar la relación entre variables. Permite expresar dicha relación en términos de una ecuación que conecta una variable de respuesta Y, con una o más variables explicativas X1,X2,…,Xk. Finalidad: Determinación explícita del funcional que relaciona las variables. (Predicción) Comprensión por parte del analista de las interrelaciones entre las variables que intervienen en el análisis.
  • 3. PLANTEAMIENTO GENERAL Notación: Y variable de respuesta (dependiente, endógena, explicada) X1,X2,…,Xk variables explicativas (independientes, exógenas, regresores) Modelo general de Regresión: Y = m (X1,X2,…,Xk ) + m función de regresión residuos del modelo (errores de observación, inadecuación del modelo)
  • 4. Variantes del Análisis de Regresión en SPSS Según el número de v. explicativas: Simple o Múltiple. Supuestos sobre la función de regresión Regresión lineal Y = 0 + 1 X1+ 2 X2 +…+ k Xk + Estimación curvilínea (Potencial, exponencial, hiperbólica, etc.) Y = exp (a + b X) ln Y = a + b X Linealización Regresión no lineal (Algoritmos de estimación iterativos)
  • 5. Variantes del Análisis de Regresión en SPSS Tipo de datos Regresión logística, Modelos Probit (La variable de respuesta es binaria) Regresión ordinal (La variable de respuesta es de tipo ordinal) Escalamiento óptimo o regresión categórica (Las variables explicativas y/o explicada, pueden ser nominales) Situaciones especiales en la estimación del modelo lineal: Mínimos cuadrados en dos fases (correlación entre residuos y v. explicativas), estimacion ponderada (situación de heterocedasticidad)
  • 6. Submenú REGRESIÓN Regresión lineal múltiple Ajuste de curvas mediante linealización Modelos de regresión con respuestas binarias u ordinales Modelos de regresión no lineales Modelos de regresión con variables categóricas Correcciones en el modelo lineal
  • 7. Contenidos: Aplicaciones con SPSS Regresión lineal (múltiple) Estimación ponderada Mínimos cuadrados en dos fases Escalamiento óptimo Regresión curvilínea Regresión no lineal
  • 8. Regresión lineal múltiple -Modelo teórico- Modelo lineal Y = 0 + 1 X1+ 2 X2 +…+ k Xk + (1) Parámetros j magnitud del efecto que Xj tienen sobre Y (incremento en la media de Y cuando Xj aumenta una unidad) 0 término constante (promedio de Y cuando las v. explicativas valen 0) residuos (perturbaciones aleatorias, error del modelo) Datos (observaciones, muestra) { (Yi, X1i,…,Xki) : i = 1,…,n } PROBLEMA Suponiendo que la relación entre las variables es como en (1), estimar los coeficientes ( j ) utilizando la información proporcionada por la muestra
  • 9. Regresión lineal múltiple -Modelo teórico- Expresión matricial Y = X + HIPÓTESIS    X X L X 11 21 k1 X X L X 12 22 k2 Y 1 Y 2 M M O M j son v.v.a.a. con media 0 e independientes de las Xj Homocedasticidad: j tienen varianzas iguales ( 2 ) No autocorrelación: j son incorreladas entre sí         j son normales e independientes (Inferencia sobre el modelo)  +  0 1 No multicolinealidad: Las columnas de X son linealmente independientes ( rango(X) = k+1 )                                            1 2 n k 1n 2n kn n X X X = Y M M L M
  • 10. Estimación del modelo Problema de mínimos cuadrados n 2 Minimizar { Y ( X ... X ) } i 1 i 0 1 i1 k ik 0 , 1,..., k Σ= - + + + Solución ( n k+1 ) Suma residual de cuadrados ( ) (XTX)-1 XTY T k ˆ = ˆ L ˆ = 1 ˆ 0 Yi valor predicho ^ Estimación de los coeficientes Yˆ Residuo estimado : ˆi = Yi - i
  • 11. Ejemplo con SPSS (Coches.sav) Objetivo: Ajustar un modelo lineal que permita predecir el consumo en función de motor, cv, peso y acel Variable dependiente CONSUMO Consumo (l/100Km) Variables independientes MOTOR Cilindrada en cc CV Potencia (CV) PESO Peso total (kg) ACEL Aceleración 0 a 100 km/h (segundos)
  • 12. Analizar Coeficientesa Coeficientes no estandarizados Coeficientes estandarizad os ,432 1,166 ,370 ,711 3,093E-04 ,000 ,134 1,612 ,108 4,386E-02 ,008 ,424 5,582 ,000 4,948E-03 ,001 ,355 4,404 ,000 2,504E-02 ,059 ,018 ,424 ,672 (Constante) Cilindrada en cc Potencia (CV) Peso total (kg) Aceleración 0 a 100 km/h (segundos) Modelo 1 B Error típ. Beta t Sig. Variable dependiente: a. Consumo (l/100Km) Regresión Lineal ( )T k ˆ = ˆ L Coeficientes tipificados Comparación de los efectos Consumo = 0.432 + 3.093E-04 Motor + 4.386E-02 CV + + 4.948E-03 Peso + 2.504E-02 Acel ˆ 2 ˆ 0 j ˆ Xj Y bj = Significación individual de las variables y de la constante (Inferencia)
  • 13. Inferencia sobre el modelo Significación individual de las variables Utilidad: Verficar si cada variable aporta información significativa al análisis Nota: Depende de las interrelaciones entre las variables, no es concluyente Contraste de hipótesis ( Xj ) H0 : j = 0 H1 : j 0 Aceptar H0 significa que la variable “no aporta información significativa” en el análisis de regresión realizado Resolución = ¾¾¾ ® T Bajo H t n-k-1 ˆ SE( ˆ ) j j 0 ¾
  • 14. Inferencia sobre el modelo Significación de la constante Utilidad: Verficar si la v.dependiente tiene media 0 cuando las v.explicativas se anulan Contraste de hipótesis H0 : 0 = 0 H1 : 0 0 Aceptar H0 significa que “no es conveniente incluir un término constante” en el análisis de regresión realizado Resolución = ¾¾¾ ® T Bajo H t n-2 ˆ SE( ˆ ) 0 0 0 ¾
  • 15. Ejemplo (Coches.sav) Interpretación del p-valor Coeficientesa Coeficientes no estandarizados Coeficientes estandarizad os ,432 1,166 ,370 ,711 3,093E-04 ,000 ,134 1,612 ,108 4,386E-02 ,008 ,424 5,582 ,000 4,948E-03 ,001 ,355 4,404 ,000 2,504E-02 ,059 ,018 ,424 ,672 (Constante) Cilindrada en cc Potencia (CV) Peso total (kg) Aceleración 0 a 100 km/h (segundos) Modelo 1 B Error típ. Beta t Sig. Variable dependiente: a. Consumo (l/100Km) (en un contraste al nivel de significación ) Si p-valor entonces se rechaza la hipótesis nula H0 : 0 = 0 H1 : 0 0 Al 5% se puede no incluir constante en el modelo H0 : j = 0 Al nivel de significación del 5%: H1 : j 0 Motor (0.108) y Acel (0.672) “no son significativas” CV (0.000) y Peso (0.000) “sí son significativas”
  • 16. Inferencia sobre el modelo Bondad de ajuste Descomposición de la variabilidad n Σ Σ Σ = = = ˆ ) y Yˆ ( Y y ) ( i 1 2 i n - = - + i 1 2 i n i 1 2 i 1442443 1442443 123 VT VE VNE Coeficiente de determinación R: Coeficiente correlación lineal múltiple VNE VT 1 - VE R2 = = VT Indica la mayor correlación entre Y y las c.l. de las v. explicativas Inconveniente: Sobrevalora la bondad del ajuste Coeficiente de determinación corregido R2 = 1- R 2 n -1 n - k -1
  • 17. Ejemplo (Coches.sav) Resumen del modelob ,869a ,755 ,752 1,970 Modelo 1 R R cuadrado R cuadrado corregida Error típ. de la estimación Variables predictoras: (Constante), Aceleración 0 a 100 km/h (segundos), Peso total (kg), Potencia (CV), Cilindrada en cc a. Variable dependiente: b. Consumo (l/100Km) R2 = 0.755 Consumo queda explicada en un 75.5% por las variables explicativas según el modelo lineal considerado R2 corregido = 0.752 (siempre algo menor que R2)
  • 18. Inferencia sobre el modelo Contraste de regresión (ANOVA) Utilidad: Verificar que (de forma conjunta) las v.explicativas aportan información en la explicación de la variable de respuesta Contraste: H0 : 1 = 2 =… = k = 0 H1 : Algún j 0 H0 : R = 0 H1 : R 0 Aceptar H0 significa que “las v.explicativas no están relacionadas linealmente con Y” Resolución (ANOVA) F Bajo H ¾ F k, n-k-1 0 VE / k = ¾¾¾ ® VNE / (n - k -1)
  • 19. Ejemplo (Coches.sav) Contraste de regresión ANOVAb 4626,220 4 1156,555 297,956 ,000a 1502,188 387 3,882 6128,408 391 Regresión Residual Total Modelo 1 Suma de cuadrados gl Media cuadrática F Sig. Variables predictoras: (Constante), Aceleración 0 a 100 km/h (segundos), Peso total (kg), Potencia (CV), Cilindrada en cc a. Variable dependiente: b. Consumo (l/100Km) Modelo VE k VE / k (las variables explicativas influyen de forma conjunta y lineal sobre Y) Residual VNE n-k-1 VNE / (n-k-1) Total VT n-1 Al 5% se rechaza H0 Media F exp. cuadrática Grados de libertad Suma de cuadrados Fuente de variabilidad VE / k VNE / (n-k-1)
  • 20. Predicción Bandas de confianza Predicciones para Y (dentro del rango de predicción) x ... x ) x ,..., x , x ( Yˆ 1 2 k = 0 + 1 1 + + k k I.C. para los valores predichos de Y I.C. para la media de Y Gráfico de dispersión Variable dependiente: Consumo (l/100Km) 0 10 20 30 Consumo (l/100Km) Regresión Valor pronosticado tipificado 3 2 1 0 -1 -2 R² = 0.7549
  • 21. El análisis de los residuos Objetivo: Verificar que no se violan las hipótesis sobre las que se estima el modelo y se realiza la inferencia 1. Normalidad de los residuos 2. No autocorrelación 3. Homocedasticidad 4. Falta de linealidad 5. No multicolinealidad Posibles correcciones: • Detección de atípicos y puntos influyentes • Transformaciones • Variables ficticias • Ajustes polinomiales • Términos de interacción
  • 22. 1.1. Normalidad de los residuos Herramientas disponibles en SPSS Gráficos: Histograma, gráfico probabilístico normal Histograma Residuo tipificado Frecuencia 100 80 60 40 20 0 Desv. típ. = ,99 Media = 0,00 N = 392,00 Gráfico P-P normal de regresión Residuo tipificado 1.00 .75 .50 .25 0.00 0.00 .25 .50 .75 1.00 Prob acum observada Prob acum esperada Contrastes: Kolmogorov-Smirknov, Shapiro-Wilks,…
  • 23. 1.2. No autocorrelación Hace referencia a los efectos de la inercia de una observación a otra que pueda indicar la no independencia entre los residuos. Se trata de buscar modelos o pautas en los gráficos residuales frente al número de caso (incluso con cada variable independiente). Herramientas disponibles en SPSS: Gráficos residuales y el estadístico de Durbin-Watson -100 0 100 200 300 400 500 Número de orden de las observaciones Standardized Residual 4 3 2 1 0 -1 -2 -3 Error típ. de la estimación Durbin-W atson 1,970 1,228 Variables predictoras: (Constante), Aceleración 0 a 100 km/h (segundos), H0: No hay autocorrelación •Si d1.18 rechazar, •Si d1.4 no rechazar. •Si 1.18d1.4 no es concluyente Posibles soluciones: - Transformaciones - Añadir variables
  • 24. 1.3. Homocedasticidad Hace referencia a la constancia de los residuos para los valores que van tomando las variables independientes. Herramientas disponibles en SPSS: Gráficos residuales 1000 2000 3000 4000 5000 6000 7000 8000 Cilindrada en cc Standardized Residual 4 3 2 1 0 -1 -2 -3 0 100 200 300 Potencia (CV) Standardized Residual 4 3 2 1 0 -1 -2 -3 400 600 800 1000 1200 1400 1600 1800 Peso total (kg) Standardized Residual 4 3 2 1 0 -1 -2 -3 0 10 20 30 Aceleración 0 a 100 km/h (segundos) Standardized Residual 4 3 2 1 0 -1 -2 -3 -2 -1 0 1 2 3 Regresión Valor pronosticado tipificado Consumo (l/100Km) 30 20 10 0
  • 25. 1.4. Falta de linealidad Hace referencia a las posibles desviaciones de los datos desde el modelo lineal que se está ajustando. Herramientas disponibles en SPSS: Gráficos de regresión parcial y gráficos residuales Gráfico de regresión parcial Variable dependiente: Consumo (l/100Km) -2000 -1000 0 1000 2000 3000 Cilindrada en cc Consumo (l/100Km) 30 20 10 0 -10 Gráfico de regresión parcial Variable dependiente: Consumo (l/100Km) -40 -20 0 20 40 60 80 Potencia (CV) Consumo (l/100Km) 30 20 10 0 -10 Gráfico de regresión parcial Variable dependiente: Consumo (l/100Km) -800 -600 -400 -200 0 200 400 Peso total (kg) Consumo (l/100Km) 20 10 0 -10 Gráfico de regresión parcial Variable dependiente: Consumo (l/100Km) -6 -4 -2 0 2 4 6 8 Aceleración 0 a 100 km/h (segundos) Consumo (l/100Km) 30 20 10 0 -10 Son diagramas de dispersión de los residuos de cada v. independiente y los residuos de la v. dependiente cuando se regresan ambas por separado sobre las restantes v. independientes.
  • 26. 1.5. No multicolinealidad Colinealidad es la asociación, medida como correlación, entre dos variables explicativas (el término multicolinealidad se utiliza para tres o más variables explicativas). Impacto de la multicolinealidad Reducción del poder explicativo de cualquier v. explicativa individual en la medida en que está correlada con las otras v. explicativas presentes en el modelo. Herramientas disponibles en SPSS: Índices de condicionamiento, FIV Diagnósticos de colinealidada 4,729 1,000 ,00 ,00 ,00 ,00 ,00 ,238 4,454 ,00 ,03 ,00 ,00 ,02 2,268E-02 14,440 ,03 ,22 ,29 ,01 ,06 6,265E-03 27,474 ,20 ,75 ,02 ,70 ,00 3,612E-03 36,185 ,76 ,01 ,69 ,29 ,92 Dimensión 1 2 3 4 5 Modelo 1 Autovalor Indice de condición (Constante) Cilindrada en cc Potencia (CV) Peso total (kg) Aceleración 0 a 100 km/h (segundos) Proporciones de la varianza Variable dependiente: a. Consumo (l/100Km) Posibles soluciones: 1. Identificar los índices que estén por encima del umbral: 30 2. Para los índices identificados, identificar las variables con proporciones de varianza por encima del 90%: Habrá multicolinealidad si ocurre con dos o más coeficientes. - ACP y utilizar las componentes principales como regresores. - A la vista de las correlaciones eliminar variables “redundantes”.
  • 27. Datos anómalos Medidas de influencia Objetivo: Detectar datos anómalos y datos influyentes Datos anómalos (atípicos) Individuos cuyo residuos tipificado es superior a 3 (en valor absoluto) Datos influyentes Individuos cuya omisión produce cambios notables en los resultados del análisis Herramientas estadísticas (medidas de influencia) • Identificación de puntos de apalancamiento (observaciones aisladas del resto sobre una o más v.independientes) • Observaciones influyentes: influencias sobre coeficientes individuales, medidas globales de influencia.
  • 28. Medidas para identificar puntos de apalancamiento: Leverage o medida de influencia: Límite: 2(k+1) / n (Si n50, 3(k+1) / n) Distancia de Mahalanobis: Considera la distancia de cada observación desde los valores medios de las v.independientes. Existen tablas para contrastar, pero en general se procede a identificar valores considerablemente altos respecto al resto. Medidas para identificar observaciones influyentes: • Influencias sobre coeficientes individuales: DFBETA Mide el efecto del dato i-ésimo ejerce sobre j. Límites para la versión estandarizada: ± 2 n - 1 / 2 (si n50 usar los límites de la normal) • Medidas globales de influencia: DFITTS Mide el efecto del dato i-ésimo ejerce en su propia predicción. Límites para la versión estandarizada: ± 2 [ (k+2) / (n-k-2) ]1 / 2 COVRATIO Representa el grado al que una observación tiene impacto sobe los errores estándar de los coeficientes. Límites: 1 ± 3(k+1) / n Distancia de Cook: Localizar valores que exceden a 4 / (n-k-1)
  • 29. Detección de residuos atípicos: Los valores tipificados deben estar entre -3 y 3 Diagnósticos por casoa 10,176 26 5,95 20,05 Número de caso 35 Residuo tip. Consumo (l/100Km) Valor pronosticado Residuo bruto Variable dependiente: a. Consumo (l/100Km) Detección de puntos influyentes: Dist. De Mahalanobis, Cook, valor de influencia Estadísticos sobre los residuosa 5,95 21,05 11,27 3,440 392 -1,545 2,843 ,000 1,000 392 ,107 ,831 ,210 ,075 392 4,57 21,08 11,26 3,447 392 -5,16 20,05 ,00 1,960 392 -2,618 10,176 ,000 ,995 392 -2,641 10,520 ,001 1,011 392 -5,25 21,43 ,00 2,024 392 -2,661 12,433 ,006 1,067 392 ,166 68,628 3,990 4,866 392 ,000 1,520 ,007 ,077 392 ,000 ,176 ,010 ,012 392 SPSS Valor pronosticado Valor pronosticado tip. Error típico del valor pronosticado Valor pronosticado corregido Residuo bruto Residuo tip. Residuo estud. Residuo eliminado Residuo eliminado estud. Dist. de Mahalanobis Distancia de Cook Valor de influencia centrado Mínimo Máximo Media Desviación típ. N a. Variable dependiente: Consumo (l/100Km) El rango de valores para la distancia de Mahalanobis es elevado Hay valores de la distancia de Cook superiores a 4 / (n-k-1) = 0.010 Medida de influencia. Límite (k=4): 0.038 Posible solución: Eliminar observaciones
  • 30. Selección de un subconjunto óptimo de variables independientes Objetivo: Seleccionar aquellas variables que sin ser redundantes proporcionen la mejor explicación de la v. dependiente. Métodos secuenciales en SPSS: Hacia atrás, Hacia delante, Pasos sucesivos En términos muy muy generales… …Evalúan estadísticos F que controlan la entrada y salida de variables, además de las correlaciones parciales de la v. dependiente con cada regresor.
  • 31. Método forward (hacia delante) Inicialmente no hay regresores, se van introduciendo uno a uno aquellos que tienen alta correlación parcial con la v. dependiente y que son significativos (valor F-entrar). Variables introducidas/eliminadasa Peso total (kg) , Hacia adelante (criterio: Prob. de F para entrar = ,050) Potencia (CV) , Hacia adelante (criterio: Prob. de F para entrar = ,050) Modelo 1 2 Variables introducidas Variables eliminadas Método Variable dependiente: a. Consumo (l/100Km) Resumen del modelo ,837a ,700 ,699 2,172 ,700 909,085 1 390 ,000 ,868b ,753 ,752 1,972 ,053 84,214 1 389 ,000 Modelo 1 2 R R cuadrado R cuadrado corregida Error típ. de la estimación Cambio en R cuadrado Cambio en F gl1 gl2 Sig. del cambio en F Estadísticos de cambio a. Variables predictoras: (Constante), Peso total (kg) b. Variables predictoras: (Constante), Peso total (kg), Potencia (CV)
  • 32. Método backward (hacia atrás) Inicialmente se incluyen todos las v. independientes, se van eliminando una a una las que van resultando significativas (valor F-salir). Variables introducidas/eliminadasb Aceleración 0 a 100 km/h (segundos), Peso total (kg), Potencia (CV), Cilindrada en cc a , Introducir , Aceleración 0 a 100 km/h (segundos) Hacia atrás (criterio: Prob. de F para eliminar = ,100). , Cilindrada en cc Hacia atrás (criterio: Prob. de F para eliminar = ,100). Modelo 1 2 3 Variables introducidas Variables eliminadas Método Todas las variables solicitadas a. introducidas b. Variable dependiente: Consumo (l/100Km) Resumen del modelo ,869a ,755 ,752 1,970 ,755 297,956 4 387 ,000 ,869b ,755 ,753 1,968 ,000 ,180 1 389 ,672 ,868c ,753 ,752 1,972 -,002 2,456 1 390 ,118 Modelo 1 2 3 R R cuadrado R cuadrado corregida Error típ. de la estimación Cambio en R cuadrado Cambio en F gl1 gl2 Sig. del cambio en F Estadísticos de cambio a. Variables predictoras: (Constante), Aceleración 0 a 100 km/h (segundos), Peso total (kg), Potencia (CV), Cilindrada en cc b. Variables predictoras: (Constante), Peso total (kg), Potencia (CV), Cilindrada en cc c. Variables predictoras: (Constante), Peso total (kg), Potencia (CV)
  • 33. Método Stepwise (pasos sucesivos) Combina los dos métodos anteriores definiendo un procedimiento en el que las variables independientes entran o salen del modelo dependiendo de su significación (valores F-entrar y F-salir). Variables introducidas/eliminadasa Peso total (kg) , Por pasos (criterio: Prob. de F para entrar = ,050, Prob. de F para salir = ,100). Potencia (CV) , Por pasos (criterio: Prob. de F para entrar = ,050, Prob. de F para salir = ,100). Modelo 1 2 Variables introducidas Variables eliminadas Método Variable dependiente: a. Consumo (l/100Km) Resumen del modelo ,837a ,700 ,699 2,172 ,700 909,085 1 390 ,000 ,868b ,753 ,752 1,972 ,053 84,214 1 389 ,000 Modelo 1 2 R R cuadrado R cuadrado corregida Error típ. de la estimación Cambio en R cuadrado Cambio en F gl1 gl2 Sig. del cambio en F Estadísticos de cambio a. Variables predictoras: (Constante), Peso total (kg) b. Variables predictoras: (Constante), Peso total (kg), Potencia (CV)
  • 34. Resumen Pasos a seguir en un análisis de regresión Paso 1. Objetivos del análisis Paso 2.Diseño de la investigación mediante regresión múltiple Paso 3.Supuestos del análisis Paso 4. Estimación del modelo de regresión y valoración global del ajuste Paso 5. Interpretación y validación de los resultados.