Este documento describe la relación lineal entre dos variables cuantitativas. Explica que una relación lineal puede ser positiva, lo que significa que las variables aumentan juntas, o negativa, lo que significa que una variable aumenta mientras la otra disminuye. También cubre cómo calcular el coeficiente de correlación para medir la fuerza de la relación y cómo obtener la ecuación de regresión lineal para predecir los valores de una variable en función de la otra.
Medidas de Tendencia Central, Posición y Dispersiónreynier valor
Medidas de Tendencia Central, Posición y Dispersión, Reynieri Valor, C.I: 25.344.142 I.U.P Santiago Mariño Barcelona, Anzoategui. Asignatura: Estadistica-Saia. 10/09/2018 Profesora Amelia Vasquez.
Medidas de Tendencia Central, Posición y Dispersiónreynier valor
Medidas de Tendencia Central, Posición y Dispersión, Reynieri Valor, C.I: 25.344.142 I.U.P Santiago Mariño Barcelona, Anzoategui. Asignatura: Estadistica-Saia. 10/09/2018 Profesora Amelia Vasquez.
Variables aleatorias discretas y continuasScarlet Íglez
Una variable aleatoria es una variable estadística cuyos valores se obtienen de mediciones en algún tipo de experimento aleatorio. Formalmente, una variable aleatoria es una función, que asigna eventos. Por ejemplo, lanzar un dado o una moneda.
Percentiles para datos sin agrupar y Percentiles para datos agrupadosRodrigo Palomino
Teoría básica para el cálculo de los percentiles para datos sin agrupar y agrupados, ejemplos de cálculo de percentiles e interpretación de los percentiles
Variables aleatorias discretas y continuasScarlet Íglez
Una variable aleatoria es una variable estadística cuyos valores se obtienen de mediciones en algún tipo de experimento aleatorio. Formalmente, una variable aleatoria es una función, que asigna eventos. Por ejemplo, lanzar un dado o una moneda.
Percentiles para datos sin agrupar y Percentiles para datos agrupadosRodrigo Palomino
Teoría básica para el cálculo de los percentiles para datos sin agrupar y agrupados, ejemplos de cálculo de percentiles e interpretación de los percentiles
Espectrofotometría, Absorbancia, Transmitancia, Ley de Beer, Longitud de Onda, Celdas, Monocromador, Concentración, Curva de calibración, Química Analítica
1. Tipos de regresiones: Simple o lineal y múltiple
Regresión Lineal simple
La regresión lineal simple examina la relación lineal entre dos variables continuas: una respuesta (Y) y un predictor (X). Cuando las dos variables están relacionadas, es posible predecir un valor de respuesta a partir de un valor predictor con una exactitud mayor que la asociada únicamente a las probabilidades. (Limeres, 2012)
La regresión proporciona la línea que "mejor" se ajusta a los datos. Esta línea se puede utilizar después para:
Examinar cómo cambia la variable de respuesta a medida que cambia la variable predictora.
Predecir el valor de una variable de respuesta (Y) para cualquier variable predictora (X).
El modelo de regresión lineal simple supone que,
Donde:
• yi representa el valor de la variable respuesta para la observación i-´esima.
• xi representa el valor de la variable explicativa para la observación i-´esima.
• ui representa el error para la observación i-´esima que se asume normal,
Donde
β0 y β1 son los coeficientes de regresión:
• β0: intercepto
• β1: pendiente
Los parámetros que hay que estimar son: β0, β1 y σ.
REGRESION LINEAL MULTIPLE
La regresión lineal múltiple permite generar un modelo lineal en el que el valor de la variable dependiente o respuesta (Y) se determina a partir de un conjunto de variables independientes llamadas predictores (X1, X2, X3…). Es una extensión de la regresión lineal simple, por lo que es fundamental comprender esta última. Los modelos de regresión múltiple pueden emplearse para predecir el valor de la variable dependiente o para evaluar la influencia que tienen los predictores sobre ella (esto último se debe que analizar con cautela para no malinterpretar causa-efecto).
Los modelos lineales múltiples siguen la siguiente ecuación:
β0: es la ordenada en el origen, el valor de la variable dependiente Y cuando todos los predictores son cero.
βi: es el efecto promedio que tiene el incremento en una unidad de la variable predictora Xi sobre la variable dependiente Y, manteniéndose constantes el resto de variables. Se conocen como coeficientes parciales de regresión.
ei: es el residuo o error, la diferencia entre el valor observado y el estimado por el modelo.
Es importante tener en cuenta que la magnitud de cada coeficiente parcial de regresión depende de las unidades en las que se mida la variable predictora a la que corresponde, por lo que su magnitud no está asociada con la importancia de cada predictor. Para poder determinar qué impacto tienen en el modelo cada una de las variables, se emplean los coeficientes parciales estandarizados, que se obtienen al estandarizar (sustraer la media y dividir entre la desviación estándar) las variables predictoras previo ajuste del modelo. (Rodrigo, 2016)
COEFICIENTE DE CORRELACION DE PEARSON Y SPEARMANElena Vargas
Como determinar el uso de los coeficientes de correlacion de Pearson y de Sperman Ventajas y Desventajas
Enfoque pearson y spearman a problemas estadisticos
Presentación de la tesis del doctoral: "Pensamiento bioestadístico complejo de los sistemas de salud". Autor: Joan Fernando Chipia Lobo. Tutor: David Castillo Trujillo. Doctorado en Ciencias Organizacionales, GILOG, FACES-ULA.
DISEÑO, VALIDACIÓN Y EVALUACIÓN DE UN PROGRAMA EDUCATIVO SOBRE BEBIDAS ALCOHÓ...Joan Fernando Chipia Lobo
Diseño, validación y evaluación de un programa educativo sobre bebidas alcohólicas, tabaco y marihuana. Revista MedULA, Volumen 26, Número 2, pp. 15-21
Instrumento sobre las actitudes de los adolescentes hacia los medios N.0 y su...Joan Fernando Chipia Lobo
Instrumento sobre las actitudes de los adolescentes hacia los medios N.0 (Redes sociales, celular, vídeojuegos) y su influencia en los estilos de vida (hábitos de alimentación, actividad física)
Today is Pentecost. Who is it that is here in front of you? (Wang Omma.) Jesus Christ and the substantial Holy Spirit, the only Begotten Daughter, Wang Omma, are both here. I am here because of Jesus's hope. Having no recourse but to go to the cross, he promised to return. Christianity began with the apostles, with their resurrection through the Holy Spirit at Pentecost.
Hoy es Pentecostés. ¿Quién es el que está aquí frente a vosotros? (Wang Omma.) Jesucristo y el Espíritu Santo sustancial, la única Hija Unigénita, Wang Omma, están ambos aquí. Estoy aquí por la esperanza de Jesús. No teniendo más remedio que ir a la cruz, prometió regresar. El cristianismo comenzó con los apóstoles, con su resurrección por medio del Espíritu Santo en Pentecostés.
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
Análisis de correlación y regresión lineal simple
1. RELACIÓN LINEAL ENTRE
DOS VARIABLES
CUANTITATIVAS
Prof. Joan Fernando Chipia Lobo
Universidad de Los Andes
Facultad de Medicina
Escuela de Nutrición
3. • El peso de un adolescente, con su estatura.
• Los gastos, con el ingreso disponible en un
mes.
• Estatura de los niños, con su edad.
• Demanda de algún artículo, con los gastos de
propaganda
• Cantidad de cigarrillo al día y la frecuencia
cardiaca.
POSIBLES RELACIONES ENTRE
VARIABLES
4. Para comenzar a estudiar la relación entre
dos variables cuantitativas se utiliza el
diagrama de dispersión, el cual es una
gráfica de parejas de valores de las
variables involucradas.
DIAGRAMA DE DISPERSIÓN
5. Una relación lineal entre dos variables es
aquella que puede representarse con mejor
exactitud mediante una línea recta.
No toda relación entre dos variables es lineal.
Algunas se representan con mejor exactitud
usando una curva. En este caso, se dice que
la relación entre las variables es curvilínea.
RELACIÓN LINEAL ENTRE
DOS VARIABLES
8. Una relación positiva entre las variables X y Y
indica que existe una relación directa entre ellas,
es decir, los valores menores de X están asociados
con los valores menores de Y y los valores
mayores de X están asociados con los valores
mayores de Y.
Existe una relación positiva entre las variables X y
Y si al aumentar los valores de X los valores de Y
tienden a aumentar.
RELACIÓN LINEAL POSITIVA
9. Una relación lineal positiva está
representada gráficamente por una línea
recta de pendiente positiva.
X
14121086420
Y
30
20
10
0
10. Una relación negativa entre las variables X y Y
indica que existe una relación inversa entre
ellas, es decir, los valores menores de X están
asociados con los valores mayores de Y y los
valores mayores de X están asociados con los
valores menores de Y.
Si existe una relación negativa entre las
variables X y Y, entonces al aumentar los
valores de X los valores de Y tienden a
disminuir y viceversa.
RELACIÓN LINEAL NEGATIVA
11. Una relación lineal negativa queda
representada gráficamente por una línea
recta de pendiente negativa.
X
14121086420
Z
0
-10
-20
-30
12. Una relación lineal perfecta es aquella en la que existe
una relación positiva o negativa para la cual todos los
puntos caen sobre una recta.
X
14121086420
Y
30
20
10
0
X
14121086420W
60
50
40
30
20
10
0
13. Una relación lineal imperfecta es aquella en la cual
existe una relación positiva o negativa, pero no todos los
puntos caen sobre la recta.
X
14121086420
U 14
12
10
8
6
4
2
0
15. Si entre dos variables cuantitativas existe una
relación lineal, el análisis de correlación
lineal simple se usa para determinar la
dirección y la magnitud de dicha relación.
La dirección de la relación se refiere a si ésta
es positiva o negativa.
La magnitud de la relación o grado de relación
entre las variables se refiere a la fuerza de la
relación que existe entre las variables. Se trata
de expresar cuantitativamente el grado de
relación que existe entre las variables en
estudio.
16. Coeficiente de Correlación: expresa de manera
cuantitativa el grado y la dirección de la relación
entre dos variables.
•Coeficiente de correlación r de Pearson (rxy). Se
usa cuando los datos están medidos en una escala de
intervalo o de razón.
•Coeficiente de correlación rho de Spearman (rs).
Se utiliza cuando una o ambas variables están
medidas en la escala ordinal, en la escala de intervalo
o la de razón.
17. CARACTERÍSTICAS DEL COEFICIENTE DE
CORRELACIÓN
El signo del coeficiente indica si la relación entre las
variables es positiva o negativa: si el coeficiente es
positivo, entonces la relación es positiva. En caso contrario,
la relación es negativa.
El valor numérico del coeficiente de correlación varía
entre –1 y +1 y éste describe la magnitud de la relación
entre las variables.
Si r = -1 entonces existe una relación lineal perfecta
negativa entre las variables.
Si r = 0 entonces no existe relación entre las variables.
Si r = +1 entonces existe una relación lineal perfecta
positiva entre las variables.
18. Las relaciones imperfectas, positivas o
negativas, tienen coeficientes de correlación
que varían entre –1 y +1. Relaciones:
Si r = 0 Nula
Si r > 0 y r < ± 0,10 Casi Nula
Si r >= ± 0,10 y r < ± 0,20 Muy baja
Si r >= ± 0,20 y r < ± 0,40 Baja
Si r >= ± 0,40 y r < ± 0,60 Media
Si r >= ± 0,60 y r < ± 0,80 Alta
Si r >= ± 0,80 y r < ± 1,00 Muy alta
Si r = ± 1 Perfecta
19. ¿Cómo calcular el coeficiente de correlación
lineal usando el SPSS?
Analizar Correlaciones Bivariadas.
• En el cuadro de diálogo “Correlaciones
Bivariadas”:
Seleccionar las variables a correlacionar.
Seleccionar el coeficiente de correlación a
calcular.
Hacer clic en el botón “ Aceptar “
20. Al calcular el coeficiente de correlación deben tomarse en
cuenta dos aspectos: la forma de la relación y la escala de
medición.
La forma de la relación: para interpretar correctamente el
valor del coeficiente de correlación de Pearson o de
Spearman es necesario que la relación entre las variables
sea lineal. Por ello, previo al cálculo de un coeficiente de
correlación lineal, es necesario elaborar un diagrama de
dispersión para determinar si existe o no una relación
lineal entre las variables.
La escala de medición: si las variables están medidas en
la escala de intervalo o razón se calcula de r de Pearson.
Si una o ambas variables están medidas como mínimo en
la escala ordinal se puede calcular el coeficiente de
correlación de Spearman.
22. ANÁLISIS DE REGRESIÓN LINEAL SIMPLE
El análisis de regresión lineal simple tiene por
objetivos (1) describir la relación lineal
existente entre dos variables cuantitativas
mediante la ecuación de la recta que mejor se
ajusta a los datos y (2) usar esta ecuación
para realizar una predicción de los valores de
una variable usando la información aportada
por la otra.
23. En el análisis de regresión lineal es simple cuando
intervienen sólo dos variables:
Una de ellas es llamada variable independiente y es
denotada por la letra X. La otra variable es llamada
variable dependiente, denotada por la letra Y.
Los valores de la variable dependiente son los que
deseamos predecir, usando para ello la información
aportada por la variable independiente ( X ).
Si en el análisis de regresión intervienen más de dos
variables (una dependiente y las demás independientes),
éste es llamado análisis de regresión lineal múltiple.
24. En el caso de una relación lineal, el objetivo es obtener la
ecuación de la recta que mejor se ajuste a los datos (que
mejor represente la relación entre las variables). Esta
ecuación es llamada ecuación de regresión lineal simple.
ii XBAY `
:simplelinealregresióndeEcuación
Donde: Yi’ : es el valor estimado de Y para el valor de Xi.
A : es llamada la constante de regresión lineal.
B : es llamado el coeficiente de regresión lineal.
25. ¿Cómo obtener la recta de regresión de Y sobre X
usando el SPSS?
Analizar Regresión Lineal...
En el cuadro de diálogo “ Regresión lineal ” :
Seleccionar la variable dependiente y la variable
independiente, recordando que la variable
dependiente es aquella cuyos valores deseamos
predecir.
Hacer clic en el botón “ Aceptar “.
26. Para construir la ecuación de la recta de regresión lineal
simple sólo es necesario observar los valores mostrados en
el cuadro “Coeficientes”
47,482 1,597 29,724 ,000
,306 ,022 ,840 14,013 ,000
(Constante)
Mujeres
alfabetizadas
(%)
Modelo
1
B Error típ.
Coeficientes no
estandarizados
Beta
Coeficient
es
estandari
zados
t Sig.
Coeficientesa
Variable dependiente: Esperanzade vida femeninaa.
Constante
de regresión
Coeficiente
de regresión
27. Interpretación del coeficiente de regresión lineal.
Si B > 0 entonces la relación lineal es positiva y el valor
absoluto de B representa el número de unidades que tiende
a aumentar la variable Y por cada unidad que aumenta la
variable X.
• Si B < 0 entonces la relación lineal es negativa y el valor
absoluto de B representa el número de unidades que tiende
a disminuir la variable Y por cada unidad que aumenta la
variable X.
• Si B = 0 entonces la ecuación de regresión lineal no es el
modelo más adecuado para describir la relación entre las
variables involucradas. En este caso, la media aritmética es
la mejor predicción de la variable dependiente para cualquier
valor de la variable independiente.
28. Interpretación de la constante de regresión
lineal
La constante de regresión indica el valor
correspondiente a la variable dependiente
cuando la variable independiente asume un
valor igual a cero.
Se debe tener cuidado al interpretar la constante
de regresión de la ecuación pues en ocasiones
ésta no tiene sentido.
29. Consideraciones al utilizar la regresión lineal para la
predicción:
•Linealidad: Para usar de una manera eficiente el análisis
de regresión con la finalidad de predecir, se exige que la
relación entre las variables sea lineal.
•Si se va a utilizar los datos de un grupo de sujetos para
hacer predicciones sobre otro grupo de sujetos, es
importante que el grupo de cálculo básico sea
representativo del grupo de predicción.
•La ecuación de la recta de predicción se utiliza de manera
adecuada, sólo para el rango de la variable en la cual se
basa.