La regresión lineal analiza la relación entre una variable dependiente y una o más variables independientes. Existen dos tipos principales: la regresión lineal simple, que usa una variable independiente, y la regresión lineal múltiple, que usa múltiples variables independientes. Para crear un modelo de regresión, los errores deben cumplir con ciertos supuestos como tener una media de cero y varianza constante.
Pruebas de Hipótesis para dos medias y proporciones.estadisticaYanina C.J
Sea X1,…. Xn una m.a. tomada de una población N(1,21) y Sea Y1,…. Yn una m.a. tomada de una población N(2,22), donde 21 y 22 son conocidos . Existen tres tipos de contrastes:
Distribución de probabilidad continua o distribución Normal, cálculo de la puntuación Z y determinación del valor de probabilidad según la tabla de distribución Z.
Pruebas de Hipótesis para dos medias y proporciones.estadisticaYanina C.J
Sea X1,…. Xn una m.a. tomada de una población N(1,21) y Sea Y1,…. Yn una m.a. tomada de una población N(2,22), donde 21 y 22 son conocidos . Existen tres tipos de contrastes:
Distribución de probabilidad continua o distribución Normal, cálculo de la puntuación Z y determinación del valor de probabilidad según la tabla de distribución Z.
Es un índice estadístico que mide la relación lineal entre dos variables cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
Prueba de hipótesis para distribuciones normal, y t student. Presentación dis...JAVIER SOLIS NOYOLA
El Mtro. Javier Solis Noyola diseña y desarrolla presentación sobre tema PRUEBA DE HIPÓTESIS para distribuciones de probabilidad (Normal, y t de Student)
1. Tipos de regresiones: Simple o lineal y múltiple
Regresión Lineal simple
La regresión lineal simple examina la relación lineal entre dos variables continuas: una respuesta (Y) y un predictor (X). Cuando las dos variables están relacionadas, es posible predecir un valor de respuesta a partir de un valor predictor con una exactitud mayor que la asociada únicamente a las probabilidades. (Limeres, 2012)
La regresión proporciona la línea que "mejor" se ajusta a los datos. Esta línea se puede utilizar después para:
Examinar cómo cambia la variable de respuesta a medida que cambia la variable predictora.
Predecir el valor de una variable de respuesta (Y) para cualquier variable predictora (X).
El modelo de regresión lineal simple supone que,
Donde:
• yi representa el valor de la variable respuesta para la observación i-´esima.
• xi representa el valor de la variable explicativa para la observación i-´esima.
• ui representa el error para la observación i-´esima que se asume normal,
Donde
β0 y β1 son los coeficientes de regresión:
• β0: intercepto
• β1: pendiente
Los parámetros que hay que estimar son: β0, β1 y σ.
REGRESION LINEAL MULTIPLE
La regresión lineal múltiple permite generar un modelo lineal en el que el valor de la variable dependiente o respuesta (Y) se determina a partir de un conjunto de variables independientes llamadas predictores (X1, X2, X3…). Es una extensión de la regresión lineal simple, por lo que es fundamental comprender esta última. Los modelos de regresión múltiple pueden emplearse para predecir el valor de la variable dependiente o para evaluar la influencia que tienen los predictores sobre ella (esto último se debe que analizar con cautela para no malinterpretar causa-efecto).
Los modelos lineales múltiples siguen la siguiente ecuación:
β0: es la ordenada en el origen, el valor de la variable dependiente Y cuando todos los predictores son cero.
βi: es el efecto promedio que tiene el incremento en una unidad de la variable predictora Xi sobre la variable dependiente Y, manteniéndose constantes el resto de variables. Se conocen como coeficientes parciales de regresión.
ei: es el residuo o error, la diferencia entre el valor observado y el estimado por el modelo.
Es importante tener en cuenta que la magnitud de cada coeficiente parcial de regresión depende de las unidades en las que se mida la variable predictora a la que corresponde, por lo que su magnitud no está asociada con la importancia de cada predictor. Para poder determinar qué impacto tienen en el modelo cada una de las variables, se emplean los coeficientes parciales estandarizados, que se obtienen al estandarizar (sustraer la media y dividir entre la desviación estándar) las variables predictoras previo ajuste del modelo. (Rodrigo, 2016)
Es un índice estadístico que mide la relación lineal entre dos variables cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
Prueba de hipótesis para distribuciones normal, y t student. Presentación dis...JAVIER SOLIS NOYOLA
El Mtro. Javier Solis Noyola diseña y desarrolla presentación sobre tema PRUEBA DE HIPÓTESIS para distribuciones de probabilidad (Normal, y t de Student)
1. Tipos de regresiones: Simple o lineal y múltiple
Regresión Lineal simple
La regresión lineal simple examina la relación lineal entre dos variables continuas: una respuesta (Y) y un predictor (X). Cuando las dos variables están relacionadas, es posible predecir un valor de respuesta a partir de un valor predictor con una exactitud mayor que la asociada únicamente a las probabilidades. (Limeres, 2012)
La regresión proporciona la línea que "mejor" se ajusta a los datos. Esta línea se puede utilizar después para:
Examinar cómo cambia la variable de respuesta a medida que cambia la variable predictora.
Predecir el valor de una variable de respuesta (Y) para cualquier variable predictora (X).
El modelo de regresión lineal simple supone que,
Donde:
• yi representa el valor de la variable respuesta para la observación i-´esima.
• xi representa el valor de la variable explicativa para la observación i-´esima.
• ui representa el error para la observación i-´esima que se asume normal,
Donde
β0 y β1 son los coeficientes de regresión:
• β0: intercepto
• β1: pendiente
Los parámetros que hay que estimar son: β0, β1 y σ.
REGRESION LINEAL MULTIPLE
La regresión lineal múltiple permite generar un modelo lineal en el que el valor de la variable dependiente o respuesta (Y) se determina a partir de un conjunto de variables independientes llamadas predictores (X1, X2, X3…). Es una extensión de la regresión lineal simple, por lo que es fundamental comprender esta última. Los modelos de regresión múltiple pueden emplearse para predecir el valor de la variable dependiente o para evaluar la influencia que tienen los predictores sobre ella (esto último se debe que analizar con cautela para no malinterpretar causa-efecto).
Los modelos lineales múltiples siguen la siguiente ecuación:
β0: es la ordenada en el origen, el valor de la variable dependiente Y cuando todos los predictores son cero.
βi: es el efecto promedio que tiene el incremento en una unidad de la variable predictora Xi sobre la variable dependiente Y, manteniéndose constantes el resto de variables. Se conocen como coeficientes parciales de regresión.
ei: es el residuo o error, la diferencia entre el valor observado y el estimado por el modelo.
Es importante tener en cuenta que la magnitud de cada coeficiente parcial de regresión depende de las unidades en las que se mida la variable predictora a la que corresponde, por lo que su magnitud no está asociada con la importancia de cada predictor. Para poder determinar qué impacto tienen en el modelo cada una de las variables, se emplean los coeficientes parciales estandarizados, que se obtienen al estandarizar (sustraer la media y dividir entre la desviación estándar) las variables predictoras previo ajuste del modelo. (Rodrigo, 2016)
Una señal analógica es una señal generada por algún tipo de fenómeno electromagnético; que es representable por una función matemática continua en la que es variable su amplitud y periodo en función del tiempo.
Ciclo de Otto. Máquinas térmicas para el estudio de la termodinámica química
Regresion lineal
1.
2. DEFINICION: Podemos definir a una
regresión lineal, como la relación de dos
variables en un sistema de coordenadas
cartesianas, y que esta relación viene
dada de una formula matemática que
define la recta real en un plano. Siendo
esta la formula de la línea recta.
Y = x-x1B
Siendo B la pendiente de esta formula
matemática.
3. Definiciones:
1. Esperanza matemática nula.
Para cada valor de X la perturbación tomará distintos valores de forma aleatoria, pero no tomará
sistemáticamente valores positivos o negativos, sino que se supone tomará algunos valores mayores que
cero y otros menores que cero, de tal forma que su valor esperado sea cero.
2. Homocedasticidad
Todos los términos de la perturbación tienen la misma varianza que es desconocida. La dispersión de
cada en torno a su valor esperado es siempre la misma.
3. Incorrelación.
para todo t,s con t distinto de s
Las covarianzas entre las distintas pertubaciones son nulas, lo que quiere decir que no están
correlacionadas auto correlacionadas. Esto implica que el valor de la perturbación para cualquier
observación maestral no viene influenciado por los valores de las perturbaciones correspondientes a otras
observaciones maestrales.
4. Regreso res no estocásticos.
5. No existen relaciones lineales exactas entre los regreso res.
6. Suponemos que no existen errores de especificación en el modelo, ni errores de medida en las
variables explicativas
7. Normalidad de las perturbaciones
4. Para poder crear un modelo de regresión lineal es
necesario que se cumpla con los siguientes
supuestos:
Que la relación entre las variables sea lineal.
Que los errores en la medición de las variables
explicativas sean independientes entre sí.
Que los errores tengan varianza constante.
(Homocedasticidad)
Que los errores tengan una esperanza matemática
igual a cero (los errores de una misma magnitud y
distinto signo son equiprobables).
Que el error total sea la suma de todos los errores.
5. Tipos de modelos de regresión lineal
Existen diferentes tipos de regresión lineal
que se clasifican de acuerdo a sus
parámetros:
Regresión lineal simple
Regresión Lineal Múltiple
6. Regresión lineal simple
Sólo se maneja una variable independiente, por lo que sólo
cuenta con dos parámetros. Son de la forma:
donde es el error asociado a la medición del valor y siguen los
supuestos de modo que (media cero, varianza constante e
igual ).
Análisis
Dado el modelo de regresión simple, si se calcula
la esperanza (valor esperado) del valor Y, se obtiene:
Derivando respecto a y e igualando a cero, se obtiene:
Obteniendo dos ecuaciones denominadas ecuaciones
normales que generan la siguiente solución para ambos
parámetros
La interpretación del parámetro es que un incremento en Xi de
una unidad.
7. Regresión lineal múltiple
La regresión lineal permite trabajar con una variable a nivel de intervalo o razón. De la misma
manera, es posible analizar la relación entre dos o más variables a través de ecuaciones, lo que se
denomina regresión múltiple o regresión lineal múltiple.
Constantemente en la práctica de la investigación estadística, se encuentran variables que de
alguna manera están relacionadas entre sí, por lo que es posible que una de las variables puedan
relacionarse matemáticamente en función de otra u otras variables.
Maneja varias variables independientes. Cuenta con varios parámetros. Se expresan de la forma:
donde es el error asociado a la medición del valor y siguen los supuestos de modo que (media
cero, varianza constante.)
Rectas de regresión.
Las rectas de regresión son las rectas que mejor se ajustan a la nube de puntos (o también
llamado diagrama de dispersión) generada por una distribución binomial. Matemáticamente, son
posibles dos rectas de máximo ajuste:
La recta de regresión de Y sobre X:
La recta de regresión de X sobre Y:
La correlación ("r") de las rectas determinará la calidad del ajuste. Si r es cercano o igual a 1, el ajuste
será bueno y las predicciones realizadas a partir del modelo obtenido serán muy fiables (el modelo
obtenido resulta verdaderamente representativo); si r es cercano o igual a 0, se tratará de un ajuste
malo en el que las predicciones que se realicen a partir del modelo obtenido no serán fiables (el
modelo obtenido no resulta representativo de la realidad). Ambas rectas de regresión se intersecan
en un punto llamado centro de gravedad de la distribución.