Publicidad

Regresión lineal multiple autores grillet montaño rodríguez

thomas669
12 de May de 2015
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Publicidad
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Publicidad
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Publicidad
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Publicidad
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Publicidad
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Regresión lineal multiple  autores grillet montaño rodríguez
Próximo SlideShare
Solucionario libro: Probabilidad y estadística para ingenieros 6 ed - walpoleSolucionario libro: Probabilidad y estadística para ingenieros 6 ed - walpole
Cargando en ... 3
1 de 28
Publicidad

Más contenido relacionado

Publicidad
Publicidad

Regresión lineal multiple autores grillet montaño rodríguez

  1. Universidad Nacional Experimental de Guayana Vicerrectorado Académico Proyecto de carrera Ingeniería en industrias Forestales REGRESION LINEAL MULTIPLE Y CUADRATICA APLICADA A LA INGENIRIA Y A OTRAS CIENCIAS. Profesor: Ing. Álvaro Barrios Upata, Julio del 2014 Integrantes: Grillet Evelin Montaño María Rodríguez Thomas
  2. ii INDICE GENERAL Pag. Lista de cuadros………………………………………………………………… IV Lista de imágenes…………………………………………………………..…... V Lista de gráficos……………………………………………………………….... VI Introducción…………………………………………………………………….. 1 Objetivo general………………………………………………………………... 3 Objetivo especifico……………………………………………………………... 3 Regresión Lineal..……………...……………………………………………….. 4 Regresión Lineal Simple.………………………………………………….……. 4 Diagrama de Dispersión..………………………………………………………. 7 Determinación de la ecuación para regresión lineal simple…………………..... 8 Predicciones en el análisis de regresión: interpolación contra extrapolación………………………………………………………………….. 9 Error estándar de la estimación…………………………………………………. 9 Medidas de variación en la regresión correlación……………...…………………………………………………......... 10 Coeficiente de determinación…..………………………………………………. 11
  3. iii Pag. El coeficiente de correlación…………………………………………..……….. 12 nálisis de Regresión Múltiple.……………………………...……….....……… 13 Ejercicio nº 1…………………………………………………..…………...…… 15 Ejercicio nº 2……………………………………………………………...…….. 20 Conclusiones…………………………………………………………………… 22 Recomendaciones………………………………………………………………. 23 Referencias……………………………………………………………………... 24
  4. iv LISTA DE FIGURAS Cuadro Pag. 1 Datos del Experimento…………………………………………… 15 2 Análisis de los datos (regresión)………………………………… 16 N Datos del experimento de flujo sanguíneo de los seres humano…………………………………………………………… 20 Imagen Pag. 1 Tipos de modelo de Regresión ……………………………………. 6 N Medidas de variación en la regresión.……………………………… 11 Gráfico Pag. 1 Curva de regresión ajustada variable X1…………………………… 18 2 Curva de regresión ajustada variable X2…………………………… 18 N Regresión cuadrática……………………………………………… 21
  5. INTRODUCCION La regresión y la correlación son dos técnicas estrechamente relacionadas y comprenden una forma de estimación. En forma más especifica el análisis de correlación y regresión comprende el análisis de los datos muéstrales para saber qué es y cómo se relacionan entre sí dos o más variables en una población. El análisis de correlación produce un número que resume el grado de la correlación entre dos variables; y el análisis de regresión da lugar a una ecuación matemática que describe dicha relación. El análisis de regresión lineal es una técnica estadística utilizada para estudiar la relación entre variables cuantitativas. Tanto en el caso de dos variables (regresión simple) como en el de más de dos variables (regresión múltiple), el análisis regresión lineal puede utilizarse para explorar y cuantificar la relación entre una variable llamada dependiente o criterio (Y) y una o más variables llamadas independientes o predictoras (X1, X2, …, Xp), así como para desarrollar una ecuación lineal con fines predictivos. (Escuela Superior de Informática, s/f). El modelo de regresión cuadrática es una alternativa cuando el modelo lineal no logra un coeficiente de determinación apropiado, o cuando el fenómeno en estudio tiene un comportamiento que puede considerarse como parabólico. La forma más simple de tratar de establecer la tendencia es a través de un diagrama de dispersión o nube de puntos (Reyes, 2011) En el marco del análisis estadístico multidimensional interesa, en gran medida, descubrir la interdependencia o la relación existente entre dos o más de las características analizadas. En el siguiente trabajo se presentan dos (02) ejercicios aplicados de regresión donde uno demuestra dos variables independientes que son el peso inicial y la
  6. 2 cantidad de alimentos, con respecto a una variable dependiente que es el peso final, como se pide comprobar si es posible predecir el peso de un animal en un periodo determinado, se estudio el caso y se puede definir que este pertenece a regresión lineal múltiple ya que tiene más de dos variables. El segundo (02) ejercicio solo presenta dos variables “x” y “y” y se trata de una regresión cuadrática donde se tendrá que estimar su ecuación. Para ambos ejercicios se utilizara Microsoft Excel para analizar los datos y estudiar sus respectivas graficas de regresión ya sea lineal o grafico de dispersión. La solución de estos ejercicios permitirá conocer la importancia de la regresión y sus diferentes tipos para la aplicación de la Ingeniería y otras Ciencias.
  7. 3 OBJETIVO GENERAL Resolver dos (02) ejercicios de regresión, aplicados en Ingeniería y en otras Ciencias OBJETIVOS ESPECIFICOS  Definir Regresión, tipos, diagramas, sus ecuaciones y errores.  Obtener posibles eventos que involucren diferentes modelos de regresión.  Determinar una función matemática sencilla que describa el comportamiento de una variable dados los valores de otra u otras variables.  Aplicar los conocimientos de Regresión, comprendiendo e interpretando los diferentes tipos de regresión para aplicarlos en la resolución de los ejercicios.
  8. 4 REGRESIÓN LINEAL. Según Leonard,. y Díaz . (2006) Dice que el objetivo principal del análisis de regresión es estimar el valor de una variable aleatoria (la variable dependiente) dado que se conoce el valor de la variable asociada (la variable independiente). La variable dependiente también se denomina variable de respuesta, mientras que la variable independiente también se denomina variable predictora. Dependiendo del criterio matemático que se emplee, se puede dar distintas ecuaciones lineales diferentes para un mismo diagrama de dispersión dado. Con el criterio del mínimo cuadrados, la recta de regresión de mejor ajuste ( y la mejor ecuación) es aquella en la cual se minimiza la suma de las desviaciones al cuadrado entre los valores estimado y real de la variable dependiente para el dato muestral correspondiente. Las formulas de cálculo mediante las cuales se pueden determinar los valores de y b1 para la ecuación de regresión que satisface el criterio de mínimos cuadrados son: (Ob. Cit.) - REGRESIÓN LINEAL SIMPLE Según Walpole y Myers (1992) En el caso de una regresión lineal simple donde hay una sola variable de regresión independiente una sola variable aleatoria dependiente Y, los datos pueden representarse por los pares de observaciones . Se desea determinar la relación entre una sola variable regresiva X y una variable de respuesta Y. La variable regresiva X se supone como una variable
  9. 5 matemática continua, controlable por el experimentador. Supóngase que la verdadera relación entre Y y X es una línea recta, y que la observación Y en cada nivel de X es una variable aleatoria. El modelo para la línea recta se puede representar como: En donde: A= intercepción real con el eje Y de la población B= pendiente real de la población = error aleatorio en Y para la observación En este modelo, la pendiente B de la recta representa el cambio unitario en Y, por cambio unitario en X, es decir, representa la cantidad de cambio de Y (Positivo o Negativo) para un cambio unitario particular en X. Por otra parte, la intercepción A con el eje Y representa un factor constante que está incluido en la ecuación. Representa el valor de Y cuando X es igual a cero. Además la ultima componente , del modelo representa el error aleatorio en Y para cada observación que ocurre. Este término se ha incluido sólo porque el modelo estadístico es una aproximación a la relación exacta entre las dos variables. (Gómez C., 2009) Según Robert Johnson (1990) dice que la línea de regresión se deduce del análisis de una situación en la cual se tiene dos a más variables de comportamiento relacionado. Cuando se estudia esas dos variables conjuntamente, amenudo se ve una situación donde se podría controlar una de las variables mediante acciones sobre la otra; o tal vez se quiera predecir el valor de la segunda el base al conocimiento de la primera. En cualquiera de estos casos se desea encontrar una línea de regresión si existe que prediga de manera óptima el valor de la variable de salida. La variable que
  10. 6 se conoce o se puede controlar se llama variable de entrada. La variable que resulta de la utilización de la ecuación de la línea de regresión se llama variable de salida. La grafica lineal que se obtiene no es simplemente una representación visual de nuestros datos. De hecho, revela dos cosas: a) existen realmente una relación funcional (ecuacional) entre las dos variables, y b)la línea expresa la relación cuantitativa entre ambas variables.(Ob.Cit) Imagen nº 1. Tipos de Modelos de Regresión Una vez trabajado el diagrama de dispersión se puede lograr una idea aproximada del tipo de relación existente entre las variables. La naturaleza de la relación puede adoptar muchas formas, que van desde funciones matemáticas muy sencillas hasta muy complicadas. La relación más simple consiste en una línea recta o relación lineal.(Gómez, 2009) Fuente: Gómez, (2009)
  11. 7 EL DIAGRAMA DE DISPERSIÓN Un diagrama de dispersión es una gráfica en la que se traza cada uno de los puntos que representan un par de valores observados para las variables independiente y dependiente. El valor de la variable independiente se gráfica con respecto al eje horizontal, y el valor de la variable dependiente Y se traza con respecto al eje vertical. (Kazmier. y Díaz, 1997) La forma de la relación representada mediante el diagrama de dispersión puede ser curvilínea y no lineal. Para las relaciones que no son lineales, un enfoque utilizado con frecuencia consiste en determinar algún método para transformar los valores de una o ambas variables, de manera que la relación de los valores transformados sí sea lineal Después, puede aplicarse el análisis de regresión a los valores transformados y pueden transformarse los valores estimados de la variable dependiente, de vuelta a la escala original de medición. (Ob. Cit.) El modo más elemental de visualizar la correlación entre las dos variables X e Y es el método gráfico. El procedimiento es sencillo, basta con representar los datos de las variables en las coordenadas X e Y, y trazar los puntos correspondientes. Así se obtiene una “nube de puntos”, que se silueta y se puede atravesar con una recta auxiliar en los casos que exista correlación. (Ob. Cit.) La direccionalidad (tendencia) de la nube de puntos permite identificar si la correlación es positiva o negativa, de tal modo que si es creciente (“hacia arriba”) la correlación es positiva. (Gómez,. 2009)
  12. 8 DETERMINACIÓN DE LA ECUACIÓN PARA REGRESIÓN LINEAL SIMPLE a) El método de los mínimos cuadrados El científico alemán Karl Gauss (1777-1855) propuso estimar los parámetros y de la ecuación . Este criterio para estimar los coeficientes de regresión se conoce como el método de mínimos cuadrados. Las estimaciones de mínimos cuadrados de la ordenada al origen y la pendiente del modelo de regresión lineal simple son Donde: Por tanto, la línea de regresión estimada o ajustada es: Nótese que cada par de observaciones satisface la relación:
  13. 9 Donde recibe el nombre de residuo. El residuo describe el error en el ajuste del modelo en la observación . (Montgomery. y Runger., 2001) Una técnica matemática que determina los valores de A y B que mejor se ajustan a los datos observados, se conoce como el método de los mínimos cuadrados. Con el uso de dicho método se obtienen dos ecuaciones, llamadas ecuaciones normales y una vez resultas para A y B quedan como sigue: (Gómez., 2009) PREDICCIONES EN EL ANÁLISIS DE REGRESIÓN: INTERPOLACIÓN CONTRA EXTRAPOLACIÓN Cuando se utiliza el análisis de regresión para predicciones, es importante considerar sólo el rango pertinente de la variable independiente al hacer predicciones. Este rango abarca todos los valores de X, desde el mínimo hasta el máximo utilizados para desarrollar la ecuación de regresión. Por ello, al predecir Y para un valor dado de X, se puede interpolar dentro de este rango de los valores de X, pero no se puede extrapolar más allá del rango de los valores de X. (Berenson M. y Levine, D., 1989) ERROR ESTÁNDAR DE LA ESTIMACIÓN Con el propósito de medir la confiabilidad de la ecuación de estimación, los estadísticos han desarrollado el error estándar de la estimación. Este error se representa con y se parece a la desviación estándar, en que ambas son medidas de dispersión. El error estándar de la estimación, mide la variabilidad o dispersión de los valores observados alrededor de la línea de regresión.
  14. 10 Error estándar de la estimación Ecuación con que se calcula el error estándar de estimación: Donde: Y= valores de la variable dependiente = valores estimados obtenidos de la ecuación de estimación que corresponden a cada valor de Y n= número de puntos de datos usados para ajustar la línea de regresión. (Levin., 1988) MEDIDAS DE VARIACIÓN EN LA REGRESIÓN CORRELACIÓN A fin de determinar qué tan bien predice la variable independiente a la variable dependiente en el modelo estadístico, se necesita desarrollar varias medidas de variación. La primera medida, la variación total, es una medida de la variación de los valores de Y en torno a su media y se mide en dos componentes. En un problema de regresión total en Y, la variable dependiente, se puede subdividir en variación explicada, o sea, la que es atribuible a la relación entre X e Y y la variación no explicada, atribuible a la relación entre Xe Y.
  15. 11 Figura nº N. Medidas de variación en la regresión COEFICIENTE DE DETERMINACIÓN El coeficiente de determinación es la manera primaria de medir el grado, o fuerza, de la relación que existe entre dos variables, X y Y. hemos usado una muestra de puntos para desarrollar las líneas de regresión y por eso a esta medida la llamaremos el coeficiente muestral de determinación. (Levin R., 1988) Dicho coeficiente se obtiene de la relación entre dos tipos de variación: la variación de los valores de Y en el conjunto de datos alrededor de: 1. La línea de regresión ajustada 2. Su propia media El término de variación en estos dos casos se emplea en su sentido estadístico habitual y significa “la suma de un grupo de cuadrados de desviaciones”. Así pues, al aplicar esta definición, es razonable expresar la variación de los valores de Y alrededor de la línea de regresión mediante la siguiente ecuación: (Ob. Cit.) Fuente: Berenson. y Levine., (1989).
  16. 12 Variación de los valores de Y alrededor de la línea de regresión = Y la segunda variación, de los valores de Y alrededor de su propia media, está determinada por: Variación de los valores de Y alrededor de su media= Uno menos la razón entre esas dos variaciones es el coeficiente muestral de determinación, que se representa con : (Ob. Cit.) EL COEFICIENTE DE CORRELACIÓN El coeficiente de correlación es la segunda medida con que puede describirse la eficacia con que una variable es explicada por otra. Cuando estamos trabajando con muestras, el coeficiente muestral de correlación se denota con r y es la raíz cuadrada del coeficiente muestral de determinación: (Levin., 1988) Cuando la pendiente de la ecuación de estimación es positiva, r es la raíz cuadrada positiva; pero si b es negativa, r es la raíz cuadrada negativa. Así pues, el signo de r indica la dirección de la relación entre las dos variables X y Y. si existe una relación inversa, es decir, si Y disminuye al aumentar X, entonces r caerá entre 0 y -1. De manera análoga, si hay una relación directa (si Y aumenta al hacerlo X), r será un valor dentro del intervalo de 0 a 1. (Ob. Cit.) ANÁLISIS DE REGRESIÓN MÚLTIPLE Muchos problemas de regresión involucran más de una variable regresiva.
  17. 13 Tales modelos se denominan de regresión múltiple. La regresión múltiple es una de las técnicas estadísticas más ampliamente utilizadas y permite predecir el valor de una variable dependiente a partir de diversas variables independientes. Supóngase una investigación en particular, donde se tienen dos variables independientes, entonces el modelo de regresión lineal múltiple se expresa como: A= intercepción con el eje Y Pendiente de Y con la variable manteniendo constante a la variable Pendiente de Y con la variable manteniendo constante a la variable Error aleatorio en Y para una observación dada. Coeficientes de regresión múltiple Según Gómez,. 2009). Dice que se utiliza el método de los mínimos cuadrados para calcular los coeficientes de regresión y con la ayuda del programa Microsoft Excel se obtiene dicho coeficientes. Predicción de la variable dependiente “y” para valores dados de la variable independiente. Al ajustarse el modelo de regresión múltiple de los datos, se puede desarrollar diversos procedimientos análogos a los antes mencionados para la regresión lineal simple. (Ob. Cit.)
  18. 14 Para medir la asociación en el modelo de regresión múltiple. En la regresión múltiple, dado que hay cuando menos dos variables independientes, el coeficiente de determinación múltiple, representan la proporción de la variable “y” que se explica por el conjunto de variables independientes seleccionadas. (Ob. Cit.) Coeficientes de determinación parcial. Los coeficientes de determinación parcial (rx1 y rx2) miden la proporción de la variación en la variable dependiente que se explica por cada variable independiente a la vez que se mantiene constante a la otra u otras variables independientes. (Ob. Cit.)
  19. 15 EJERCICIOS. 1) Se lleva a cabo un experimento para determinar si es posible pronosticar el peso de un animal después de un periodo de tiempo determinado sobre la base de su peso inicial y de la cantidad de alimento que recibe. Se registraron los siguientes datos en kg: (Walpole,. y Myers,. 1992) Cuadro 1. Datos del experimento Peso Final, y Peso Inicial, x1 Alimento Consumido,x2 95 42 272 77 33 226 80 33 259 100 45 292 97 39 311 70 36 183 50 32 173 80 41 236 92 40 230 84 38 235 a) Ajuste una ecuación de regresión múltiple de la forma: b) Pronostique el peso final de un animal que tiene un peso inicial de 35 kg y que recibe 250 kg de alimento.
  20. 16 RESPUESTA: Cuadro 2. Análisis de los datos (Regresión) Resumen Estadísticas de la regresión Coeficiente de correlación múltiple 0,934429227 Coeficiente de determinación R^2 0,87315798 R^2 ajustado 0,836917402 Error típico 6,050788638 Observaciones 10 ANÁLISIS DE VARIANZA Grados de libertad Regresión 2 Residuos 7 Total 9 Coeficientes Intercepción -22,99316393 Variable X 1 1,395672916 Variable X 2 0,217613407 Suma de cuadrados Promedio de los cuadrados 1764,215698 882,107849 256,284302 36,61204314 2020,5 Error típico Estadístico t 17,76254332 -1,294474756 0,582541662 2,395833648 0,057766963 3,767091008
  21. 17 F Valor crítico de F 24,09337948 0,00072681 Probabilidad Inferior 95% Superior 95% Inferior 95,0% Superior 95,0% 0,236564972 -64,99490462 19,00857677 -64,99490462 19,00857677 0,04775762 0,018180773 2,773165058 0,018180773 2,773165058 0,007009546 0,081016245 0,354210568 0,081016245 0,354210568 Análisis de los residuales Observación Pronóstico para Y Residuos 1 94,81594518 0,18405482 2 72,24467223 4,755327774 3 79,42591465 0,574085351 4 103,3552321 -3,355232063 5 99,1158493 -2,115849297 6 67,07431448 2,925685518 7 59,31548875 -9,315488751 8 85,58618962 -5,586189621 9 82,88483626 9,115163736 10 81,18155747 2,818442534
  22. 18 Grafico nº 1. Curva de Regresión Ajustada para la Variable X1 (Fuente: El Autor ) Grafico nº 2. Curva de Regresión Ajustada para la Variable X2 (Fuente: El Autor) 0 20 40 60 80 100 120 0 10 20 30 40 50 PesoFinal Peso Inicial X 1 Y Pronóstico para Y Lineal (Pronóstico para Y) 0 20 40 60 80 100 120 0 100 200 300 400 PesoFinal Alimentos Consumidos X 2 Y Pronóstico para Y Lineal (Pronóstico para Y)
  23. 19 Aplicación de la ecuación: a) b) ANALISIS: El Coeficiente de determinación R^2 nos permite observar que si existe una relación directa de la variable dependiente (y) con respecto a las dos (02) variables independiente (x1 y x2) ya que arrojo 0,87315798 y lo que nos indica que mientras más se acerque a uno (1) mas se ajusta la línea de regresión a los datos. Por lo que se pudo observar en la respuesta b, es que si se puede pronosticar el peso final de un animal sabiendo las dos variables independientes que en este caso es el peso inicial y la cantidad de alimento que ingiere el animal.
  24. 20 2) Se lleva a cabo un experimento con objeto de determinar si el flujo sanguíneo cerebral de los seres humanos se podía pronosticarse a partir de la presión del oxigeno arterial (milímetros de mercurio) se utilizaron 15 pacientes y los datos observados son los que se indican en el siguiente cuadro: (Walpole,. y Myers,. 1992) Cuadro N. Datos del experimento de flujo sanguíneo cerebral de los seres humanos Presión del oxígeno arterial, x Flujo sanguíneo, y 603,40 84,33 582,50 87,80 556,20 82,20 594,60 78,21 558,90 78,44 575,20 80,01 580,10 83,53 451,20 79,46 404,00 75,22 484,00 76,58 452,40 77,90 448,40 78,80 334,80 80,67 320,30 86,60 350,30 78,20 Estime la ecuación de regresión cuadrática
  25. 21 RESPUESTA: Grafico nº 3. Regresión Cuadrática para comparar la relación entre flujo sanguíneo y Presión del oxigeno arterial. (Fuente: El Autor) A) Estime la ecuación de regresión cuadrática: Y= 141,61 + 0,2819x + 0,0003x2 ANALISIS: Estos datos se ajustan mejor a un modelo de regresión cuadrática ya que tienen un comportamiento parabólico de segundo grado. Pero como se observa en el grafico nº 3 los datos están dispersos no siguen la curva parabólica esto quiere decir que no se puede pronosticar el flujo sanguíneo cerebral de los seres humanos a partir de la presión del oxigeno arterial. y = 0,0003x2 - 0,2819x + 141,61 74,00 76,00 78,00 80,00 82,00 84,00 86,00 88,00 90,00 0,00 100,00 200,00 300,00 400,00 500,00 600,00 700,00 Flujo Sanguineo Presion del Oxigeno arterial
  26. 22 CONCLUSIONES Cuando se habla de regresión lineal múltiple se refiere a una variable dependiente y a dos o más variables independientes como se presento en el ejercicio 1, al analizar los datos nos dimos cuenta que los puntos (datos del problema) están muy cerca de la lineal de tendencia, esto quiere decir, que si existe una relación entre estas variables, y más al analizar el coeficiente de determinación R2 nos comprueba que el análisis es acertado. En el ejercicio dos (02) el Flujo Sanguíneo y la presión del oxigeno arterial son dos variables (x,y) pero al analizar sus datos estos se ajustan a una regresión cuadrática ya que obtiene un coeficiente de determinación apropiado para ser una regresión lineal, al graficar este ejercicio por dispersión nos dimos cuenta que los datos están muy alejados de la parábola, esto nos indica que no existe relación alguna entre las dos variables.
  27. 23 RECOMENDACIONES  Es recomendable aplicar regresión lineal múltiple cuando se tenga una variable dependiente y dos o más variables independientes..  Cuando se presente un caso de estudio y porque no también de la vida cotidiana donde los datos no se tenga un coeficiente de determinación apropiado es necesario aplicar una regresión cuadrática y analizar su parábola y si los datos se relacionan entre sí para así poder llegar a una conclusión satisfactoria.
  28. 24 REFERENCIAS  Berenson, M. y Levine, D. (1982). Estadística para Administración y Economía: Conceptos y Aplicaciones. Nueva editorial Interamericana. México.  Escuela Superior de Informática. (s/f). Regresión Lineal con SPSS. [Documento en línea] Disponible: http://www.uclm.es/profesorado/raulmmartin/Estadistica/PracticasSPSS/REG RESION_LINEAL_CON_SPSS.pdf [Consulta: 2014, Julio 19]  Gómez, C. (2009). Guía de Regresión y Correlación. Upata, Venezuela.  Johnson, R. (1990). Estadística Elemental. Segunda Edición. México.  Kasmier, L. y Díaz, A. (1993). Estadística Aplicada a la Administración y a la Economía. Cuarta edición. México.  Levin, R. (1988). Estadística para Administradores. Segunda edición. México.  Montgomerhy, D. y Runger, G. (1996). Probabilidad y Estadística Aplicada a la Ingeniería. McGraw-Hill Interamericana Editores, S.A de C.V. México.  Moreno, A. (2008). Distribución Normal. [Documento en línea]. Disponible: http://www.monografias.com/trabajos10/dino/dino.shtml [Consulta: 2014, Julio 06]  Reyes, L. (2011). Estadística, Matemática y Computación. [Documento en línea] Disponible: http://reyesestadistica.blogspot.com/2011/07/analisis-de- regresion-cuadratica.html [Consulta: 2014, Julio 19]  Walpole, R. y Myers, R. (1992). Probabilidad y Estadística. Cuarta edición. México.
Publicidad