2. ANÁLISIS MÁS USADOS
Paramétricos
1. Coeficiente de correlación de Pearson:
En estadística, el coeficiente de correlación de Pearson es una medida de la
relación lineal entre dos variables aleatorias cuantitativas. A diferencia de
la covarianza, la correlación de Pearson es independiente de la escala de
medida de las variables. De manera menos formal, podemos definir el
coeficiente de correlación de Pearson como un índice que puede utilizarse
para medir el grado de relación de dos variables siempre y cuando ambas
sean cuantitativas.
2. Regresión lineal:En estadística la regresión lineal o ajuste lineal es
un modelo matemático usado para aproximar la relación de dependencia
entre una variable dependiente Y, las variables independientes Xi y un
término aleatorio ε. a primera forma de regresión lineal documentada fue
el método de los mínimos cuadrados que fue publicada
por Legendre en 1805, Gauss publicó un trabajo en donde desarrollaba de
manera más profunda el método de los mínimos cuadrados,1 y en dónde se
incluía una versión del teorema de Gauss-Márkov.
El término regresión se utilizó por primera vez en el estudio
de variables antropométricas: al comparar la estatura de padres e hijos,
donde resultó que los hijos cuyos padres tenían una estatura muy superior
al valor medio, tendían a igualarse a éste, mientras que aquellos cuyos
padres eran muy bajos tendían a reducir su diferencia respecto a la estatura
media; es decir, "regresaban" al promedio. La constatación empírica de esta
propiedad se vio reforzada más tarde con la justificación teórica de ese
fenómeno.
El término lineal se emplea para distinguirlo del resto de técnicas
de regresión, que emplean modelos basados en cualquier clase de función
3. matemática. Los modelos lineales son una explicación simplificada de la
realidad, mucho más ágiles y con un soporte teórico mucho más extenso por
parte de la matemática y la estadística. Pero bien, como se ha dicho, se
puede usar el término lineal para distinguir modelos basados en cualquier
clase de aplicación.
3. Prueba t: Una prueba t es una prueba de hipótesis de la media de una
o dos poblaciones distribuidas normalmente. Aunque existen varios tipos de
prueba t para situaciones diferentes, en todas se utiliza un estadístico de
prueba que sigue una distribución t bajo la hipótesis nula. Una propiedad
importante de la prueba t es su robustez ante los supuestos de normalidad
de la población. En otras palabras, las pruebas t suelen ser válidas incluso
cuando se viola el supuesto de normalidad, pero solo si la distribución no es
muy asimétrica. Esta propiedad la convierte en uno de los procedimientos
más útiles para hacer inferencias sobre las medias de las poblaciones. Sin
embargo, con distribuciones no normales y muy asimétricas, podría ser más
conveniente usar pruebas no paramétricas.
4. Análisis de varianza: En estadística, el análisis de la
varianza (ANOVA, Analysis Of Variance, según terminología inglesa) es una
colección de modelos estadísticos y sus procedimientos asociados, en el cual
la varianza está particionada en ciertos componentes debidos a diferentes
variables explicativas. Las técnicas iniciales del análisis de varianza fueron
desarrolladas por el estadístico y genetista R. A. Fisher en los años 1920 y
1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de
varianza de Fisher", debido al uso de la distribución F de Fisher como parte
del contraste de hipótesis.
Web grafía