Este documento describe diferentes coeficientes de correlación, incluyendo el coeficiente de correlación de Pearson, el coeficiente de correlación de Spearman y el coeficiente de correlación de Kendall. Explica cómo cada coeficiente mide la relación entre dos variables, ya sea cuantitativas o ordinales, y los pasos para calcularlos. También proporciona ejemplos numéricos para ilustrar el cálculo de los coeficientes.
Coeficientes de correlacion de pearson y de sperman.
1. Instituto Politécnico Santiago Mariño
M.P.P. Para La Educación
Escuela 42 Ing. civil
Materia: Estadística
Integrante:
María Gabriela Castillo CI: 26.089.338
Caracas, Abril del 2016.
los coeficientes de
correlación de Pearson y
de Spearman
2. COEFICIENTE DE CORRELACIÓN DE
PEARSON Es un índice estadístico que mide la
relación lineal entre dos variables
cuantitativas. A diferencia de la
covarianza, la correlación de Pearson es
independiente de la escala de medida de
las variables.
El cálculo del coeficiente de correlación
lineal se realiza dividiendo la covarianza
por el producto de las desviaciones
estándar de ambas variables:
r = Sxy Sx.SySiendo:
•Sx la covarianza de (X,Y)
•Sx y Sy las desviaciones típicas de las distribuciones marginales.
•El valor del índice de correlación varía en el intervalo [-1, + 1]:
•Si r = 0, no existe relación lineal. Pero esto no necesariamente implica
una independencia total entre las dos variables, es decir, que la
variación de una de ellas puede influir en el valor que pueda tomar la
otra. Pudiendo haber relaciones no lineales entre dos variables. Estas
pueden calcularse con la razón de correlación.
3. •Si r = 1, existe una correlación positiva perfecta. El índice indica una
dependencia total entre las dos variables denominada relación
directa: cuando una de ellas aumenta, la otra también lo hace en
idéntica proporción.
•Si 0›r≥1, existe una correlación positiva.
•Si r = -1, existe una correlación negativa perfecta. El índice indica una
dependencia total entre las dos variables llamada relación inversa:
cuando una de ellas aumenta, la otra disminuye en idéntica
proporción.
•Si -1≤ r›0, existe una correlación negativa.Las 3 gráficas en coordenadas cartesianas posteriores, se muestra
la variable independiente (X) se ubica en las abscisas y la
dependiente (Y) en el eje de las ordenadas. Los coeficientes de
correlación significan esa asociación entre los cambios que se
observan en la variable dependiente con respecto a la variable
independiente.
La gráfica (a) representa una correlación positiva, es decir,
conforme los valores de X aumentan, también aumentan los
valores de Y. A su vez, la gráfica (b) muestra una correlación
negativa, de modo que al incrementarse los valores de la variable
independiente, los valores de la dependiente disminuyen. La
gráfica (c) no indica correlación.
4. El coeficiente de correlación lineal de Pearson se define
matemáticamente con la ecuación siguiente:
Donde:
r = coeficiente de correlación de Pearson.
Sxy = sumatoria de los productos de ambas variables.
Sx = sumatoria de los valores de la variable independiente.
Sy = sumatoria de los valores de la variable dependiente.
Sx2 = sumatoria de los valores al cuadrado de la variable
independiente.
Sy2 = sumatoria de los valores al cuadrado de la variable
dependiente.
5. •Este procedimiento estadístico es aplicable cuando las
observaciones se miden según una escala de intervalo, por
otra parte, el fenómeno debe ser lineal.
•Al igual que las otras pruebas paramétricas, la varianza de
las variables X y Y deben guardar homogeneidad.
Pasos
•Ordenar los valores de la variable dependiente (Y) con
respecto a los valores de la variable independiente (X).
•Elevar al cuadrado cada valor X y de Y.
•Obtener los productos de X y Y , para lo cual se deben
multiplicar independientemente ambos valores.
•Efectuar las sumatorias Sx, Sy, Sx2, Sy2, y Sxy.
•Calcular el tamaño de la muestra en función de parejas de X
y Y .
Aplicar la ecuación
•Calcular los grados de libertad (gl): gl = N parejas -1.
•Comparar el valor de r calculado en la tabla de valores
críticos de t de Kendall en función de la probabilidad.
•Decidir si se acepta o rechaza la hipótesis.
6. Ejemplo:
•Elección de la prueba estadística para medir la asociación o correlación. Las
edades en días están en escala de tipo intervalo, tenemos dos variables,
entonces aplicamos esta prueba.
•Objetivo: Conocer que grado de asociación existe entre la edad y peso
corporal de niños de edades desde el nacimiento hasta los 6 meses.
Hipótesis.
Ha Entre las observaciones de edad de los niños y peso corporal existe
correlación significativa.
Ho. Entre las observaciones de edad de los niños y pero corporal no existe
correlación significativa.
8. Características
•La Correlación es una técnica estadística usada para
determinar la relación entre
dos o más variables.
•La relación entre la duración de una carrera de distancia y el
test del escalón, o la
relación entre las características de la personalidad y la
participación en deportes
de alto riesgo.
•La correlación puede ser de al menos dos variables de una
variable dependiente
y dos o más variables independientes, denominada
correlación múltiple.
9. •Es una prueba estadística para
analizar la relación entre dos variables
medidas en un nivel por intervalos o de
razón.
•Prueba Hi del tipo de “A mayor X,
mayor Y”; “A mayor X, menor Y”; etc.
•La prueba en si no considera a una
como independiente y la otra como
dependiente, porque no evalúa la
causalidad, solo la relación
mutua(correlación).
Desventajas •Requiere datos de cantidad de cada
año, lo cual puede ser difícil de obtener.
Debido a que se emplean diferentes
cantidades cada año, es imposible
atribuir cambios en el índice
únicamente a cambios en el precio.
Tienden a ponderar en más los artículos
cuyos precios han bajado. Requieren
que los precios se calculen cada año.
10. COEFICIENTE DE CORRELACIÓN DE
Este coeficiente se emplea cuando una o
ambas escalas de medidas de las variables
son ordinales, es decir, cuando una o ambas
escalas de medida son posiciones. Ejemplo:
Orden de llegada en una carrera y peso de
los atletas.
Se calcula aplicando la siguiente ecuación:
Ejemplo ilustrativo N° 1: La siguiente tabla muestra el
rango u orden obtenido en la primera evaluación (X) y el
rango o puesto obtenido en la segunda evaluación (Y) de 8
estudiantes universitarios en la asignatura de Estadística.
Calcular el coeficiente de correlación por rangos de
Spearman.
11. Estudiante X Y
Dyana 1 3
Elizabeth 2 4
Mario 3 1
Orlando 4 5
Mathías 5 6
Josué 6 2
Anita 7 8
Lucía 8 7
Solución:
Para calcular el coeficiente de
correlación por rangos de Spearman de
se llena la siguiente tabla:
Se aplica la fórmula:
12. Características
•Es una medida de la correlación (la asociación o
interdependencia) entre dos variables
aleatorias continuas. Para calcular ρ, los datos
son ordenados y reemplazados por su respectivo
orden.
•D es la diferencia entre los
correspondientes estadísticos de orden
de x - y. N es el número de parejas.
•Es igual que la del coeficiente de
correlación de Pearson. Oscila entre -1 y
+1, indicándonos asociaciones negativas o
positivas respectivamente, 0 cero, significa
no correlación pero no independencia.
La tau de Kendall es un coeficiente de
correlación por rangos, inversiones entre
dos ordenaciones de una distribución
normal bivariante.
13. Ventajas
•No se asume una relación lineal entre las variables.
•Se asume una distribución normal bivariada.
• Es válido para muestras en las que no se pueden
•hacer medidas pero sí asignar rangos.
•Es más robusto
Desventajas
• Pérdida de información.
• La eficiencia es del 91% (para distribuciones
normales, en el test de Fisher basta con un tamaño
muestral un 91% menor para rechazar la hipótesis
nula con el mismo nivel de significación)