Uso de los coeficientes de correlación de Pearson y de Sperman
Ventajas y Desventajas de cada uno de ellos.
Aplicar usos de enfoques Pearson y enfoque Sperman a problemas estadísticos.
1. Escuela de Ingeniería Civil
Cátedra: Estadística
Sección: CV
Profesor:
Pedro Beltrán
Bachiller:
Yairi Solórzano
CI: 25687229
Barcelona, julio de 2016
2. Estadística I - Presentación N° 4
Es un índice estadístico que mide la relación lineal
entre dos variables cuantitativas. A diferencia de la
covarianza, la correlación de Pearson es
independiente de la escala de medida de las
variables.
Ejemplos de diagramas de dispersión con diferentes
valores del coeficiente de correlación (ρ)
‣ La r de Pearson es una medida que indica
hasta que punto los mismos individuos o
sucesos ocupan la misma posición relativa a
2 variables.
‣ La r de Pearson refleja únicamente la
relación lineal entre 2 variables.
‣ Cuando la relación es perfecta positiva,
cada individuo obtiene exactamente las
mismas calificaciones en ambas variables.
‣ Un valor alto positivo alto de r de Pearson
indica que cada individuo obtiene,
aproximadamente; las mismas calificaciones
en ambas variables. Características de la R
de Pearson
CONCEPTO CARACTERÍSTICAS
3. Estadística I - Presentación N° 4
INTERPRETACIÓN
DESVENTAJAS
Requiere supuestos acerca de la naturaleza
o formas de las poblaciones afectadas.
Requiere que las dos variables hayan ido
medidas hasta un nivel cuantitativo continuo y
que la distribución de ambas sea semejante a
la de la curva normal.
VENTAJAS
El valor del coeficiente de correlación es
independiente de cualquier unidad usada para
medir variables.
Mientras mas grande sea la muestra mas
exacta será la estimación.
4. Estadística I - Presentación N° 4
Identifica el dependiente variable que se probará entre dos observaciones derivadas
independientemente. Uno de los requisitos es que las dos variables que se comparan deben
observarse o medirse de manera independiente para eliminar cualquier resultado sesgado.
Para cantidades grandes de información, el calculo puede ser tedioso.
Reporta un valor de correlación cercano a 0 como un indicador de que no hay relación linear entre
las dos variables.
Reporta un valor de correlación cercano al 1 como indicador de que existe una relación linear
positiva entre las dos variables. Un valor mayor a cero que se acerque a 1 da como resultado una
mayor correlación positiva entre la información.
Reporta un valor de correlación cercano a -1 como indicador de que hay una relación linear
negativa entre las dos variables.
Interpreta el coeficiente de correlación de acuerdo con el contexto de los datos particulares. El
valor de correlación es esencialmente un valor arbitrario que debe aplicarse de acuerdo con las
variables que se comparan.
Determina la importancia de los resultados. Esto se logra con el uso del coeficiente de correlación,
grados de libertad y una tabla de valores críticos del coeficiente de correlación. Los grados de
libertad se calculan como el número de las dos observaciones menos 2.
5. Estadística I - Presentación N° 4
Nació el 27 de marzo de 1857 en Londres.
Graduado por la Universidad de Cambridge en 1879. Cursó estudios de Derecho poco después de su
graduación, aunque dedicó la mayor parte de su vida a enseñar matemáticas
aplicadas, mecánica y genética en el University College de Londres.
Muy pronto se sintió interesado por la aplicación de las matemáticas al estudio de la evolución de las
especiesy la herencia. En 1901 funda la revista Biometrika, en la que publica una
monumental biografía sobre Francis Galton, del que fue alumno.
Muy interesado por el trabajo de Galton, que intentaba encontrar relaciones estadísticas para
explicar cómo las características biológicas iban pasando a través de sucesivas generaciones.
Estableció la disciplina de la estadística matemática, su investigación colocó en gran medida las
bases de la estadística del siglo XX, definiendo los significados de correlación, análisis de la
regresión y desviación típica.
En el año 1911 fue profesor de eugenesia en el University College, examinando la
recopilación y análisis de la información en el sentido que las características
como inteligencia, criminalidad,pobreza y creatividad se transmiten a través de
generaciones.
Autor de ”La gramática de las ciencias” (1892)
Karl Pearson falleció en Londres el 27 de abril de 1936.
6. Estadística I - Presentación N° 4
Es una medida de la correlación entre dos variables
aleatorias continuas. Este coeficiente es una medida de
asociación lineal que utiliza los rangos, números de orden,
de cada grupo de sujetos y compara dichos rangos.
La interpretación de coeficiente de Spearman es igual
que la del coeficiente de correlación de Pearson. Oscila
entre -1 y +1, indicándonos asociaciones negativas o
positivas respectivamente, 0 cero, significa no correlación
pero no independencia.
Se diferencia de la correlación de Pearson en que utiliza
valores medidos a nivel de una escala ordinal. Si alguna
de las variables está medida a nivel de escala de
intervalo/razón deberá procederse antes de operar el
estadístico a su conversión en forma ordinal.
CONCEPTO
‣ El Coeficiente de Correlación de
Spearman se encuentra siempre
comprendido entre los valores -1 y 1. Es
decir, -1 < rs < 1.
‣ Cuando todos los sujetos se sitúan en
el mismo puesto para la variable X y
para la variable Y, el valor de rs es 1. Si
ocupan valores opuestos, es decir; al
primer sujeto en X le corresponde el
ultimo lugar en Y, al segundo en X le
corresponde el penúltimo en Y, etc.
Entonces el valor de rs es -1.
Propiedades Coeficiente de Correlación
de Spearman
CARACTERÍSTICAS
7. Estadística I - Presentación N° 4
La interpretación de coeficiente de Spearman es
igual que la del coeficiente de correlación de
Pearson. Oscila entre -1 y +1, indicándonos
asociaciones negativas o positivas
respectivamente, 0 cero, significa no correlación
pero no independencia.
INTERPRETACIÓN
DESVENTAJASVENTAJAS
EJEMPLO
El coeficiente de
correlación de Spearman es
menos sensible que el de
Pearson para los valores
muy lejos de lo esperado.
En este ejemplo:
Pearson=0.30706 Spearman
= 0.76270
No esta afectada por los cambios en las
unidades de medida.
Al ser una técnica no parámetra, es libre de
distribución probabilística.
Es recomendable usarlo cuando los datos
presentan valores extremos, ya que dichos
valores afectan mucho el coeficiente de
correlación de Pearson, o ante distribuciones no
normales.
r no debe ser utilizado para
decir algo sobre la relación entre
causa y efecto.
8. Estadística I - Presentación N° 4
Para aplicar el coeficiente de correlación de Spearman se requiere que las variables estén medidas
al menos en escala ordinal, es decir, de forma que las puntuaciones que las representan puedan ser
colocadas en dos series ordenadas.
A veces, este coeficiente es denominado por la letra griega ρs (rho), aunque cuando nos situamos
en el contexto de la Estadística Descriptiva se emplea la notación rs
La fórmula de cálculo para rs puede derivarse de la utilizada en el caso de rxy; bastaría aplicar el
coeficiente de correlación de Pearson a dos series de puntuaciones ordinales, compuestas cada una
de ellas por los n primeros números naturales.
A partir de un conjunto de n puntuaciones, la fórmula que permite el cálculo de la correlación entre
dos variables X e Y, medidas al menos en escala ordinal, es la siguiente:
ρ=0 No hay correlación
ρ≠0 Hay correlación
Donde d es la distancia existente entre los puestos que ocupan las puntuaciones correspondientes
a un sujeto i cuando estas puntuaciones han sido ordenadas para X y para Y.
9. Estadística I - Presentación N° 4
Métodos Estadísticos para Investigadores. Desde entonces, el contraste de Hipótesis es considerado
uno de los métodos de inferencia estadística de utilización obligada en casi todas las disciplinas. Si
bien hoy en día los estudiantes de Estadística aprenden a testear hipótesis aplicando una secuencia
de pasos más o menos estandarizada, es importante recordar que no estamos ante una teoría
unificada, sino ante la amalgama de los estudios sistemáticos realizados separadamente por Fisher
por un lado y Neyman y Pearson por el otro.
Fisher desarrolló su teoría que denominó Pruebas de Significación y
Neyman y Pearson las llamadas Pruebas de Hipótesis. Desde 1930, fecha
en que aparecieron los trabajos de NP., la teoría de los tests de
hipótesis fue dominada por el paradigma de la decisión. Esto ha llevado al
estado actual de cosas en el cual predomina la teoría de Neyman-
Pearson como modelo ó esquema de razonamiento para la toma
decisiones, pero la práctica estadística en la investigación, aplicando los
mismos procedimientos, interpreta los datos como evidencia para validar
teorías.
10. Estadística I - Presentación N° 4
Enfoque psicométrico de los factores de la inteligencia (Spearman, Catell, Thurstone)
El enfoque psicométrico utiliza técnicas de análisis factorial con la idea de descubrir las
diferencias individuales de la inteligencia entre las personas. Para ello se recurre al uso de
los tests de inteligencia.
Spearman distingue dos factores: el factor “G” y el
factor “S”. El “G” es la inteligencia general (común a
la mayoría de las personas). El “S” son las
habilidades específicas de la inteligencia (verbal,
numérica, espacial, etc.)
11. Estadística I - Presentación N° 4
Nació en Londres, el día 10 de septiembre de 1863.
Psicólogo de profesión, estudió estadística y logró desarrollar notables aplicaciones de la estadística en el campo
de la psicología. Estudió en las universidades de Leipzig, donde alcanza el título cuando tenía 40 años. Además
cursa estudios en Wurzburgo y Göttingen y enseñó e investigó en la Universidad de Londres (1907 – 1931)
Realizó importantes aportes a la psicología y a la estadística.
En psicología desarrolló el Análisis factorial, que es su clásico trabajo sobre inteligencia, donde distingue un factor
general (factor G) y cierto número de factores específicos.
Creó y desarrollo la metodología de los llamados experimentos factoriales para la estadística, que son aquellos
experimentos en los que se estudia simultáneamente dos o más factores, y donde los tratamientos se forman por la
combinación de los diferentes niveles de cada uno de los factores.
Logró con el estudio de la Psicología completar su estudio de la estadística y viceversa, para él una se completaba
con la otra.
Por todo esto es considerado uno de los grandes estadistas de todos los tiempos. Su método,
inscrito en las matemáticas experimentales, estudia las dimensiones del campo empírico. Sus
aportes metodológicos no sólo se han constituido en herramientas fundamentales para algunos
ámbitos de la psicología, sino que son instrumentos para la ciencia estadística. El desarrollo de
Spearman es útil en todas las ciencias sociales que requieran de técnicas de estadística
correlacional para poder interpretar la información recogida.
Muere en Londres, el 7 de septiembre de 1945.
12. El coeficiente de correlación de Spearman es
exactamente el mismo que el coeficiente de
correlación de Pearson, calculado sobre el rango
de observaciones. La correlación estimada entre
X e Y se halla calculando el coeficiente de
correlación de Pearson para el conjunto de
rangos apareados. La correlación de Spearman
puede ser calculada con la fórmula de Pearson, si
antes hemos transformado las puntuaciones en
rangos.
Estadística I - Presentación N° 4