3. Tablas de Contingencia
Diestro Zurdo TOTAL
Hombre 43 9 52
Mujer 44 4 48
TOTAL 87 13 100
Supóngase que se tienen dos variables, la primera el género (hombre o mujer) y la segunda recoge si el
individuo es zurdo o diestro. Se ha observado esta pareja de variables en una muestra aleatoria de 100
individuos. Se puede emplear una tabla de contingencia para expresar la relación entre estas dos variables:
Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la
cifra situada en la esquina inferior derecha es el gran total.
5. Tablas de Contingencia
automóvil tipo sedán automóvil tipo familiar Totales
Obreros 19 18 37
Empleados 43 20 63
Totales 62 38 100
Sea la siguiente una tabla de contingencia proveniente de una encuesta:
Cálculo del coeficiente :
El valor informativo del coeficiente «chi cuadrado» es reducido debido a que su límite superior, es decir, el valor que asume en el caso de la completa
dependencia de las características observadas es dependiente de la magnitud (dimensión) de la tabla de contingencia (es decir de la cantidad de valores
posibles de las variables) y del tamaño del universo estudiado n.
La prueba χ² (pronunciado como «ji cuadrado» y a veces como «chi cuadrado») a cualquier prueba en la que el estadístico utilizado sigue
una distribución χ² si la hipótesis nula (independencia de las carácterísticas) es cierta.
6. Otras medidas de Asociación “Cuantitativa”
En epidemiología, las medidas de asociación tratan de estimar la magnitud con la que dos
fenómenos se relacionan. Dicha asociación no implica necesariamentecausalidad. Ejemplos de
medidas de asociación son:
El riesgo relativo, utilizado en los estudios de cohortes. Compara la ocurrencia o incidencia
acumulada de un suceso entre quienes están expuestos a un factor de riesgo y quienes no.
La razón de tasas, compara tasas de incidencia, es decir, la velocidad a la que ocurre un
determinado fenómeno entre personas expuestas yno expuestas a un factor de riesgo.
El odds ratio, que se usa en los estudios de casos y controles, y que nos permite relacionar
cuánto más probable es que se produzca una exposición determinada entre las personas
enfermas (casos) que entre las sanas (controles).
En estadística hay datos cualitativos y cuantitativos para las pruebas de 1, 2 y 3 o más variables.
Típicos estadísticos de asociación son la regresión y la correlación, que a su vez se divide en
datos cardinales yordinales.
7. Coeficiente de Correlación
Existen diversos coeficientes que miden el grado de correlación, adaptados a la naturaleza de los
datos. El más conocido es el coeficiente de correlación de Pearson(introducido en realidad
por Francis Galton), que se obtiene dividiendo la covarianza de dos variables entre el producto
de sus desviaciones estándar.Otros coeficientes son:
Coeficiente de correlación de Spearman
Correlación canónica
Coeficiente de Correlación Intraclase
Correlación de Kendall
Correlación de Jaspen
8. Coeficiente de Correlación de PEARSON
En estadística, el coeficiente de correlación de Pearson es una medida de la relación lineal entre
dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es
independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un
índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando
ambas sean cuantitativas.
9. Coeficiente de Correlación de PEARSON
•Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las
dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo
hace en proporción constante.
•Si 0 < r < 1, existe una correlación positiva.
•Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las variables
son independientes: pueden existir todavía relaciones no lineales entre las dos variables.
•Si -1 < r < 0, existe una correlación negativa.
•Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre
las dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en
proporción constante.