Asociación	
entre	dos	
características
Xavier	Barber	
Estadística	en	investigación	
experimental	y	clínica
Tablas	de	Contingencia
Contraste	𝜒2
Coeficiente	de	Correlación
Comparando	2	
carácterísticas
DOS	VARIABLES	CATEGÓRICAS,	NOMINALES,	ETC.
Tablas	de	Contingencia
Diestro Zurdo TOTAL
Hombre 43 9 52
Mujer 44 4 48
TOTAL 87 13 100
Supóngase que se tienen dos variables, la primera el género (hombre o mujer) y la segunda recoge si el
individuo es zurdo o diestro. Se ha observado esta pareja de variables en una muestra aleatoria de 100
individuos. Se puede emplear una tabla de contingencia para expresar la relación entre estas dos variables:
Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la
cifra situada en la esquina inferior derecha es el gran total.
Tablas	de	Contingencia
La	tabla	nos	permite	ver	de	un	vistazo	que	la	proporción	de	hombres	diestros	es	
aproximadamente	igual	a	la	proporción	de	mujeres	diestras.	Sin	embargo,	ambas	proporciones	
no	son	idénticas	y	la significación	estadística de	la	diferencia	entre	ellas	puede	ser	evaluada	con	
la prueba	χ²	de	Pearson,	supuesto	que	las	cifras	de	la	tabla	son	una	muestra	aleatoria	de	una	
población.	Si	la	proporción	de	individuos	en	cada	columna	varía	entre	las	diversas	filas	y	
viceversa,	se	dice	que	existe asociación entre	las	dos	variables.	Si	no	existe	asociación	se	dice	
que	ambas	variables	son independientes.
El	grado	de	asociación	entre	dos	variables	se	puede	evaluar	empleando	distintos	coeficientes:	el	
más	simple	es	el	coeficiente phi que	se	define	por
donde	χ2 se	deriva	del	test	de	Pearson,	y N es	el	total	de	observaciones	-el	gran	total-.
Tablas	de	Contingencia
automóvil	tipo sedán automóvil	tipo familiar Totales
Obreros 19 18 37
Empleados 43 20 63
Totales 62 38 100
Sea la siguiente una tabla de contingencia proveniente de una encuesta:
Cálculo del coeficiente :
El valor informativo del coeficiente «chi cuadrado» es reducido debido a que su límite superior, es decir, el valor que asume en el caso de la completa
dependencia de las características observadas es dependiente de la magnitud (dimensión) de la tabla de contingencia (es decir de la cantidad de valores
posibles de las variables) y del tamaño del universo estudiado n.
La prueba χ² (pronunciado como «ji cuadrado» y a veces como «chi cuadrado») a cualquier prueba en la que el estadístico utilizado sigue
una distribución χ² si la hipótesis nula (independencia de las carácterísticas) es cierta.
Otras	medidas	de	Asociación “Cuantitativa”
En epidemiología, las medidas de asociación tratan de estimar la magnitud con la que dos
fenómenos se relacionan. Dicha asociación no implica necesariamentecausalidad. Ejemplos de
medidas de asociación son:
El riesgo relativo, utilizado en los estudios de cohortes. Compara la ocurrencia o incidencia
acumulada de un suceso entre quienes están expuestos a un factor de riesgo y quienes no.
La razón de tasas, compara tasas de incidencia, es decir, la velocidad a la que ocurre un
determinado fenómeno entre personas expuestas yno expuestas a un factor de riesgo.
El odds ratio, que se usa en los estudios de casos y controles, y que nos permite relacionar
cuánto más probable es que se produzca una exposición determinada entre las personas
enfermas (casos) que entre las sanas (controles).
En estadística hay datos cualitativos y cuantitativos para las pruebas de 1, 2 y 3 o más variables.
Típicos estadísticos de asociación son la regresión y la correlación, que a su vez se divide en
datos cardinales yordinales.
Coeficiente	de	Correlación
Existen diversos coeficientes que miden el grado de correlación, adaptados a la naturaleza de los
datos. El más conocido es el coeficiente de correlación de Pearson(introducido en realidad
por Francis Galton), que se obtiene dividiendo la covarianza de dos variables entre el producto
de sus desviaciones estándar.Otros coeficientes son:
Coeficiente de correlación de Spearman
Correlación canónica
Coeficiente de Correlación Intraclase
Correlación de Kendall
Correlación de Jaspen
Coeficiente	de	Correlación de	PEARSON
En estadística, el coeficiente de correlación de Pearson es una medida de la relación lineal entre
dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es
independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un
índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando
ambas sean cuantitativas.
Coeficiente	de	Correlación de	PEARSON
•Si r =	1,	existe	una	correlación	positiva	perfecta.	El	índice	indica	una	dependencia	total	entre	las	
dos	variables	denominada relación	directa:	cuando	una	de	ellas	aumenta,	la	otra	también	lo	
hace	en	proporción	constante.
•Si	0	< r <	1,	existe	una	correlación	positiva.
•Si r =	0,	no	existe	relación	lineal.	Pero	esto	no	necesariamente	implica	que	las	variables	
son independientes:	pueden	existir	todavía	relaciones	no	lineales	entre	las	dos	variables.
•Si	-1	< r <	0,	existe	una	correlación	negativa.
•Si r =	-1,	existe	una	correlación	negativa	perfecta.	El	índice	indica	una	dependencia	total	entre	
las	dos	variables	llamada relación	inversa:	cuando	una	de	ellas	aumenta,	la	otra	disminuye	en	
proporción	constante.
Diferentes	tipos	de	Asocación (Será	“algo”	Lineal	si	r≠0)
FUENTE:	WIKIPEDIA

Asociación entre dos caracteristicas

  • 1.
  • 2.
  • 3.
    Tablas de Contingencia Diestro Zurdo TOTAL Hombre43 9 52 Mujer 44 4 48 TOTAL 87 13 100 Supóngase que se tienen dos variables, la primera el género (hombre o mujer) y la segunda recoge si el individuo es zurdo o diestro. Se ha observado esta pareja de variables en una muestra aleatoria de 100 individuos. Se puede emplear una tabla de contingencia para expresar la relación entre estas dos variables: Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la cifra situada en la esquina inferior derecha es el gran total.
  • 4.
    Tablas de Contingencia La tabla nos permite ver de un vistazo que la proporción de hombres diestros es aproximadamente igual a la proporción de mujeres diestras. Sin embargo, ambas proporciones no son idénticas y la significación estadística de la diferencia entre ellas puede ser evaluada con laprueba χ² de Pearson, supuesto que las cifras de la tabla son una muestra aleatoria de una población. Si la proporción de individuos en cada columna varía entre las diversas filas y viceversa, se dice que existe asociación entre las dos variables. Si no existe asociación se dice que ambas variables son independientes. El grado de asociación entre dos variables se puede evaluar empleando distintos coeficientes: el más simple es el coeficiente phi que se define por donde χ2 se deriva del test de Pearson, y N es el total de observaciones -el gran total-.
  • 5.
    Tablas de Contingencia automóvil tipo sedán automóvil tipofamiliar Totales Obreros 19 18 37 Empleados 43 20 63 Totales 62 38 100 Sea la siguiente una tabla de contingencia proveniente de una encuesta: Cálculo del coeficiente : El valor informativo del coeficiente «chi cuadrado» es reducido debido a que su límite superior, es decir, el valor que asume en el caso de la completa dependencia de las características observadas es dependiente de la magnitud (dimensión) de la tabla de contingencia (es decir de la cantidad de valores posibles de las variables) y del tamaño del universo estudiado n. La prueba χ² (pronunciado como «ji cuadrado» y a veces como «chi cuadrado») a cualquier prueba en la que el estadístico utilizado sigue una distribución χ² si la hipótesis nula (independencia de las carácterísticas) es cierta.
  • 6.
    Otras medidas de Asociación “Cuantitativa” En epidemiología,las medidas de asociación tratan de estimar la magnitud con la que dos fenómenos se relacionan. Dicha asociación no implica necesariamentecausalidad. Ejemplos de medidas de asociación son: El riesgo relativo, utilizado en los estudios de cohortes. Compara la ocurrencia o incidencia acumulada de un suceso entre quienes están expuestos a un factor de riesgo y quienes no. La razón de tasas, compara tasas de incidencia, es decir, la velocidad a la que ocurre un determinado fenómeno entre personas expuestas yno expuestas a un factor de riesgo. El odds ratio, que se usa en los estudios de casos y controles, y que nos permite relacionar cuánto más probable es que se produzca una exposición determinada entre las personas enfermas (casos) que entre las sanas (controles). En estadística hay datos cualitativos y cuantitativos para las pruebas de 1, 2 y 3 o más variables. Típicos estadísticos de asociación son la regresión y la correlación, que a su vez se divide en datos cardinales yordinales.
  • 7.
    Coeficiente de Correlación Existen diversos coeficientesque miden el grado de correlación, adaptados a la naturaleza de los datos. El más conocido es el coeficiente de correlación de Pearson(introducido en realidad por Francis Galton), que se obtiene dividiendo la covarianza de dos variables entre el producto de sus desviaciones estándar.Otros coeficientes son: Coeficiente de correlación de Spearman Correlación canónica Coeficiente de Correlación Intraclase Correlación de Kendall Correlación de Jaspen
  • 8.
    Coeficiente de Correlación de PEARSON En estadística,el coeficiente de correlación de Pearson es una medida de la relación lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables. De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.
  • 9.
    Coeficiente de Correlación de PEARSON •Si r= 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en proporción constante. •Si 0 < r < 1, existe una correlación positiva. •Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las variables son independientes: pueden existir todavía relaciones no lineales entre las dos variables. •Si -1 < r < 0, existe una correlación negativa. •Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en proporción constante.
  • 10.