Este documento resume la vida y obras del matemático suizo Gabriel Cramer. Explica la regla de Cramer para resolver sistemas de ecuaciones lineales y define el coeficiente de contingencia de Cramer (V de Cramer) para medir la asociación entre variables nominales. También describe tablas de contingencia, coeficientes de correlación y cómo aplicar una prueba de significación estadística para evaluar la asociación entre variables.
Caja de herramientas de inteligencia artificial para la academia y la investi...
V de Cramers.
1. REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN SUPERIOR
UNIVERSIDAD BICENTENARIA DE ARAGUA
ESCUELA DE PSICOLOGÍA
ESTADO GUÁRICO
“CONTINGENCIA:
V DE CRAMERS”
FACILITADOR:
PROF. LUIS GARCÍA
INTEGRANTES:
BELISARIO NAUDY
HERNÁNDEZ MARIA
IGUARÁNN DIOSAIMAR
ORTEGA LUCIANA
SÁNCHEZ FRANCYS
TROCEL ORMALYS
Psicología – J1
San Juan de los Morros, Junio 2017.
2. Gabriel Cramer
Fue un matemático Suizo nacido en Ginebra. Mostró
gran precocidad en matemática y ya a los 18 recibe su
doctorado y a los 20 era profesor adjunto de matemática.
Profesor de matemática de la Universidad de Ginebra
durante el periodo 1724-27. En 1750 ocupó la cátedra de
filosofía en dicha universidad. En 1731 presentó ante la
Academia de las Ciencias de París, una memoria sobre las
múltiples causas de la inclinación de las órbitas de los
planetas.
Carátula del libro Introduction a l’analyse de lignes courbes algébriques
Editó las obras de Johann Bernoulli (1742) y de Jacques Bernoulli (1744) y el Comercium
Epistolarum de Leibniz. Su obra fundamental fue la Introduction à l’analyse des Courbes
algébriques (1750), en la que se desarrolla la teoría de las curvas algebraicas según los
principios newtonianos, demostrando que una curva de grado n viene dada por N puntos
situados sobre ella,1 donde N viene dado por la expresión:
La Regla de Cramer es un teorema en álgebra lineal, que da la solución de un sistema
lineal de ecuaciones en términos de determinantes. Recibe este nombre en honor a Gabriel
Cramer (1704 - 1752), quien publicó la regla en su Introduction à l'analyse des lignes
courbes algébriques de 1750, aunque Colin Maclaurin también publicó el método en su
Treatise of Geometry de 1748 (y probablemente sabía del método desde 1729).
3. Tablas de Contingencia
En ciencias sociales es muy frecuente recurrir a la tabulación cruzada de los datos
cuando además de describir (análisis univariable) nos interesa comparar (análisis
bivariable). Las Tablas de Contingencia resultan, especialmente indicadas, cuando
disponemos de variables nominales o cualitativas, suponiendo que una de ellas depende de
la otra (variable independiente y/o explicativa). La elaboración de tablas de contingencia o
tablas bivariables no se encuentra estandarizada, basta con que ésta se lea e interprete
correctamente.
Sin embargo, y dado que el programa estadístico con el que presentamos el capítulo
es el SPSS, conviene advertir que éste dispone en las filas la variable dependiente y en las
columnas la variable independiente.
El interés en el análisis de tablas de contingencia reside en resumir la información
contenida en la tabla midiendo la asociación entre las dos variables que forman la tabla y
nunca la relación entre las categorías de las variables. Vamos a obtener uno o varios
números (estadísticos) que resumen el contenido informativo recogida en cada una de las
celdas que se derivan del cruce de las variables. Por último, y una vez determinado el grado
de asociación entre las dos variables, nos resta valorar si ésta es estadísticamente
significativa, o lo que es lo mismo, si la asociación o relación arrojada por el estadístico
elegido es atribuíble a un error de muestro (dicha relación no es genuina de la población
que estudiamos), no pudiendo generalizar los resultado obtenidos.
El capítulo se estructura en torno a tres puntos, a saber:
1.- Relación de estadísticos de asociación para variables de tipo nominal.
2.- Relación de estadísticos de asociación para variables de tipo ordinal.
3.- Elección y aplicación de una prueba paramétrica de significación estadística.
4. Coeficiente de Correlación
El coeficiente de correlación de Pearson (llamado
así por Karl Pearson, quien lo formuló) es una medida
usada en Estadística para calcular el grado de relación
lineal entre dos variables aleatorias, por ello, es
también conocido como coeficiente de correlación
lineal. Es una medida de la relación lineal entre dos
variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson
es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson
como un índice que puede utilizarse para medir el grado de relación de dos variables
siempre y cuando ambas sean cuantitativas.
Coeficiente de Contingencia
El coeficiente de contingencia C (de Karl Pearson) es una medida de relación estadística.
El coeficiente de contingencia de Pearson expresa la intensidad de la relación entre dos (o
más) variables cualitativas. Se basa en la comparación de las frecuencias efectivamente
calculadas de dos características con las frecuencias que se hubiesen esperado con
independencia de estas características.
5. Variables Nominales
Una variable puede ser tratada como nominal cuando
sus valores representan categorías que no obedecen a una
clasificación intrínseca. Por ejemplo, el departamento de
la compañía en el que trabaja un empleado. Algunos
ejemplos de variables nominales son: región, código
postal o confesión religiosa.
Coeficiente V de Cramers
Cramer propuso un índice, llamado V de Cramer, para transformar la Chi cuadrado de
Pearson. La V consiste en dividir la chi entre su máximo, por lo que el resultado va de 0 (no
hay nada de relación) a 1 (relación máxima).
Es otro de los coeficientes usados para ver la asociación de las variables nominales
cuando sus categorías son de dos o tres clases. El coeficiente varía entre cero y uno. Si la
tabla de contingencia es de dos filas por dos columnas, o es de tres filas por tres columnas,
es válido este coeficiente.
Cuanto más próximo a cero se encuentre, más independientes serán las variables;
cuanto más próximo a uno sea el número, más asociadas estarán las variables que se
estudien.
También hay que observar, que para el cálculo del coeficiente de Cramer, se necesita
previamente tener calculado el estadístico Chi Cuadrado.
7. Ejercicio 01.
Para comparar ambas muestras enunciaremos las hipótesis para el contraste de modo que:
n.s.=0,05
n.c.=95%
Lo que nos proporciona un valor Z de referencia de 1,96. Conocemos de los datos
muestrales que p1=0,204 y p2=0,218
Para el contraste utilizaremos el estadístico Z
Siendo y sustituyendo los valores, tenemos:
Calculamos ahora el valor de Z empírico. Como el valor calculado es menor al de la
distribución normal de referencia para n.c.=95% (Z=1,96) podemos concluir que las
diferencias observadas entre las proporciones de las muestras no son significativas.
Como el valor calculado es menor al de la distribución normal de referencia para n.c.=95%
(Z=1,96) podemos concluir que las diferencias observadas entre las proporciones de las
muestras no son significativas.
8. V de Cramer
Interpretación:
En cualquier tabla de contingencia – independientemente de la cantidad de filas y columnas
– Cramérs V está entre 0 y 1. Puede usarse para tablas de contingencia de cualquier tamaño.
Un Cramérs V que es mayor que 0,3 es considerado en ciencias sociales como una
correlación significativa.
Rango de valores [0 hasta 1]
Cramérs V = 0: no hay relación entre X e Y
Cramérs V = 1: hay una relación perfecta entre X e Y
Cramérs V = 0,6: hay una correlación relativamente intensa entre X e Y
Dado que Cramérs V es un número siempre positivo, no se pueden hacer afirmaciones
acerca de la dirección de la relación.
Coeficiente Phi
El coeficiente Phi (también llamado coeficiente de correlación de cuatro campos) , es una
medida para la intensidad de la relación entre variables dicotómicas.
Cálculo:
Para estimar la correlación de cuatro campos entre dos caraterísticas dicotómicas A y B, se
construye primeramente una tabla de contingencia que contiene la distribución de
frecuencia conjunta de las variables.
A=0 A=1 Total
B=0 a b a+b
B=1 c d c+d
Total a+c b+d a+b+c+d
9. Con los datos de la tabla se puede calcular:
Medida de la asociación entre:
Aprobación o rechazo de una decisión política acerca del género,
Presentación o en su defecto, no presentación de un aviso publicitario y compra o no-compra
de un producto.
Aplicación de una matriz de confusión con dos clases.