1. PRUEBAS NO PARAMÉTRICAS
1. PRUEBAS DE NORMALIDAD
Para evaluar la normalidad de un conjunto de datos tenemos el Test de Kolmogorov-
Smirnov y el test de Shapiro-Wilks
La opción NNPLOT del SPSS permite la evaluación del ajuste de una variable continua
a una curva normal, tanto de forma gráfica como analítica. Las pruebas analíticas de que
dispone esta opción son: Kolmogorov-Smirnov con la modificación de Lillierfors y la prueba de
Shapiro-Wilks. Esta última la realiza el SPSS si el tamaño muestral es inferior a 50, es decir, da
por defecto las dos pruebas; mientras que si el nº de individuos es superior a 50, sólo da como
resultado la de Kolmogorov-Smirnov.
1.1 La prueba de Kolmogorov-Smirnov con la modificación de Lillierfors es la más utilizada
y se considera uno de los test más potentes para muestra mayores de 30 casos. En este test
la Hipótesis nula Ho: es que el conjunto de datos siguen una distribución normal. Y la
Hipótesis Alternativa H1: es que no sigue una distribución normal.
Este test se basa en evaluar un estadístico:
Dn = ⎟Fn (x) – F(x)⎟
2. Fn (x): es la distribución empírica
F (x): s la distribución teórica, que en este caso es la normal
Si el valor del estadístico supera un determinado valor, que depende del nivel de
significación con el que uno quiera rechazar la hipótesis nula, diremos que esa colección
de datos no se distribuye según una distribución normal. Lillierfors tabuló este estadístico
para el caso más habitual en el que desconocemos la media y la varianza poblacional y las
estimamos a partir de los datos muestrales. El SPSS ya utiliza esta prueba modificada.
1.3 La prueba de Shapiro-Wilks se basa en estudiar el ajuste de los datos graficados sobre un
gráfico probabilístico en el que cada dato es un punto cuyo valor de abscisa el valor
observado de probabilidad para un valor determinado de la variable, y el de ordenada el
valor esperado de probabilidad. En este test la Ho y la H1 son iguales que para la prueba
anterior.
El estadístico W de Shapiro-Wilks mide la fuerza del ajuste con una recta. Cuanto mayor
sea este estadístico mayor desacurdo habrá con la recta de normalidad, por lo que
3. podremos rechazar la hipótesis nula. La prueba de Shapiro-Wilks está considerada como
la prueba más potente para muestra inferiores a 30 casos.
1.3 Test de Chi Cuadrado (χ2). Para comparar si un grupo de frecuencias observadas con unas
frecuencias esperadas y decidir si existen diferencias. Grados de libertad : K -1
AQUÍ es donde se elige esta
opción de χ2; como os dais
cuenta es dentro de NO
PARAMÉTRICAS
AQUÍ nos da la opción de decir
de dónde toma los datos
esperados, es decir, los
TEÓRICOS para comparar la
distribución.
4. El otro gráfico que SPSS denominado DETRENTED normal Plot, se basaen que si los datos se
distribuyen normalmente los puntos deben distribuirse aleatoriamente alrededor del “0”.
¿Qué hacemos si comprobamos que una distribución no sigue una curva normal?
Tenemos dos opciones:
Podemos intentar tansformar la variable para que se distribuya según una normal
Podemos utilizar otra metodología estadística que presupongan poco acerca de la
distribución de la población muestreada. Tales métodos se denominan de Distribución
Libre o No Paramétricos
II CONTRASTE DE POSICIÓN: UNA MUESTRA
CONTRASTE DE LOS SIGNOS PARA LA MEDIANA para variables continuas
evaluamos las diferencias entre la mediana de la muestra y la poblacional, a través de su
signo: +, - ó 0
TEST DE LOS RANGOS CON SIGNO DE WILCOXON similar al test de los signos
por aumento o disminución de la mediana según la poblacional; pero teniendo además en
cuenta “la magnitud del cambio”. Por tanto es más potente este test que el test de los signos.
III CONTRASTE DE POSICIÓN: DATOS APAREADOS
PARA DOS MUESTRAS
VARIABLES CUALITATIVAS:
TEST DE Mc NEMAR: evalúa las variaciones de una variable dicotómica antes y
después de algo
VARIABLES CUANTITATIVAS
CONTRASTE DE LOS SIGNOS PARA LA MEDIANA DE LAS DIFERENCIAS:
para variables continuas evaluamos las diferencias de antes y después de algo pero a través
de su signo: +, - ó 0
TEST DE LOS RANGOS CON SIGNO DE WILCOXON: DATOS APAREADOS:
similar al test de los signos por aumento o disminución de la variable; pero teniendo además
en cuenta “la magnitud del cambio”. Por tanto es más potente este test que el test de los
signos.
Se elige AQUÍ
5. Con este botón se pasan las parejas
elegidas a la otra ventana
AQUÍ se eligen los estadísticos
descriptivos y de posición de todas las
variables elegidas
AQUÍ es donde se
eligen las parejas
AQUÍ se eligen los diferentes test a realizar
PARA MÁS DE DOS MUESTRAS (K MUESTRAS)
VARIABLES CUANTITATIVAS
TEST DE FRIEDMAN: tenemos k variables en columnas y n elementos en filas.
Ordenamos cada fila de menor a mayor según las diferentes columnas desde 1 hasta k (esto
sería el rango que ocupa cada variable para ese caso). Si no hubiera diferencias entre las
variables esperamos que los rangos estén repartidos en cada columna de manera uniforme y
solo encontraremos entre ellas pequeñas diferencias debidas al azar.
La hipótesis nula es que los rangos sumados para cada columna (cada variable) sean iguales;
y la hipótesis alternativa es que al menos uno es diferente. El estadístico sigue una
distribución de χ2 con grados de libertad K-1.
VARIABLES CUALITATIVAS
TEST DE KENDALL O COEFICIENTE DE CONCORDANCIA: este coeficiente mide
el grado de concordancia entre un grupo de elementos (K) y un grupo de características (n).
La respuesta es ordinal. La hipótesis nula es que no hay concordancia : W=0; y la Hipótesis
Alternativa es que si la hay (W > 0). Este estadístico sigue una χ2 con grados de libertad: n-
1
TEST DE COCHRAN: válido para evaluar si la respuesta de un grupo de “n” elementos
(filas) ante un conjunto de K características (columnas) es homogénea, siendo la respuesta
dicotómica.
La hipótesis nula es que las características son iguales a lo largo de los n elementos y la
hipótesis alternativa: es que las características no son iguales. El estadístico es “Q” y si este
toma un valor superior a un valor crítico, concluimos que la respuesta a las características
estudiadas es significativamente distinta. Nos informa si hay acuerdo o no; pero no nos
informa sobre la magnitud del mismo.
III CONTRASTE DE POSICIÓN: DATOS NO APAREADOS
DOS MUESTRAS
TEST DE LA MEDIANA la prueba se fundamenta en analizar si las medianas de las dos
poblaciones son distintas. Esta prueba es adecuada para comparar dos variables
cuantitativas y los tamaños poblacionales pueden ser distintos. El test se basa en que si las
dos medianas son iguales, la proporción de casos de cada muestra que son mayores o
menores que la mediana global serán iguales. Pero por el contrario, si ambas medianas son
diferentes, la proporción de casos por encima o por debajo de la mediana global serán
significativamente diferentes en ambas muestras. Es decir, realiza tablas de contingencia al
6. categorizar la variable continua en dos categorías según el valor de la mediana. Por tanto,
la hipótesis nula: Ho es que la Mediana de A = Mediana de B; mientras que la hipótesis
alternativa, H1: es que son diferentes.
TEST DE MANN-WHITNEY: este prueba es aplicable para comparar 2 variables
continuas independientes. Las dos muestras pueden tener dos tamaños diferentes. Es la
prueba no paramétrica considerada más potente para comparar 2 variables continuas
independientes. La Ho: es que no hay diferencias y la H1: es que si hay diferencias.
AQUÍ es donde se elige la
prueba NO PARAMÉTRICA para
comparación de dos muestras
independientes
AQUÍ nos da la opción de
realizar otros test
estadísticos para comparar
estas dos medianas
El test de Kolmogorov-Smirnov lo que está evaluando es si las dos distribuciones son
iguales (Ho)
El test de rachas de Wald_Wolfowitz, también es un test para comparar dos
distribuciones cuantitativas independientes, donde puede detectar diferencias entre dichas
distribuciones en relación a la tendencia central, dispersión y oblicuidad
El test de los valores extremos de Moses trata de determinar si los valores extremos,
mayores y menores, de las dos variables son iguales o distintos. La Ho: es que no hay
diferencias entre los valores extremos de dos distribuciones
PARA MÁS DE DOS MUESTRAS (K MUESTRAS)
TEST DE KRHUSKALL WALLIS: Para la comparación de una misma variable
cuantitativa en más de tres grupos. Es la prueba no paramétrica considerada más
potente para comparar >2 variables continuas independientes. Es el “similar” al test
de ANOVA para un factor.
7. TEST DE LA MEDIANA la prueba se fundamenta en analizar si las medianas de las
más de dos poblaciones son distintas. Esta prueba es adecuada para comparar más de
dos variables cuantitativas y los tamaños poblacionales pueden ser distintos. El test se
basa en que si las dos medianas son iguales, la proporción de casos de cada muestra
que son mayores o menores que la mediana global serán iguales. Pero por el contrario,
si ambas medianas son diferentes, la proporción de casos por encima o por debajo de la
mediana global serán significativamente diferentes en ambas muestras. Es decir, realiza
tablas de contingencia al categorizar la variable continua en dos categorías según el
valor de la mediana. Por tanto, la hipótesis nula: Ho es que la Mediana de A = Mediana
de B=...= Mediana de n; mientras que la hipótesis alternativa, H1: es que al menos 1 es
diferente.
AQUÍ se elige esta
opción
AQUÍ se ponen los rangos de la
variable de agrupación
AQUÍ se elige el test a realizar