SlideShare una empresa de Scribd logo
1 de 7
Descargar para leer sin conexión
PRUEBAS NO PARAMÉTRICAS




1.   PRUEBAS DE NORMALIDAD

              Para evaluar la normalidad de un conjunto de datos tenemos el Test de Kolmogorov-
       Smirnov y el test de Shapiro-Wilks




                La opción NNPLOT del SPSS permite la evaluación del ajuste de una variable continua
       a una curva normal, tanto de forma gráfica como analítica. Las pruebas analíticas de que
       dispone esta opción son: Kolmogorov-Smirnov con la modificación de Lillierfors y la prueba de
       Shapiro-Wilks. Esta última la realiza el SPSS si el tamaño muestral es inferior a 50, es decir, da
       por defecto las dos pruebas; mientras que si el nº de individuos es superior a 50, sólo da como
       resultado la de Kolmogorov-Smirnov.
         1.1 La prueba de Kolmogorov-Smirnov con la modificación de Lillierfors es la más utilizada
              y se considera uno de los test más potentes para muestra mayores de 30 casos. En este test
              la Hipótesis nula Ho: es que el conjunto de datos siguen una distribución normal. Y la
              Hipótesis Alternativa H1: es que no sigue una distribución normal.
                Este test se basa en evaluar un estadístico:
                                                             Dn = ⎟Fn (x) – F(x)⎟
Fn (x): es la distribución empírica
               F (x): s la distribución teórica, que en este caso es la normal
    Si el valor del estadístico supera un determinado valor, que depende del nivel de
    significación con el que uno quiera rechazar la hipótesis nula, diremos que esa colección
    de datos no se distribuye según una distribución normal. Lillierfors tabuló este estadístico
    para el caso más habitual en el que desconocemos la media y la varianza poblacional y las
    estimamos a partir de los datos muestrales. El SPSS ya utiliza esta prueba modificada.




1.3 La prueba de Shapiro-Wilks se basa en estudiar el ajuste de los datos graficados sobre un
    gráfico probabilístico en el que cada dato es un punto cuyo valor de abscisa el valor
    observado de probabilidad para un valor determinado de la variable, y el de ordenada el
    valor esperado de probabilidad. En este test la Ho y la H1 son iguales que para la prueba
    anterior.
    El estadístico W de Shapiro-Wilks mide la fuerza del ajuste con una recta. Cuanto mayor
    sea este estadístico mayor desacurdo habrá con la recta de normalidad, por lo que
podremos rechazar la hipótesis nula. La prueba de Shapiro-Wilks está considerada como
                la prueba más potente para muestra inferiores a 30 casos.




         1.3   Test de Chi Cuadrado (χ2). Para comparar si un grupo de frecuencias observadas con unas
               frecuencias esperadas y decidir si existen diferencias. Grados de libertad : K -1




                                                                  AQUÍ es donde se elige esta
                                                                  opción de χ2; como os dais
                                                                  cuenta es dentro de NO
                                                                  PARAMÉTRICAS




AQUÍ nos da la opción de decir
de dónde toma los datos
esperados,    es  decir,   los
TEÓRICOS para comparar la
distribución.
El otro gráfico que SPSS denominado DETRENTED normal Plot, se basaen que si los datos se
distribuyen normalmente los puntos deben distribuirse aleatoriamente alrededor del “0”.


        ¿Qué hacemos si comprobamos que una distribución no sigue una curva normal?

        Tenemos dos opciones:
            Podemos intentar tansformar la variable para que se distribuya según una normal
            Podemos utilizar otra metodología estadística que presupongan poco acerca de la
            distribución de la población muestreada. Tales métodos se denominan de Distribución
            Libre o No Paramétricos

II      CONTRASTE DE POSICIÓN: UNA MUESTRA


            CONTRASTE DE LOS SIGNOS PARA LA MEDIANA para variables continuas
            evaluamos las diferencias entre la mediana de la muestra y la poblacional, a través de su
            signo: +, - ó 0

            TEST DE LOS RANGOS CON SIGNO DE WILCOXON similar al test de los signos
            por aumento o disminución de la mediana según la poblacional; pero teniendo además en
            cuenta “la magnitud del cambio”. Por tanto es más potente este test que el test de los signos.


III     CONTRASTE DE POSICIÓN: DATOS APAREADOS
                                      PARA DOS MUESTRAS

VARIABLES CUALITATIVAS:
           TEST DE Mc NEMAR: evalúa las variaciones de una variable dicotómica antes y
           después de algo

VARIABLES CUANTITATIVAS

            CONTRASTE DE LOS SIGNOS PARA LA MEDIANA DE LAS DIFERENCIAS:
            para variables continuas evaluamos las diferencias de antes y después de algo pero a través
            de su signo: +, - ó 0
            TEST DE LOS RANGOS CON SIGNO DE WILCOXON: DATOS APAREADOS:
            similar al test de los signos por aumento o disminución de la variable; pero teniendo además
            en cuenta “la magnitud del cambio”. Por tanto es más potente este test que el test de los
            signos.




                                                                                           Se elige AQUÍ
Con este botón se pasan las parejas
                           elegidas a la otra ventana

                                                                                 AQUÍ se eligen los estadísticos
                                                                                 descriptivos y de posición de todas las
                                                                                 variables elegidas




AQUÍ es donde se
eligen las parejas




                           AQUÍ se eligen los diferentes test a realizar



                                   PARA MÁS DE DOS MUESTRAS (K MUESTRAS)

             VARIABLES CUANTITATIVAS

                       TEST DE FRIEDMAN: tenemos k variables en columnas y n elementos en filas.
                       Ordenamos cada fila de menor a mayor según las diferentes columnas desde 1 hasta k (esto
                       sería el rango que ocupa cada variable para ese caso). Si no hubiera diferencias entre las
                       variables esperamos que los rangos estén repartidos en cada columna de manera uniforme y
                       solo encontraremos entre ellas pequeñas diferencias debidas al azar.
                       La hipótesis nula es que los rangos sumados para cada columna (cada variable) sean iguales;
                       y la hipótesis alternativa es que al menos uno es diferente. El estadístico sigue una
                       distribución de χ2 con grados de libertad K-1.


             VARIABLES CUALITATIVAS

                       TEST DE KENDALL O COEFICIENTE DE CONCORDANCIA: este coeficiente mide
                       el grado de concordancia entre un grupo de elementos (K) y un grupo de características (n).
                       La respuesta es ordinal. La hipótesis nula es que no hay concordancia : W=0; y la Hipótesis
                       Alternativa es que si la hay (W > 0). Este estadístico sigue una χ2 con grados de libertad: n-
                       1

                       TEST DE COCHRAN: válido para evaluar si la respuesta de un grupo de “n” elementos
                       (filas) ante un conjunto de K características (columnas) es homogénea, siendo la respuesta
                       dicotómica.
                       La hipótesis nula es que las características son iguales a lo largo de los n elementos y la
                       hipótesis alternativa: es que las características no son iguales. El estadístico es “Q” y si este
                       toma un valor superior a un valor crítico, concluimos que la respuesta a las características
                       estudiadas es significativamente distinta. Nos informa si hay acuerdo o no; pero no nos
                       informa sobre la magnitud del mismo.

             III     CONTRASTE DE POSICIÓN: DATOS NO APAREADOS
                                                         DOS MUESTRAS

                       TEST DE LA MEDIANA la prueba se fundamenta en analizar si las medianas de las dos
                       poblaciones son distintas. Esta prueba es adecuada para comparar dos variables
                       cuantitativas y los tamaños poblacionales pueden ser distintos. El test se basa en que si las
                       dos medianas son iguales, la proporción de casos de cada muestra que son mayores o
                       menores que la mediana global serán iguales. Pero por el contrario, si ambas medianas son
                       diferentes, la proporción de casos por encima o por debajo de la mediana global serán
                       significativamente diferentes en ambas muestras. Es decir, realiza tablas de contingencia al
categorizar la variable continua en dos categorías según el valor de la mediana. Por tanto,
                        la hipótesis nula: Ho es que la Mediana de A = Mediana de B; mientras que la hipótesis
                        alternativa, H1: es que son diferentes.

                        TEST DE MANN-WHITNEY: este prueba es aplicable para comparar 2 variables
                        continuas independientes. Las dos muestras pueden tener dos tamaños diferentes. Es la
                        prueba no paramétrica considerada más potente para comparar 2 variables continuas
                        independientes. La Ho: es que no hay diferencias y la H1: es que si hay diferencias.




                                                                                              AQUÍ es donde se elige la
                                                                                              prueba NO PARAMÉTRICA para
                                                                                              comparación de dos muestras
                                                                                              independientes




AQUÍ nos da la opción de
realizar     otros    test
estadísticos para comparar
estas dos medianas




                        El test de Kolmogorov-Smirnov lo que está evaluando es si las dos distribuciones son
                        iguales (Ho)
                        El test de rachas de Wald_Wolfowitz, también es un test para comparar dos
                        distribuciones cuantitativas independientes, donde puede detectar diferencias entre dichas
                        distribuciones en relación a la tendencia central, dispersión y oblicuidad
                        El test de los valores extremos de Moses trata de determinar si los valores extremos,
                        mayores y menores, de las dos variables son iguales o distintos. La Ho: es que no hay
                        diferencias entre los valores extremos de dos distribuciones

                                   PARA MÁS DE DOS MUESTRAS (K MUESTRAS)

                             TEST DE KRHUSKALL WALLIS: Para la comparación de una misma variable
                             cuantitativa en más de tres grupos. Es la prueba no paramétrica considerada más
                             potente para comparar >2 variables continuas independientes. Es el “similar” al test
                             de ANOVA para un factor.
TEST DE LA MEDIANA la prueba se fundamenta en analizar si las medianas de las
                                   más de dos poblaciones son distintas. Esta prueba es adecuada para comparar más de
                                   dos variables cuantitativas y los tamaños poblacionales pueden ser distintos. El test se
                                   basa en que si las dos medianas son iguales, la proporción de casos de cada muestra
                                   que son mayores o menores que la mediana global serán iguales. Pero por el contrario,
                                   si ambas medianas son diferentes, la proporción de casos por encima o por debajo de la
                                   mediana global serán significativamente diferentes en ambas muestras. Es decir, realiza
                                   tablas de contingencia al categorizar la variable continua en dos categorías según el
                                   valor de la mediana. Por tanto, la hipótesis nula: Ho es que la Mediana de A = Mediana
                                   de B=...= Mediana de n; mientras que la hipótesis alternativa, H1: es que al menos 1 es
                                   diferente.




                                                                                                        AQUÍ se elige esta
                                                                                                        opción




                                                                             AQUÍ se ponen los rangos de la
                                                                             variable de agrupación




AQUÍ se elige el test a realizar

Más contenido relacionado

La actualidad más candente (18)

Chi cuadrado
Chi cuadradoChi cuadrado
Chi cuadrado
 
5 Planteamiento de Hipotesis en mas de 2 Poblaciones (ji cuadrada)
5 Planteamiento de Hipotesis en mas de 2 Poblaciones (ji cuadrada)5 Planteamiento de Hipotesis en mas de 2 Poblaciones (ji cuadrada)
5 Planteamiento de Hipotesis en mas de 2 Poblaciones (ji cuadrada)
 
Analisis de varianza de dos vias
Analisis de varianza de dos viasAnalisis de varianza de dos vias
Analisis de varianza de dos vias
 
Estadistica 10 crreccion
Estadistica 10 crreccionEstadistica 10 crreccion
Estadistica 10 crreccion
 
Prueba de la bondad del ajuste
Prueba de la bondad del ajustePrueba de la bondad del ajuste
Prueba de la bondad del ajuste
 
notas19deagosto
notas19deagostonotas19deagosto
notas19deagosto
 
Prueba t varianzas combinadas
Prueba t varianzas combinadasPrueba t varianzas combinadas
Prueba t varianzas combinadas
 
el chi cuadrado
el chi cuadradoel chi cuadrado
el chi cuadrado
 
Pruebas de bondad de ajuste vfinal
Pruebas de bondad de ajuste vfinalPruebas de bondad de ajuste vfinal
Pruebas de bondad de ajuste vfinal
 
17 analisis de varianza
17 analisis de varianza17 analisis de varianza
17 analisis de varianza
 
Chi cuadrada
Chi cuadradaChi cuadrada
Chi cuadrada
 
Anova2
Anova2Anova2
Anova2
 
Man4
Man4Man4
Man4
 
Distribucion Chi Cuadrada
Distribucion Chi CuadradaDistribucion Chi Cuadrada
Distribucion Chi Cuadrada
 
Trabajo de pruebas no paraemtricas 6 metodos
Trabajo de pruebas no paraemtricas 6 metodosTrabajo de pruebas no paraemtricas 6 metodos
Trabajo de pruebas no paraemtricas 6 metodos
 
Análisis de la varianza (ANOVA)
Análisis de la varianza (ANOVA)Análisis de la varianza (ANOVA)
Análisis de la varianza (ANOVA)
 
Anova Simple
Anova SimpleAnova Simple
Anova Simple
 
Medidas de dispersiòn Geonarkis
Medidas de dispersiòn GeonarkisMedidas de dispersiòn Geonarkis
Medidas de dispersiòn Geonarkis
 

Similar a SPSS pruebas no parametricas

Similar a SPSS pruebas no parametricas (20)

Estadistica III Unidad 5.pptx
Estadistica III Unidad 5.pptxEstadistica III Unidad 5.pptx
Estadistica III Unidad 5.pptx
 
SEMINARIO 8
SEMINARIO 8SEMINARIO 8
SEMINARIO 8
 
Planteamiento de Hipótesis para dos poblaciones (WORD)
Planteamiento de Hipótesis para dos poblaciones (WORD)Planteamiento de Hipótesis para dos poblaciones (WORD)
Planteamiento de Hipótesis para dos poblaciones (WORD)
 
UNIDAD II
UNIDAD IIUNIDAD II
UNIDAD II
 
Investigacion unidadii
Investigacion unidadiiInvestigacion unidadii
Investigacion unidadii
 
Investigacion unidad II
Investigacion unidad IIInvestigacion unidad II
Investigacion unidad II
 
Investigacion unidad II
Investigacion unidad IIInvestigacion unidad II
Investigacion unidad II
 
Investigacion unidadii
Investigacion unidadiiInvestigacion unidadii
Investigacion unidadii
 
ESTADISTICA UNIDAD II
ESTADISTICA UNIDAD IIESTADISTICA UNIDAD II
ESTADISTICA UNIDAD II
 
Investigacion unidad II
Investigacion unidad IIInvestigacion unidad II
Investigacion unidad II
 
El chi cuadrado
El chi cuadradoEl chi cuadrado
El chi cuadrado
 
Teoria estadistica-2do-parcial
Teoria estadistica-2do-parcialTeoria estadistica-2do-parcial
Teoria estadistica-2do-parcial
 
15 spss comparacion de medias
15 spss comparacion de medias15 spss comparacion de medias
15 spss comparacion de medias
 
15 spss comparacion de medias
15 spss comparacion de medias15 spss comparacion de medias
15 spss comparacion de medias
 
SPSS Función Analizar
SPSS Función AnalizarSPSS Función Analizar
SPSS Función Analizar
 
Segunda unidad de estadistica
Segunda unidad de estadisticaSegunda unidad de estadistica
Segunda unidad de estadistica
 
Planteamiento de hipotesis en mas de dos poblaciones (ji cuadrada)
Planteamiento de hipotesis en mas de dos poblaciones (ji cuadrada)Planteamiento de hipotesis en mas de dos poblaciones (ji cuadrada)
Planteamiento de hipotesis en mas de dos poblaciones (ji cuadrada)
 
Pruebas no parametricas
Pruebas no parametricasPruebas no parametricas
Pruebas no parametricas
 
SESIÓN 3.pptx
SESIÓN 3.pptxSESIÓN 3.pptx
SESIÓN 3.pptx
 
Análisis estadístico.
Análisis estadístico.Análisis estadístico.
Análisis estadístico.
 

SPSS pruebas no parametricas

  • 1. PRUEBAS NO PARAMÉTRICAS 1. PRUEBAS DE NORMALIDAD Para evaluar la normalidad de un conjunto de datos tenemos el Test de Kolmogorov- Smirnov y el test de Shapiro-Wilks La opción NNPLOT del SPSS permite la evaluación del ajuste de una variable continua a una curva normal, tanto de forma gráfica como analítica. Las pruebas analíticas de que dispone esta opción son: Kolmogorov-Smirnov con la modificación de Lillierfors y la prueba de Shapiro-Wilks. Esta última la realiza el SPSS si el tamaño muestral es inferior a 50, es decir, da por defecto las dos pruebas; mientras que si el nº de individuos es superior a 50, sólo da como resultado la de Kolmogorov-Smirnov. 1.1 La prueba de Kolmogorov-Smirnov con la modificación de Lillierfors es la más utilizada y se considera uno de los test más potentes para muestra mayores de 30 casos. En este test la Hipótesis nula Ho: es que el conjunto de datos siguen una distribución normal. Y la Hipótesis Alternativa H1: es que no sigue una distribución normal. Este test se basa en evaluar un estadístico: Dn = ⎟Fn (x) – F(x)⎟
  • 2. Fn (x): es la distribución empírica F (x): s la distribución teórica, que en este caso es la normal Si el valor del estadístico supera un determinado valor, que depende del nivel de significación con el que uno quiera rechazar la hipótesis nula, diremos que esa colección de datos no se distribuye según una distribución normal. Lillierfors tabuló este estadístico para el caso más habitual en el que desconocemos la media y la varianza poblacional y las estimamos a partir de los datos muestrales. El SPSS ya utiliza esta prueba modificada. 1.3 La prueba de Shapiro-Wilks se basa en estudiar el ajuste de los datos graficados sobre un gráfico probabilístico en el que cada dato es un punto cuyo valor de abscisa el valor observado de probabilidad para un valor determinado de la variable, y el de ordenada el valor esperado de probabilidad. En este test la Ho y la H1 son iguales que para la prueba anterior. El estadístico W de Shapiro-Wilks mide la fuerza del ajuste con una recta. Cuanto mayor sea este estadístico mayor desacurdo habrá con la recta de normalidad, por lo que
  • 3. podremos rechazar la hipótesis nula. La prueba de Shapiro-Wilks está considerada como la prueba más potente para muestra inferiores a 30 casos. 1.3 Test de Chi Cuadrado (χ2). Para comparar si un grupo de frecuencias observadas con unas frecuencias esperadas y decidir si existen diferencias. Grados de libertad : K -1 AQUÍ es donde se elige esta opción de χ2; como os dais cuenta es dentro de NO PARAMÉTRICAS AQUÍ nos da la opción de decir de dónde toma los datos esperados, es decir, los TEÓRICOS para comparar la distribución.
  • 4. El otro gráfico que SPSS denominado DETRENTED normal Plot, se basaen que si los datos se distribuyen normalmente los puntos deben distribuirse aleatoriamente alrededor del “0”. ¿Qué hacemos si comprobamos que una distribución no sigue una curva normal? Tenemos dos opciones: Podemos intentar tansformar la variable para que se distribuya según una normal Podemos utilizar otra metodología estadística que presupongan poco acerca de la distribución de la población muestreada. Tales métodos se denominan de Distribución Libre o No Paramétricos II CONTRASTE DE POSICIÓN: UNA MUESTRA CONTRASTE DE LOS SIGNOS PARA LA MEDIANA para variables continuas evaluamos las diferencias entre la mediana de la muestra y la poblacional, a través de su signo: +, - ó 0 TEST DE LOS RANGOS CON SIGNO DE WILCOXON similar al test de los signos por aumento o disminución de la mediana según la poblacional; pero teniendo además en cuenta “la magnitud del cambio”. Por tanto es más potente este test que el test de los signos. III CONTRASTE DE POSICIÓN: DATOS APAREADOS PARA DOS MUESTRAS VARIABLES CUALITATIVAS: TEST DE Mc NEMAR: evalúa las variaciones de una variable dicotómica antes y después de algo VARIABLES CUANTITATIVAS CONTRASTE DE LOS SIGNOS PARA LA MEDIANA DE LAS DIFERENCIAS: para variables continuas evaluamos las diferencias de antes y después de algo pero a través de su signo: +, - ó 0 TEST DE LOS RANGOS CON SIGNO DE WILCOXON: DATOS APAREADOS: similar al test de los signos por aumento o disminución de la variable; pero teniendo además en cuenta “la magnitud del cambio”. Por tanto es más potente este test que el test de los signos. Se elige AQUÍ
  • 5. Con este botón se pasan las parejas elegidas a la otra ventana AQUÍ se eligen los estadísticos descriptivos y de posición de todas las variables elegidas AQUÍ es donde se eligen las parejas AQUÍ se eligen los diferentes test a realizar PARA MÁS DE DOS MUESTRAS (K MUESTRAS) VARIABLES CUANTITATIVAS TEST DE FRIEDMAN: tenemos k variables en columnas y n elementos en filas. Ordenamos cada fila de menor a mayor según las diferentes columnas desde 1 hasta k (esto sería el rango que ocupa cada variable para ese caso). Si no hubiera diferencias entre las variables esperamos que los rangos estén repartidos en cada columna de manera uniforme y solo encontraremos entre ellas pequeñas diferencias debidas al azar. La hipótesis nula es que los rangos sumados para cada columna (cada variable) sean iguales; y la hipótesis alternativa es que al menos uno es diferente. El estadístico sigue una distribución de χ2 con grados de libertad K-1. VARIABLES CUALITATIVAS TEST DE KENDALL O COEFICIENTE DE CONCORDANCIA: este coeficiente mide el grado de concordancia entre un grupo de elementos (K) y un grupo de características (n). La respuesta es ordinal. La hipótesis nula es que no hay concordancia : W=0; y la Hipótesis Alternativa es que si la hay (W > 0). Este estadístico sigue una χ2 con grados de libertad: n- 1 TEST DE COCHRAN: válido para evaluar si la respuesta de un grupo de “n” elementos (filas) ante un conjunto de K características (columnas) es homogénea, siendo la respuesta dicotómica. La hipótesis nula es que las características son iguales a lo largo de los n elementos y la hipótesis alternativa: es que las características no son iguales. El estadístico es “Q” y si este toma un valor superior a un valor crítico, concluimos que la respuesta a las características estudiadas es significativamente distinta. Nos informa si hay acuerdo o no; pero no nos informa sobre la magnitud del mismo. III CONTRASTE DE POSICIÓN: DATOS NO APAREADOS DOS MUESTRAS TEST DE LA MEDIANA la prueba se fundamenta en analizar si las medianas de las dos poblaciones son distintas. Esta prueba es adecuada para comparar dos variables cuantitativas y los tamaños poblacionales pueden ser distintos. El test se basa en que si las dos medianas son iguales, la proporción de casos de cada muestra que son mayores o menores que la mediana global serán iguales. Pero por el contrario, si ambas medianas son diferentes, la proporción de casos por encima o por debajo de la mediana global serán significativamente diferentes en ambas muestras. Es decir, realiza tablas de contingencia al
  • 6. categorizar la variable continua en dos categorías según el valor de la mediana. Por tanto, la hipótesis nula: Ho es que la Mediana de A = Mediana de B; mientras que la hipótesis alternativa, H1: es que son diferentes. TEST DE MANN-WHITNEY: este prueba es aplicable para comparar 2 variables continuas independientes. Las dos muestras pueden tener dos tamaños diferentes. Es la prueba no paramétrica considerada más potente para comparar 2 variables continuas independientes. La Ho: es que no hay diferencias y la H1: es que si hay diferencias. AQUÍ es donde se elige la prueba NO PARAMÉTRICA para comparación de dos muestras independientes AQUÍ nos da la opción de realizar otros test estadísticos para comparar estas dos medianas El test de Kolmogorov-Smirnov lo que está evaluando es si las dos distribuciones son iguales (Ho) El test de rachas de Wald_Wolfowitz, también es un test para comparar dos distribuciones cuantitativas independientes, donde puede detectar diferencias entre dichas distribuciones en relación a la tendencia central, dispersión y oblicuidad El test de los valores extremos de Moses trata de determinar si los valores extremos, mayores y menores, de las dos variables son iguales o distintos. La Ho: es que no hay diferencias entre los valores extremos de dos distribuciones PARA MÁS DE DOS MUESTRAS (K MUESTRAS) TEST DE KRHUSKALL WALLIS: Para la comparación de una misma variable cuantitativa en más de tres grupos. Es la prueba no paramétrica considerada más potente para comparar >2 variables continuas independientes. Es el “similar” al test de ANOVA para un factor.
  • 7. TEST DE LA MEDIANA la prueba se fundamenta en analizar si las medianas de las más de dos poblaciones son distintas. Esta prueba es adecuada para comparar más de dos variables cuantitativas y los tamaños poblacionales pueden ser distintos. El test se basa en que si las dos medianas son iguales, la proporción de casos de cada muestra que son mayores o menores que la mediana global serán iguales. Pero por el contrario, si ambas medianas son diferentes, la proporción de casos por encima o por debajo de la mediana global serán significativamente diferentes en ambas muestras. Es decir, realiza tablas de contingencia al categorizar la variable continua en dos categorías según el valor de la mediana. Por tanto, la hipótesis nula: Ho es que la Mediana de A = Mediana de B=...= Mediana de n; mientras que la hipótesis alternativa, H1: es que al menos 1 es diferente. AQUÍ se elige esta opción AQUÍ se ponen los rangos de la variable de agrupación AQUÍ se elige el test a realizar