Este documento proporciona una descripción general del análisis de varianza (ANOVA), incluidos los supuestos, estadísticos F, pruebas post hoc y alternativas no paramétricas como Kruskal-Wallis y Friedman. Explica cómo el ANOVA se puede usar para comparar las medias de tres o más grupos independientes o medidas repetidas y las pruebas para realizar comparaciones múltiples.
2. Análisis de varianza
Grupos
independientes
Distribución normal
Distribución normal
ANOVA para medidas
repetidas
Friedman
Si
Si
No
No
No
Si
1 factor
2 o más factores
No. de
factores
Kruskal - Wallis
ANOVA de 1 vía
ANOVA de 2 o más vías
3 o más grupos
3. Análisis de varianza
1 vía
Para determina si las medias de K
poblaciones son distintas
Ho: mi = m2 =… mk
Hi: Alguna mi es distinta a las otras
4. Supuestos ANOVA
La variable dependiente debe ser cuantitativa continua.
Muestra aleatoria y observaciones independientes.
La distribución de la variable dependientes debe ser normal
en cada uno de los grupos.
Homocedasticidad: homogeneidad de las varianzas entre
los grupos.
5. Análisis de varianza
Suma de cuadrados entre los
grupos “Inter” ( Efecto del
grupo)
Suma de cuadrados
Total
Suma de cuadrados dentro
de los grupos “Intra” (error
aleatorio)
+
Variabilidad total de los datos es la suma de dos variabilidades:
6. Análisis de varianza
Efecto debido a la pertenencia a los grupos
Dispersión debida al azar ( error aleatorio)
F =
Numerador: variabilidad existente entre las medias de cada grupo.
Denominador: variabilidad existente dentro de cada grupo.
El estadístico F se distribuye según el modelo de probabilidad F de
Fisher-Snedecor (gl: numerador = k-1 y gl denominador n-k).
7. Fuente de Variación Suma de cuadrados
(SS)
G. L. Cuadrados
medios
Valor
F
calculada
p
Entre grupos SSA=ni (ŷi – ŷ)2 k -1 Sg
2=SSA/G.L. Sg
2/ Se
2 Fcal > Ftab
Dentro de grupos
(error)
SSE= (yij – ŷi)2 N - k Se
2=SSE/G.L.
Total SST=yij
2 – (yij)2/N N-1
yij = valor individual k = número de grupos
ŷ = promedio general N = Total de individuos
ŷi = promedio de cada grupo
ni = Número de sujetos de cada grupo
Análisis de varianza
8. EJERCICIO
Fuente de Variación Suma de
cuadrados
(SS)
G. L. Cuadrados
medios
Valor
F calculada
p
Entre grupos
Dentro de grupos
(error)
Total
9. Análisis de varianza
Una vez que se ha rechazado que todos los grupos son iguales
hay que determinar cuales de ellos son diferentes entre sí.
Comparaciones múltiples post hoc o a posteriori.
Estas comparaciones permiten controlar la tasa de error al
efectuar varios contrastes utilizando las mismas medias.
ANOVA mantiene el error alfa a un nivel constante, haciendo una
decisión global única acerca de si existe una diferencia significativa
entre las 3 o más medias muestrales que buscamos comparar.
10. Análisis post hoc
DMS (LSD): Diferencia mínima significativa. Se basa en al
distribución t de Student. No ejerce ningún control sobre la tasa de
error, para el conjunto de comparaciones ésta puede llegar a 1-(1-
a)k.
Bonferroni: Basado en la distribución t de Student. Controla la tasa
de error dividiendo el nivel de significancia (a) entre el número de
comparaciones (k) llevadas a cabo.
No se recomienda Bonferroni cuando hay 5 o más grupos debido a que
es conservador (penaliza mucho la p).
11. Análisis post hoc
Scheffé: Basado en la distribución F, controla la tasa de error
para el conjunto total de comparaciones que es posible
diseñar con J medias (A vs. B, A vs. C, A + B vs. C, etc.)
El tamaño de muestra tiene que ser igual en cada grupo
Es muy versátil pero también muy conservadora.
Más conservador que Bonferroni cuando las comparaciones de
interés son pocas.
Scheffé recomienda usar un valor tabulado global a =0.10, en
lugar de 0.05, para compensar lo conservador de la prueba.
12. Análisis post hoc
Pruebas non tan flexibles como LSD y no tan conservadoras
como Scheffé.
Student Newman Keuls (S-N-K). También llamado N-K.
Se basa en la distribución del rango estudentizado.
Ordenar las medias de mayor a menor y va comparando por parejas las
que se sitúan en los extremos.
Secuencial (por pasos).
Se puede usar con tamaños de muestra diferentes
Tukey. Diferencia honestamente significativa (HSD) Tukey.
Equivalente a la prueba S-N-K, pero modifica el valor crítico del
rango estudentizado.
Es más conservadora que S-N-K. Todos los grupos deben tener el mismo
número de pacientes
13. Análisis post hoc
Dunnet. Se utiliza para comparar cada grupo con un grupo control.
Controla la tasa de error para k grupos-1 comparaciones.
Aplicación muy especializada.
Duncan: Utiliza el mismo principio que S-N-K, pero usa
multiplicadores más pequemos por lo que se encuentran diferencias
significativas con diferencias de las medias más pequeñas.
Demasiado liberal,
Ésta y la de LSD no son recomendadas.
14. Análisis post hoc
Cuado no hay homogeneidad de varianzas:
T2 de Tamahane
Demasiado conservadora
Games-Howell
Demasiado liberal
T3 de Dunnett
Modificación a T2 de Tamahane
C de Dunnett
Modificación al método de Games-Howell
Las más recomendadas
Son las pruebas de
Dunnett, ambas son
equivalentes.
15.
16.
17.
18.
19. Si es diferente se
realiza una prueba
Post Hoc
Homogeneidad de varianza
21. Kruskal-Wallis
Prueba no paramétrica de comparación de tres o más
muestras independientes.
Tiene distribución libre y se utiliza
Cuando no se cumplen los supuestos de ANOVA.
Cuando la escala de medición de la variable dependiente
es ordinal.
22. Kruskal-Wallis
Donde:
N = número total de casos
n= número de casos de cada grupo
R = promedio de rangos de cada grupo
Donde:
T= t3 - t
t = número de veces que se
repite cada valor
Sin empates Con empates
23. Kruskal-Wallis
Cuando alguno de los grupos tiene más de cinco
sujetos o se comparan más de tres grupos, se
aproxima a la distribución ji cuadrada:
gl=k-1
K = número de grupos.
24. Comparaciones múltiples
Existen varios métodos, uno es empleando la prueba U de
Mann-Whitney, aplicando la corrección de Bonferroni.
Comparaciones posibles = (k) (k-1)
2
k= número de grupos a comparar
Ejemplo:
Para mantener alfa de 0.05 con tres comparaciones:
P = 0.05/3
El nivel de p para rechazar la hipótesis nula será de 0.0167
37. ANOVA MEDIDAS REPETIDAS
Cuando tenemos dos o más grupos y variables
cuantitativas medidas antes y después
Lo ideal es utilizarla en estudios con medidas
repetidas de los mismo sujetos
Utiliza la prueba de esfericidad análoga a la
homocedasticidad de varianza