Cada uno de los grupos sigue una distribución normal (prueba paramétrica).
Los grupos son totalmente independientes.
Existe homocedasticidad; es decir hay homogeneidad de varianza.
Es una distribución que depende de los grados de libertad del numerador y de los grados de libertad del denominador
ANOVA de una vía, compara tres o mas grupos independientes, teniendo una variable clasificatoria (independiente) y una de resultado (dependiente)
2. Propósito de la Clase
• Reconocer los tipos de variaciones en un análisis con
más de dos poblaciones.
• Realizar una prueba ANOVA de manera manual y con
software.
3.
4.
5. ANOVA
• Es un tipo de análisis estadístico que sirve para determinar si
existen diferencias estadísticamente significativas entre las medias
de tres o mas grupos.
• Es decir partimos desde el siguiente supuesto:
𝑯𝑶: 𝜇𝑖 = 𝜇𝑗 = ⋯ = 𝝁𝒌
𝑯𝟏: ∃ⅈ, 𝑗; ⅈ ≠ 𝑗 𝜇𝑖 ≠ 𝜇𝑗
𝑯𝟏: 𝝁𝟏 ≠ 𝝁𝟐 ≠ 𝝁𝟑
7. GRUPO 1
(PLANTAS A)
GRUPO 3
(PLANTAS C)
GRUPO 2
(PLANTAS B)
(PLANTAS A) (PLANTAS B)
(PLANTAS A) (PLANTAS C)
(PLANTAS B) (PLANTAS C)
𝜮
% Error
% Error
% Error
Error
8. Suposiciones del ANOVA
•Cada uno de los grupos sigue una distribución
normal (prueba paramétrica).
•Los grupos son totalmente independientes.
•Existe homocedasticidad; es decir hay
homogeneidad de varianza.
9. • ANOVA de una vía, compara tres o mas
grupos independientes, teniendo una
variable clasificatoria (independiente) y
una de resultado (dependiente)
Tipos de ANOVA
ANOVA de medidas repetidas, teniendo una variable
clasificatoria (independiente), y una de resultado
(dependiente).
ANOVA factorial, compara varios grupos, teniendo
mas de una variable clasificatoria (independiente) y
una de resultado(dependiente).
MANOVA, compara varios grupos teniendo una
variable clasificatoria (independiente), y varias de
resultado (dependiente).
12. Distribución F
• Es una distribución que
depende de los grados
de libertad del
numerador y de los
grados de libertad del
denominador
𝐹 =
𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 𝑚𝑢𝑒𝑠𝑡𝑟𝑎
𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒𝑛𝑡𝑟𝑜 𝑑𝑒 𝑙𝑎𝑠 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠
𝐹𝑐𝑟𝑖𝑡
Zona
de No
Rechaz
o
Zona
de
Rechaz
o
13. Descomposición de la variabilidad total:
Variabilidad total en los
datos
Suma de cuadrados total
SCTot
Variabilidad residual
(diferencia dentro de
cada tratamiento)
= +
Variabilidad entre
tratamientos
Suma de cuadrados de los
tratamientos.
Variación Inter grupo.
SCTrat
Suma de cuadrados del
error.
Variación Intra grupo.
SCRes
14.
15.
16.
17.
18.
19.
20. • 1ro: Definimos las variables en estudio:
V. Dependiente: Ventas
V. Independiente: Marca
2do: Definimos las hipótesis
𝑯𝟏: ∃ 𝑦𝑖, 𝑦𝑗; ⅈ ≠ 𝑗 𝜇 𝑦𝑖
≠ 𝜇𝑦𝑗
𝑯𝑶: 𝜇𝒀𝟏 = 𝜇𝒀𝟐 = 𝝁𝒀𝟑
Ó
𝑯𝑶: Los promedios de ventas de las 3 marcas de AOE no
difieren.
𝑯𝟏: Al menos unos de los promedios de ventas de las 3
marcas de AOE difiere.
21. 3ro: Establecemos la significancia:
La significancia siempre va de acuerdo a la subjetividad del
investigador, normalmente se asume una significancia de 𝜶 = 𝟎, 𝟎𝟓
23. F. Observado ó
calculado.
Función
estandarizada
F tabular
Se ubica en la tabla F
de Fisher
Se ubica en la tabla F
de Fisher
Se observa que:
F. Calculado < F. Tabular
⇒ Se acepta la hipótesis nula.
24. Referencias Bibliográficas
• Larson, R. y Edwards, B. (2016). Cálculo. México: Cengage Learning.
• Cifra, M., Pokorný, J., Havelka, D. y Kucera, O. (2010). Electric field
generated by axial longitudinal vibration modes of microtubule. Bio
System, 100(2), 122-131.
• Santos-Febres, M. (12 de abril de 2013). Sonia Sotomayor o el abrazo
de la diáspora [Mensaje en un blog]. Recuperado de
http://mayrasantosfebres.blogspot.com/2013/04/sonia-sotomayor-o-
el-abrazo-dela.html