Este documento describe cinco métodos para asignar conejos a cuatro dietas diferentes (A, B, C, D) de forma aleatoria en un experimento. El Método 5 se considera un diseño completamente al azar adecuado, donde se asignan números a las jaulas y letras a las dietas, y se seleccionan aleatoriamente para asignar cada conejo a una jaula y dieta. El documento también explica el modelo estadístico para un diseño completamente al azar, donde las observaciones se suponen seleccionadas aleatoriamente de p
2. Ejemplo
Suponga que tenemos 4 dietas diferentes que queremos
comparar. Las dietas están etiquetadas A,B,C y D.
Estamos interesados en estudiar si las dietas afectan la tasa
de coagulación en conejos. La tasa de coagulación es el
tiempo en segundos que tarda una cortada en dejar de
sangrar.
Tenemos 16 conejos para el experimento, por lo que usaremos
4 en cada dieta.
Los conejos están en una jaula grande hasta que se inicie el
experimento, momento en que se transferirán a otras jaulas.
Cómo asignamos los conejos a los cuatro grupos
tratamiento?
Diseño de experimentos – p. 2/111
3. Método 1
Supongamos que los conejos se atrapan "al azar". Atrapamos
cuatro conejos y los asignamos a la dieta A. Atrapamos otros
cuatro y los asignamos a la dieta B y así sucesivamente.
Dado que los conejos fueron "atrapados al azar", esto
producirá un diseño completamente al azar.
Diseño de experimentos – p. 3/111
4. Método 1
No es necesariamente cierto.
Los primeros cuatro conejos atrapados pueden ser los más
lentos y débiles, aquellos menos capaces de escapar. Esto
puede sesgar los resultados.
Si los resultados del experimento dan desventaja a la dieta A,
no habrá forma de determinar si los resultados son a
consecuencia de la dieta A o del hecho de haber asignado los
conejos más débiles a esa dieta por nuestro "proceso de
aleatorización".
Diseño de experimentos – p. 4/111
5. Método 2
Atrape a todos los conejos y etiquételos del 1 al 16.
Seleccione cuatro números aleatorios (sin reemplazo) del 1 al
16 y ponga los conejos con esa etiqueta en una jaula que
recibirá la dieta A.
Entonces, seleccione otros cuatro números aleatorios y ponga
los conejos correspondientes en otra jaula que recibirá la dieta
B.
Así sucesivamente hasta tener cuatro jaulas con cuatro
conejos en cada una.
Diseño de experimentos – p. 5/111
6. Método 2
No hay repeticiones.
El diseño es un diseño completamente al azar pero no tiene
repeticiones.
Hay 16 conejos, pero los conejos en cada jaula no son
independientes. Si un conejo come mucho, los otros en la
jaula tienen menos para comer.
La unidad experimental es la menor unidad de material
experimental a la cual se le aplica un tratamiento en forma
independiente. En este caso, las jaulas son las unidades
experimentales. Para un diseño completamente al azar con
repeticiones, cada conejo debe estar en su propia jaula.
Diseño de experimentos – p. 6/111
7. Método 3
En una urna ponga las letras A,B,C y D en pedazos de papel
separados.
Atrape un conejo, saque un pedazo de papel al azar de la urna
y asigne el conejo a la dieta que indique el papel. No
reemplace el papel. Atrape el segundo conejo y seleccione al
azar otro pedazo de papel de la urna de los tres que quedan.
Asigne el conejo a la dieta correspondiente.
Continue hasta que los primeros cuatro conejos sean
asignados a una de las cuatro dietas. De esta manera, todos
los conejos lentos tienen diferentes dietas.
Coloque otra vez los cuatro pedazos de papel en la urna y
repita el procedimiento hasta que los 16 conejos estén
asignados a una dieta.
Diseño de experimentos – p. 7/111
8. Método 3
Este no es un diseño completamente al azar.
Ya que se seleccionaron los conejos en bloques de 4, y cada
uno asignado a una de las dietas, el diseño es el bloques al
azar.
El tratamiento es Dieta pero se ha bloqueado a través del
grado de "atrapabilidad".
Diseño de experimentos – p. 8/111
9. Método 4
Atrape a todos los conejos y márquelos del 1 al 16. Ponga 16
piezas de papel en una urna, con las letras A, B, C y D
repetidas cuatro veces cada una.
Ponga otros 16 pedazos de papel numerados del 1 al 16 en
otra urna. Tome un pedazo de papel de cada urna. El conejo
con el número seleccionado es asignado a la dieta
seleccionada.
Para hacer más fácil de recordar cuál conejo tiene cuál dieta,
las jaulas se acomodan como se muestra abajo:
A A A A
B B B B
C C C C
D D D D
Diseño de experimentos – p. 9/111
10. Método 4
El método 4 tiene algunas deficiencias. La asignación de los
conejos a los tratamientos es un diseño completamente al
azar. Sin embargo, el arreglo de las jaulas crea un sesgo en
los resultados.
Puede haber cambios climáticos y de luz que afecten de forma
diferencial a los tratamientos, de tal manera que, cualquier
diferencia observada no puede ser atribuida a la dieta, sino
que podría ser resultado de la posición de la jaula.
La posición de la jaula no es parte del tratamiento, pero debe
ser considerada. En un diseño completamente al azar, todos
los conejos tienen la misma probabilidad de recibir cualquier
dieta y en cualquier posición de la jaula.
Diseño de experimentos – p. 10/111
11. Método 5
Marque las jaulas del 1 al 16.
1 5 9 13
2 6 10 14
3 7 11 15
4 8 12 16
Ponga 16 pedazos de papel en una urna, numerados del 1 al
16. En otra urna ponga 16 pedazos de papel, marcados con
las letras A, B C y D.
Atrape un conejo. Seleccione un número y una letra de cada
urna. Ponga el conejo en la jaula indicada por el número
escogido y asígnelo a la dieta indicada por la letra.
Repita sin reemplazo hasta que todos los conejos hayan sido
asignados a una dieta y una jaula.
Diseño de experimentos – p. 11/111
12. Método 5
Si, por ejemplo, el primer número seleccionado fué 7 y la
primera letra B, entonces el primer conejo se pone en la jaula
7 y se alimenta con la dieta B.
1 5 9 13
2 6 10 14
3 7B 11 15
4 8 12 16
Diseño de experimentos – p. 12/111
13. Método 5
Un ejemplo de asignación completa es el siguiente:
1C 5A 9B 13 D
2D 6B 10 D 14 C
3C 7B 11 A 15 D
4A 8A 12 C 16 B
Note que el diseño completamente al azar no toma en cuenta
las diferencias en la altura de las jaulas. Es solamente una
asignación completamente al azar.
En este ejemplo vemos que la mayoría de los conejos con la
dieta A están en jaulas de la parte de abajo y los de la dieta D
están en la parte superior. Un diseño completamente al azar
supone que estas posiciones no producen una diferencia
sistemática en la respuesta (tiempo de coagulación).
Si creemos que la posición afecta la respuesta, deberíamos
usar un diseño de bloques al azar.
Diseño de experimentos – p. 13/111
14. Diseño completamente al azar, un factor
Ejemplo: Disminución del crecimiento de bacterias en carne
almacenada.
La vida en estante de carne almacenada es el tiempo en que
el corte empacado se mantiene bien, nutritivo y vendible.
El empaque estándar con aire del medio ambiente tiene una
vida de 48 horas. Después se deteriora por contaminación
bacterial, degradación del color y encogimiento.
El empaque al vacío detiene el crecimiento bacterial, sin
embargo, se pierde calidad.
Estudios recientes sugieren que al controlar ciertos gases de
la atmósfera se alarga la vida en estante.
Diseño de experimentos – p. 14/111
15. Diseño completamente al azar, un factor
Hipótesis de investigación: Algunas formas de gases
controlados pueden mejorar la efectividad del
empacamiento para carne.
Diseño de tratamientos: Un factor con 4 niveles:
1. Aire ambiental con envoltura plástica
2. Empacado al vacío
3. Mezcla de gases:
s 1% CO (monóxido de carbono)
s 40% O2 (oxígeno)
s 59% N (nitrógeno)
4. 100% CO2 (bióxido de carbono)
Diseño experimental: Completamente al azar.
Diseño de experimentos – p. 15/111
16. Diseño completamente al azar, un factor
Tres bisteces de res, aproximadamente del mismo tamaño (75
grs.) se asignaron aleatoriamente a cada tratamiento. Cada
bistec se empaca separadamente con su condición asignada.
Variable de respuesta: Se mide el número de
bacterias psichnotropicas en la carne después de 9
días de almacenamiento a 4◦ C.
Estas bacterias se encuentran en la superficie de la
carne y aparecen cuando la carne se echó a perder.
La medición fué el logaritmo del número de
bacterias por cm2 .
Diseño de experimentos – p. 16/111
17. Diseño completamente al azar, un factor
Cómo aleatorizar?
Se obtiene una permutación aleatoria de los números 1 a 12. Para esto se
toma una secuencia de números de 2 dígitos de una tabla de números
aleatorios y se les asigna el rango que les corresponda.
Por ejemplo:
# aleatorio 52 56 20 99 44 34 62 60 31 57 40 78
rango 6 7 1 12 5 3 10 9 2 8 4 11
trat 1 1 1 2 2 2 3 3 3 4 4 4
u.e. 1 2 3 4 5 6 7 8 9 10 11 12
trat 1 3 2 4 2 1 1 4 3 3 4 2
Diseño de experimentos – p. 17/111
18. Diseño completamente al azar, un factor
Modelo estadístico para el experimento
El modelo estadístico para estudios comparativos supone que
hay una población de referencia de u.e. En muchos casos la
población es conceptual. En el ejemplo, es posible imaginar
una población de carne empacada.
Cada unidad de la población tiene un valor de la variable de
respuesta, y, la cual tiene media µ y varianza σ 2 .
Se supone una población de referencia para cada tratamiento
considerado en el estudio, y las variables en el experimento se
suponen seleccionadas aleatoriamente de dicha población de
referencia, como resultado de la aleatorización.
Nota. Para estudios observacionales, suponemos que las
unidades observadas se seleccionaron aleatoriamente de
cada una de las poblaciones.
Diseño de experimentos – p. 18/111
20. Diseño completamente al azar, un factor
Modelo estadístico lineal para un diseño completamente al
azar.
Modelo de medias:
yij = µi + ǫij i = 1, 2, . . . , t j = 1, 2, . . . , r
donde
yij es la observación de la j-ésima u.e. del i-ésimo tratamiento,
µi es la media del i-ésimo tratamiento,
ǫij es el error experimental de la unidad ij.
Suponemos que hay t tratamientos y r repeticiones en cada
uno.
En el ejemplo de la carne empacada, tenemos:
Diseño de experimentos – p. 20/111
22. Diseño completamente al azar, un factor
El modelo:
yij = µi + ǫij
lo llamaremos modelo completo ya que incluye una media
separada para cada una de las poblaciones definidas por los
tratamientos.
Si no hay diferencia entre las medias de las poblaciones, es
decir,
µ1 = µ2 = µ3 = µ4 = µ
se genera el modelo reducido
yij = µ + ǫij
que establece que las observaciones provienen de la misma
población con media µ.
Diseño de experimentos – p. 22/111
23. Diseño completamente al azar, un factor
El modelo reducido representa la hipótesis de no diferencia
entre las medias
H0 : µ1 = µ2 = µ3 = µ4 = µ
El modelo completo representa la hipótesis alternativa:
Ha : µi = µk i = k
El investigador debe determinar cuál de los dos modelos
describe mejor a los datos en el experimento.
Diseño de experimentos – p. 23/111
24. Diseño completamente al azar, un factor
yij = µ + ǫij yij = µi + ǫij
Diseño de experimentos – p. 24/111
25. Diseño completamente al azar, un factor
Pregunta de investigación: Hay más crecimiento bacterial
con algunos métodos de empacado que con otros?
Pregunta estadística: Cuál modelo describe mejor los
resultados del experimento?
Se requiere un método para estimar los parámetros de los dos
modelos y con base en algun criterio objetivo determinar cuál
modelo o hipótesis estadística se ajusta mejor a los datos del
experimento.
Diseño de experimentos – p. 25/111
26. Diseño completamente el azar, un factor
Los estimadores de mínimos cuadrados son aquellos que
resultan de minimizar la suma de cuadrados de los errores
experimentales.
Si los errores experimentales son independientes con media
cero y varianzas homogéneas, los estimadores de mínimos
cuadrados son insesgados y tienen varianza mínima.
Nota. El muestreo aleatorio en los estudios observacionales y
la aleatorización en los experimentales aseguran la suposición
de independencia.
Diseño de experimentos – p. 26/111
27. Estimadores para el modelo completo
yij = µi + ǫij i = 1, . . . , t j = 1, . . . , r
ǫij = yij − µi
t r t r
2
SSEc = ǫ2 =
ij (yij − µi )
i=1 j=1 i=1 j=1
La SSEc es una medida de qué tan bien se ajusta el modelo a
los datos.
Queremos determinar los estimadores µi tales que se
ˆ
minimice esta SSEc .
Vamos a tener t ecuaciones normales, una para cada
tratamiento, encontradas a partir de derivar la SSEc con
respecto a cada µi e igualarlas a cero.
Diseño de experimentos – p. 27/111
28. Estimadores para el modelo completo
Para una i:
r r
∂ 2
(yij − µi ) = −2 (yij − µi )
∂µi j=1 j=1
igualando a cero
r
−2 (yij − µi )
ˆ = 0
j=1
r
yij − rµi
ˆ = 0
j=1
r
j=1 yij
ˆ
µi = = yi.
¯
r
Diseño de experimentos – p. 28/111
29. Estimadores para el modelo completo
Por lo tanto,
ˆ
µi = yi
¯ i = 1, . . . , t
Entonces,
t r
2
SSEc = (yij − µi )
ˆ
i=1 j=1
t r
2
= (yij − yi. )
¯
i=1 j=1
t r
2
= (yij − yi. )
¯
i=1 j=1
Diseño de experimentos – p. 29/111
30. Estimadores para el modelo completo
La varianza muestral del i-ésimo tratamiento es:
r 2
2 j=1 (yij − yi. )
¯
Si =
r−1
es una estimador de σ 2 de los datos del i-ésimo grupo.
t r 2
i=1 j=1 (yij − yi. )
¯ SSEc
S2 = =
t(r − 1) t(r − 1)
es un estimador combinado (pooled) de σ 2 de todos los
datos del experimento.
Es un buen estimador si podemos hacer la suposición de que
σ 2 es homogénea en todos los grupos.
Diseño de experimentos – p. 30/111
31. Estimadores para el modelo completo
Para los datos del ejemplo:
tratamiento comercial vacío mezcla CO2
7.66 5.26 7.41 3.51
6.98 5.44 7.33 2.91
7.80 5.80 7.04 3.66
µi = yi.
ˆ ¯ 7.48 5.50 7.26 3.36
r 2
j=1 (yij − yi. )
¯ 0.3848 0.1512 0.0758 0.3150
SSEc = 0.3848 + 0.1512 + 0.0758 + 0.3150 = 0.9268
SSEc 0.9268
S2 = = = 0.11585
t(r − 1) 4(2)
Diseño de experimentos – p. 31/111
32. Estimadores para el modelo reducido
yij = µ + ǫij
ǫij = yij − µ
t r t r
2 2
SSEr = ǫij = (yij − µ)
i=1 j=1 i=1 j=1
t r t r
∂ 2
(yij − µ) = −2 (yij − µ)
∂µ i=1 j=1 i=1 j=1
igualando a cero
t r t r
µ =
ˆ yij
i=1 j=1 i=1 j=1
rtµ = y..
y..
µ =
ˆ = y..
¯
rt
Diseño de experimentos – p. 32/111
33. Estimadores para el modelo reducido
Entonces,
t r t r
2 2
SSEr = (yij − µ) =
ˆ (yij − y.. )
¯
i=1 j=1 i=1 j=1
Para el ejemplo,
70.80
µ = y.. =
ˆ ¯ = 5.90
12
Diseño de experimentos – p. 33/111
35. Diseño completamente al azar, un factor
Siguiendo con el ejemplo:
Modelo completo yij = µi + ǫij SSEc = i j (yij − yi. )2 = 0.9268
¯
Modelo reducido yij = µ + ǫij SSEr = i j (yij − y.. )2 = 33.7996
¯
Diferencia:
SSEr − SSEc = (yij − y.. )2 −
¯ (yij − yi. )2
¯
i j i j
haciendo álgebra
= (¯i. − y.. )2 = r
y ¯ (¯i. − y.. )2
y ¯
i j i
En el ejemplo: SSEr − SSEc = 32.8728
Diseño de experimentos – p. 35/111
36. Diseño completamente al azar, un factor
SSEr − SSEc = SSt suma de cuadrados de tratamientos.
Representa la reducción en SSE al haber incluido
tratamientos en el modelo, también se le conoce como
reducción en suma de cuadrados debida a tratamientos.
Llamaremos SStotal = SSEr ya que es la suma de cuadrados
de las diferencias de cada observación y la media general y..
¯
Entonces, tenemos la partición:
SStotal = SSt + SSEc
(yij − y.. )2
¯ = (¯i. − y.. )2 +
y ¯ (yij − yi. )2
¯
i j i j i j
desviación de la desviación de la desviación de la
observación ij media del grupo observación ij
con respecto a con respecto a con respecto a
la media general la media general la media de su grupo
Diseño de experimentos – p. 36/111
37. Diseño completamente al azar, un factor
2
(yij − y.. )2
¯ = [(yij − yi. ) + (¯i. − y.. )]
¯ y ¯
i j i j
= (yij − yi. )2 +
¯ (¯i. − y.. )2
y ¯
i j i j
+2 (yij − yi. )(¯i. − y.. )
¯ y ¯
i j
(yij − yi. )(¯i. − y.. ) =
¯ y ¯ (¯i. − y.. )
y ¯ (yij − yi. )
¯
i j i j
= (¯i. − y.. )(yi. − r¯i. ) = 0
y ¯ y
i
Diseño de experimentos – p. 37/111
38. Diseño completamente al azar, un factor
Grados de libertad. Representan el número de piezas de
información independientes en las sumas de cuadrados.
En general, es el número de observaciones menos el número
de parámetros estimados de los datos.
Sea n = rt, el tamaño de muestra total.
t r
Así, SStotal = i j (yij − y.. )2 donde y.. es el estimador de
¯ ¯
µ, tiene n − 1 g.l.
t r
SSE = i j (yij − yi. )2 se estimaron t parámetros
¯
(µ1 , µ2 , . . . , µt ) por lo tanto tiene n − t g.l.
SSt = SStotal − SSE = (n − 1) − (n − t) = t − 1 g.l.
Diseño de experimentos – p. 38/111
39. Tabla de Análisis de Varianza
ANOVA
F.V. g.l. SS CM
Tratamientos t−1 SSt CMt = SSt /t − 1
Error n−t SSE CM E = SSE/n − t = σ 2
ˆ
Total n−1 SStotal
Se puede demostrar que:
E (CM E) = σ2
t
1
E (CMt ) = σ2 + r(µi − µ)2 ;
¯ µ=
¯ µi /t
t−1 i=1 i
Diseño de experimentos – p. 39/111
40. Tabla de Análisis de Varianza
Si suponemos ǫij ∼ N ID(0, σ 2 ) i = 1, . . . , t j = 1, . . . , r
en el modelo completo yij = µi + ǫij
Entonces, yij ∼ N ID(µi , σ 2 ).
Se puede demostrar que:
SStotal i j (yij − y.. )2
¯
= ∼ χ2
n−1
σ2 σ2
SSE i j (yij − yi. )2
¯
= ∼ χ2
n−t
σ2 σ2
Cuando H0 : µ1 = µ2 = . . . = µt es cierta
SSt r(¯i. − y.. )2
y ¯
= i
∼ χ2
t−1
σ2 σ2
Diseño de experimentos – p. 40/111
41. Tabla de Análisis de Varianza
Por el Teorema de Cochran (Montgomery, 2001, pág. 69), SSt
y SSE son independientes, por lo tanto cuando H0 es cierta,
SSt /σ 2 (t − 1) CMt
F0 = 2 (n − t)
= ∼ Ft−1,n−t
SSE/σ CM E
Además, E (CMt ) = σ 2 + θt = σ 2 cuando θt = 0 que es
2 2
cuando H0 es cierta. Es decir,
E (CMt ) = E (CM E) cuando H0 es cierta
E (CMt ) > E (CM E) cuando H0 no es cierta
Entonces, si CMt > CM E, o sea, valores grandes de F0
llevan a rechazar la hipótesis nula H0 : µ1 = µ2 = . . . = µt .
Por lo tanto, la región de rechazo es:
α
F0 > Ft−1,n−t
Diseño de experimentos – p. 41/111
42. Tabla de Análisis de Varianza
ANOVA
F.V. g.l. SS CM F E(CM )
SSt CMt
Tratamientos t−1 SSt CMt = t−1 CM E σ 2 + θt
2
SSE
Error n−t SSE CM E = n−t σ2
Total n−1 SStotal
t
2
SSt = r (¯i. − y.. )
y ¯
i=1
t r
2
SSE = (yij − yi. )
¯
i=1 j=1
t r
2
SStotal = (yij − y.. )
¯
i=1 j=1
Diseño de experimentos – p. 42/111
43. Tabla de Análisis de Varianza
En el ejemplo de empacado de carne:
F.V. g.l. SS CM F Pr > F
trat 3 32.8728 10.958 94.55 0.000
error 8 0.9268 0.1159
total 11 33.7996
Por lo tanto, se rechaza la hipótesis H0 : µ1 = µ2 = . . . = µ4 ,
es decir, hay algún método de empaque que tiene diferente
comportamiento en promedio.
Diseño de experimentos – p. 43/111
44. Diseño completamente al azar, un factor
Se quieren comparar t niveles de un factor, lo que implica t
tratamientos y se dispone de ni u.e. para el tratamiento i,
i = 1, . . . , t. Hay dos situaciones:
1. Los t tratamientos son escogidos específicamente por el
investigador. En esta situación deseamos probar hipótesis
acerca de las medias de los tratamientos y nuestras
conclusiones se aplicarán solamente a los niveles del
factor considerados en el análisis. Las conclusiones no se
pueden extender a tratamientos similares que no fueron
explícitamente considerados. Este es el modelo de
efectos fijos.
2. Los t tratamientos son una muestra aleatoria de una
población de tratamientos. En esta situación nos gustaría
poder extender las conclusiones (las cuales están basadas
en la muestra de tratamientos considerada) a todos los
tratamientos de la población. Este es el modelo de
efectos aleatorios.
Diseño de experimentos – p. 44/111
45. Diseño completamente al azar, un factor
A las cantidades n1 , n2 , . . . , nt se les llama repeticiones de
cada tratamiento.
Si ni = r ∀i se dice que el diseño es balanceado.
yij es la respuesta de la u.e. j del tratamiento i,
i = 1, . . . , t j = 1, . . . , ni .
Diseño de experimentos – p. 45/111
47. Diseño completamente al azar
t
n = ni
i=1
ni
yi. = yij i = 1, . . . , t total tratamiento i
j=1
ni
j=1 yij
yi.
¯ = i = 1, . . . , t media tratamiento i
ni
t ni t
y.. = yij = yi. total de las observaciones
i=1 j=1 i=1
y..
y..
¯ = media general
n
Diseño de experimentos – p. 47/111
48. Diseño completamente al azar
Se tienen t muestras aleatorias independientes de tamaños
n1 , n2 , . . . , nt respectivamente.
y11 , y12 , . . . , y1n1 es una muestra aleatoria de N (µ1 , σ 2 )
y21 , y22 , . . . , y2n2 es una muestra aleatoria de N (µ2 , σ 2 )
yt1 , yt2 , . . . , ytnt es una muestra aleatoria de N (µt , σ 2 )
Diseño de experimentos – p. 48/111
49. Diseño completamente al azar
Las observaciones en cada una de estas muestras se pueden
representar por el modelo lineal simple
yij = µi + ǫij i = 1, . . . , t j = 1, . . . , ni
con ǫij error experimental en la observación j-ésima del
tratamiento i-ésimo.
Estamos suponiendo independencia entre y dentro de las
muestras, es decir, ǫij son independientes y ǫij ∼ N (0, σ 2 ).
Diseño de experimentos – p. 49/111
50. Diseño completamente al azar
Otra forma de verlo
Como suponemos que las u.e. son homogéneas, es decir, el
promedio de respuesta de todas las u.e. es el mismo (µ) antes
de aplicar los tratamientos, y si se observan en condiciones
similares, las respuestas las podemos modelar como
yij = µ + ǫij
Diseño de experimentos – p. 50/111
51. Modelo de efectos
Entonces al aplicar el tratamiento i-ésimo a un grupo (de
tamaño ni ) de u.e. se introduce un efecto (τi ) de ese
tratamiento en las variables por observar.
El modelo se puede escribir como:
Modelo de efectos
yij = µ + τi + ǫij i = 1, . . . , t j = 1, . . . , ni
donde
µ es la media general, común a todas las u.e.
τi es el efecto del tratamiento i-ésimo
Diseño de experimentos – p. 51/111
53. Modelo de efectos
El modelo de efectos implica que se empieza el experimento
con u.e. con la misma capacidad de respuesta (µ) y con la
misma varianza (σ 2 ).
La aplicación de los tratamientos tiene el efecto de alterar las
medias, que ahora son µi = µ + τi , pero supone que no se
modifican las varianzas.
En este caso, la hipótesis a probar es:
H0 : τ 1 = τ 2 = . . . = τ t = 0
Ha : τi = 0 para al menos una i
Diseño de experimentos – p. 53/111
54. Modelo de efectos
Estimadores de mínimos cuadrados:
yij = µ + τi + ǫij i = 1, . . . , t j = 1, . . . , ni
t ni t ni
SSE = ǫ2
ij = (yij − µ − τi )2
i=1 j=1 i=1 j=1
t ni t ni
∂
(yij − µ − τi )2 = −2 (yij − µ − τi )
∂µ i=1 j=1 i=1 j=1
t ni ni
∂
(yij − µ − τi )2 = −2 (yij − µ − τi ) i = 1, . . . , t
∂τi i=1 j=1 j=1
Diseño de experimentos – p. 54/111
55. Modelo de efectos
Igualando a cero:
t ni t
yij = nˆ +
µ ni τ i
ˆ
i=1 j=1 i=1
n1
y1j = n 1 µ + n1 τ 1
ˆ ˆ
j=1
n2
y2j = n 2 µ + n2 τ 2
ˆ ˆ
j=1
... ...
nt
ytj = n t µ + nt τ t
ˆ ˆ
j=1
Las ecuaciones normales no son linealmente independientes,
por lo tanto no hay una solución única. Esto ocurre porque el
modelo de efectos está sobreparametrizado.
Diseño de experimentos – p. 55/111
56. Modelo de efectos
Se añade una ecuación linealmente independiente:
t
a) i=1 τi
ˆ =0
µ = y..
ˆ ¯
τi = yi. − y.. i = 1, . . . , t
ˆ ¯ ¯
b) µ=0
ˆ
µ = 0
ˆ
τi = yi. i = 1, . . . , t
ˆ ¯
c) τ1 = 0
ˆ
µ = y1.
ˆ ¯
τi = yi. − y1. i = 2, . . . , t
ˆ ¯ ¯
Diseño de experimentos – p. 56/111
57. Modelo de efectos
Hay un número infinito de posibles restricciones que se
pueden usar para resolver las ecuaciones normales. Entonces
Cuál usar?
No importa ya que en cualquier caso
µ + τi = yi.
¯
Aunque no podemos obtener estimadores únicos de los
parámetros del modelo de efectos, podemos obtener
estimadores únicos de funciones de estos parámetros.
A estas funciones se les llama funciones lineales
linealmente estimables.
Diseño de experimentos – p. 57/111
58. Diseño completamente al azar, Tabla de ANOVA
F.V. g.l. SS CM F E(CM )
SSt CMt 2 ni (τi −¯)2
τ
Tratamientos t−1 SSt CMt = t−1 CM E σ + i
t−1
SSE
Error n−t SSE CM E = n−t σ2
Total n−1 SStotal
t t 2 2
2 yi. y..
SSt = ni (¯i. − y.. )
y ¯ = −
i=1 i=1
ni n
t ni t ni t 2
2 2 yi.
SSE = (yij − yi. )
¯ = yij −
i=1 j=1 i=1 j=1 i=1
ni
t ni t ni 2
2 2 y..
SStotal = (yij − y.. )
¯ = yij −
i=1 j=1 i=1 j=1
n
t
n = ni
i=1 Diseño de experimentos – p. 58/111
59. Intervalos de confianza
2 S2 2 2 CM E
µi = yi.
ˆ ¯ Syi.
¯ = con S = CM E = σ
ˆ Syi. =
¯
ni ni
Como suponemos que
yij ∼ N µi , σ 2
entonces
yi. ∼ N µi , σ 2 /ni
¯
como estimamos la varianza:
yi. − µi
¯
∼ tn−t
Syi.
¯
Por lo tanto, un intervalo del (1 − α)100% de confianza para µi
es
1−α/2
yi. ± tn−t (Syi. )
¯ ¯
Diseño de experimentos – p. 59/111
60. Contrastes
En el ejemplo del empacado de carne teníamos:
Comercial Al vacío CO,O2,N CO2
µi = yi.
ˆ ¯ 7.48 5.50 7.26 3.36
S 2 = CM E = 0.116 con 8 g.l.
Una vez que rechazamos la hipótesis H0 : µ1 = µ2 = µ3 = µ4
Qué sigue?
Diseño de experimentos – p. 60/111
61. Contrastes
Se podrían contestar preguntas como:
s Es más efectiva la creación de una atmósfera artificial que el
aire ambiente con plástico para reducir el crecimiento de
bacterias?
s Son más efectivos los gases que el vacío?
s Es más efectivo el tratamiento de CO2 puro que la mezcla
CO,O2 y N?
Un contraste es una función lineal de los parámetros µi
definido como
t
C= ki µi = k1 µ1 + k2 µ2 + . . . + kt µt
i=1
t
donde i=1 ki = 0.
Diseño de experimentos – p. 61/111
62. Contrastes
Los contrastes para las preguntas anteriores son:
s comercial vs. atmósfera artificial
1
C1 = µ1 − (µ2 + µ3 + µ4 )
3
s vacío vs. gases
1
C2 = µ2 − (µ3 + µ4 )
2
s mezcla de gases vs. CO2 puro
C3 = µ3 − µ4
Diseño de experimentos – p. 62/111
63. Contrastes
El estimador del contraste
t t t
C= ki µi es ˆ
C= ki µi =
ˆ ki yi.
¯
i=1 i=1 i=1
Si suponemos que
yij ∼ N µi , σ 2
entonces
yi. ∼ N µi , σ 2 /ni
¯
Por lo tanto,
t t t 2
ˆ 2 ki
C= ki yi. ∼ N
¯ ki µi , σ
i=1 i=1 i=1
ni
Diseño de experimentos – p. 63/111
64. Contrastes
Ya que:
t t t
E ki yi.
¯ = ki E (¯i. ) =
y ki µi
i=1 i=1 i=1
t t t t
2 2 σ2 2
ki
V ki yi.
¯ = ki V (¯i. ) =
y ki = σ2
i=1 i=1 i=1
ni n
i=1 i
m.indep
t 2 2 t
ˆ ˆ ki ki
V C = σ2
ˆ = CM E
i=1
ni n
i=1 i
Diseño de experimentos – p. 64/111
65. Contrastes
Entonces,
t t
i=1 ki yi. −
¯ i=1 ki µi
∼ tg.l.error
t 2
CM E i=1 ki /ni
De aquí un intervalo del 100(1 − α)% de confianza para el
contraste C es:
t
ˆ 1−α/2 2
C ± tg.l.error CM E ki /ni
i=1
Diseño de experimentos – p. 65/111
66. Contrastes
Además,
ˆ
C −C
∼ N (0, 1)
t 2
σ2 i=1 ki /ni
t
Si H0 : i=1 ki µi = 0, es decir, H0 : C = 0 es cierta, entonces,
ˆ
C2
t 2
∼ χ2
1
σ2 i=1 ki /ni
Sea
ˆ
C2
SSc = t 2
i=1 ki /ni
entonces
ˆ t
SSc /σ 2 2
C 2 / i=1 ki /ni
2 (n − t)
= ∼ F1,n−t
SSE/σ CM E
α
Por lo tanto, para probar H0 : C = 0 se rechaza si Fc > F1,n−t
Diseño de experimentos – p. 66/111
67. Contrastes
El número de contrastes que se pueden hacer es muy grande,
sin embargo, esta técnica tiene su mayor utilidad cuando se
aplica a comparaciones planeadas antes de realizar el
experimento.
Una clase de contrastes, conocida como Contrastes
ortogonales (como son los del ejemplo anterior) tienen
propiedades especiales con respecto a la partición de sumas
de cuadrados y grados de libertad y con respecto a su relación
entre ellos. La ortogonalidad implica que un contraste no
aporta información acerca de otro.
Dos contrastes, con coeficientes {ki }, {li } son ortogonales si
t
ki li
=0
i=1
ni
Diseño de experimentos – p. 67/111
68. Contrastes
Para t tratamientos existe un conjunto de t − 1 contrastes
ortogonales, los cuales hacen una partición de la suma de
cuadrados de tratamientos en t − 1 componentes
independientes, cada uno con 1 g.l. Por lo tanto las pruebas
realizadas con contrastes ortogonales son independientes.
En el ejemplo anterior, los contrastes son ortogonales.
k1 k2 k3 k4
C1 1 -1/3 -1/3 -1/3
C2 0 1 -1/2 -1/2
C3 0 0 1 -1
Diseño de experimentos – p. 68/111
69. ANOVA
La tabla de ANOVA incorporando las pruebas de hipótesis de
los 3 contrastes es:
F.V. g.l. SS CM F Pr > F
trat 3 32.8728 10.958 94.55 0.000
C1 1 10.01 10.01 86.29 0.000
C2 1 0.07 0.07 0.62 0.453
C3 1 22.82 22.82 196.94 0.000
error 8 0.9268 0.1159
total 11 33.7996
Se rechaza H0 : µ1 = µ2 = µ3 = µ4
Se rechaza H01 : µ1 = 1 (µ2 + µ3 + µ4 )
3
1
No se rechaza H02 : µ2 = 2 (µ3 + µ4 )
Se rechaza H03 : µ3 = µ4
ˆ 2
C1 (2.11)2 4.4521
SSC1 = 4
= = = 10.01
1 2
ki 12 +3(−1/3)2 0.4444
r i=1 3
Diseño de experimentos – p. 69/111
70. Otro ejemplo
Los siguientes datos son los tiempos de coagulación de
sangre para 24 animales que fueron aleatoriamente asignados
a una de cuatro dietas (A,B,C,D)
Dieta A Dieta B Dieta C Dieta D
62 63 68 56
60 67 66 62
63 71 71 60
59 64 67 61
65 68 63
66 68 64
63
59
Diseño de experimentos – p. 70/111
71. Otro ejemplo
s Pruebe la hipótesis de igualdad de medias
H0 : µ1 = µ2 = µ3 = µ4 .
s Pruebe el siguiente contraste: (pendiente)
El promedio de la dieta A y B es igual al promedio de la C y
D
El análisis en R:
s Los datos están en el archivo coag.txt
s El programa está en anova_coag.txt
Diseño de experimentos – p. 71/111
72. Comparaciones múltiples
En muchas situaciones prácticas, se desea comparar pares de
medias. Podemos determinar cuáles medias difieren probando
las diferencias entre todos los pares de medias de
tratamientos.
Es decir, estamos interesados en contrastes de la forma
Γ = µi − µj ∀i = j
Lo primero que se nos viene a la mente es hacer una prueba t
para cada par de medias, es decir, probar
H0 : µi = µj
Ha : µi = µj ∀i = j
Diseño de experimentos – p. 72/111
73. Comparaciones múltiples
Si suponemos varianzas iguales, se tiene la estadística de
prueba
¯
yi. − yj.
¯
tc =
1 1
sp ni + nj
y se rechaza H0 al nivel de significancia α si
α/2 1−α/2
tc ≤ tni +nj −2 ó tc ≥ tni +nj −2
Esto es equivalente a decir que se rechaza H0 si
|¯i. − yj. |
y ¯ 1−α/2
|tc | = > tni +nj −2
1 1
sp ni + nj
o equivalente a
1−α/2 1 1
|¯i. − yj. | >
y ¯ tni +nj −2 sp +
ni nj
Diseño de experimentos – p. 73/111
74. Comparaciones múltiples
Esta prueba conocida como Diferencia Mínima Significativa
(DMS ó LSD) en el contexto de ANOVA, lo que hace es
comparar el valor absoluto de la diferencia de cada par de
medias con DMS:
Si
1−α/2 1 1
|¯i. − yj. | > DM S = tglerror CM E
y ¯ +
ni nj
se rechaza H0 : µi = µj .
CM E es el cuadrado medio del error que es una estimación
ponderada de la varianza basada en t estimaciones de la
varianza.
El utilizar este procedimiento no es conveniente por que el
nivel de significancia global, es decir, para el conjunto de todas
las pruebas, resulta muy superior al nivel de significancia (α)
planeado.
Diseño de experimentos – p. 74/111
75. Comparaciones múltiples
Por ejemplo, si se tienen 4 medias de tratamientos, entonces
se tienen
4 4!
= =6
2 2!2!
pares a comparar, es decir, 6 pruebas de hipótesis a realizar,
con lo que se pueden cometer 0, 1, 2, 3, 4, 5, ó 6 errores Tipo I,
si todas las medias son iguales.
Se define otra forma de error tipo I basado en los riesgos
acumulados asociados a la familia de pruebas bajo
consideración.
Este es el error tipo I del experimento αE que es el riesgo de
cometer el error tipo I al menos una vez.
La probabilidad de error tipo I del experimento puede
evaluarse para una familia de pruebas independientes.
Diseño de experimentos – p. 75/111
76. Comparaciones múltiples
Sin embargo, todas las pruebas a pares usando la DM S no
son independientes, puesto que el CM E es el mismo en cada
una de las estadísticas de prueba y el numerador contiene las
mismas medias en varias de las estadísticas de prueba.
Aún así, se puede evaluar el límite superior de la probabilidad
de error tipo I del experimento, suponiendo n pruebas
independientes.
t
Suponga que la H0 es cierta para cada una de las n = 2
pruebas y que son independientes.
Sea αc = P (error tipo I) en una sola prueba (comparación)
con (1 − αc ) = P (decisión correcta).
Diseño de experimentos – p. 76/111
77. Comparaciones múltiples
La probabilidad de cometer x errores tipo I está dada por la
distribución binomial como:
n x
P (X = x) = αc (1 − αc )n−x
x
n!
P (X = x) = x
αc (1 − αc )n−x x = 0, 1, 2, . . . , n
(n − x)!x!
La probabilidad de no cometer ningún error tipo I es
P (X = 0) = (1 − αc )n
Diseño de experimentos – p. 77/111
78. Comparaciones múltiples
La probabilidad de cometer al menos 1 error tipo I es
P (X ≥ 1) = 1 − P (X = 0) = 1 − (1 − αc )n
es decir, la máxima probabilidad de cometer al menos un error
tipo I entre las n comparaciones es:
αE = 1 − (1 − αc )n de aquí
αc = 1 − (1 − αE )1/n
Diseño de experimentos – p. 78/111
79. Comparaciones múltiples
# de pruebas αE cuando αc cuando
indep. n αc = 0.05 αE = 0.05
1 0.05 0.05
2 0.098 0.025
3 0.143 0.017
4 0.185 0.013
5 0.226 0.010
10 0.401 0.005
Por el razonamiento anterior es que han surgido una serie de
pruebas de diferentes autores para hacer comparaciones
múltiples tratando de mantener la
P (error tipo I del experimento) = α
Diseño de experimentos – p. 79/111
80. Bonferroni
αE ≤ nαc
n comparaciones, la igualdad se dá cuando las pruebas son
independientes.
Entonces,
αc = αE /n
Si queremos αE = 0.05 entonces, αc = 0.05/n y se hacen las
pruebas t para los pares de medias con un nivel de
significancia αc en cada una de ellas.
Diseño de experimentos – p. 80/111
81. Tukey
Conocida como la prueba de la Diferencia Mínima Significativa
Honesta (DMSH)
α CM E
DM SH = qt,glerror si ni = r ∀i
r
α CM E 1 1
DM SH = qt,glerror +
2 ni nj
Si |¯i. − yj. | > DM SH se rechaza H0 : µi = µj .
y ¯
α
qν1 ,ν2 se obtiene de las "tablas de rangos estudentizados".
Diseño de experimentos – p. 81/111
82. Tukey
Para el ejemplo del empaque de carne:
Comercial Al vacío CO,O2,N CO2
yi.
¯ 7.48 5.50 7.26 3.36
S 2 = CM E = 0.116 con 8g.l. t = 4, r = 3
0.05 0.116
DM SH = q4,8 = (4.53)(0.197) = 0.891
3
|¯1. − y2. |
y ¯ = 1.98∗∗
|¯1. − y3. |
y ¯ = 0.22
|¯1. − y4. |
y ¯ = 4.12∗∗
|¯2. − y3. |
y ¯ = 1.76∗∗
|¯2. − y4. |
y ¯ = 2.14∗∗
|¯3. − y4. |
y ¯ = 3.90∗∗
Diseño de experimentos – p. 82/111
83. Student-Newman-Keuls (SNK)
Se calcula un conjunto de valores críticos
α
kp = qp,f Syi. p = 2, 3, . . . , t
¯
α
donde qp,f es el percentil 1 − α de la distribución del rango
estudentizado para el número p de medias involucradas en la
CM E
comparación y f g.l. del error, y Syi. =
¯ r
Para el ejemplo de la carne empacada:
p 2 3 4
.05
qp,8 3.26 4.04 4.53
kp 0.642 0.796 0.892
Diseño de experimentos – p. 83/111
85. Duncan
Es similar a la de SNK. Los promedios de los t tratamientos se
ordenan en forma ascendente y el error estándar de cada
promedio se determina con
CM E
Syi. =
¯ si ni = r ∀i
r
Para muestras de diferente tamaño, se reemplaza la r por la
media armónica (nh ) de los {ni }
t
nh =
t 1
i=1 ni
Diseño de experimentos – p. 85/111
86. Duncan
De las tablas de Duncan de rangos significativos se obtienen
α
los valores de rp,f para p = 2, 3, . . . , t.
p es el número de medias involucradas en la comparación, α
es el nivel de significancia y f los grados de libertad del error.
Se calculan
α
Rp = rp,f Syi. p = 2, 3, . . . , t
¯
Para el ejemplo de la carne empacada:
p 2 3 4
.05
rp,8 3.26 3.39 3.47
Rp 0.642 0.668 0.684
Diseño de experimentos – p. 86/111
88. Dunnett
Para comparar las medias de los tratamientos con la media del
tratamiento control.
Suponga que el tratamiento t es el control, queremos probar
las hipótesis
H0 : µi = µt
Ha : µi = µt i = 1, 2, . . . , t − 1
H0 : µi = µt se rechaza si
CM E
|¯i. − yt. | > D = dα (t − 1, glerror)
y ¯
r
con dα (k, ν) es el percentil 1 − α de las tablas de Dunnett.
Para el ejemplo de la carne empacada, el tratamiento 1 es el
control.
Comercial Al vacío CO,O2,N CO2
yi. 7.48
¯ 5.50 7.26 3.36
Diseño de experimentos – p. 88/111
89. Dunnett
d0.05,3,8 = 2.42
CM E
D = 2.42 = 0.477
r
|¯2. − y1. | = 1.98 > D∗∗
y ¯
|¯3. − y1. | = 0.22 < D(N.S.)
y ¯
|¯4. − y1. | = 4.12 > D∗∗
y ¯
Diseño de experimentos – p. 89/111
90. Scheffé
Scheffé (1953) propuso un método para probar todos los
posibles contrastes.
Considere cualquier contraste
t t
C= ˆ
ki µi estimado con C = ki yi.
¯
i=1 i=1
con error estándar
t 2
ki
SC = CM E
i=1
ni
La hipótesis nula pra el contraste H0 : C = 0 se rechaza si
|C| > S(αE )
donde
αE
S(αE ) = SC (t − 1)Ft−1,g.l.error
Diseño de experimentos – p. 90/111
91. Análisis de residuales
Tenemos el modelo
yij = µi + ǫij ó yij = µ + τi + ǫij
ǫij ∼ N ID 0, σ 2
Suposiciones:
s errores normales
s independientes
s varianza constante
La prueba F del análisis de varianza es robusta a falta de
normalidad.
Diseño de experimentos – p. 91/111
92. Análisis de residuales
Si los errores experimentales están correlacionados, el error
estándar estará mal estimado. La independencia se justifica
aleatorizando las u.e. a los tratamientos en experimentos y
seleccionando muestras aleatorias en estudios
observacionales.
Si no hay homogeneidad de varianzas el estimador de σ 2 es
malo, aunque se ha visto en estudios que si el diseño es
balanceado no efecta mucho. También si los tamaños de
muestra mayores corresponden a las poblaciones con mayor
varianza.
Diseño de experimentos – p. 92/111
93. Análisis de residuales, Normalidad
Residuales
eij = yij − yij
ˆ
yij
ˆ = µ + τi = µi = yi.
ˆ ¯
eij = yij − yi.
¯
s Prueba no parámetrica ( Kolmogorov-Smirnov )
s Histograma (muestras grandes)
s gráfica en papel normal
s análisis de residuales estandarizados para detectar outliers.
ǫ −0
Si ǫij ∼ N (0, σ 2 ) entonces ijσ ∼ N (0, 1). Sean
eij
dij = √CM E , esperamos que:
68% de los residuales estandarizados estén entre -1 y 1
95 % estén entre -2 y 2
Virtualmente todos estén entre -3 y 3.
Diseño de experimentos – p. 93/111
94. Análisis de residuales, Homogeneidad de varianzas
Prueba de Bartlett
2 2 2
H0 : σ1 = σ2 = . . . = σt
Ha : no H0
Estadística de Prueba:
1
U= (n − t)ln(ˆ 2 ) −
σ σ2
(ni − 1)ln(ˆi )
C i
2 σ2
(ni − 1)ˆi (yij − yi. )2
¯
donde σ =
ˆ ˆ2
σi =
i
n−t j
ni − 1
1 1 1
C =1+ −
3(t − 1) i
ni − 1 n − t
H0 se rechaza si U > χ2
α,t−1 (prueba sensible a falta de
normalidad)
Diseño de experimentos – p. 94/111
95. Análisis de residuales, Homogeneidad de varianzas
Prueba de Levene
Se calcula
dij = |yij − yi. |
˜ i = 1, . . . , t j = 1, . . . , ni
donde yi. es la mediana de las observaciones en el
˜
tratamiento i.
Se evalúa si el promedio de estas observaciones dij es igual
para todos los tratamientos, es decir, se hace un ANOVA para
probar igualdad de medias de dij .
Diseño de experimentos – p. 95/111
96. Prueba de Welch
La prueba F usual es robusta ante heteroscedasticidad
(varianzas diferentes) si los tamaños de muestra son muy
parecidos o, si los tamaños de muestra más grandes
corresponden a las poblaciones con varianzas más grandes.
Sin embargo, se han construído algunas procedimientos de
prueba de igualdad de medias (H0 : µ1 = µ2 = . . . = µt ) como
por ejemplo el desarrollado por Welch, conocido como la
prueba de Welch, utilizada cuando no hay homoscedasticidad.
σ2 ¯
Sean Wi = ni /ˆi y ∗ = i Wi yi. /
¯ i Wi y
2
(1 − Wi /W. )
Λ=
i
ni − 1
donde W. = i Wi .
Diseño de experimentos – p. 96/111
97. Prueba de Welch
Entonces
(¯i. −¯∗ )2
i Wi y t−1 y
Fc =
1+ 2(t − 2)Λ/(t2 − 1)
tiene aproximadamente una distribución F con
ν1 = t − 1 y ν2 = (t2 − 1)/3Λ grados de libertad.
H0 : µ1 = µ2 = . . . = µt se rechaza al nivel de significancia α si
α
Fc > Fν1 ,ν2 .
Diseño de experimentos – p. 97/111
98. Transformaciones
Se utilizan las transformaciones para cambiar la escala de las
observaciones para que se cumplan las suposiciones del
modelo lineal y dar inferencias válidas del análisis de varianza.
Cuando las transformaciones son necesarias, se hace el
análisis y se hacen las inferencias en la escala transformada
pero se presentan tablas de medias en la escala de medición
original.
1. Distribución Poisson. Mediciones que son conteos
(número de plantas en cierta área, insectos en plantas,
accidentes por unidad de tiempo) tienen distribución Poisson.
√
La transformación x = y + a, a ∈ ℜ es la adecuada.
Diseño de experimentos – p. 98/111
99. Transformaciones
2. Distribución binomial. Observaciones del número de
éxitos en n ensayos independientes tiene distribución binomial
(proporción de semillas germinadas, proporción de plantas
con flores en un transecto). π = y/n
ˆ
√
La transformación x = sin −1
π es la adecuada.
ˆ
Las transformaciones del tipo potencia alteran la simetría o
asimetría de las distribuciones de las observaciones.
Si suponemos que la desviación estándar de y es proporcional
a alguna potencia de la media, es decir,
σy ∝ µβ
Una transformación de las observaciones, del estilo:
x = yp
Diseño de experimentos – p. 99/111
100. Transformaciones
Da una relación
σx ∝ µp+β−1
Si p = 1 − β entonces la desviación estándar de la variable
transformada x será constante, ya que p + β − 1 = 0 y σx ∝ µ0 .
La transformación de Box-Cox
x = (y p − 1)/p p = 1
x = loge y p = 1
El estimador de p se encuentra maximizando
1
L(p) = − loge [CM E(p)]
2
donde CM E(p) es el cuadrado medio del error del análisis de
varianza usando la transformación x = (y p − 1)/p para el valor
dado p.
Diseño de experimentos – p. 100/111
101. Transformaciones
Se determina CM E(p) para un conjunto de valores de p, se
grafica CM E(p) vs. p y se toma el valor de p que corresponde
al valor mínimo de CM E(p).
JMP calcula la transformación de Box-Cox, da una gráfica de p
vs. CM E y da la opción de guardar los datos transformados
en el archivo.
La dificultad de utilizar esta transformación es la interpretación.
Diseño de experimentos – p. 101/111
102. Ejemplo
Los siguientes datos son el número de errores en un examen
de sujetos bajo la influencia de dos drogas. El grupo 1 es un
grupo control (sin droga), a los sujetos del grupo 2 se les dió la
droga 1, a los del grupo 3 la droga 2 y a los del grupo 4 las dos
drogas.
Grupo 1 Grupo 2 Grupo 3 Grupo 4
(sin droga) (droga 1) (droga 2) (dos drogas)
1 12 12 13
8 10 4 14
9 13 11 14
9 13 7 17
4 12 8 11
1 10 10 14
1 12 13
5 14
Diseño de experimentos – p. 102/111
103. Ejemplo
Correr el ejemplo con R y JMP.
1. Probar homogeneidad de varianzas. (Bartlett y Levene)
2. Hacer prueba de Welch
3. Probar con algunas transformaciones, checando
normalidad y homogeneidad de varianzas
ej2_1_messy.jmp
ej2_1_messy.txt
Diseño de experimentos – p. 103/111
104. Relación entre Regresión y ANOVA
Cualquier modelo de ANOVA se puede escribir como un
modelo de regresión lineal.
Suponga el ejemplo de la carne empacada
tratamiento comercial vacío mezcla CO2
7.66 5.26 7.41 3.51
6.98 5.44 7.33 2.91
7.80 5.80 7.04 3.66
Un diseño completamente al azar con un solo factor (método
de empacado) con 4 niveles (4 tratamientos) y 3 repeticiones
en cada tratamiento (diseño balanceado).
Diseño de experimentos – p. 104/111
105. Relación entre Regresión y ANOVA
Modelo ANOVA completamente al azar un solo factor
balanceado:
i = 1, 2, 3, 4
yij = µi + ǫij = µ + τi + ǫij
j = 1, 2, 3
El modelo de regresión equivalente es:
i = 1, 2, 3, 4
yij = β0 + β1 x1j + β2 x2j + β3 x3j + ǫij
j = 1, 2, 3
Diseño de experimentos – p. 105/111
106. Relación entre Regresión y ANOVA
Donde las variables x1j , x2j , x3j están definidas como:
1 si la observación j es del tratamiento 1
x1j =
0 en otro caso
1 si la observación j es del tratamiento 2
x2j =
0 en otro caso
1 si la observación j es del tratamiento 3
x3j =
0 en otro caso
Diseño de experimentos – p. 106/111
107. Relación entre Regresión y ANOVA
La relación entre los parámetros del modelo ANOVA y el
modelo de regresión es:
Si la observación viene del tratamiento 1, entonces
x1j = 1, x2j = 0, x3j = 0 y el modelo de regresión es
y1j = β0 + β1 (1) + β2 (0) + β3 (0) + ǫ1j
= β0 + β1 + ǫ1j
y el modelo ANOVA es:
y1j = µ1 + ǫ1j = µ + τ1 + ǫ1j
Por lo tanto:
β0 + β1 = µ1 = µ + τ1
Diseño de experimentos – p. 107/111
108. Relación entre Regresión y ANOVA
Similarmente, para las observaciones del tratamiento 2
y2j = β0 + β1 (0) + β2 (1) + β3 (0) + ǫ2j
= β0 + β2 + ǫ2j
y la relación entre los parámetros es:
βo + β2 = µ2 = µ + τ2
Lo mismo para las observaciones del tratamiento 3
y3j = β0 + β1 (0) + β2 (0) + β3 (1) + ǫ3j
= β0 + β3 + ǫ3j
y la relación entre los parámetros es:
βo + β3 = µ3 = µ + τ3
Diseño de experimentos – p. 108/111
109. Relación entre Regresión y ANOVA
Finalmente, considere las observaciones del tratamiento 4,
para las cuales el modelo de regresión es:
y4j = β0 + β1 (0) + β2 (0) + β3 (0) + ǫ4j
= β0 + ǫ4j
entonces β0 = µ4 = µ + τ4
Por lo tanto,
β0 = µ4
β1 = µ1 − µ4
β2 = µ2 − µ4
β3 = µ3 − µ4
Diseño de experimentos – p. 109/111
110. Relación entre Regresión y ANOVA
Entonces, para probar la hipótesis H0 : µ1 = µ2 = µ3 = µ4
tendríamos que probar H0 : β1 = β2 = β3 = 0, lo cual se puede
hacer con cualquier paquete de cómputo estadístico.
Para el ejemplo de la carne empacada:
tratamiento y x1 x2 x3
1 7.66 1 0 0
1 6.98 1 0 0
1 7.80 1 0 0
2 5.26 0 1 0
2 5.44 0 1 0
2 5.80 0 1 0
3 7.41 0 0 1
3 7.33 0 0 1
3 7.04 0 0 1
4 3.51 0 0 0
4 2.91 0 0 0
4 3.66 0 0 0
Diseño de experimentos – p. 110/111
111. Relación entre Regresión y ANOVA
Si pedimos una regresión y = β0 + β1 x1 + β2 x2 + β3 x3 + ǫ y
pedimos una tabla de análisis de varianza del modelo
yij = µ + τi + ǫij las dos tablas ANOVA son idénticas.
Diseño de experimentos – p. 111/111