SlideShare una empresa de Scribd logo
A
AG
GR
RO
O 6
66
60
00
0
B
BI
IO
OM
ME
ET
TR
RÍ
ÍA
A A
AV
VA
AN
NZ
ZA
AD
DA
A
N
No
ot
ta
as
s d
de
e c
cl
la
as
se
e
2
20
01
15
5
Raúl E. Macchiavelli, Ph.D.
Estas notas complementan el material del libro de texto del curso
2
Contenidos
1. Introducción y repaso de notación del análisis de varianza.................................................................. 3
2. Diseños completamente aleatorizados y en bloques completos aleatorizados ..................................... 5
3. Supuestos del análisis de la varianza ...................................................................................................... 7
4. Determinación del número de repeticiones de un experimento...........................................................11
5. Comparaciones múltiples........................................................................................................................14
6. Contrastes.................................................................................................................................................24
7. Diseño de cuadrado latino.......................................................................................................................28
8. Experimentos factoriales con dos factores.............................................................................................32
9. Experimentos factoriales con tres o más factores .................................................................................40
10. Modelos de efectos aleatorios y mixtos ................................................................................................43
11. Diseños anidados....................................................................................................................................49
12. Diseño de parcelas divididas.................................................................................................................53
13. Repaso de regresión lineal simple ........................................................................................................58
14. Regresión polinomial.............................................................................................................................62
15. Regresión lineal múltiple.......................................................................................................................66
16. Selección de variables en regresión múltiple.......................................................................................72
17. Análisis de covarianza...........................................................................................................................85
18. Documentación y comunicación de resultados....................................................................................92
Bibliografía...................................................................................................................................................94
3
1. Introducción y repaso de notación del análisis de varianza
Cuando planeamos un estudio científico podemos realizar un experimento o un estudio
observacional. En el experimento nosotros decidimos qué tratamiento recibe cada
unidad, mientras que en el estudio observacional el tratamiento ya viene asignado a la
unidad. Esto implica que en el experimento podemos hablar con mayor confianza de
“causa-efecto”, mientras que en el estudio observacional es más difícil estar seguros de
que nuestro tratamiento es la causa de lo que estamos observando.
Consideremos este ejemplo (estudiado en el curso anterior) en el que nos interesa
comparar el contenido de almidón en tallos de tomate bajo 3 regímenes diferentes de
fertilización:
A 22 20 21 18 16 14 1 111
Y  1 18.5
Y 
B 12 14 15 10 9 2 60
Y   2 12.0
Y  
C 7 9 7 6 3 29
Y   3 7.25
Y  
200
Y 
La notación que usaremos será la siguiente: tenemos t tratamientos (en este caso 3
t  ),
cada uno con i
n repeticiones (en este caso 1 2 3
6, 5 y 4
n n n
   ).
denota la ésima observación del ésimo tratamiento
ij
Y j i
  .
1
, es la suma de todas las observaciones del tratamiento .
i
n
i ij
j
Y Y i


 
1 1 1
, es la suma de todas las observaciones.
i
n
t t
ij i
i j i
Y Y Y
 
  
 
 
es la media de las observaciones del tratamiento .
i
Y i

es la media de todas las observaciones (media general):
Y 200/15 13.33
Y  
=15 es la cantidad total de observaciones ( si hay observaciones en cada tratamiento).
i
i
n n nt n
  
Las sumas de cuadrados se calculan de la siguiente manera:
 
2
2 2
, ,
SCTotal=SCTot ij ij
i j i j
Y
Y Y Y
n



   
 
 
2 2
2
SCEntre=SCTratamientos=SCTrat i
i i
i i i
Y Y
n Y Y
n n
 
 

   
 
 
2
,
SCDentro=SCResidual=SCError=SCRes SCTot-SCTrat
ij i
i j
Y Y
  

4
2 2
2
,
200
SCTot 3062 395.3333
15
ij
i j
Y
Y
n


    

2 2 2 2 2 2
111 60 29 200
SCTrat 317.0833
6 5 4 15
i
i i
Y Y
n n
 

      

SCRes SCTot-SCTrat=78.2500

Fuente de
Variación
Suma de
Cuadrados
grados
de
libertad
Cuadrado
Medio
F Valor p
Tratamiento 317.0833 2 158.5417 24.313 0.00006
Residual (Error) 78.2500 12 6.5208
Total 395.3333 14
0 1 2
: ...
:al menos una es diferente
t
a i
H
H
  

  
Estadístico de la prueba: 24.313
F 
Región de rechazo (α=.05): 3.89
F  ó p<0.05
Conclusión: Rechazamos 0
H , al menos uno de los tratamientos es diferente.
5
2. Diseños completamente aleatorizados y en bloques completos
aleatorizados
El análisis de la varianza discutido anteriormente requiere independencia de todas
las observaciones. En un experimento, esto se logra realizando una aleatorización
completa de los tratamientos a las unidades experimentales (es decir, cada unidad
experimental tiene la misma probabilidad de recibir cualquiera de los tratamientos,
independientemente del tratamiento asignado a unidades vecinas). Este diseño se llama
“completamente aleatorizado” (DCA). La versión observacional análoga consiste en
tomar muestras aleatorias de cada uno de los grupos o poblaciones.
Ventajas del DCA:
 Simple para construir
 Simple para analizar, aun cuando el número de repeticiones no es constante.
 Sirve para cualquier número de tratamientos.
Desventajas del DCA:
 Requiere que todas las unidades experimentales sean homogéneas.
 Fuentes de variación no consideradas inflarán el error experimental.
Cuando las unidades no son homogéneas pero pueden agruparse en grupos de
unidades homogéneas existe otro diseño, que es la generalización del diseño pareado para
comparar dos grupos: el diseño en bloques completos aleatorizados (DBCA). Un
“bloque” es un conjunto de unidades experimentales homogéneas (es decir, parecidas
entre sí). Este diseño consiste en asignar los tratamientos aleatoriamente dentro de cada
bloque de manera tal que cada tratamiento que representado una vez en cada bloque. De
esta manera garantizamos que todos los tratamientos estarán representados en todos los
bloques, y que las comparaciones estarán libres de las diferencias entre bloques (el
mismo efecto que lográbamos con el diseño pareado). Para que este efecto del DBCA sea
útil en reducir la variabilidad necesitamos que haya diferencias entre los bloques y dentro
de cada bloque las unidades sean homogéneas.
Ventajas del DBCA:
 Útil para comparar tratamientos en presencia de una fuente externa de
variabilidad.
 Simple para construir y analizar (siempre que el número de repeticiones sea
constante).
Desventajas del DBCA:
 Práctico para pocos tratamientos, para que las unidades de un bloque sean
realmente homogéneas.
 Controla una sola fuente de variabilidad externa.
 El efecto del tratamiento debe ser el mismo en cada bloque.
6
La notación que usaremos será la misma que para el DCA: tenemos t tratamientos, cada
uno con n repeticiones (=bloques). En este caso ij
Y denota la observación del
ésimo
i  tratamiento en el bloque j. Ahora tendremos una fuente adicional de variabi-
lidad: los bloques. Las sumas de cuadrados se calculan de la siguiente manera:
 
2
2 2
, ,
SCTotal=SCTot ij ij
i j i j
Y
Y Y Y
nt


   
 
 
2 2
2
SCTratamientos=SCTrat i
i
i i
Y Y
n Y Y
n nt
 
 
   
 
 
2 2
2
SCBloques=SCBl
j
j
j j
Y Y
t Y Y
t nt
 
 
   
 
 
2
,
SCResidual=SCError=SCRes SCTot-SCTrat-SCBl
ij i
i j
Y Y
  

La siguiente es la tabla de ANOVA:
Fuente de
Variación
Suma de
Cuadrados
grados de
libertad
Cuadrado
Medio
F
Tratamiento SCTrat 1
t  CMTrat F=CMTrat/CME
Bloque SCBl 1
n  CMBl F=CMBl/CME
Residual (Error) SCRes=SCE   
1 1
n t
  CMRes=CME
Total SCTot 1
nt 
El modelo que describe los datos provenientes de este diseño es el siguiente:
ij i j ij
Y    
   
Los supuestos que necesitamos hacer son los mismos que para el DCA (los ij
 son inde-
pendientes, tienen distribución normal y varianza constante) y además necesitamos
asumir que los efectos de los tratamientos son iguales en todos los bloques.
La hipótesis de interés es, como siempre, acerca de los efectos de tratamiento:
0 1 2
: ...
:al menos una es diferente de 0.
t
a i
H
H
  

  
Estadístico de la prueba: CMTrat
CME
F 
Región de rechazo:  
g.l.: 1,( 1)( 1)
F F t n t

   
También podemos probar la hipótesis de que no existen diferencias entre bloques:
0 1 2
: ...
:al menos una es diferente de 0.
n
a i
H
H
  

  
Estadístico de la prueba: CMBl
CME
F 
Región de rechazo:  
g.l.: 1,( 1)( 1)
F F n n t

   
7
3. Supuestos del análisis de la varianza
Para que las conclusiones obtenidas de un análisis de varianza sean válidas se deben
satisfacer ciertas condiciones (supuestos). En la práctica nunca estamos seguros que estas
condiciones se satisfacen en un problema dado, pero usando los datos observados
podemos verificar (aproximadamente) si los supuestos se cumplen o no.
Si los supuestos no se cumplen debemos modificar el modelo, el análisis y/o las
conclusiones.
Los modelos lineales para ANOVA que hemos estudiado pueden verse como casos
especiales del modelo:
ij ij ij
Y  
 
donde ij
 representa la media de la observación ij-ésima (por ejemplo en un DCA media
general, ij i
  
  ) y ij
 el error experimental (o “efecto” de la ij-ésima unidad
experimental, o efecto “ambiental”).
Los supuestos para la validez del análisis son:
1. Los efectos de tratamiento y unidad experimental son aditivos.
2. Los errores experimentales son independientes (o, por lo menos, no
correlacionados).
3. Los errores experimentales se distribuyen normalmente.
4. Los errores experimentales tienen varianza constante (es decir, que no depende de
los tratamientos ni de otros factores).
La consecuencia del no cumplimiento de estos supuestos es que las conclusiones pueden
no ser válidas (los niveles de error pueden ser diferentes a los establecidos, los errores
estándar pueden subestimar o sobreestimar los verdaderos errores poblacionales, los
límites de confianza pueden ser incorrectos, etc.)
El supuesto de independencia normalmente se garantiza realizando una aleatorización
correcta y mediante una buena técnica experimental (uso de borduras, evitar contagio
entre unidades, etc.)
El supuesto de normalidad se puede verificar graficando los “residuales” o “residuos”:
ˆ ˆ
ij ij ij ij ij
e Y Y Y 
   
Estos residuales representan aproximaciones a los verdaderos errores experimentales ij
 ,
que son, por supuesto, desconocidos. Un histograma, un diagrama de tallo y hoja o un
gráfico de caja (“boxplot”) pueden revelar problemas con la distribución normal de los
errores. Existen además pruebas formales para probar la hipótesis de que los errores
tienen una distribución normal y un gráfico (Q-Q plot) que permite detectar la falta de
normalidad más fácilmente que con un histograma.
8
Para obtener residuos en InfoStat debemos marcar en las opciones del análisis de
varianza “Guardar Residuos”, “Guardar Predichos”, “Guardar Residuos Estudentizados”,
y “Guardar Abs(Residuos)”. Los residuos son los definidos anteriormente, y dependen,
por supuesto, del diseño experimental usado. Los valores predichos son ˆ
ij
Y , los residuos
estudentizados son los residuos divididos por su desviación estándar (como siempre
tienen media 0, es una forma de estandarizarlos), y los abs(residuos) son los valores
absolutos de los residuos (recordemos que hay residuos positivos y negativos). Al
seleccionar estas opciones, se generarán nuevas columnas en los datos incluyendo estos
valores.
Una vez que tenemos los residuales podemos graficarlos mediante histogramas o el Q-Q
plot. Mediante este último gráfico, si los residuos son normales (y por lo tanto, los errores
lo son), se grafican los valores de los residuos (o residuos estudentizados) versus los
valores teóricos que esperaríamos si la distribución fuese normal. Si la distribución es
normal, entonces observaríamos los puntos alineados en una recta. Si hay problemas,
entonces los puntos no se verán sobre la recta.
9
-270 -135 0 135 270
Cuantiles de una Normal
-270
-135
0
135
270
Residuos
Observados
Además se puede realizar una prueba de normalidad (prueba de Shapiro-Wilks
modificada). La hipótesis nula es que los errores son normales, y la alternativa es que no
son normales. Recordemos que si el valor p es mayor que el nivel de significación (en
general 0.05), entonces nos quedamos con la hipótesis nula. Para hacer esta prueba
usamos el menú Estadísticas>Inferencia basada en una muestra> Prueba de Normalidad.
Shapiro-Wilks (modificado)
Variable n Media D.E. W* p (una cola)
RDUO_Rendimiento 20 0.00 127.67 0.96 0.7824
En este ejemplo el supuesto de normalidad se acepta (p=0.7824>0.05).
Para verificar el supuesto de homogeneidad de varianzas (homoscedasticidad) se pueden
graficar residuales versus valores predichos, y esto permite visualizar si las varianzas son
homogéneas o no. Si las varianzas no son homogéneas el gráfico muestra típicamente una
estructura de “embudo” (a medida que los valores predichos son mayores, los residuos
varían más. Otra condición que este gráfico también puede diagnosticar es la existencia
de observaciones atípicas (“outliers”) que requieren verificación.
10
18 31 44 57 70
PRED_PN
-70
-35
0
35
70
RDUO_PN
Ejemplo con varianzas heterogéneas
1750.0 2187.5 2625.0 3062.5 3500.0
PRED_Rendimiento
-300
-150
0
150
300
RDUO_Rendimiento
Ejemplo con varianzas homogéneas
Para este supuesto también se pueden realizar pruebas específicas. Entre las pruebas formales para
verificar este supuesto tenemos la prueba de Hartley ( max
F ), Levene, etc. Estas pruebas contrastan
la hipótesis nula 2 2 2
0 1 2
: ... t
H   
   con una alternativa general (“las varianzas no son iguales”).
Ver en la sección 7.4 del libro de Ott los detalles de estas pruebas.
La prueba de Levene consiste en realizar un análisis de varianza con el mismo modelo del original,
pero usando como variable dependiente (Y) a los valores absolutos de los residuales. Es la única
prueba que podemos aplicar en todos los diseños que estudiaremos en este curso.
La prueba de max
F consiste en realizar el cociente entre las varianzas máxima y mínima, compa-
rando este cociente con un valor tabular (Tabla 12 en el libro). Solamente es válida para datos
provenientes de un DCA. Si el valor de max
F es mayor que el valor tabular, la hipótesis nula se
rechaza (es decir, el supuesto no se cumple).
Si se detecta que los supuestos no se cumplen algunas medidas comúnmente usadas son la
transformación de datos, el análisis parcial (por ejemplo comparando sólo algunos de los
tratamientos) y el uso de otros métodos específicamente diseñados para el problema particular (por
ejemplo, métodos no paramétricos)
Las transformaciones se usan regularmente para problemas de varianzas heterogéneas, falta de
normalidad y/o falta de aditividad. Las más comúnmente usadas son la logarítmica, la raíz cuadrada
y el arco-seno.
La transformación logarítmica, log
Y Y
  o log( 1)
Y Y
   , se usa para datos que exhiben efectos
multiplicativos (una forma de falta de aditividad) o cuyas varianzas son proporcionales al cuadrado
de las medias.
11
La transformación raíz cuadrada, Y Y
  o 0.5
Y Y
   , se usa para datos con varianzas que
cambian proporcionalmente a la media, como es frecuentemente el caso de recuentos de insectos u
otros organismos.
La transformación arco seno, arcsen
Y Y
  , se usa para datos expresados como porcentajes. Los
porcentajes deben estar basados en un denominador común (por ejemplo, porcentaje de
germinación calculado a partir de 50 semillas bajo distintos tratamientos). Si todos los datos están
entre el 30 y el 70% esta transformación no es necesaria.
Para presentar resultados de análisis con datos transformados, todas las tablas estadísticas deben
mostrar los análisis con los datos transformados. Además, se pueden agregar las medias y los
límites de confianza retransformados a la escala original. Las varianzas, errores estándar y
coeficientes de variación no se deben retransformar a la escala original.
4. Determinación del número de repeticiones de un experimento
Recordemos que al realizar cualquier prueba de hipótesis existen dos tipos de errores que debemos
considerar: Tipo I (rechazar la hipótesis nula cuando es cierta) y Tipo II (aceptar la hipótesis nula
cuando es falsa). La probabilidad de cometer el error de tipo I la fijamos nosotros (es α, el nivel de
significación de la prueba), mientras que la probabilidad de cometer error de tipo II (β) va a
depender de cuán lejos esté el valor verdadero (por ejemplo, la diferencia entre dos medias) del
valor que habíamos postulado en la hipótesis nula (0). Es importante notar que β (la probabilidad
del error de tipo II) depende de los valores verdaderos de las medias. Por supuesto que queremos
que el valor de esta probabilidad sea pequeño cuando hay diferencia entre las medias, y se haga aun
más pequeño a medida que haya más diferencias entre las medias.
Para el análisis de varianza, el libro de texto presenta algunas gráficas (Tabla 14) de valores de
potencia (1 )

 para distintos tamaños muestrales y efectos de tratamiento. El efecto de
tratamiento se define como
2
2
i
n
t





Se puede observar que se deben formular todos los valores de i i
  
 
. Para simplificar, se
puede usar una forma equivalente en la que solamente se indica la alternativa de tener al menos un
par de medias que son diferentes en D unidades (es decir, D es la diferencia mínima que se desea
detectar con una potencia (1 )

 dada:
2
2
2
nD
t



12
En InfoStat, se pueden usar el menú “Cálculo del tamaño muestral” para dos muestras
independientes y para análisis de varianza.
13
Para usar la Tabla 14, observemos que
2
21 1.5
1.72
2 4 2


 
 
, por lo que la potencia es
aproximadamente 0.81:
14
5. Comparaciones múltiples
Recordemos que la hipótesis alternativa general del análisis de la varianza es “al menos
una de las medias es diferente”. Cuando rechazamos la hipótesis nula estamos
concluyendo que hay diferencias, pero no sabemos exactamente cuáles de las medias son
diferentes. Una forma de responder a esta pregunta es planteando las siguientes hipótesis:
0 1 2 0 1 3 0 1 4 0 3 4
: ; : ; : ;... :
H H H H
       
   
Para probar cada una de estas hipótesis podemos usar un estadístico t para dos muestras
independientes. Por ejemplo, para la primera,
1 2
1 2
1 1
p n n
Y Y
t
s



El problema de este enfoque es que se están realizando múltiples inferencias sobre los
mismos datos, por lo que los errores de tipo I de cada una de las pruebas pueden
acumularse. Es decir, para todo el experimento, la probabilidad de rechazar al menos una
de estas hipótesis erróneamente va a ser mayor del 5%. En otras palabras, podemos
detectar diferencias que no existen con mucha mayor frecuencia de lo esperado.
Esta prueba se denomina de la diferencia mínima significativa (DMS, o LSD en inglés)
de Fisher. Debido al problema de acumulación potencial de errores, se han desarrollado
otras pruebas alternativas, y sólo se recomienda usar el DMS cuando en la prueba F
global se ha rechazado la hipótesis nula. De esta manera, aunque sabemos que el  es
válido para cada comparación individual y no para el conjunto de todas las
comparaciones, podemos aplicar esta prueba.
Cuando los tamaños de muestra son iguales, esta prueba se simplifica. Vamos a declarar
una diferencia significativa si 2
t t
 :
1 1 2 2
2
o DMS
2
i j
i j i j
i j
p n n
Y Y Y Y CME
t Y Y t
n
CME
s
n
 
 
    

Si definimos
2
2
DMS 

CME
t
n
, estaremos declarando la diferencia significativa si
DMS
 
i j
Y Y . Podemos observar que este caso la diferencia mínima significativa es la
misma para todas las comparaciones.
Vamos a aplicar este método a los datos del ejercicio 1 (lab.2).
1. El primer paso es calcular el DMS:
15;.025
2 26.3395
2.131, CME 26.3395, 4, DMS 2.131 7.7334
4
t n

    
15
2. El siguiente paso es ordenar las medias de mayor a menor:
Tratamiento 1 2 5 3 4
Media 52.925 42.025 37.700 34.150 21.975
3. Ahora calculamos todas las diferencias, empezando por la más grande. Observemos
que si una diferencia es menor que DMS, todas las más pequeñas también lo serán.
52.925-21.975=30.95 >DMS
52.925-34.150=18.775 >DMS
52.925-37.700=15.225 >DMS
52.925-42.025=10.90 >DMS
42.025-21.975=7.785 >DMS
42.025-34.150=7.785 >DMS
42.025-37.700=4.325 <DMS
37.700-21.175=15.725 >DMS
37.700-34.150=3.55 <DMS
34.150-21.975=12.175 >DMS
4. Por último ponemos letras iguales a las medias que no son significativamente
diferentes:
Tratamiento 1 2 5 3 4
Media 52.925 a 42.025 b 37.700 bc 34.150 c 21.975 d
Otro ejemplo (estudiado en el curso AGRO 5005)
Vamos a considerar un segundo ejemplo en el que tenemos 6 tratamientos, cuyas medias
aparecen en orden descendente a continuación. El valor de la diferencia mínima
significativa es DMS=2.2.
Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8
a. El primer paso va a ser comparar la media del tratamiento 3 con todas las que le siguen
(es decir, 3
Y con 1
Y , 3
Y con 5
Y , 3
Y con 4
Y , 3
Y con 2
Y , 3
Y con 6
Y ). Vamos a conectar con
una línea las medias que no son significativamente diferentes (es decir, aquéllas cuya
diferencia sea menor que DMS)
16
Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8
b. Ahora compararemos 1
Y con todas las medias que le siguen, y conectaremos con líneas
las medias que no son significativamente diferentes de 1
Y :
c. Cuando seguimos el proceso para 5 ,
Y observamos que la media que le sigue, 4 ,
Y tiene
una diferencia mayor que DMS, y por lo tanto no podemos poner una línea que una 5
Y
con una media que está más abajo.
d. Repetimos el proceso para 4 2
y
Y Y :
e. Observar que hay una línea (uniendo las medias 1 y 5) que está de más, ya que las
medias 1 y 5 ya aparecen unidas por la línea que va desde la media 3 hasta la media 5.
Por lo tanto, eliminamos la línea redundante.
Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8
Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8
17
f. Ahora podemos dejar las líneas, o cambiar las líneas por letras iguales:
Tratamiento Y
Trat. 3 35.7 a
Trat. 1 34.0 a
Trat. 5 33.9 a
Trat. 4 25.1 b
Trat. 2 24.7 bc
Trat. 6 22.8 c
g. Se debe observar que las medias que no están unidas por líneas verticales (o la misma
letra) son significativamente diferentes entre sí.
Tasas de error por comparación y por experimento
Recordemos que la probabilidad de cometer error de tipo I se denominaba α. Cuando
realizamos comparaciones de todos los pares posibles de medias, el error de tipo I sería
declarar que un par de medias difiere significativamente cuando en realidad son iguales.
Si consideramos cada comparación individualmente (es decir, como una hipótesis
separada de las demás), el error de tipo I es concluir que esa comparación es significativa
cuando en realidad esas medias no son diferentes. La probabilidad de cometer error de
tipo I para esta comparación individual (promediada a través de todas las comparaciones
y todos los experimentos posibles) es la “tasa de error por comparación”, I
 .
Por otro lado, si consideramos a todas las comparaciones posibles como una sola
hipótesis, entonces realizar error de tipo I es decir que por lo menos un par de medias es
diferente cuando todas las medias son iguales. La probabilidad de cometer el error de tipo
I para todas las comparaciones en conjunto se denomina “tasa de error por experimento”,
E
 .
Supongamos que estamos simulando un experimento en el cual estamos comparando 3
tratamientos A, B, C (por lo tanto tenemos 3 comparaciones de a pares: A vs. B, A vs. C,
B vs. C). Supongamos además que no hay diferencias entre las medias (por lo tanto, cada
vez que encontremos una diferencia estaremos cometiendo error de tipo I). Vamos a
indicar con * los casos en los que encontremos diferencias significativas, y con NS los
casos en los que no encontramos diferencias significativas. El experimento se simulará 20
Tratamiento Y
Trat. 3 35.7
Trat. 1 34.0
Trat. 5 33.9
Trat. 4 25.1
Trat. 2 24.7
Trat. 6 22.8
18
veces, y cada vez realizaremos las comparaciones de a pares correspondientes. Los
resultados se resumen en la siguiente tabla:
Simulación
Comparaciones
A vs. B A vs. C B vs. C
1 NS NS NS
2 * NS NS
3 NS NS NS
4 NS * *
5 NS NS NS
6 * NS NS
7 NS NS NS
8 * * *
9 NS * NS
10 NS NS NS
11 NS NS NS
12 NS NS NS
13 NS NS *
14 NS NS NS
15 NS NS NS
16 NS NS NS
17 NS NS NS
18 NS * *
19 NS NS NS
20 NS NS NS
En este ejemplo tenemos un total de 60 comparaciones, y hemos cometido error de tipo I
en 11 de ellas. Por lo tanto la tasa de error por comparación es 0.1833.
Por otro lado, observamos que hay 20 “experimentos”, y hemos cometido error de tipo I
en 7 de ellos. Por lo tanto la tasa de error por experimento es 0.35.
En la práctica nunca el mismo experimento lo repetiremos 20 veces, pero las tasas de
error tienen la misma interpretación: si no hay diferencias entre las medias y repitiéramos
el experimento muchas veces, cometeremos error de tipo I cada vez que declaremos una
diferencia significativa. La proporción de comparaciones que se encuentran significativas
falsamente es la tasa de error por comparación, y la proporción de experimentos en los
que se encuentran diferencias significativas falsamente es la tasa de error por
experimento.
Corrección de Bonferroni para la prueba de DMS
Con el objeto de controlar la tasa de error para todo el experimento (es decir, todas las
comparaciones), se pueden aplicar modificaciones a la prueba de DMS. La más sencilla
consiste en corregir el nivel de significancia de la prueba para tener en cuenta la
19
multiplicidad de comparaciones que se están realizando. Si llamamos I
 al nivel de
significancia para una comparación individual (que es el que consideramos en DMS), y
E
 al nivel de significancia para todo el experimento (que es lo que querríamos controlar
para no declarar demasiadas diferencias significativas falsamente), la desigualdad de
Bonferroni nos dice que E I
m
 
 , donde m es el número de comparaciones que nos
interesa realizar en todo el experimento. Para todos los pares posibles, ( 1)/ 2
m t t
  . Por
lo tanto, si queremos que la tasa de error para todo el experimento no sea mayor de
0.05
  , por ejemplo, si hay t=5 tratamientos podemos realizar una prueba de DMS
usando un nivel de significancia igual a / 0.05/10 0.005
m
   . Es decir, la fórmula de
DMS para la prueba de Bonferroni ahora es
0.0025
2
2 2
BON=
m
CME CME
t t
n n
 
Prueba de Tukey
Otra manera de evitar el problema de errores acumulados en las conclusiones del
experimento es usar métodos alternativos a la prueba de DMS. La idea fundamental es
que la probabilidad de cometer el error de tipo I (declarar falsamente diferencias
significativas) se mantenga en el nivel especificado ( ) para todo el experimento,
aunque esto implique que para cada comparación tomada individualmente la probabilidad
disminuya. Es decir, hacemos cada prueba individual más conservadora, de manera que
globalmente la probabilidad de cometer al menos un error de tipo I se mantenga
razonablemente cerca del nivel especificado (usualmente 5%).
La prueba de Tukey se desarrolla con esta idea en mente, y consiste en usar un nivel
crítico mayor que el DMS. Este valor crítico es
CME
( , ) ,
W q t
n
 

donde ( , )
q t
  se busca en la tabla 10 del libro con t tratamientos y  grados de libertad
en el cuadrado medio del error. Si los tamaños de muestra son desiguales, el método se
llama prueba de Tukey-Kramer y el valor crítico es
CME 1 1
( , ) .
2
ij
i j
W q t
n n
 
 
 
 
 
 
Si aplicamos la prueba de Tukey al mismo ejemplo considerado anteriormente obtenemos
los siguientes resultados:
CME 26.3395
( , ) 4.37 11.21
4
W q t
n
 
  
20
52.925-21.975=30.95 >W
52.925-34.150=18.775 >W
52.925-37.700=15.225 >W
52.925-42.025=10.90 <W
42.025-21.975=20.05 >W
42.025-34.150=7.785 <W
42.025-37.700=4.325 <W
37.700-21.175=15.725 >W
37.700-34.150=3.55 <W
34.150-21.975=12.175 >W
Tratamiento 1 2 5 3 4
Media 52.925 a 42.025 ab 37.700 b 34.150 b 21.975 c
Como podemos apreciar, esta prueba es más conservadora que DMS (encuentra menos
diferencias significativas).
Para hacer comparaciones múltiples en Infostat debemos usar la solapa “comparaciones”
en la ventana de análisis de varianza.
Para realizar comparaciones múltiples en SAS, debemos usar el comando MEANS. Por
ejemplo, para los datos del ejercicio 2 (laboratorio 2),
proc glm;
class bloque tratam;
model plantas = bloque tratam;
means tratam / lsd;
means tratam / bon;
means tratam / tukey;
run;
21
Class Level Information
Class Levels Values
Bloque 4 1 2 3 4
tratam 3 tratA tratB tratC
Dependent Variable: plantas
Source DF Sum of Squares Mean Square F Value Pr > F
Model 5 2311.416667 462.283333 118.03 <.0001
Error 6 23.500000 3.916667
Corrected Total 11 2334.916667
Source DF Type III SS Mean Square F Value Pr > F
Bloque 3 386.250000 128.750000 32.87 0.0004
tratam 2 1925.166667 962.583333 245.77 <.0001
t Tests (LSD) for plantas
Note: This test controls the Type I comparisonwise error rate, not the experimentwise error rate.
Alpha 0.05
Error Degrees of Freedom 6
Error Mean Square 3.916667
Critical Value of t 2.44691
Least Significant Difference 3.4242
Means with the same letter
are not significantly different.
t Grouping Mean N tratam
A 87.250 4 tratB
B 80.000 4 tratC
C 57.500 4 tratA
22
Bonferroni (Dunn) t Tests for plantas
Note: This test controls the Type I experimentwise error rate, but it generally has a higher Type II
error rate than REGWQ.
Alpha 0.05
Error Degrees of Freedom 6
Error Mean Square 3.916667
Critical Value of t 3.28746
Minimum Significant Difference 4.6005
Means with the same letter
are not significantly different.
Bon Grouping Mean N tratam
A 87.250 4 tratB
B 80.000 4 tratC
C 57.500 4 tratA
Tukey's Studentized Range (HSD) Test for plantas
Note: This test controls the Type I experimentwise error rate, but it generally has a higher Type II
error rate than REGWQ.
Alpha 0.05
Error Degrees of Freedom 6
Error Mean Square 3.916667
Critical Value of Studentized Range 4.33902
Minimum Significant Difference 4.2936
Means with the same letter
are not significantly different.
Tukey Grouping Mean N tratam
A 87.250 4 tratB
B 80.000 4 tratC
C 57.500 4 tratA
23
Intervalos de confianza para medias y diferencias de medias en ANOVA
Para reportar las medias luego de realizar un ANOVA podemos usar un gráfico de barras
(que se genera opcionalmente en InfoStat), e incluir límites de confianza para las medias
(o errores estándar para las medias). Las fórmulas estudiadas anteriormente usando la
tabla t se podrían aplicar aquí:
2 .
s
Y t
n


Como hemos hecho para el cálculo del DMS, el mejor estimador que tenemos de la
desviación estándar poblacional es (bajo el supuesto que las varianzas son iguales),
CME
Este estimador tiene los grados de libertad del error. Por lo tanto, el intervalo de
confianza para una media de tratamiento es
2
CME
Y t
n


Recordar que en esta fórmula n representa la cantidad de observaciones en la media
específica (cantidad de repeticiones), y no la cantidad total de observaciones en todo el
experimento. Los grados de libertad para el valor tabular de t son los grados de libertad
del error.
Similarmente podemos calcular un intervalo de confianza para la diferencia de dos
medias. Suponiendo igual número de repeticiones n:
/2
2CME
i j
Y Y t
n

 
Observar que el término que se suma y resta en esta fórmula es DMS, por lo que el
intervalo de confianza para la diferencia de dos medias es:
DMS
i j
Y Y
 
Si este intervalo incluye el valor de cero, las dos medias correspondientes no son
significativamente diferentes. Esto es lo que hemos usado cuando estudiamos la prueba
de DMS: si la diferencia de dos medias es menor que DMS, esas medias no son
significativamente diferentes. El intervalo va a incluir 0 si y solo si la diferencia de las
dos medias es menor que DMS.
24
6. Contrastes
La prueba F que realizamos en el ANOVA prueba la igualdad de medias (ausencia de
efectos de tratamientos) versus una alternativa general. Como hemos visto en las
conferencias anteriores, podemos realizar pruebas de comparaciones de a pares (DMS,
Tukey, etc.), pero esto puede traernos problemas: por una parte puede haber acumulación
de errores, y por otra parte la interpretación no siempre es simple. Cuando hay mucha
superposición, es difícil realizar inferencias útiles.
Si los tratamientos tienen una estructura dada (no son simplemente 5 variedades, por
ejemplo), existen otras hipótesis que pueden resultar de mucho más interés que las que
probamos con DMS. Éstas pueden escribirse como combinaciones lineales de medias.
Por ejemplo,
i i
L c 
 
Las i
c son los coeficientes de la combinación lineal. Un contraste se define como una
combinación lineal con 0.
i
c 
 Por ejemplo supongamos que estamos probando las
siguientes 5 dietas en pavos:
Grupo Dieta
1 Control
2 Nivel 1, suplemento A
3 Nivel 2, suplemento A
4 Nivel 1, suplemento B
5 Nivel 2, suplemento B
Es posible que estemos interesados en probar si el promedio de los tratamientos con
suplemento A es igual al promedio de los tratamientos con suplemento B:
2 3 4 5
0 :
2 2
H
   
 

Esto es equivalente a 0 2 3 4 5
: 0
H    
    . Podemos verificar que esto es un
contraste, y estamos probando 0 : 0
H L  . Observar que 1 1 1 1 0.
i
c     

Si tuviésemos un solo contraste de interés, la estimación y la prueba es directa:
 
   
2
2 2 2
ˆ ˆ
ˆ
ˆ
ˆ ˆ
var var
i i i i i i
i i i i
i i
L c c Y Y cY
CME
L c Y c c
n n


  

   
  
  
  
25
 
0
2
ˆ ˆ
: 0, : 0
ˆ
. .
a
i
i
L L
H L H L t
CME
s e L
c
n
   

, rechazamos 0
H cuando 2; dfe
t t
 .
En forma equivalente, podemos calcular una suma de cuadrados para el contraste, y
construir un estadístico F para probar la misma hipótesis:
2
2
0
ˆ
( )
: 0, : 0
i
i
a
L
c
n
CM L
H L H L F
CME CME
   

, rechazamos 0
H cuando ;1,dfe
F F
 .
Debemos observar que el numerador tiene 1 grado de libertad, y por lo tanto la suma de
cuadrados es igual al cuadrado medio.
Los contrastes pueden clasificarse en “a priori” y “a posteriori”. Los primeros son
contrastes que se postulan basándonos únicamente en la estructura de los tratamientos,
antes de mirar los datos. Este tipo de contraste es lo que deberíamos usar casi siempre
que sea posible.
En la mayoría de los casos tenemos más de un contraste de interés. El problema de
acumulación potencial de errores estará también presente en estos casos cuando tratemos
de obtener conclusiones para todos los contrastes conjuntamente.
El método que hemos presentado, basado en la prueba t o F, controla la tasa de error por
comparación (igual que el DMS). Esto es porque está diseñado para contrastes
individuales. Si cada uno de los contrastes está diseñado para responder a una pregunta
“separada”, el método de t o F también puede usarse y la acumulación de errores no será
tan importante. Matemáticamente estos contrastes se denominan “ortogonales”. Dos
contrastes 1 i i
L a 
  y 2 i i
L b 
  son ortogonales si 0
i i
a b 
 . Un conjunto de
contrastes es ortogonal si todos los pares posibles de contrastes son ortogonales entre sí.
Si tenemos t tratamientos, no podemos tener más de 1
t  contrastes ortogonales en un
conjunto dado (los grados de libertad de tratamientos). En el ejemplo de los pavos un
conjunto ortogonal de interés podría ser
Grupo L1 L2 L3 L4
1 4 0 0 0
2 -1 1 0 1
3 -1 -1 0 1
4 -1 0 1 -1
5 -1 0 -1 -1
Observar que L1 compara la dieta control con el promedio de las otras, L2 compara los
dos niveles del suplemento A, L3 compara los dos niveles del suplemento B, y L4
26
compara el promedio de las dos formulaciones de A con el promedio de las dos
formulaciones de B.
En resumen, si tenemos más de un contraste “a priori”, podemos usar contrastes
ortogonales y probarlos con una prueba t o F. Si no tenemos un conjunto ortogonal de
interés, podemos seguir usando las pruebas t o F, pero los niveles de significación
deberán dividirse por m, la cantidad de contrastes a priori de interés (prueba de
Bonferroni).
Si tenemos muchos contrastes no ortogonales “a priori” (lo que hará que Bonferroni sea
muy ineficiente) o si tenemos contrastes “a posteriori” podemos usar un procedimiento
que controla la tasa de error por experimento: la prueba de Scheffé.
Prueba de Scheffé
Este procedimiento puede usarse para cualquier contraste, ya que controla la tasa de error
para todos los contrastes posibles, sean estos sugeridos por los datos, ortogonales, no
ortogonales, de a pares, etc. Dado que es una prueba tan general, tiende a ser muy
conservadora (por ejemplo, casi nunca se la usa para comparaciones de a pares, que son
un caso particular de contrastes a priori no ortogonales).
Para usar la prueba de Scheffé debemos calcular el estadístico F mencionado
anteriormente, y el criterio de rechazo será
Rechazar 0
H si ; 1,dfe
( 1) t
F t F 
 
donde t es el número de tratamientos usados. (El texto presenta una versión equivalente
de la prueba de Scheffé que usa el estadístico t, no el estadístico F)
Para realizar pruebas F en contrastes podemos usar Infostat o SAS. En Infostat debemos
abrir la ventana de contrastes, indicando los tratamientos y los coeficientes. Opcional-
mente podemos solicitar que se verifique la ortogonalidad de los contrastes. Para el
ejemplo de las dietas de pavos,
Se debe destacar que el usuario debe decidir de antemano qué prueba va a realizar:
1. Si es una prueba F sin ninguna corrección por contrastes múltiples,
Rechazar 0
H si p 

2. Si es una prueba F con corrección de Bonferroni por realizar m contrastes,
Rechazar 0
H si /
p m


3. Si es una prueba de Scheffé,
Rechazar 0
H si ; 1,dfe
( 1) t
F t F 
 
27
Contrastes
Tratamiento SC gl CM F valor p
Contraste1 3060357.61 1 3060357.61 118.57 <0.0001
Contraste2 450300.50 1 450300.50 17.45 0.0013
Contraste3 41616.13 1 41616.13 1.61 0.2282
Contraste4 739170.06 1 739170.06 28.64 0.0002
Total 4291444.30 4 1072861.08 41.57 <0.0001
Coeficientes de los contrastes
Tratamiento Cont. 1 Cont. 2 Cont. 3 Cont. 4
1.00 4.00 0.00 0.00 0.00
2.00 -1.00 1.00 0.00 1.00
3.00 -1.00 -1.00 0.00 1.00
4.00 -1.00 0.00 1.00 -1.00
5.00 -1.00 0.00 -1.00 -1.00
Programa de SAS para contrastes
proc glm data=pavos;
class trt;
model ganancia=trt;
means trt;
contrast 'control vs. otros' trt 4 -1 -1 -1 -1;
contrast 'A1 vs. A2' trt 0 1 -1 0 0;
contrast 'B1 vs. B2' trt 0 0 0 -1 1;
contrast 'A vs. B' trt 0 1 1 -1 -1;
run;
28
7. Diseño de cuadrado latino
Consideremos el siguiente ejemplo de aplicación del diseño en bloques completos
aleatorizados: vamos a analizar una enzima en camarones para estudiar el efecto de 4
distintos tratamientos de conservación. Como el análisis es muy complicado, vamos a
asegurarnos que no haya efecto de analista diseñando el experimento de manera que cada
uno de los cuatro analistas realice las determinaciones de los cuatro tratamientos. Es
decir, cada analista va a ser un bloque, y debemos aleatorizar el orden en que cada
analista va a trabajar (cada tratamiento requiere hacerse en un día diferente). Por ejemplo:
Analista
Día 1 2 3 4
L Trat A Trat A Trat B Trat A
Ma Trat C Trat B Trat C Trat C
Mi Trat D Trat D Trat A Trat B
J Trat B Trat C Trat D Trat D
Podemos ver que si hubiese un efecto de día (por ejemplo, los lunes no son tan confiables
como los miércoles), entonces algunos tratamientos pueden verse afectados (por ejemplo,
el A aparece 3 veces en lunes). Para evitar esto podríamos hacer que cada día también sea
un bloque completo (es decir, que todos los tratamientos estén representados). Un posible
arreglo de tratamientos sería:
Analista
Día 1 2 3 4
L Trat A Trat D Trat B Trat C
Ma Trat C Trat B Trat D Trat A
Mi Trat D Trat C Trat A Trat B
J Trat B Trat A Trat C Trat D
Este diseño se denomina cuadrado latino, y tiene la ventaja de controlar dos fuentes de
variación (en nuestro ejemplo el analista y el día). Es bastante rígido, ya que requiere,
para t tratamientos, t filas y t columnas. Su principal desventaja es que las diferencias
entre los tratamientos no deben estar afectadas por las filas o las columnas (es decir, si el
tratamiento A es mejor que el B, debe serlo en los 4 analistas). La forma más común de
aleatorizar los tratamientos es eligiendo al azar de una tabla de cuadrados latinos uno del
tamaño deseado (o armar uno en forma no aleatoria), y después aleatorizar los números
de filas, los números de columnas y los números de tratamientos.
El modelo que describe los datos provenientes de este diseño es el siguiente:
ijk i j k ijk
Y     
    
La notación que usaremos será la misma que para el DBCA: tenemos t tratamientos,
denota la observación del ésimo tratamiento en la fila y la columna .
ijk
Y i j k

29
Ahora tendremos dos fuentes adicionales de variabilidad: las filas y las columnas. Las
sumas de cuadrados se calculan de la siguiente manera:
 
2
2 2
2
SCTotal=SCTot ijk ijk
Y
Y Y Y
t


   
 
 
2 2
2
2
SCTratamientos=SCTrat i
i
i i
Y Y
t Y Y
t t
 
 
   
 
 
2 2
2
2
SCFilas=
j
j
j j
Y Y
t Y Y
t t
  
  
  
 
 
2 2
2
2
SCColumnas= k
k
k k
Y Y
t Y Y
t t
 
 
  
 
SCResidual=SCError=SCRes SCTot-SCTrat-SCFilas-SCCol

La siguiente es la tabla de ANOVA:
Fuente de
Variación
Suma de
Cuadrados
grados de
libertad
Cuadrado
Medio
F
Tratamiento SCTrat 1
t  CMTrat F=CMTrat/CME
Filas SCFilas 1
t  CMFilas F=CMFila/CME
Columnas SCColumnas 1
t  CMCol F=CMCol/CME
Residual (Error) SCRes=SCE   
1 2
t t
  CMRes=CME
Total SCTot 2
1
t 
Las hipótesis que probamos, los supuestos y los métodos de comparaciones múltiples se
aplican de la misma manera que lo que hemos estudiado para DCA y DBCA.
Ejemplo: Éste es el ejercicio 15.8 del libro de Ott (leer la descripción del mismo allí).
data melon;
input fila col trat peso;
datalines;
1 1 1 1.75
1 2 3 1.43
1 3 4 1.28
1 4 2 1.66
2 1 2 1.70
2 2 1 1.78
2 3 3 1.40
2 4 4 1.31
3 1 4 1.35
3 2 2 1.73
3 3 1 1.69
3 4 3 1.41
4 1 3 1.45
4 2 4 1.36
4 3 2 1.65
4 4 1 1.73
proc glm;
class fila col trat;
model peso = fila col trat; run;
30
Class Level Information
Class Levels Values
fila 4 1 2 3 4
col 4 1 2 3 4
trat 4 1 2 3 4
Dependent Variable: peso
Source DF Sum of Squares Mean Square F Value Pr > F
Model 9 0.49335000 0.05481667 438.53 <.0001
Error 6 0.00075000 0.00012500
Corrected Total 15 0.49410000
R-Square Coeff Var Root MSE peso Mean
0.998482 0.724819 0.011180 1.542500
Source DF Type III SS Mean Square F Value Pr > F
fila 3 0.00085000 0.00028333 2.27 0.1810
col 3 0.01235000 0.00411667 32.93 0.0004
trat 3 0.48015000 0.16005000 1280.40 <.0001
Para analizar los mismo datos en Infostat debemos seleccionar fila, columna y tratam
como variables de clasificación:
31
32
8. Experimentos factoriales con dos factores
Existen muchas situaciones en las que los tratamientos representan combinaciones de dos
o más variables independientes (=factores). Por ejemplo, supongamos que queremos
estudiar el efecto de dos factores: la presencia (o ausencia) de antibiótico y la presencia
(o ausencia) de vitamina B12 en la dieta de cerdos. Si combinamos los dos niveles de
antibiótico (0mg, 40mg) con los dos niveles de B12 (0mg, 5mg), tendremos cuatro
tratamientos:
Tratamiento Antibiótico Vitamina B12
1 0 0
2 40 0
3 0 5
4 40 5
Supongamos que aplicamos cada uno de estos cuatro tratamientos a 5 cerdos, según un
diseño completamente aleatorizado, y registramos el aumento de peso en cada uno.
Por ahora, supongamos que conocemos el aumento promedio verdadero (poblacional)
para cerdos en los tres primeros tratamientos. ¿Sería posible predecir el promedio del
cuarto tratamiento?
Tratamiento Antibiótico Vitamina B12 
1 0 0 30
2 40 0 35
3 0 5 45
4 40 5 ?
Por una parte observamos que al pasar de 0 a 40 de antibiótico sin vitamina B12 el
aumento del promedio es 5. Si podríamos suponer que ese efecto positivo del antibiótico
en ausencia de B12 es el mismo que el efecto que el antibiótico tendría en presencia de
B12, entonces 4 3 5 50.
 
  
Equivalentemente, al pasar de 0 a 5 de B12 sin antibiótico el aumento del promedio es
15. Por lo tanto, al pasar de 0 a 5 de B12 en presencia del antibiótico el promedio sería
4 2 15 50.
 
  
Resumiendo, bajo el supuesto que el efecto de un factor es el mismo en ambos niveles del
otro factor, podemos calcular una media dadas las otras 3. Cuando esto sucede decimos
que los efectos son aditivos (podemos sumarlos) y no sería necesario probar los cuatro
tratamientos (con tres sería suficiente).
Ahora supongamos que esto no se cumple, sino que 4 60
  (por ejemplo debido a que
la presencia de ambos suplementos es más beneficiosa que la presencia de uno de ellos
33
por separado). En este caso sí necesitamos estudiar las cuatro combinaciones, y no
podemos prescindir de ninguna. Cuando esto sucede decimos que los efectos no son
aditivos sino que existe interacción entre los factores. Gráficamente,
Efectos Aditivos
20
30
40
50
60
0 10 20 30 40
Antibiótico
Media
B12=0
B12=5
Efectos con interacción
20
30
40
50
60
0 10 20 30 40
Antibiótico
Media
B12=0
B12=5
En un experimento factorial siempre probamos todas las combinaciones de tratamiento,
ya que estudiar la interacción es uno de los objetivos más importantes al realizar un
experimento de este tipo. El ejemplo que hemos presentado se denomina un experimento
factorial 2x2, o 22
, ya que tiene dos factores a dos niveles cada uno. Si tuviésemos
antibiótico a 2 niveles y B12 a 3 niveles, sería un factorial 2x3 (y en este caso tendríamos
6 tratamientos, o combinaciones de niveles). Un factorial 2x2x3 significa que hay tres
factores, uno a dos niveles, otro a dos niveles y un tercero a 3 niveles.
El modelo para observaciones provenientes de un arreglo factorial de tratamientos
arreglados en un diseño completamente aleatorizado es el siguiente:
ijk ij ijk i j ij ijk
Y       
      
donde el índice i representa niveles del primer factor, j representa niveles del segundo
factor y k representa repeticiones. Si no hubiese interacción, la diferencia (por ejemplo)
12 11
 
 sería igual a la diferencia 22 21
 
 . Esto es lo que observamos en nuestro
ejemplo, y se logra si 0
ij
  :
34
 
 
12 11 1 2 1 1 2 1
22 21 2 2 2 1 2 1
         
         
        
        
Si hubiese interacción esta igualdad no se cumpliría. Por lo tanto, el término ij

representa la interacción entre ambos factores. Los términos i
 y j
 representan los
efectos “principales” del primer y segundo factor respectivamente. Estos efectos
principales pueden interpretarse como el efecto de un factor promediado sobre todos los
niveles del otro factor (ya discutiremos este concepto más adelante).
Para armar nuestra tabla de ANOVA supongamos que el primer factor lo llamamos A, y
este factor tiene a niveles. Similarmente, el factor B tiene b niveles, y tenemos n
observaciones por tratamiento (combinación de niveles de A y B).
Usando la notación de puntos,
: total para el nivel del factor
: total para el nivel del factor
: total para el tratamiento
(combinación del nivel de y nivel de )
: total de todas las observac
i
j
ij
Y i A
Y j B
Y ij
i A j B
Y

 

 iones
 
2
2 2
SCTotal=SCTot ijk ijk
Y
Y Y Y
nab


   
 
 
2 2
2
SCA i
i
i i
Y Y
bn Y Y
bn abn
 
 
   
 
 
2 2
2
SCB=
j
j
j j
Y Y
an Y Y
an abn
  
  
  
 
2 2
SCAB=SCTratamientos-SCA-SCB= SCA SCB
ij
Y Y
n nab
 
  

SCResidual=SCError=SCRes SCTot-SCA-SCB-SCAB

La siguiente es la tabla de ANOVA:
Fuente de Variación Suma de
Cuadrados
grados de
libertad
Cuadrado
Medio
F
A SCA a-1 CMA F=CMA/CME
B SCB b-1 CMB F=CMB/CME
AB SCAB (a-1)(b-1) CMAB F=CMAB/CME
Residual (Error) SCRes=SCE ab(n-1) CMRes=CME
Total SCTot abn-1
35
Las hipótesis que probamos son tres:
0 11 12
0 1 2
0 1 2
: ... 0
: ... 0
: ... 0
ab
a
b
H
H
H
  
  
  
   
   
   
La primera hipótesis que debemos probar siempre es si hay o no hay interacción. Si hay
interacción, las hipótesis de efectos principales no tienen demasiado sentido y por lo tanto
no deberíamos interpretarlas (excepto bajo ciertas circunstancias).
Si no hay interacción significativa, los efectos principales sí tienen interpretación, y por
lo tanto podemos probarlos.
Vamos a ver nuevamente el ejemplo presentado antes (factorial 2x2) para entender mejor
los conceptos de efectos principales e interacciones. Supongamos que observamos tres
cerdos en cada tratamiento (DCA) y observamos la ganancia diaria de peso:
Tratamiento Antibiótico Vitamina B12 Ganancia Diaria de Peso ij
Y 
1 0 0 1.30, 1.19, 1.08 1.19
2 40 0 1.05, 1.00, 1.05 1.03
3 0 5 1.26, 1.21, 1.19 1.22
4 40 5 1.52, 1.56, 1.55 1.54
Bajo el nivel 0 de antibiótico (factor A) podemos estimar el efecto simple del factor B:
12 11 1.22 1.19 0.03
Y Y
 
   
Similarmente el efecto simple del factor B cuando el factor A está en su segundo nivel se
estima como:
22 21 1.54 1.03 0.51
Y Y
 
   
El efecto principal del factor B es el promedio de estos dos efectos simples, y es también
la diferencia entre las medias de los niveles de B:
2 1
.51 .03
0.27
2
Y Y
   

  
Si los efectos simples no son significativamente diferentes, entonces sí tiene sentido
promediarlos para obtener el efecto principal. Pero si los efectos simple son
significativamente diferentes, entonces estamos en presencia de interacción y no tendría
sentido promediarlos. Por lo tanto, la interacción puede estimarse mediante la diferencia
de los efectos simples:
 
22 21 12 11
Interacción: 0.51 0.03 0.48
Y Y Y Y
   
     
Como ejercicio, calcular los efectos simples y principal del factor A. Verificar que
usando estos efectos simples la interacción es la misma. (Esto tiene sentido, ya que la
interacción es un concepto que comprende los dos factores.)
36
El programa SAS para este ejemplo sigue a continuación.
data cerdos;
input tratam antib vitb12 ganpeso;
datalines;
1 0 0 1.30
1 0 0 1.19
1 0 0 1.08
2 40 0 1.05
2 40 0 1.00
2 40 0 1.05
3 0 5 1.26
3 0 5 1.21
3 0 5 1.19
4 40 5 1.52
4 40 5 1.56
4 40 5 1.55
proc glm;
class antib vitb12;
model ganpeso = antib vitb12 antib*vitb12;
run;
Class Level Information
Class Levels Values
antib 2 0 40
vitb12 2 0 5
Dependent Variable: ganpeso
Source DF Sum of Squares Mean Square F Value Pr > F
Model 3 0.41233333 0.13744444 37.48 <.0001
Error 8 0.02933333 0.00366667
Corrected Total 11 0.44166667
R-Square Coeff Var Root MSE ganpeso Mean
0.933585 4.857193 0.060553 1.246667
Source DF Type III SS Mean Square F Value Pr > F
antib 1 0.02083333 0.02083333 5.68 0.0443
vitb12 1 0.21870000 0.21870000 59.65 <.0001
antib*vitb12 1 0.17280000 0.17280000 47.13 0.0001
37
Otra manera de ver este problema es mediante contrastes. Olvidándonos por un momento
de los dos factores, nosotros tenemos aquí un DCA con 4 tratamientos. Mediante
contrastes apropiados podemos probar las mismas hipótesis (además podríamos escribir
contrastes para efectos simples de ser necesario):
proc glm;
class tratam;
model ganpeso = tratam;
contrast 'Ef. ppal. A' tratam -1 1 -1 1;
contrast 'Ef. ppal. B' tratam -1 -1 1 1;
contrast 'Interac. AB' tratam 1 -1 -1 1;
run;
Class Level Information
Class Levels Values
tratam 4 1 2 3 4
Dependent Variable: ganpeso
Source DF Sum of Squares Mean Square F Value Pr > F
Model 3 0.41233333 0.13744444 37.48 <.0001
Error 8 0.02933333 0.00366667
Corrected Total 11 0.44166667
R-Square Coeff Var Root MSE ganpeso Mean
0.933585 4.857193 0.060553 1.246667
Source DF Type III SS Mean Square F Value Pr > F
tratam 3 0.41233333 0.13744444 37.48 <.0001
Contrast DF Contrast SS Mean Square F Value Pr > F
Ef. ppal. A 1 0.02083333 0.02083333 5.68 0.0443
Ef. ppal. B 1 0.21870000 0.21870000 59.65 <.0001
Interac. AB 1 0.17280000 0.17280000 47.13 0.0001
38
Interacción ordenada y no ordenada
Interacción Ordenada
0
10
20
30
40
50
0 1 2 3 4 5
A
Media
B=1
B=2
B=3
Interacción No Ordenada
0
5
10
15
20
25
0 1 2 3 4 5
A
Media
B=1
B=2
B=3
Si tenemos interacción ordenada podríamos probar efectos principales (recordemos que
son promedios de efectos simples) e interpretar los resultados (con cautela…), pero si
tenemos una interacción no ordenada, los efectos principales no se pueden interpretar en
términos prácticos (estamos promediando cosas con distinto signo, distinta magnitud,
etc.)
39
Pruebas de comparaciones múltiples, contrastes, intervalos de confianza, etc.
Para realizar comparaciones o contrastes podemos hacerlo con dos tipos de medias:
1. las medias de niveles de cada factor. Por ejemplo, 1 2
 
 
 es la diferencia entre
el primer nivel de A y el segundo nivel de A. Es un efecto principal.
2. las medias de tratamientos (combinaciones de niveles niveles de cada factor). Por
ejemplo, 12 11
 
 es la diferencia entre el primer nivel de B y el segundo nivel de
B cuando el factor A está en su primer nivel. Es un efecto simple.
Las medias de niveles de cada factor se calculan a partir de más observaciones que las
medias de tratamientos, por lo que las fórmulas que hemos estudiado deben corregirse
apropiadamente. En el ejemplo de los cerdos, para calcular 1 1
ˆ Y
  
 debemos promediar
2 3 6
bn    observaciones; mientras que para calcular 12 12
ˆ Y
 
 debemos promediar
3
n  observaciones. Esto hace que los errores estándar de las diferencias dependan de
qué tipo de media estamos considerando. Por ejemplo,
 
 
 
1 2
3 1
12 11
2
. .
2
. .
2
. .
CME
s e Y Y
bn
CME
s e Y Y
an
CME
s e Y Y
n
 
   
 
 
 
 
40
9. Experimentos factoriales con tres o más factores
Para experimentos con tres o más factores las ideas básicas del análisis son las mismas
que para dos factores, aunque todo se complica por la existencia de interacciones dobles,
triples, etc. Veamos con un ejemplo qué significaría cada uno de los efectos e
interacciones en un factorial 2x2x2. Por ejemplo, supongamos que queremos estudiar el
efecto de la presencia (o ausencia) de antibiótico, la presencia (o ausencia) de vitamina
B12 y el sexo en la dieta de cerdos. Si combinamos los dos niveles de antibiótico (0mg,
40mg) con los dos niveles de B12 (0mg, 5mg), y los dos sexos tendremos ocho
tratamientos:
Tratamiento Antibiótico Vitamina B12 Sexo
1 0 0 M
2 40 0 M
3 0 5 M
4 40 5 M
5 0 0 F
6 40 0 F
7 0 5 F
8 40 5 F
Supongamos que aplicamos cada uno de estos ocho tratamientos a 5 cerdos, según un
diseño completamente aleatorizado, y registramos el aumento de peso en cada uno.
El modelo para este ejemplo sería:
          
ijkm ijk ijkm i j k ij ik jk ijk ijkm
Y           
donde el índice i representa niveles del primer factor, j representa niveles del segundo
factor, k representa niveles del tercer factor y m representa repeticiones.
Debemos observar que ahora tenemos tres efectos principales, tres interacciones dobles y
una interacción triple. Los efectos principales tienen la misma interpretación que antes:
representan las comparaciones entre niveles de un factor promediadas sobre los niveles
de los otros dos factores. Por ejemplo, el efecto principal de sexo es la comparación entre
los 4 tratamientos con nivel 1 de sexo (trat. 1-4) y los 4 tratamientos con nivel 2 de sexo
(trat. 5-8).
Las interacciones dobles son comparaciones entre las diferencias de niveles de un factor
en cada nivel del otro promediadas sobre los niveles del factor no incluido en la
interacción. Por ejemplo, la interacción doble entre antibiótico y vitamina es la siguiente
comparación:
111 112 121 122 211 212 221 222
2 2 2 2
   
 
  
 
 
       
Observar que los niveles de sexo (tercer índice) están promediados, ya que la interacción
considerada es entre antibiótico y vitamina.
41
La interacción triple se puede interpretar como que la interacción doble entre dos de los
factores en un nivel dado del factor restante no es la misma que la interacción doble en el
otro nivel del factor restante. Por ejemplo, la interacción triple podría interpretarse como
que la interacción entre el antibiótico y la vitamina no es la misma en machos que en
hembras:
   
 
111 121 211 221 112 122 212 222
       
      
Para armar nuestra tabla de ANOVA supongamos que el primer factor lo llamamos A, y
este factor tiene a niveles. Similarmente, el factor B tiene b niveles, el factor C tiene c
niveles y tenemos n observaciones por tratamiento (combinación de niveles de A, B y C).
Usando la notación de puntos,
: total para el nivel del factor
: total para el nivel del factor
: total para el nivel del factor
: total para la combinación del nivel de y nivel de
: total
i
j
k
ij
i k
Y i A
Y j B
Y k C
Y i A j B
Y

 
 

  para la combinación del nivel de y nivel de
: total para la combinación del nivel de y nivel de
: total para el tratamiento
: total de todas las observaciones
jk
ijk
i A k C
Y j B k C
Y ijk
Y
 


Las fórmulas para las sumas de cuadrados pueden consultarse en la página 907 del texto.
La siguiente es la tabla de ANOVA:
Fuente de
Variación
Suma de
Cuadrados
grados
libertad
Cuadrado
Medio
F
A SCA a-1 CMA F=CMA/CME
B SCB b-1 CMB F=CMB/CME
C SCC c-1 CMC F=CMC/CME
AB SCAB (a-1)(b-1) CMAB F=CMAB/CME
AC SCAC (a-1)(c-1) CMAC F=CMAC/CME
BC SCBC (b-1)(c-1) CMBC F=CMBC/CME
ABC SCABC (a-1)(b-1) (c-1) CMABC F=CMABC/CME
Residual (Error) SCRes=SCE abc(n-1) CMRes=CME
Total SCTot abcn-1
42
La estrategia general para analizar esta tabla es la misma que para factoriales con dos
factores: empezar a probar la interacción de mayor orden, seguir con las dobles de
acuerdo al resultado de la prueba de la interacción triple, etc. Un diagrama que nos puede
ayudar en esto es el siguiente (ver página 909 en el texto, quinta edición):
43
10. Modelos de efectos aleatorios y mixtos
Supongamos que nos interesa estudiar si hay diferencias en calidad según la variedad en
semillas de trigo comercializadas por cierta compañía. Para este estudio elegimos al azar
5 variedades (de entre las 40 variedades disponibles) y de cada variedad elegimos 10
muestras al azar de 50 semillas cada una, en las que medimos el porcentaje de
germinación, peso, densidad, etc. El modelo para cada una de las variables dependientes
sería
ij i ij
Y   
  
Como en otros modelos estudiados antes, aquí i
 representa el efecto de la variedad y ij

el error. La principal diferencia es que el efecto de la variedad es una variable aleatoria.
Debemos observar que si hiciésemos el estudio nuevamente, las variedades elegidas
serían diferentes (se escogen al azar cada vez). Por otra parte, si las únicas variedades de
interés fuesen las cinco variedades del estudio, el efecto de la variedad ( i
 ) sería fijo
(esta situación sería similar a todos los ejemplos estudiados hasta ahora: al hacer el
estudio de nuevo, las muestras serían diferentes pero las variedades serían las mismas).
Como en todos los ejemplos anteriores, el error siempre es una variable aleatoria y la
media general es fija:
   
2 2
~ 0, , ~ 0,
i ij
N N

   
Ambos efectos son independientes.
La inferencia para modelos de efectos aleatorios es diferente, ya que no estamos
interesados en los 5 valores de i
 actualmente estudiados sino en todos los valores
posibles (los efectos de las 40 variedades). Si todos los efectos fuesen iguales, la varianza
de estos efectos sería 0, es decir, 2
0

  . Por lo tanto ésta es la hipótesis nula que
probamos en un modelo de efecto aleatorio. Los cálculos para la tabla de ANOVA son
los mismos que antes (por lo menos en este ejemplo con un solo factor), y la prueba F
sigue siendo CMTrat
CME
F  .
Otra manera de ver que la hipótesis que estamos probando es la mencionada es mediante
el estudio de los cuadrados medios esperados. Un cuadrado medio esperado es el valor
promedio que obtendríamos si repitiésemos nuestro experimento infinidad de veces,
calculásemos cada vez un cuadrado medio, y promediásemos estos valores. Debemos
observar que según estemos trabajando con efectos fijos o aleatorios el proceso de repetir
el experimento va a ser diferente: en el caso de efectos fijos el proceso significa
realeatorizar las unidades experimentales a los tratamientos, mientras que con efectos
aleatorios deberíamos reelegir aleatoriamente los tratamientos y luego realeatorizar las
unidades experimentales a los tratamientos elegidos. Los cuadrados medios esperados
son cantidades poblacionales cuyo cálculo requiere bastante teoría. Para el ejemplo que
estamos considerando son los siguientes:
44
Fuente de variación Cuadrado Medio Esperado
Efectos Fijos Efectos Aleatorios
Tratamiento 2 2
( 1)
i
n t
 
 
 2 2
n 
 

Error 2
 2

Aquí podemos ver la justificación para la prueba F: bajo la hipótesis nula tanto el
numerador como el denominador tienen el mismo valor esperado, mientras que bajo la
hipótesis alternativa el numerador tiene un valor esperado más alto que el denominador
(de ahí que rechacemos la hipótesis nula para valores altos del estadístico).
El mismo concepto de efectos aleatorios lo podemos extender a situaciones con más de
un factor, con bloques, etc. Supongamos que estamos estudiando un proceso de
empacado de pescado en una fábrica. Escogemos 4 máquinas al azar entre todas las
disponibles, y 3 operarios al azar entre los 200 operarios de la fábrica. Para cada
combinación de máquina y operario escogemos 5 paquetes al azar de la línea de
producción. Debemos notar que éste es un experimento factorial 4x3 con 5 repeticiones
en un DCA, pero ambos efectos son aleatorios (si volviésemos a realizar el experimento,
tanto las máquinas como los operarios serían diferentes). El modelo en este caso es
   
   
2 2
2 2
~ 0, , ~ 0,
~ 0, , ~ 0,
ijk i j ij ijk
i j
ij ijk
Y
N N
N N
 

    
   
   
    
Todos los efectos aleatorios son independientes entre sí.
Otro ejemplo de un factorial con dos factores es el siguiente: deseamos comparar 4
variedades de habichuela aleatoriamente escogidas sembradas bajo 5 dosis de
fertilización. Para ello sembramos 2 repeticiones de cada una de las 20 combinaciones de
variedad y fertilización en un experimento diseñado según un DCA. En este caso el
modelo es mixto: los efectos de las variedades son aleatorios y los efectos de los métodos
de fertilización son fijos. El modelo es similar al anterior:
   
 
2 2
2
~ 0, , ~ 0,
~ 0,
ijk i j ij ijk
j ij
ijk
Y
N N
N
 
    
   
 
    
45
Los cuadrados medios esperados para factoriales pueden resumirse en la siguiente tabla:
Fuente
de
variación
Cuadrado Medio Esperado
A y B Fijos A y B Aleatorios A fijo, B Aleatorio
A 2 2
( 1)
i
nb a
 
 
 2 2 2
n nb
 
  
  2 2 2
( 1)
i
n nb a

  
  

B 2 2
( 1)
j
na b
 
 
 2 2 2
n na
 
  
  2 2
na 
 

AB 2 2
( 1)( 1)
ij
n a b
 
  
 2 2
n 
 
 2 2
n 
 

Error 2
 2
 2

A partir de esta tabla es bastante directo encontrar las hipótesis y la forma de construir
estadísticos F para probarlas. La clave es siempre encontrar un numerador y un
denominador para el estadístico F que tengan el mismo valor esperado bajo la hipótesis
nula. Por ejemplo, en el modelo mixto para probar el efecto principal del factor A
tenemos que 0 1 2
: ... 0
a
H   
    , y para probarla podemos construir el siguiente
estadístico:
CMA
CMAB
F  . Todas estas fórmulas son válidas sólo si los datos son
balanceados (igual número de repeticiones por combinación de niveles de factores). En
caso contrario se debe usar otra metodología.
Como ejemplo en SAS, consideremos el modelo mixto discutido antes con 5 dosis de
fertilizante (fijas) y 4 variedades (aleatorias).
data ensayo;
input fertil varied rendim;
datalines;
1 1 7.2
1 2 4.2
1 3 9.5
1 4 5.4
1 1 9.6
1 2 3.5
1 3 9.3
1 4 3.9
2 1 8.5
2 2 2.9
2 3 8.8
2 4 6.3
2 1 9.6
2 2 3.3
2 3 9.2
2 4 6.0
3 1 9.1
3 2 1.8
3 3 7.6
3 4 6.1
3 1 8.6
3 2 2.4
3 3 7.1
3 4 5.6
4 1 8.2
4 2 3.6
4 3 7.3
4 4 5.0
4 1 9.0
4 2 4.4
4 3 7.0
4 4 5.4
5 1 7.8
5 2 3.7
5 3 9.2
5 4 6.5
5 1 8.0
5 2 3.9
5 3 8.3
5 4 6.9
proc glm;
class fertil varied;
model rendim = fertil|varied;
test h=fertil e=fertil*varied;
run;
46
Class Level Information
Class Levels Values
fertil 5 1 2 3 4 5
varied 4 1 2 3 4
Number of Observations Read 40
Number of Observations Used 40
Dependent Variable: rendim
Source DF Sum of Squares Mean Square F Value Pr > F
Model 19 200.1027500 10.5317237 30.42 <.0001
Error 20 6.9250000 0.3462500
Corrected Total 39 207.0277500
R-Square Coeff Var Root MSE rendim Mean
0.966550 9.063229 0.588430 6.492500
Source DF Type III SS Mean Square F Value Pr > F
fertil 4 3.8115000 0.9528750 2.75 0.0567
varied 3 180.1327500 60.0442500 173.41 <.0001
fertil*varied 12 16.1585000 1.3465417 3.89 0.0037
Tests of Hypotheses Using the Type III MS for fertil*varied as an Error Term
Source DF Type III SS Mean Square F Value Pr > F
fertil 4 3.81150000 0.95287500 0.71 0.6020
47
La tabla de cuadrados medios esperados también nos da la información necesaria para
estimar las componentes de la varianza:
2
2
2
ˆ CME .346
CMAB-CME 1.34654 .34625
ˆ .500
2
CMB-CME 60.04425 .34625
ˆ 5.970
5 2
n
an





 

  

  

Las fórmulas de cuadrados medios esperados a partir de las cuales podemos deducir estas
estimaciones de las varianzas son válidas sólo para igual número de repeticiones. Para
número desigual de repeticiones, situaciones con estimados negativos, etc. debemos usar
otro método llamado REML (implementado en SAS Proc Mixed o en el módulo de
modelos mixtos de InfoStat, pero que no lo estudiamos en este curso).
Para realizar el mismo ejemplo en Infostat, debemos indicar directamente en las especifi-
caciones del modelo el denominador de los estadísticos F de todos los efectos que usen
como denominador algo diferente del cuadrado medio de error. En nuestro ejemplo, notar
que en modelo escribimos FERTILFERTIL*VARIEDAD (sin espacios intermedios)
48
Análisis de la varianza
Variable N R² R² Aj CV
rendim 40 0.97 0.93 9.06
Cuadro de Análisis de la Varianza (SC tipo III)
F.V. SC gl CM F p-valor (Error)
Modelo 200.10 19 10.53 30.42 <0.0001
Fertil 3.81 4 0.95 0.71 0.6020 (Fertil*variedad)
variedad 180.13 3 60.04 173.41 <0.0001
Fertil*variedad 16.16 12 1.35 3.89 0.0037
Error 6.93 20 0.35
Total 207.03 39
49
11. Diseños anidados
Consideremos los siguientes dos ejemplos:
1. Queremos saber si hay diferencias en el contenido de vitamina C de jugo de china
de dos marcas diferentes (A, B). Elegimos aleatoriamente 6 cartones de cada una
de las marcas, y de cada cartón tomamos 2 muestras aleatorias de 1 oz. y las
analizamos. ¿Cuáles son los factores en estudio? ¿Son fijos o aleatorios?
2. Muestreamos 10 fincas de café al azar en el área central de P. Rico, elegimos 12
árboles al azar en cada finca y de cada árbol obtenemos 3 muestras de 20 hojas
cada una y determinamos el porcentaje de hojas con roya en cada muestra.
¿Cuáles son los factores en estudio? ¿Son fijos o aleatorios?
En ambos ejemplos tenemos 2 factores de interés, pero, a diferencia de los experimentos
factoriales estudiados antes, no tenemos disponibles todas las combinaciones de niveles.
Esto hace que no podamos estudiar la interacción entre los factores, sino sólo el efecto
del factor A, y el efecto del factor B “dentro” de los niveles de A (es decir, las diferencias
entre los niveles de B en un nivel dado de A). El modelo se llama “jerárquico” o
“anidado” (hay una jerarquía de factores: tenemos niveles de A, dentro de cada nivel de
A tenemos algunos niveles específicos de B, etc.). Decimos que el factor B está anidado
dentro del factor A. (En factoriales, decimos que el factor B está cruzado con el factor A,
ya que todas las combinaciones de niveles de ambos factores aparecen). El modelo que
explica las observaciones es:
( )
ijk i j i ijk
Y    
   
Los efectos de A pueden ser fijos o aleatorios, y de B dentro de A generalmente son
aleatorios, como hemos visto en los dos ejemplos al principio (el ejemplo 1 es mixto, el 2
es aleatorio).
50
La tabla de ANOVA es la siguiente:
Fuente de
Variación
Suma de Cuadrados grados
de
libertad
Cuadrado
Medio
A 2 2
SCA i
i
Y Y
bn abn
 
 

a-1 CMA
B(A) 2 2
SCB(A)= SCA
ij
Y Y
n nab
 
 

a(b-1) CMB(A)
Error SCE=SCTot-SCA-SCB(A) ab(n-1) CME
Total 2
2
SCTot ijk
Y
Y
nab

 

abn-1
Los cuadrados medios esperados para anidados pueden resumirse en la siguiente tabla:
Fuente de variación Cuadrado Medio Esperado
A y B Aleatorios A fijo, B Aleatorio
A 2 2 2
n nb
 
  
  2 2 2
( 1)
i
n nb a

  
  

B(A) 2 2
n 
 
 2 2
n 
 

Error 2
 2

A partir de esta tabla es bastante directo encontrar las hipótesis y la forma de construir
estadísticos F para probarlas. La clave es la misma de la clase anterior: encontrar un
numerador y un denominador para el estadístico F que tengan el mismo valor esperado
bajo la hipótesis nula. Por ejemplo, en el modelo mixto para probar el efecto principal del
factor A tenemos que 0 1 2
: ... 0
a
H   
    , y para probarla podemos construir el
siguiente estadístico:
CMA
CMB(A)
F  . Todas estas fórmulas son válidas sólo si los datos
son balanceados (igual número de repeticiones por nivel de B, e igual número de niveles
de B por nivel de A). En caso contrario se debe usar otra metodología (como Proc Mixed
en SAS o el módulo de modelos mixtos en InfoStat, que hemos mencionado para casos
desbalanceados en modelos de efectos aleatorio o mixtos estudiados en el capítulo
anterior).
51
Como ejemplo en SAS e Infostat, consideremos el modelo mixto del ejemplo 1 con 2
marcas de jugo, 6 cartones por marca y 2 muestras por cartón.
data naranja;
input marca $ carton muestra
vitam;
datalines;
a 1 1 680
a 1 2 645
a 2 1 438
a 2 2 460
a 3 1 539
a 3 2 565
a 4 1 264
a 4 2 278
a 5 1 693
a 5 2 650
a 6 1 530
a 6 2 585
b 7 1 418
b 7 2 457
b 8 1 475
b 8 2 490
b 9 1 345
b 9 2 321
b 10 1 298
b 10 2 245
b 11 1 546
b 11 2 597
b 12 1 475
b 12 2 444
proc glm;
class marca carton;
model vitam = marca
carton(marca);
test h=marca e=carton(marca);
means marca;
run;
Class Level Information
Class Levels Values
marca 2 a b
carton 12 1 2 3 4 5 6 7 8 9 10 11 12
Dependent Variable: vitam
Source DF Sum of Squares Mean Square F Value Pr > F
Model 11 402713.8333 36610.3485 54.41 <.0001
Error 12 8074.0000 672.8333
Corrected Total 23 410787.8333
R-Square Coeff Var Root MSE vitam Mean
0.980345 5.442706 25.93903 476.5833
Source DF Type III SS Mean Square F Value Pr > F
marca 1 61610.6667 61610.6667 91.57 <.0001
carton(marca) 10 341103.1667 34110.3167 50.70 <.0001
52
Tests of Hypotheses Using the Type III MS for carton(marca) as an Error Term
Source DF Type III SS Mean Square F Value Pr > F
marca 1 61610.66667 61610.66667 1.81 0.2087
Level of
marca
N vitam
Mean Std Dev
a 12 527.250000 144.145838
b 12 425.916667 104.715596
Análisis de la varianza
Variable N R² R² Aj CV
Columna4 24 0.98 0.96 5.44
Cuadro de Análisis de la Varianza (SC tipo I)
F.V. SC gl CM F valor p (Error)
Modelo 402713.83 11 36610.35 54.41 <0.0001
Marca 61610.67 1 61610.67 1.81 0.2087 (Marca>Cartón)
Marca>Cartón 341103.17 10 34110.32 50.70 <0.0001
Error 8074.00 12 672.83
Total 410787.83 23
53
12. Diseño de parcelas divididas
Hemos visto en distintos ejemplos cómo la manera en que aleatorizamos (asignamos los
tratamientos a las unidades experimentales) define el diseño del experimento. Por
ejemplo, si todos los tratamientos están asignados al azar en cada grupo de unidades
experimentales tenemos un diseño en bloques completos aleatorizados.
Consideremos un experimento en el que deseamos evaluar 4 distintos niveles de fertiliza-
ción (f1, f2, f3, f4) de Pasto Pangola para lo cual usamos 12 parcelas. Cada nivel de
fertilizante se aplica a 3 parcelas aleatoriamente elegidas. Cada una de las parcelas se
divide en 3 subparcelas, y aleatoriamente elegimos una de estas subparcelas para evaluar
la producción de materia seca de una de tres variedades del pasto (v1, v2, v3).
Este experimento tiene 2 factores, pero la forma en que hemos aleatorizado estos factores
no es la usual para los experimentos factoriales. Debemos observar que primero hemos
aleatorizado los niveles de un factor (fertilizante) a las parcelas completas y luego hemos
aleatorizado los niveles del otro factor (variedad) a las subparcelas. Debemos notar que la
aleatorización es más restringida que si hubiésemos aleatorizado todas las 12
combinaciones.
¿Qué ganamos con este diseño? Por una parte, pueden existir razones prácticas para
usarlo: por ejemplo es posible que logremos una mejor aplicación del fertilizante si lo
aplicamos a parcelas grandes. Por otra parte debemos observar también que cada parcela
(completa) está funcionando como un “bloque” para el segundo factor, ya que todos los
niveles del segundo factor (en nuestro ejemplo variedad) están presentes en cada parcela
completa. Esto hace que este factor gane en precisión.
En este diseño tenemos al menos dos factores: uno cuyos niveles se aleatorizan a las
parcelas completas y otro cuyos niveles se aleatorizan a las subparcelas. Las parcelas
completas pueden estar ordenadas en forma completamente aleatoria (como en nuestro
ejemplo), en forma de bloques completos, etc. El modelo para observaciones
provenientes de un diseño en parcelas divididas con parcelas completas en un DCA es
( )
ijk i k i j ij ijk
Y      
     
Aquí ( )
k i
 es el efecto (aleatorio) de la repetición k en el tratamiento i (efecto de la
parcela completa). Si las parcelas completas estuviesen en un DBCA entonces debemos
agregar un efecto de bloques:
ijk i k ik j ij ijk
Y       
      
Los cuadrados medios esperados (ambos factores se consideran fijos) para este diseño
son
54
A partir de esta tabla es bastante directo encontrar las hipótesis y la forma de construir
estadísticos F para probarlas. Es claro que para probar el efecto principal del factor A (y
el efecto de bloques) debemos usar como denominador el error de “parcela completa”
(error 1), ya que la aleatorización de niveles de este factor se hizo sobre las parcelas
completas. Similarmente, para probar efecto principal de B o interacción debemos usar
como denominador el error de subparcela (error 2).
Para realizar los cálculos de las sumas de cuadrados veamos el siguiente ejemplo, en el
que hay dos niveles de irrigación (aplicados a parcelas completas en un DCA con 3
repeticiones) y 2 variedades (aplicados a subparcelas).
Irrigación Variedad Repet. 1 Repet. 2 Repet. 3 Totales
sin 1 63 52 49 164
sin 2 33 43 48 124
con 1 53 69 55 177
con 2 38 49 42 129
594
Parcelas completas 1 2 3 4 5 6
Totales 96 95 97 91 118 97
Irrigación sin con
Totales 288 306
Variedad 1 2
Totales 341 253
SCTotal= 632
+…+422
- 5942
/12 = 1117
SCParcelas Completas= (962
+…+972
)/2 - 5942
/12 = 229
SC A= (2882
+3062
)/6 - 5942
/12 = 27
SC Error 1= SCParcelas Completas-SC A = 202
Fuente de
variación
Parcelas completas en DCA Parcelas completas en DBCA
CM Esperado gl CM Esperado gl
Bloques - - 2 2 2
( 1)
k
b ab n

  
  
 n-1
A 2 2 2
( 1)
i
b nb a

  
  
 a-1 2 2 2
( 1)
i
b nb a

  
  
 a-1
Error 1 2 2
b 
 
 a(n-1) 2 2
b 
 
 (a-1)(n-1)
B 2 2
( 1)
j
na b
 
 
 b-1 2 2
( 1)
j
na b
 
 
 b-1
AB 2 2
( 1)( 1)
ij
n a b
 
  
 (a-1)(b-1) 2 2
( 1)( 1)
ij
n a b
 
  
 (a-1)(b-1)
Error 2 2
 a(b-1)(n-1) 2
 a(b-1)(n-1)
Total abn-1 abn-1
55
SC B = (3412
+2532
)/6 - 5942
/12 = 645.33
SC AB = (1642
+…+1292
)/3 - 5942
/12 - SC A - SC B = 5.33
SC Error 2 = SCTotal - SCParcelas Completas - SC B - SC AB = 237.33
data a;
input riego $ variedad repet rendim;
datalines;
sin 1 1 63
sin 1 2 52
sin 1 3 49
sin 2 1 33
sin 2 2 43
sin 2 3 48
con 1 1 53
con 1 2 69
con 1 3 55
con 2 1 38
con 2 2 49
con 2 3 42
proc glm data=a;
class riego variedad repet;
model rendim = riego repet(riego) variedad riego*variedad;
test h=riego e=repet(riego);
run;
Class Level Information
Class Levels Values
riego 2 con sin
variedad 2 1 2
repet 3 1 2 3
Dependent Variable: rendim
Source DF Sum of Squares Mean Square F Value Pr > F
Model 7 879.666667 125.666667 2.12 0.2442
Error 4 237.333333 59.333333
Corrected Total 11 1117.000000
R-Square Coeff Var Root MSE rendim Mean
0.787526 15.56124 7.702813 49.50000
56
Source DF Type III SS Mean Square F Value Pr > F
riego 1 27.0000000 27.0000000 0.46 0.5369
repet(riego) 4 202.0000000 50.5000000 0.85 0.5602
variedad 1 645.3333333 645.3333333 10.88 0.0300
riego*variedad 1 5.3333333 5.3333333 0.09 0.7793
Tests of Hypotheses Using the Type III MS for repet(riego) as an Error Term
Source DF Type III SS Mean Square F Value Pr > F
riego 1 27.00000000 27.00000000 0.53 0.5052
Para realizar el mismo ejemplo en Infostat debemos especificar el siguiente modelo:
Cuadro de Análisis de la Varianza (SC tipo III)
F.V. SC gl CM F p-valor (Error)
Modelo 879.67 7 125.67 2.12 0.2442
riego 27.00 1 27.00 0.53 0.5052 (riego>repet)
riego>repet 202.00 4 50.50 0.85 0.5602
variedad 645.33 1 645.33 10.88 0.0300
riego*variedad 5.33 1 5.33 0.09 0.7793
Error 237.33 4 59.33
Total 1117.00 11
57
Para realizar comparaciones de medias, contrastes, intervalos de confianza, etc.,
necesitamos conocer el error estándar de la diferencia de dos medias. Es claro que si la
diferencia es de dos medias de niveles de A, el error correcto es el Error 1 (error de
parcela completa), mientras que si la diferencia es entre dos medias de niveles de B el
error correcto es el Error 2 (error de subparcela). El problema está en comparar dos
medias a nivel de subparcela pero provenientes de dos parcelas completas diferentes. En
este caso la solución es aproximada, ya que no hay una prueba exacta.
Diferencia
entre
Medias
(ejemplo)
Error estándar de la
diferencia
Valor tabular
dos medias
de A
i i
Y Y
 

 
1 2
Y Y
 

1
2CME
nb 1
gl
t
dos medias
de B
j j
Y Y 
   

 
2 3
Y Y
   

2
2CME
na 2
gl
t
dos medias
de B en el
mismo
nivel de A
ij ij
Y Y 
 

 
11 12
Y Y
 

2
2CME
n 2
gl
t
dos medias
de A en el
mismo o
distinto
nivel de B
ij i j
Y Y 
 

 
11 21
Y Y
 

 
11 32
Y Y
 

2
2CME
n
(aprox.) 2
gl
t (aprox.)
58
13. Repaso de regresión lineal simple
Hasta ahora hemos estudiado la relación entre una variable dependiente (Y) y
tratamientos (uno o más factores) simplemente considerando que cada tratamiento tiene
su media, y nos interesaba comparar estas medias mediante hipótesis apropiadas. Ahora
vamos a enfatizar la relación que existe entre dos variables cuantitativas: una
independiente y otra dependiente. Por ejemplo la cantidad de proteína en la dieta y el
aumento de peso. La variable que nosotros variamos a voluntad es la “variable
independiente”, y sobre la que nos interesa estudiar el efecto es la “variable dependiente”.
Por ejemplo, queremos ver cuál es el promedio de ganancia de peso cuando agregamos
10%, 15%, 20% y 25% de proteína a la dieta.
La relación más simple es la de una línea recta 0 1
Y x
 
  , donde Y es el aumento de
peso, x es el porcentaje de proteína en la dieta, 0
 es el intercepto (valor de Y cuando
x=0) y 1
 es la pendiente (cambio en Y cuando x aumenta en una unidad).
Este modelo se llama modelo determinístico: conociendo el valor de x podemos predecir
exactamente el valor de Y. En la práctica no es muy realista, ya que los puntos observados
no van a estar exactamente sobre la línea recta. El siguiente gráfico es más realista:
2
4
6
8
10
0 5 10
x
Y
Un modelo más realista es pensar que la línea recta representa la relación entre la media
de las Y para un valor dado de x y la variable independiente: 0 1
Y x
  
  . Otra forma
de escribir este modelo es
0 1
Y x
  
  
donde  es el error aleatorio y representa la diferencia entre el valor de Y y su media Y

(o lo que es lo mismo, entre el valor observado y la recta). La media de estos errores
aleatorio para un valor dado de x es 0 (es decir, los valores positivos y negativos se
“balancean”) y por lo tanto ambas formulaciones de este modelo estocástico son
equivalentes.
59
Problema: los parámetros de la recta  
0 1
,
  son desconocidos, por lo que
necesitaremos una muestra de N observaciones    
1 1
, ,..., ,
N N
x Y x Y para estimarlos. La
recta que obtendremos será la recta estimada:
0 1
ˆ ˆ
Ŷ x
 
 
La diferencia entre cada valor observado i
Y y el valor correspondiente sobre la recta
estimada se llama “error de predicción” o residual, y se denomina como ˆ.
i i i
e Y Y
 
Observar que esto no es lo mismo que el error aleatorio i
 , que es la diferencia entre cada
valor observado y la recta verdadera (poblacional).
Para estimar la recta vamos a usar el método de mínimos cuadrados, que consiste en
elegir los parámetros  
0 1
,
  que minimicen la suma de los cuadrados de los errores de
predicción:
2 2
1
1 1
ˆ ˆ
ˆ
( ) ( )
 
 
   
 
N N
i i i o i
i i
Y Y Y x
Los estimadores son
1 0 1
ˆ ˆ ˆ
,
xy
xx
S
Y x
S
  
  
2
2 2
1 1 1
( )
  
 
    
 
  
N N N
xx i i i
i i i
S X X X X N
1 1 1 1
( )( )
   
    
   
N N N N
xy i i i i i i
i i i i
S X X Y Y X Y X Y N
Ejemplo: Relación entre el peso de gallinas (lb) y el consumo de alimento durante 1 año.
Peso Consumo
4.6 87.1
5.1 93.1
4.8 89.8
4.4 91.4
5.9 99.5
4.7 92.1
5.1 95.5
5.2 99.3
4.9 93.4
5.1 94.4
60
4.0 4.5 5.0 5.5 6.0
Peso
86
90
94
98
102
PRED_Consumo
Coeficientes de regresión y estadísticos asociados
Coef Est. EE LI(95%) LS(95%) T valor p CpMallows
const 55.26 9.53 33.28 77.25 5.80 0.0004
Peso 7.69 1.91 3.29 12.09 4.03 0.0038 15.54
Observar que, para este ejemplo 1 0
ˆ ˆ
1.536, 11.812, 7.69, 55.26.
xx xy
S S  
   
Ahora estamos en condiciones de realizar inferencias. Repasemos nuestro modelo
0 1
i i i
Y x
  
  
Vamos a asumir que este es el modelo correcto, que los 1,...,
 N son independientes y
tienen distribución normal con media 0 y varianza constante:
 
~ 0,
i N 
 
La tabla de análisis de varianza que nos permite partir la variabilidad total es:
Fuente de
Variación
Suma de
Cuadrados
grados de
libertad
Cuadrado Medio F
Regresión SCRegresión 1 CMReg=SCReg/1 F=CMReg/CME
Residual (Error) SCResidual=SCE N-2 CME=SCE/(N-2)
Total SCTotal N-1
61
Las fórmulas para estas sumas de cuadrados son:
   
 
 
2
2 2
2
1
2
SCTotal
ˆ
ˆ
SCRegresión
ˆ
SCResidual =SCTotal SCRegresión

    
  
  

 


i
YY i i
i XY
i i
Y
S Y Y Y
N
Y Y S
Y Y
Podemos ver qué pasaría si todas las observaciones estuviesen sobre la recta
(SCResidual=0), y qué pasaría si lal mejor recta de ajuste fuese una línea horizontal
(SCRegresión=0).
Cuadro de Análisis de la Varianza (SC tipo III)
F.V. SC gl CM F valor p
Modelo 90.84 1 90.84 16.23 0.0038
Peso 90.84 1 90.84 16.23 0.0038
Error 44.77 8 5.60
Total 135.60 9
Para realizar inferencias podemos aplicar propiedades de la distribución muestral de
0 1
ˆ ˆ
y
  , que es normal con los siguientes parámetros:
0 1
0 1
ˆ ˆ
0 1
2
ˆ ˆ
,
,
 


 
   

  
 
 

xx
xx
x
N S S
El estimador de 2

 es el cuadrado medio residual.
Con esta información podemos construir intervalos de confianza y realizar pruebas de
hipótesis usando el estadístico t o F. Por ejemplo,
0 1 1
1
: 0, : 0
ˆ 0
, gl 2

 

 

  
a
xx
H H
t N
s
S
Esta última prueba es la más importante en regresión lineal: si no podemos rechazar 0
H
entonces estamos concluyendo que no hay una relación lineal entre el promedio de las Y
y las x. Otro estadístico alternativo es el estadístico para esta prueba es
CMReg
CME
F  y debemos rechazar 0
H si F F
 . Para encontrar el valor tabular de
F debemos buscar en la tabla correspondiente con 1 y N-2 grados de libertad. Podemos
verificar que tanto para el valor observado como para el tabular, 2
F t
 y por lo tanto
ambas pruebas siempre van a conducir a las mismas conclusiones.
62
14. Regresión polinomial
Supongamos que tenemos 4 tratamientos, que son las dosis de fertilizante nitrogenado 0,
50, 100 y 200. Realizamos un experimento con estos tratamientos en un DCA con 5
repeticiones. Ahora tenemos dos opciones para analizar estos datos: ANOVA y regresión.
En ANOVA el modelo es ij i ij
Y   
   , mientras que en regresión el modelo es
0 1
ij ij ij
Y x
  
   . Veamos cómo sería el modelo para observaciones de cada una de las
dosis:
Dosis Modelo de ANOVA Modelo de regresión
0
1 1 1
j j
Y   
   1 0 1
j j
Y  
 
50
2 2 2
j j
Y   
   2 0 1 2
50
j j
Y   
  
100
3 3 3
j j
Y   
   3 0 1 3
100
j j
Y   
  
200
4 4 4
j j
Y   
   4 0 1 4
200
j j
Y   
  
Podemos ver la diferencia entre ambos modelos. En el ANOVA estamos ajustando una
media diferente para cada dosis ( i i
  
  ) mientras que en regresión lineal simple la
media de cada dosis se calcula a partir de la ecuación lineal. En ANOVA tenemos cuatro
parámetros (aparecen 5 en las fórmulas pero la suma de los efectos es cero, así que
efectivamente son 4); mientras que en regresión lineal simple tenemos sólo dos
parámetros (intercepto y pendiente).
¿Cuál de los dos modelos será mejor? Por una parte el ANOVA siempre tendrá una SCE
más pequeña (o a lo sumo igual) que la de la regresión, pero los grados de libertad
también son menos (ANOVA tiene más parámetros que regresión lineal simple), por lo
que no sabemos lo que pasa con el CME. Si el modelo de regresión ajusta bien (es decir,
explica bien los datos) entonces será más útil (podríamos predecir qué pasa con una dosis
de 75, por ejemplo). Aunque el modelo de regresión no ajusta, el de ANOVA siempre lo
hará, ya que no hay ninguna función a la que las medias deban ajustarse: simplemente
cada tratamiento tiene su media.
¿Cómo podemos probar si el modelo de regresión lineal simple ajusta bien? La forma
más sencilla e intuitiva de hacerlo es a través de la comparación de las sumas de cuadrado
de error de ambos modelos: si son bastante parecidas, entonces razonablemente podremos
decir que el modelo de regresión lineal ajusta bien. Si la del ANOVA es sustancialmente
menor, entonces obviamente las medias no siguen una relación de línea recta sino que
necesitaríamos otro modelo para explicar su relación. Es decir, necesitaremos dos tablas
de ANOVA: una para el modelo de ANOVA y otra para el modelo de regresión lineal
simple. Denotaremos como SCEANOVA y SCEREG a las sumas de cuadrado de error de
ambos modelos. Podemos construir un estadístico F como
 
 
REG ANOVA
REG ANOVA
ANOVA
SCE -SCE
gle -gle
CME
F 
63
Este estadístico permitirá probar las hipótesis:
0 0 1
:
: el modelo no ajusta
Y
a
H x
H
  
 
La región de rechazo son los valores F F
 , con los grados de libertad apropiados.
Debemos notar que para probar esta hipótesis necesitamos que haya valores de Y
repetidos para al menos algunos de los valores de x, cosa que no siempre sucede en
regresión.
¿Qué hacemos si el modelo de regresión lineal simple no ajusta? Una de las alternativas
ya la conocemos: podemos olvidarnos de la regresión y comparar las medias mediante las
técnicas de ANOVA (comparaciones múltiples, contrastes, intervalos de confianza, etc.)
La otra alternativa es usar un modelo de regresión más complejo, que permita estudiar
relaciones curvilíneas. Entre estos modelos tenemos los polinomios, las ecuaciones
exponenciales, logarítmicas, etc. El polinomio es la extensión natural de la ecuación
lineal simple, y consiste en suma de distintas potencias de x. Por ejemplo un modelo
polinomial de tercer grado es:
3
2
0 1 2 3
ij ij
ij ij ij
Y x x x
    
    
Ahora vemos que tenemos un modelo mucho más flexible, pero con mayor cantidad de
parámetros (en este ejemplo, la misma cantidad que el modelo de ANOVA considerado
antes). En modelos polinomiales podemos aplicar la misma prueba de falta de ajuste
presentada antes, pero de manera secuencial. Es decir, empezamos probando si el
polinomio de primer grado ajusta. Si aceptamos la hipótesis nula entonces no es necesario
hacer nada más: el modelo rectilíneo es apropiado. Si rechazamos la nula, entonces
probaríamos si un modelo cuadrático es apropiado, y así seguiremos probando hasta
encontrar un grado del polinomio que sea apropiado. Si tenemos t tratamientos el grado
máximo del polinomio que podremos ajustar es t-1, ya que en ese caso los grados de
libertad de regresión son los mismos que los grados de libertad de tratamientos (en
efecto, los modelos son exactamente iguales).
Ejemplo: En este ejemplo tenemos rendimientos de tomate bajo cinco regímenes de
humedad diferentes: 6, 8, 10, 12 y 14%. Hay 5 repeticiones de cada tratamiento, ubicadas
en un DCA.
rend. hum.
49.2 6.0
48.1 6.0
48.0 6.0
49.6 6.0
47.0 6.0
51.5 8.0
51.7 8.0
50.4 8.0
rend. hum.
51.2 8.0
48.4 8.0
51.1 10.0
51.5 10.0
50.3 10.0
48.9 10.0
48.7 10.0
48.6 12.0
rend. hum.
47.0 12.0
48.0 12.0
46.4 12.0
46.2 12.0
43.2 14.0
42.6 14.0
42.1 14.0
43.9 14.0
40.5 14.0
64
En Infostat usamos el menú Regresión lineal, con las opciones de “Error Puro” para
probar la falta de ajuste, y en la solapa “Polinomios” podemos seleccionar el orden
deseado.
Al ajustar un modelo de regresión lineal simple obtenemos los siguientes resultados:
Análisis de regresión lineal
Variable N R² R² Aj
rendim 25 0.48 0.46
Coeficientes de regresión y estadísticos asociados
Coef Est. EE LI(95%) LS(95%) T valor p CpMallows
const 55.38 1.71 51.84 58.93 32.29 <0.0001
humedad -0.76 0.17 -1.10 -0.42 -4.62 0.0001 21.48
Cuadro de Análisis de la Varianza (SC tipo III)
F.V. SC gl CM F valor p
Modelo 116.13 1 116.13 21.32 0.0001
humedad 116.13 1 116.13 21.32 0.0001
Error 125.27 23 5.45
Lack Of Fit 96.44 3 32.15 22.31 <0.0001
Error Puro 28.82 20 1.44
Total 241.40 24
65
6 8 10 12 14
humedad
40.0
43.5
47.0
50.5
54.0
Rendim
Rendimiento de Tomate
Al ajustar un modelo de regresión polinomial de segundo orden (cuadrática) obtenemos
los siguientes resultados:
Análisis de regresión lineal
Variable N R² R² Aj
rendim 25 0.88 0.87
Coeficientes de regresión y estadísticos asociados
Coef Est. EE LI(95%) LS(95%) T valor p CpMallows
const 28.44 3.28 21.64 35.24 8.67 <0.0001
humedad 5.10 0.69 3.66 6.53 7.35 <0.0001 53.68
humed^2 -0.29 0.03 -0.36 -0.22 -8.51 <0.0001 71.24
Cuadro de Análisis de la Varianza (SC tipo I)
F.V. SC gl CM F valor p
Modelo 212.19 2 106.09 79.90 <0.0001
humedad 116.13 1 116.13 87.46 <0.0001
humedad^2 96.06 1 96.06 72.34 <0.0001
Error 29.21 22 1.33
Total 241.40 24
Cuadro de Análisis de la Varianza (SC tipo III)
F.V. SC gl CM F valor p
Modelo 212.19 2 106.09 79.90 <0.0001
humedad 212.19 2 106.09 79.90 <0.0001
Error 29.21 22 1.33
Lack Of Fit 0.39 2 0.19 0.13 0.8749
Error Puro 28.82 20 1.44
Total 241.40 24
66
6 8 10 12 14
humedad
40.0
43.5
47.0
50.5
54.0
Rendim
Rendimiento de Tomate
15. Regresión lineal múltiple
Supongamos que estamos estudiando la relación entre la pérdida de peso de un vegetal
(en mg) luego de exponerse al aire durante distintos tiempos a diferentes humedades
relativas:
0
1
2
3
4
5
6
7
8
9
0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9
Humedad
Pérdida
67
0
1
2
3
4
5
6
7
8
9
3 4 5 6 7 8
Tiempo
Pérdida
Podríamos realizar dos regresiones lineales, pero obtendremos más información si
introducimos ambas variables independientes (humedad y tiempo) en el mismo modelo:
0 1 1 2 2
i i i i
Y x x
   
   
Éste es un modelo de regresión lineal múltiple.
Gráficamente es la ecuación de un plano (o un “hiperplano” si hay más de dos variables
independientes). Veamos un ejemplo:
68
El intercepto tiene la misma interpretación que en regresión lineal simple: promedio de
las Y cuando todas las x valen 0. Recordemos que esto no siempre tiene una
interpretación práctica (en este ejemplo no la tiene). La principal dificultad de este
modelo es la interpretación de las pendientes (ahora llamadas pendientes parciales o
coeficientes de regresión parciales). El parámetro 1
 es el cambio en el promedio de las
Y cuando 1
x aumenta una unidad y 2
x permanece constante. Es decir, un coeficiente de
regresión parcial se interpreta manteniendo todas las otras variables independientes
constantes. El término “parcial” enfatiza que no es una pendiente absoluta, sino una
pendiente en la dirección de la variable 1
x (es decir, moviéndonos a lo largo del eje 1
x ).
Para visualizar modelos de regresión múltiple y observar cómo funcionan las pendientes
parciales, recomiendo visitar la página
http://www.ats.ucla.edu/stat/sas/faq/spplot/reg_int_cont.htm
En esta página también se pueden apreciar modelos con “interacciones” (términos con
1 2
x x ) y términos cuadráticos.
Los supuestos son los mismos que realizamos en regresión simple (observar que los
errores i
 son los mismos): independencia, varianza constante, normalidad y modelo
correcto (es decir, no hay necesidad de términos cuadráticos, etc. en ninguna de las
variables independientes, ni tampoco de productos entre las variables independientes).
Para ajustar este modelo debemos usar programas estadísticos, y a que los cálculos
manuales son muy complicados. El ejemplo analizado en SAS e Infostat nos da los
siguientes resultados:
data fruta;
input tiempo humedad perdida;
datalines;
4 .6 4.3
5 .6 5.5
6 .6 6.8
7 .6 8.0
4 .7 4.0
5 .7 5.2
6 .7 6.6
7 .7 7.5
4 .8 2.0
5 .8 4.0
6 .8 5.7
7 .8 6.5
proc reg ;
model perdida=tiempo humedad;
run;
69
The REG Procedure
Model: MODEL1
Dependent Variable: perdida
Number of Observations Read 12
Number of Observations Used 12
Analysis of Variance
Source DF Sum of
Squares
Mean
Square
F Value Pr > F
Model 2 31.12417 15.56208 104.13 <.0001
Error 9 1.34500 0.14944
Corrected Total 11 32.46917
Root MSE 0.38658 R-Square 0.9586
Dependent Mean 5.50833 Adj R-Sq 0.9494
Coeff Var 7.01810
Parameter Estimates
Variable DF Parameter
Estimate
Standard
Error
t Value Pr > |t|
Intercept 1 3.86667 1.10868 3.49 0.0069
tiempo 1 1.31667 0.09981 13.19 <.0001
humedad 1 -8.00000 1.36677 -5.85 0.0002
Análisis de regresión lineal
Variable N R² R² Aj
perdida 12 0.96 0.95
Coeficientes de regresión y estadísticos asociados
Coef Est. EE LI(95%) LS(95%) T valor p CpMallows
const 3.87 1.11 1.36 6.37 3.49 0.0069
tiempo 1.32 0.10 1.09 1.54 13.19 <0.0001 158.71
humedad -8.0 1.37 -11.09 -4.91 -5.85 0.0002 32.93
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase
Notas de clase

Más contenido relacionado

La actualidad más candente

Bloques al azar cuadrado latino
Bloques al azar cuadrado latinoBloques al azar cuadrado latino
Bloques al azar cuadrado latino
ug-dipa
 
Dca y bca
Dca y bcaDca y bca
Dca y bca
982606868
 
Manual completo de diseño
Manual completo de diseño Manual completo de diseño
Manual completo de diseño Felipe Mejia
 
Diseño completalmente aleatorio 1
Diseño completalmente aleatorio 1Diseño completalmente aleatorio 1
Diseño completalmente aleatorio 1Carmelo Perez
 
Disenos factoriales
Disenos factorialesDisenos factoriales
Disenos factoriales
jaimealvarado2003
 
Analisis de varianza alternativas1
Analisis de varianza alternativas1Analisis de varianza alternativas1
Analisis de varianza alternativas1
joanmruizanton
 
Diseño de bloques completamente aleatorio (dbca) 7
Diseño de bloques completamente aleatorio (dbca) 7Diseño de bloques completamente aleatorio (dbca) 7
Diseño de bloques completamente aleatorio (dbca) 7Carmelo Perez
 
Análisis de varianza con spss
Análisis de varianza con spssAnálisis de varianza con spss
Clase 4 diseños de bloques - final
Clase 4   diseños de bloques - finalClase 4   diseños de bloques - final
Clase 4 diseños de bloques - final
Giovanna Lizárraga Alvarez
 
Analisis de varianza unam
Analisis de varianza unamAnalisis de varianza unam
Analisis de varianza unam
Panchitoguapo1
 
6 diseños completamente aleatorizado y bloques al azar
6   diseños completamente aleatorizado y bloques al azar6   diseños completamente aleatorizado y bloques al azar
6 diseños completamente aleatorizado y bloques al azarrbarriosm
 
Ejemplos de diseño Bloques al azar
Ejemplos de diseño Bloques al azarEjemplos de diseño Bloques al azar
Ejemplos de diseño Bloques al azar
ug-dipa
 
Experimentos+Factoriales
Experimentos+FactorialesExperimentos+Factoriales
Experimentos+Factorialesrilara
 
Cap5
Cap5Cap5
Distribuciones continuas
Distribuciones continuasDistribuciones continuas
Distribuciones continuas
Cindy Adriana Bohórquez Santana
 
Diseño aleatorizado por bloques aplicado a los Negocios
Diseño aleatorizado por bloques aplicado a los NegociosDiseño aleatorizado por bloques aplicado a los Negocios
Diseño aleatorizado por bloques aplicado a los NegociosMaría Pilco Ch
 
Comparaciones multiples
Comparaciones multiplesComparaciones multiples
Comparaciones multiples
Unisucre, I.E. Antonio Lenis
 

La actualidad más candente (20)

Bloques al azar cuadrado latino
Bloques al azar cuadrado latinoBloques al azar cuadrado latino
Bloques al azar cuadrado latino
 
DISEÑO DE BLOQUES COMPLETO AL AZAR 1
DISEÑO DE BLOQUES COMPLETO AL AZAR 1DISEÑO DE BLOQUES COMPLETO AL AZAR 1
DISEÑO DE BLOQUES COMPLETO AL AZAR 1
 
Diseno Completamente al Azar
Diseno Completamente al AzarDiseno Completamente al Azar
Diseno Completamente al Azar
 
Dca y bca
Dca y bcaDca y bca
Dca y bca
 
Manual completo de diseño
Manual completo de diseño Manual completo de diseño
Manual completo de diseño
 
Diseño completalmente aleatorio 1
Diseño completalmente aleatorio 1Diseño completalmente aleatorio 1
Diseño completalmente aleatorio 1
 
Disenos factoriales
Disenos factorialesDisenos factoriales
Disenos factoriales
 
Analisis de varianza alternativas1
Analisis de varianza alternativas1Analisis de varianza alternativas1
Analisis de varianza alternativas1
 
Diseño de bloques completamente aleatorio (dbca) 7
Diseño de bloques completamente aleatorio (dbca) 7Diseño de bloques completamente aleatorio (dbca) 7
Diseño de bloques completamente aleatorio (dbca) 7
 
Análisis de varianza con spss
Análisis de varianza con spssAnálisis de varianza con spss
Análisis de varianza con spss
 
Clase 4 diseños de bloques - final
Clase 4   diseños de bloques - finalClase 4   diseños de bloques - final
Clase 4 diseños de bloques - final
 
Analisis de varianza unam
Analisis de varianza unamAnalisis de varianza unam
Analisis de varianza unam
 
6 diseños completamente aleatorizado y bloques al azar
6   diseños completamente aleatorizado y bloques al azar6   diseños completamente aleatorizado y bloques al azar
6 diseños completamente aleatorizado y bloques al azar
 
Ejemplos de diseño Bloques al azar
Ejemplos de diseño Bloques al azarEjemplos de diseño Bloques al azar
Ejemplos de diseño Bloques al azar
 
Experimentos+Factoriales
Experimentos+FactorialesExperimentos+Factoriales
Experimentos+Factoriales
 
Cap5
Cap5Cap5
Cap5
 
Distribuciones continuas
Distribuciones continuasDistribuciones continuas
Distribuciones continuas
 
Diseño aleatorizado por bloques aplicado a los Negocios
Diseño aleatorizado por bloques aplicado a los NegociosDiseño aleatorizado por bloques aplicado a los Negocios
Diseño aleatorizado por bloques aplicado a los Negocios
 
Anova2
Anova2Anova2
Anova2
 
Comparaciones multiples
Comparaciones multiplesComparaciones multiples
Comparaciones multiples
 

Similar a Notas de clase

392280174-Fase-5-diseno-experimental.pptx
392280174-Fase-5-diseno-experimental.pptx392280174-Fase-5-diseno-experimental.pptx
392280174-Fase-5-diseno-experimental.pptx
JohanaChala2
 
Análisis de Varianza- Anova y pruebas de estadística
Análisis de Varianza- Anova y pruebas de estadísticaAnálisis de Varianza- Anova y pruebas de estadística
Análisis de Varianza- Anova y pruebas de estadística
JoellyAlejandraRodrg
 
Analisis de la_varianza_
Analisis de la_varianza_Analisis de la_varianza_
Analisis de la_varianza_
J M
 
Ayudantía de eiq344.diseño completamente al azar.
Ayudantía de eiq344.diseño completamente al azar.Ayudantía de eiq344.diseño completamente al azar.
Ayudantía de eiq344.diseño completamente al azar.
Sebastián González Manríquez
 
Experimentos con un solo factor
Experimentos con un solo factorExperimentos con un solo factor
Experimentos con un solo factor
Jhon Erik Hurtado Tarrillo
 
DISENO-DE-EXPERIMENTOS.pptx
DISENO-DE-EXPERIMENTOS.pptxDISENO-DE-EXPERIMENTOS.pptx
DISENO-DE-EXPERIMENTOS.pptx
DavidRomero40014
 
Univariante.pptx
Univariante.pptxUnivariante.pptx
Univariante.pptx
CarlosSalazar2092
 
Análisis de varianza
Análisis de varianzaAnálisis de varianza
Análisis de varianza
Angel Salazar
 
Prueba de tukey[1]
Prueba de tukey[1]Prueba de tukey[1]
Prueba de tukey[1]daniegomez
 
Clase ANOVA.ppt
Clase ANOVA.pptClase ANOVA.ppt
Clase ANOVA.ppt
manuelrojaslescano
 
Anova
AnovaAnova
diseño de experimentos uni 3.pdf
diseño de experimentos uni 3.pdfdiseño de experimentos uni 3.pdf
diseño de experimentos uni 3.pdf
PascualHernandezB
 
Metodos infostat
Metodos infostatMetodos infostat

Similar a Notas de clase (20)

392280174-Fase-5-diseno-experimental.pptx
392280174-Fase-5-diseno-experimental.pptx392280174-Fase-5-diseno-experimental.pptx
392280174-Fase-5-diseno-experimental.pptx
 
Análisis de Varianza- Anova y pruebas de estadística
Análisis de Varianza- Anova y pruebas de estadísticaAnálisis de Varianza- Anova y pruebas de estadística
Análisis de Varianza- Anova y pruebas de estadística
 
Web
WebWeb
Web
 
est2_de2.pptx
est2_de2.pptxest2_de2.pptx
est2_de2.pptx
 
La prueba anova
La prueba anovaLa prueba anova
La prueba anova
 
Analisis de la_varianza_
Analisis de la_varianza_Analisis de la_varianza_
Analisis de la_varianza_
 
Ayudantía de eiq344.diseño completamente al azar.
Ayudantía de eiq344.diseño completamente al azar.Ayudantía de eiq344.diseño completamente al azar.
Ayudantía de eiq344.diseño completamente al azar.
 
Experimentos con un solo factor
Experimentos con un solo factorExperimentos con un solo factor
Experimentos con un solo factor
 
Anova 3
Anova 3Anova 3
Anova 3
 
DISENO-DE-EXPERIMENTOS.pptx
DISENO-DE-EXPERIMENTOS.pptxDISENO-DE-EXPERIMENTOS.pptx
DISENO-DE-EXPERIMENTOS.pptx
 
Univariante.pptx
Univariante.pptxUnivariante.pptx
Univariante.pptx
 
Análisis de varianza
Análisis de varianzaAnálisis de varianza
Análisis de varianza
 
Prueba de tukey[1]
Prueba de tukey[1]Prueba de tukey[1]
Prueba de tukey[1]
 
Prueba de tukey
Prueba de tukeyPrueba de tukey
Prueba de tukey
 
Clase ANOVA.ppt
Clase ANOVA.pptClase ANOVA.ppt
Clase ANOVA.ppt
 
Anova
AnovaAnova
Anova
 
diseño de experimentos uni 3.pdf
diseño de experimentos uni 3.pdfdiseño de experimentos uni 3.pdf
diseño de experimentos uni 3.pdf
 
ANOVA Prueba de tukey
ANOVA  Prueba de tukeyANOVA  Prueba de tukey
ANOVA Prueba de tukey
 
Metodos infostat
Metodos infostatMetodos infostat
Metodos infostat
 
Dcl
DclDcl
Dcl
 

Último

FISICA_Hidrostatica_uyhHidrodinamica.pdf
FISICA_Hidrostatica_uyhHidrodinamica.pdfFISICA_Hidrostatica_uyhHidrodinamica.pdf
FISICA_Hidrostatica_uyhHidrodinamica.pdf
JavierAlejosM
 
Voladura de mineria subterránea pppt.ppt
Voladura de mineria subterránea pppt.pptVoladura de mineria subterránea pppt.ppt
Voladura de mineria subterránea pppt.ppt
AldithoPomatay2
 
SESION 1 - SESION INTRODUCTORIA - INTRODUCCIÓN A LA PERFORACIÓN Y VOLADURA DE...
SESION 1 - SESION INTRODUCTORIA - INTRODUCCIÓN A LA PERFORACIÓN Y VOLADURA DE...SESION 1 - SESION INTRODUCTORIA - INTRODUCCIÓN A LA PERFORACIÓN Y VOLADURA DE...
SESION 1 - SESION INTRODUCTORIA - INTRODUCCIÓN A LA PERFORACIÓN Y VOLADURA DE...
JhonatanOQuionesChoq
 
Bash Script Programacion en la consola.pptx
Bash Script Programacion en la consola.pptxBash Script Programacion en la consola.pptx
Bash Script Programacion en la consola.pptx
SantosCatalinoOrozco
 
Hidrostatica_e_Hidrodinamica.pdggggggggf
Hidrostatica_e_Hidrodinamica.pdggggggggfHidrostatica_e_Hidrodinamica.pdggggggggf
Hidrostatica_e_Hidrodinamica.pdggggggggf
JavierAlejosM
 
Aletas de Transferencia de Calor o Superficies Extendidas.pdf
Aletas de Transferencia de Calor o Superficies Extendidas.pdfAletas de Transferencia de Calor o Superficies Extendidas.pdf
Aletas de Transferencia de Calor o Superficies Extendidas.pdf
JuanAlbertoLugoMadri
 
PLAN DE TRABAJO DE REFUERZO ESCOLAR 2024.pdf
PLAN DE TRABAJO DE REFUERZO ESCOLAR 2024.pdfPLAN DE TRABAJO DE REFUERZO ESCOLAR 2024.pdf
PLAN DE TRABAJO DE REFUERZO ESCOLAR 2024.pdf
MariaCortezRuiz
 
Ciclo de Otto. Máquinas térmicas para el estudio de la termodinámica química
Ciclo de Otto. Máquinas térmicas para el estudio de la termodinámica químicaCiclo de Otto. Máquinas térmicas para el estudio de la termodinámica química
Ciclo de Otto. Máquinas térmicas para el estudio de la termodinámica química
ycalful01
 
Ejercicios-de-Divisibilidad-para-Primero-de-Primaria (3).doc
Ejercicios-de-Divisibilidad-para-Primero-de-Primaria (3).docEjercicios-de-Divisibilidad-para-Primero-de-Primaria (3).doc
Ejercicios-de-Divisibilidad-para-Primero-de-Primaria (3).doc
LuisEnriqueCarboneDe
 
Análisis de Sensibilidad clases de investigacion de operaciones
Análisis de Sensibilidad clases de investigacion de operacionesAnálisis de Sensibilidad clases de investigacion de operaciones
Análisis de Sensibilidad clases de investigacion de operaciones
SamuelHuapalla
 
Una solucion saturada contiene la cantidad máxima de un soluto que se disuel...
Una solucion saturada contiene la cantidad máxima de un  soluto que se disuel...Una solucion saturada contiene la cantidad máxima de un  soluto que se disuel...
Una solucion saturada contiene la cantidad máxima de un soluto que se disuel...
leonpool521
 
Edafología - Presentacion Orden Histosoles
Edafología - Presentacion Orden HistosolesEdafología - Presentacion Orden Histosoles
Edafología - Presentacion Orden Histosoles
FacundoPortela1
 
Material magnetismo.pdf material del electromagnetismo con fórmulas
Material magnetismo.pdf material del electromagnetismo con fórmulasMaterial magnetismo.pdf material del electromagnetismo con fórmulas
Material magnetismo.pdf material del electromagnetismo con fórmulas
michiotes33
 
Criterios de la primera y segunda derivada
Criterios de la primera y segunda derivadaCriterios de la primera y segunda derivada
Criterios de la primera y segunda derivada
YoverOlivares
 
choro ciclo de vida anatomía y fisiología
choro ciclo de vida anatomía y fisiologíachoro ciclo de vida anatomía y fisiología
choro ciclo de vida anatomía y fisiología
elvis2000x
 
01-introduccion-a-la-perforacion.pdf de minas
01-introduccion-a-la-perforacion.pdf de minas01-introduccion-a-la-perforacion.pdf de minas
01-introduccion-a-la-perforacion.pdf de minas
ivan848686
 
PLANIFICACION INDUSTRIAL ( Gantt-Pert-CPM ).docx
PLANIFICACION INDUSTRIAL ( Gantt-Pert-CPM ).docxPLANIFICACION INDUSTRIAL ( Gantt-Pert-CPM ).docx
PLANIFICACION INDUSTRIAL ( Gantt-Pert-CPM ).docx
Victor Manuel Rivera Guevara
 
libro conabilidad financiera, 5ta edicion.pdf
libro conabilidad financiera, 5ta edicion.pdflibro conabilidad financiera, 5ta edicion.pdf
libro conabilidad financiera, 5ta edicion.pdf
MiriamAquino27
 
Análisis Combinatorio ,EJERCICIOS Y PROBLEMAS RESUELTOS
Análisis Combinatorio ,EJERCICIOS Y PROBLEMAS RESUELTOSAnálisis Combinatorio ,EJERCICIOS Y PROBLEMAS RESUELTOS
Análisis Combinatorio ,EJERCICIOS Y PROBLEMAS RESUELTOS
ppame8010
 
Distribución Muestral de Diferencia de Medias
Distribución Muestral de Diferencia de MediasDistribución Muestral de Diferencia de Medias
Distribución Muestral de Diferencia de Medias
arielemelec005
 

Último (20)

FISICA_Hidrostatica_uyhHidrodinamica.pdf
FISICA_Hidrostatica_uyhHidrodinamica.pdfFISICA_Hidrostatica_uyhHidrodinamica.pdf
FISICA_Hidrostatica_uyhHidrodinamica.pdf
 
Voladura de mineria subterránea pppt.ppt
Voladura de mineria subterránea pppt.pptVoladura de mineria subterránea pppt.ppt
Voladura de mineria subterránea pppt.ppt
 
SESION 1 - SESION INTRODUCTORIA - INTRODUCCIÓN A LA PERFORACIÓN Y VOLADURA DE...
SESION 1 - SESION INTRODUCTORIA - INTRODUCCIÓN A LA PERFORACIÓN Y VOLADURA DE...SESION 1 - SESION INTRODUCTORIA - INTRODUCCIÓN A LA PERFORACIÓN Y VOLADURA DE...
SESION 1 - SESION INTRODUCTORIA - INTRODUCCIÓN A LA PERFORACIÓN Y VOLADURA DE...
 
Bash Script Programacion en la consola.pptx
Bash Script Programacion en la consola.pptxBash Script Programacion en la consola.pptx
Bash Script Programacion en la consola.pptx
 
Hidrostatica_e_Hidrodinamica.pdggggggggf
Hidrostatica_e_Hidrodinamica.pdggggggggfHidrostatica_e_Hidrodinamica.pdggggggggf
Hidrostatica_e_Hidrodinamica.pdggggggggf
 
Aletas de Transferencia de Calor o Superficies Extendidas.pdf
Aletas de Transferencia de Calor o Superficies Extendidas.pdfAletas de Transferencia de Calor o Superficies Extendidas.pdf
Aletas de Transferencia de Calor o Superficies Extendidas.pdf
 
PLAN DE TRABAJO DE REFUERZO ESCOLAR 2024.pdf
PLAN DE TRABAJO DE REFUERZO ESCOLAR 2024.pdfPLAN DE TRABAJO DE REFUERZO ESCOLAR 2024.pdf
PLAN DE TRABAJO DE REFUERZO ESCOLAR 2024.pdf
 
Ciclo de Otto. Máquinas térmicas para el estudio de la termodinámica química
Ciclo de Otto. Máquinas térmicas para el estudio de la termodinámica químicaCiclo de Otto. Máquinas térmicas para el estudio de la termodinámica química
Ciclo de Otto. Máquinas térmicas para el estudio de la termodinámica química
 
Ejercicios-de-Divisibilidad-para-Primero-de-Primaria (3).doc
Ejercicios-de-Divisibilidad-para-Primero-de-Primaria (3).docEjercicios-de-Divisibilidad-para-Primero-de-Primaria (3).doc
Ejercicios-de-Divisibilidad-para-Primero-de-Primaria (3).doc
 
Análisis de Sensibilidad clases de investigacion de operaciones
Análisis de Sensibilidad clases de investigacion de operacionesAnálisis de Sensibilidad clases de investigacion de operaciones
Análisis de Sensibilidad clases de investigacion de operaciones
 
Una solucion saturada contiene la cantidad máxima de un soluto que se disuel...
Una solucion saturada contiene la cantidad máxima de un  soluto que se disuel...Una solucion saturada contiene la cantidad máxima de un  soluto que se disuel...
Una solucion saturada contiene la cantidad máxima de un soluto que se disuel...
 
Edafología - Presentacion Orden Histosoles
Edafología - Presentacion Orden HistosolesEdafología - Presentacion Orden Histosoles
Edafología - Presentacion Orden Histosoles
 
Material magnetismo.pdf material del electromagnetismo con fórmulas
Material magnetismo.pdf material del electromagnetismo con fórmulasMaterial magnetismo.pdf material del electromagnetismo con fórmulas
Material magnetismo.pdf material del electromagnetismo con fórmulas
 
Criterios de la primera y segunda derivada
Criterios de la primera y segunda derivadaCriterios de la primera y segunda derivada
Criterios de la primera y segunda derivada
 
choro ciclo de vida anatomía y fisiología
choro ciclo de vida anatomía y fisiologíachoro ciclo de vida anatomía y fisiología
choro ciclo de vida anatomía y fisiología
 
01-introduccion-a-la-perforacion.pdf de minas
01-introduccion-a-la-perforacion.pdf de minas01-introduccion-a-la-perforacion.pdf de minas
01-introduccion-a-la-perforacion.pdf de minas
 
PLANIFICACION INDUSTRIAL ( Gantt-Pert-CPM ).docx
PLANIFICACION INDUSTRIAL ( Gantt-Pert-CPM ).docxPLANIFICACION INDUSTRIAL ( Gantt-Pert-CPM ).docx
PLANIFICACION INDUSTRIAL ( Gantt-Pert-CPM ).docx
 
libro conabilidad financiera, 5ta edicion.pdf
libro conabilidad financiera, 5ta edicion.pdflibro conabilidad financiera, 5ta edicion.pdf
libro conabilidad financiera, 5ta edicion.pdf
 
Análisis Combinatorio ,EJERCICIOS Y PROBLEMAS RESUELTOS
Análisis Combinatorio ,EJERCICIOS Y PROBLEMAS RESUELTOSAnálisis Combinatorio ,EJERCICIOS Y PROBLEMAS RESUELTOS
Análisis Combinatorio ,EJERCICIOS Y PROBLEMAS RESUELTOS
 
Distribución Muestral de Diferencia de Medias
Distribución Muestral de Diferencia de MediasDistribución Muestral de Diferencia de Medias
Distribución Muestral de Diferencia de Medias
 

Notas de clase

  • 1. A AG GR RO O 6 66 60 00 0 B BI IO OM ME ET TR RÍ ÍA A A AV VA AN NZ ZA AD DA A N No ot ta as s d de e c cl la as se e 2 20 01 15 5 Raúl E. Macchiavelli, Ph.D. Estas notas complementan el material del libro de texto del curso
  • 2. 2 Contenidos 1. Introducción y repaso de notación del análisis de varianza.................................................................. 3 2. Diseños completamente aleatorizados y en bloques completos aleatorizados ..................................... 5 3. Supuestos del análisis de la varianza ...................................................................................................... 7 4. Determinación del número de repeticiones de un experimento...........................................................11 5. Comparaciones múltiples........................................................................................................................14 6. Contrastes.................................................................................................................................................24 7. Diseño de cuadrado latino.......................................................................................................................28 8. Experimentos factoriales con dos factores.............................................................................................32 9. Experimentos factoriales con tres o más factores .................................................................................40 10. Modelos de efectos aleatorios y mixtos ................................................................................................43 11. Diseños anidados....................................................................................................................................49 12. Diseño de parcelas divididas.................................................................................................................53 13. Repaso de regresión lineal simple ........................................................................................................58 14. Regresión polinomial.............................................................................................................................62 15. Regresión lineal múltiple.......................................................................................................................66 16. Selección de variables en regresión múltiple.......................................................................................72 17. Análisis de covarianza...........................................................................................................................85 18. Documentación y comunicación de resultados....................................................................................92 Bibliografía...................................................................................................................................................94
  • 3. 3 1. Introducción y repaso de notación del análisis de varianza Cuando planeamos un estudio científico podemos realizar un experimento o un estudio observacional. En el experimento nosotros decidimos qué tratamiento recibe cada unidad, mientras que en el estudio observacional el tratamiento ya viene asignado a la unidad. Esto implica que en el experimento podemos hablar con mayor confianza de “causa-efecto”, mientras que en el estudio observacional es más difícil estar seguros de que nuestro tratamiento es la causa de lo que estamos observando. Consideremos este ejemplo (estudiado en el curso anterior) en el que nos interesa comparar el contenido de almidón en tallos de tomate bajo 3 regímenes diferentes de fertilización: A 22 20 21 18 16 14 1 111 Y  1 18.5 Y  B 12 14 15 10 9 2 60 Y   2 12.0 Y   C 7 9 7 6 3 29 Y   3 7.25 Y   200 Y  La notación que usaremos será la siguiente: tenemos t tratamientos (en este caso 3 t  ), cada uno con i n repeticiones (en este caso 1 2 3 6, 5 y 4 n n n    ). denota la ésima observación del ésimo tratamiento ij Y j i   . 1 , es la suma de todas las observaciones del tratamiento . i n i ij j Y Y i     1 1 1 , es la suma de todas las observaciones. i n t t ij i i j i Y Y Y          es la media de las observaciones del tratamiento . i Y i  es la media de todas las observaciones (media general): Y 200/15 13.33 Y   =15 es la cantidad total de observaciones ( si hay observaciones en cada tratamiento). i i n n nt n    Las sumas de cuadrados se calculan de la siguiente manera:   2 2 2 , , SCTotal=SCTot ij ij i j i j Y Y Y Y n            2 2 2 SCEntre=SCTratamientos=SCTrat i i i i i i Y Y n Y Y n n              2 , SCDentro=SCResidual=SCError=SCRes SCTot-SCTrat ij i i j Y Y    
  • 4. 4 2 2 2 , 200 SCTot 3062 395.3333 15 ij i j Y Y n         2 2 2 2 2 2 111 60 29 200 SCTrat 317.0833 6 5 4 15 i i i Y Y n n            SCRes SCTot-SCTrat=78.2500  Fuente de Variación Suma de Cuadrados grados de libertad Cuadrado Medio F Valor p Tratamiento 317.0833 2 158.5417 24.313 0.00006 Residual (Error) 78.2500 12 6.5208 Total 395.3333 14 0 1 2 : ... :al menos una es diferente t a i H H        Estadístico de la prueba: 24.313 F  Región de rechazo (α=.05): 3.89 F  ó p<0.05 Conclusión: Rechazamos 0 H , al menos uno de los tratamientos es diferente.
  • 5. 5 2. Diseños completamente aleatorizados y en bloques completos aleatorizados El análisis de la varianza discutido anteriormente requiere independencia de todas las observaciones. En un experimento, esto se logra realizando una aleatorización completa de los tratamientos a las unidades experimentales (es decir, cada unidad experimental tiene la misma probabilidad de recibir cualquiera de los tratamientos, independientemente del tratamiento asignado a unidades vecinas). Este diseño se llama “completamente aleatorizado” (DCA). La versión observacional análoga consiste en tomar muestras aleatorias de cada uno de los grupos o poblaciones. Ventajas del DCA:  Simple para construir  Simple para analizar, aun cuando el número de repeticiones no es constante.  Sirve para cualquier número de tratamientos. Desventajas del DCA:  Requiere que todas las unidades experimentales sean homogéneas.  Fuentes de variación no consideradas inflarán el error experimental. Cuando las unidades no son homogéneas pero pueden agruparse en grupos de unidades homogéneas existe otro diseño, que es la generalización del diseño pareado para comparar dos grupos: el diseño en bloques completos aleatorizados (DBCA). Un “bloque” es un conjunto de unidades experimentales homogéneas (es decir, parecidas entre sí). Este diseño consiste en asignar los tratamientos aleatoriamente dentro de cada bloque de manera tal que cada tratamiento que representado una vez en cada bloque. De esta manera garantizamos que todos los tratamientos estarán representados en todos los bloques, y que las comparaciones estarán libres de las diferencias entre bloques (el mismo efecto que lográbamos con el diseño pareado). Para que este efecto del DBCA sea útil en reducir la variabilidad necesitamos que haya diferencias entre los bloques y dentro de cada bloque las unidades sean homogéneas. Ventajas del DBCA:  Útil para comparar tratamientos en presencia de una fuente externa de variabilidad.  Simple para construir y analizar (siempre que el número de repeticiones sea constante). Desventajas del DBCA:  Práctico para pocos tratamientos, para que las unidades de un bloque sean realmente homogéneas.  Controla una sola fuente de variabilidad externa.  El efecto del tratamiento debe ser el mismo en cada bloque.
  • 6. 6 La notación que usaremos será la misma que para el DCA: tenemos t tratamientos, cada uno con n repeticiones (=bloques). En este caso ij Y denota la observación del ésimo i  tratamiento en el bloque j. Ahora tendremos una fuente adicional de variabi- lidad: los bloques. Las sumas de cuadrados se calculan de la siguiente manera:   2 2 2 , , SCTotal=SCTot ij ij i j i j Y Y Y Y nt           2 2 2 SCTratamientos=SCTrat i i i i Y Y n Y Y n nt             2 2 2 SCBloques=SCBl j j j j Y Y t Y Y t nt             2 , SCResidual=SCError=SCRes SCTot-SCTrat-SCBl ij i i j Y Y     La siguiente es la tabla de ANOVA: Fuente de Variación Suma de Cuadrados grados de libertad Cuadrado Medio F Tratamiento SCTrat 1 t  CMTrat F=CMTrat/CME Bloque SCBl 1 n  CMBl F=CMBl/CME Residual (Error) SCRes=SCE    1 1 n t   CMRes=CME Total SCTot 1 nt  El modelo que describe los datos provenientes de este diseño es el siguiente: ij i j ij Y         Los supuestos que necesitamos hacer son los mismos que para el DCA (los ij  son inde- pendientes, tienen distribución normal y varianza constante) y además necesitamos asumir que los efectos de los tratamientos son iguales en todos los bloques. La hipótesis de interés es, como siempre, acerca de los efectos de tratamiento: 0 1 2 : ... :al menos una es diferente de 0. t a i H H        Estadístico de la prueba: CMTrat CME F  Región de rechazo:   g.l.: 1,( 1)( 1) F F t n t      También podemos probar la hipótesis de que no existen diferencias entre bloques: 0 1 2 : ... :al menos una es diferente de 0. n a i H H        Estadístico de la prueba: CMBl CME F  Región de rechazo:   g.l.: 1,( 1)( 1) F F n n t     
  • 7. 7 3. Supuestos del análisis de la varianza Para que las conclusiones obtenidas de un análisis de varianza sean válidas se deben satisfacer ciertas condiciones (supuestos). En la práctica nunca estamos seguros que estas condiciones se satisfacen en un problema dado, pero usando los datos observados podemos verificar (aproximadamente) si los supuestos se cumplen o no. Si los supuestos no se cumplen debemos modificar el modelo, el análisis y/o las conclusiones. Los modelos lineales para ANOVA que hemos estudiado pueden verse como casos especiales del modelo: ij ij ij Y     donde ij  representa la media de la observación ij-ésima (por ejemplo en un DCA media general, ij i      ) y ij  el error experimental (o “efecto” de la ij-ésima unidad experimental, o efecto “ambiental”). Los supuestos para la validez del análisis son: 1. Los efectos de tratamiento y unidad experimental son aditivos. 2. Los errores experimentales son independientes (o, por lo menos, no correlacionados). 3. Los errores experimentales se distribuyen normalmente. 4. Los errores experimentales tienen varianza constante (es decir, que no depende de los tratamientos ni de otros factores). La consecuencia del no cumplimiento de estos supuestos es que las conclusiones pueden no ser válidas (los niveles de error pueden ser diferentes a los establecidos, los errores estándar pueden subestimar o sobreestimar los verdaderos errores poblacionales, los límites de confianza pueden ser incorrectos, etc.) El supuesto de independencia normalmente se garantiza realizando una aleatorización correcta y mediante una buena técnica experimental (uso de borduras, evitar contagio entre unidades, etc.) El supuesto de normalidad se puede verificar graficando los “residuales” o “residuos”: ˆ ˆ ij ij ij ij ij e Y Y Y      Estos residuales representan aproximaciones a los verdaderos errores experimentales ij  , que son, por supuesto, desconocidos. Un histograma, un diagrama de tallo y hoja o un gráfico de caja (“boxplot”) pueden revelar problemas con la distribución normal de los errores. Existen además pruebas formales para probar la hipótesis de que los errores tienen una distribución normal y un gráfico (Q-Q plot) que permite detectar la falta de normalidad más fácilmente que con un histograma.
  • 8. 8 Para obtener residuos en InfoStat debemos marcar en las opciones del análisis de varianza “Guardar Residuos”, “Guardar Predichos”, “Guardar Residuos Estudentizados”, y “Guardar Abs(Residuos)”. Los residuos son los definidos anteriormente, y dependen, por supuesto, del diseño experimental usado. Los valores predichos son ˆ ij Y , los residuos estudentizados son los residuos divididos por su desviación estándar (como siempre tienen media 0, es una forma de estandarizarlos), y los abs(residuos) son los valores absolutos de los residuos (recordemos que hay residuos positivos y negativos). Al seleccionar estas opciones, se generarán nuevas columnas en los datos incluyendo estos valores. Una vez que tenemos los residuales podemos graficarlos mediante histogramas o el Q-Q plot. Mediante este último gráfico, si los residuos son normales (y por lo tanto, los errores lo son), se grafican los valores de los residuos (o residuos estudentizados) versus los valores teóricos que esperaríamos si la distribución fuese normal. Si la distribución es normal, entonces observaríamos los puntos alineados en una recta. Si hay problemas, entonces los puntos no se verán sobre la recta.
  • 9. 9 -270 -135 0 135 270 Cuantiles de una Normal -270 -135 0 135 270 Residuos Observados Además se puede realizar una prueba de normalidad (prueba de Shapiro-Wilks modificada). La hipótesis nula es que los errores son normales, y la alternativa es que no son normales. Recordemos que si el valor p es mayor que el nivel de significación (en general 0.05), entonces nos quedamos con la hipótesis nula. Para hacer esta prueba usamos el menú Estadísticas>Inferencia basada en una muestra> Prueba de Normalidad. Shapiro-Wilks (modificado) Variable n Media D.E. W* p (una cola) RDUO_Rendimiento 20 0.00 127.67 0.96 0.7824 En este ejemplo el supuesto de normalidad se acepta (p=0.7824>0.05). Para verificar el supuesto de homogeneidad de varianzas (homoscedasticidad) se pueden graficar residuales versus valores predichos, y esto permite visualizar si las varianzas son homogéneas o no. Si las varianzas no son homogéneas el gráfico muestra típicamente una estructura de “embudo” (a medida que los valores predichos son mayores, los residuos varían más. Otra condición que este gráfico también puede diagnosticar es la existencia de observaciones atípicas (“outliers”) que requieren verificación.
  • 10. 10 18 31 44 57 70 PRED_PN -70 -35 0 35 70 RDUO_PN Ejemplo con varianzas heterogéneas 1750.0 2187.5 2625.0 3062.5 3500.0 PRED_Rendimiento -300 -150 0 150 300 RDUO_Rendimiento Ejemplo con varianzas homogéneas Para este supuesto también se pueden realizar pruebas específicas. Entre las pruebas formales para verificar este supuesto tenemos la prueba de Hartley ( max F ), Levene, etc. Estas pruebas contrastan la hipótesis nula 2 2 2 0 1 2 : ... t H       con una alternativa general (“las varianzas no son iguales”). Ver en la sección 7.4 del libro de Ott los detalles de estas pruebas. La prueba de Levene consiste en realizar un análisis de varianza con el mismo modelo del original, pero usando como variable dependiente (Y) a los valores absolutos de los residuales. Es la única prueba que podemos aplicar en todos los diseños que estudiaremos en este curso. La prueba de max F consiste en realizar el cociente entre las varianzas máxima y mínima, compa- rando este cociente con un valor tabular (Tabla 12 en el libro). Solamente es válida para datos provenientes de un DCA. Si el valor de max F es mayor que el valor tabular, la hipótesis nula se rechaza (es decir, el supuesto no se cumple). Si se detecta que los supuestos no se cumplen algunas medidas comúnmente usadas son la transformación de datos, el análisis parcial (por ejemplo comparando sólo algunos de los tratamientos) y el uso de otros métodos específicamente diseñados para el problema particular (por ejemplo, métodos no paramétricos) Las transformaciones se usan regularmente para problemas de varianzas heterogéneas, falta de normalidad y/o falta de aditividad. Las más comúnmente usadas son la logarítmica, la raíz cuadrada y el arco-seno. La transformación logarítmica, log Y Y   o log( 1) Y Y    , se usa para datos que exhiben efectos multiplicativos (una forma de falta de aditividad) o cuyas varianzas son proporcionales al cuadrado de las medias.
  • 11. 11 La transformación raíz cuadrada, Y Y   o 0.5 Y Y    , se usa para datos con varianzas que cambian proporcionalmente a la media, como es frecuentemente el caso de recuentos de insectos u otros organismos. La transformación arco seno, arcsen Y Y   , se usa para datos expresados como porcentajes. Los porcentajes deben estar basados en un denominador común (por ejemplo, porcentaje de germinación calculado a partir de 50 semillas bajo distintos tratamientos). Si todos los datos están entre el 30 y el 70% esta transformación no es necesaria. Para presentar resultados de análisis con datos transformados, todas las tablas estadísticas deben mostrar los análisis con los datos transformados. Además, se pueden agregar las medias y los límites de confianza retransformados a la escala original. Las varianzas, errores estándar y coeficientes de variación no se deben retransformar a la escala original. 4. Determinación del número de repeticiones de un experimento Recordemos que al realizar cualquier prueba de hipótesis existen dos tipos de errores que debemos considerar: Tipo I (rechazar la hipótesis nula cuando es cierta) y Tipo II (aceptar la hipótesis nula cuando es falsa). La probabilidad de cometer el error de tipo I la fijamos nosotros (es α, el nivel de significación de la prueba), mientras que la probabilidad de cometer error de tipo II (β) va a depender de cuán lejos esté el valor verdadero (por ejemplo, la diferencia entre dos medias) del valor que habíamos postulado en la hipótesis nula (0). Es importante notar que β (la probabilidad del error de tipo II) depende de los valores verdaderos de las medias. Por supuesto que queremos que el valor de esta probabilidad sea pequeño cuando hay diferencia entre las medias, y se haga aun más pequeño a medida que haya más diferencias entre las medias. Para el análisis de varianza, el libro de texto presenta algunas gráficas (Tabla 14) de valores de potencia (1 )   para distintos tamaños muestrales y efectos de tratamiento. El efecto de tratamiento se define como 2 2 i n t      Se puede observar que se deben formular todos los valores de i i      . Para simplificar, se puede usar una forma equivalente en la que solamente se indica la alternativa de tener al menos un par de medias que son diferentes en D unidades (es decir, D es la diferencia mínima que se desea detectar con una potencia (1 )   dada: 2 2 2 nD t   
  • 12. 12 En InfoStat, se pueden usar el menú “Cálculo del tamaño muestral” para dos muestras independientes y para análisis de varianza.
  • 13. 13 Para usar la Tabla 14, observemos que 2 21 1.5 1.72 2 4 2       , por lo que la potencia es aproximadamente 0.81:
  • 14. 14 5. Comparaciones múltiples Recordemos que la hipótesis alternativa general del análisis de la varianza es “al menos una de las medias es diferente”. Cuando rechazamos la hipótesis nula estamos concluyendo que hay diferencias, pero no sabemos exactamente cuáles de las medias son diferentes. Una forma de responder a esta pregunta es planteando las siguientes hipótesis: 0 1 2 0 1 3 0 1 4 0 3 4 : ; : ; : ;... : H H H H             Para probar cada una de estas hipótesis podemos usar un estadístico t para dos muestras independientes. Por ejemplo, para la primera, 1 2 1 2 1 1 p n n Y Y t s    El problema de este enfoque es que se están realizando múltiples inferencias sobre los mismos datos, por lo que los errores de tipo I de cada una de las pruebas pueden acumularse. Es decir, para todo el experimento, la probabilidad de rechazar al menos una de estas hipótesis erróneamente va a ser mayor del 5%. En otras palabras, podemos detectar diferencias que no existen con mucha mayor frecuencia de lo esperado. Esta prueba se denomina de la diferencia mínima significativa (DMS, o LSD en inglés) de Fisher. Debido al problema de acumulación potencial de errores, se han desarrollado otras pruebas alternativas, y sólo se recomienda usar el DMS cuando en la prueba F global se ha rechazado la hipótesis nula. De esta manera, aunque sabemos que el  es válido para cada comparación individual y no para el conjunto de todas las comparaciones, podemos aplicar esta prueba. Cuando los tamaños de muestra son iguales, esta prueba se simplifica. Vamos a declarar una diferencia significativa si 2 t t  : 1 1 2 2 2 o DMS 2 i j i j i j i j p n n Y Y Y Y CME t Y Y t n CME s n           Si definimos 2 2 DMS   CME t n , estaremos declarando la diferencia significativa si DMS   i j Y Y . Podemos observar que este caso la diferencia mínima significativa es la misma para todas las comparaciones. Vamos a aplicar este método a los datos del ejercicio 1 (lab.2). 1. El primer paso es calcular el DMS: 15;.025 2 26.3395 2.131, CME 26.3395, 4, DMS 2.131 7.7334 4 t n      
  • 15. 15 2. El siguiente paso es ordenar las medias de mayor a menor: Tratamiento 1 2 5 3 4 Media 52.925 42.025 37.700 34.150 21.975 3. Ahora calculamos todas las diferencias, empezando por la más grande. Observemos que si una diferencia es menor que DMS, todas las más pequeñas también lo serán. 52.925-21.975=30.95 >DMS 52.925-34.150=18.775 >DMS 52.925-37.700=15.225 >DMS 52.925-42.025=10.90 >DMS 42.025-21.975=7.785 >DMS 42.025-34.150=7.785 >DMS 42.025-37.700=4.325 <DMS 37.700-21.175=15.725 >DMS 37.700-34.150=3.55 <DMS 34.150-21.975=12.175 >DMS 4. Por último ponemos letras iguales a las medias que no son significativamente diferentes: Tratamiento 1 2 5 3 4 Media 52.925 a 42.025 b 37.700 bc 34.150 c 21.975 d Otro ejemplo (estudiado en el curso AGRO 5005) Vamos a considerar un segundo ejemplo en el que tenemos 6 tratamientos, cuyas medias aparecen en orden descendente a continuación. El valor de la diferencia mínima significativa es DMS=2.2. Tratamiento Y Trat. 3 35.7 Trat. 1 34.0 Trat. 5 33.9 Trat. 4 25.1 Trat. 2 24.7 Trat. 6 22.8 a. El primer paso va a ser comparar la media del tratamiento 3 con todas las que le siguen (es decir, 3 Y con 1 Y , 3 Y con 5 Y , 3 Y con 4 Y , 3 Y con 2 Y , 3 Y con 6 Y ). Vamos a conectar con una línea las medias que no son significativamente diferentes (es decir, aquéllas cuya diferencia sea menor que DMS)
  • 16. 16 Tratamiento Y Trat. 3 35.7 Trat. 1 34.0 Trat. 5 33.9 Trat. 4 25.1 Trat. 2 24.7 Trat. 6 22.8 b. Ahora compararemos 1 Y con todas las medias que le siguen, y conectaremos con líneas las medias que no son significativamente diferentes de 1 Y : c. Cuando seguimos el proceso para 5 , Y observamos que la media que le sigue, 4 , Y tiene una diferencia mayor que DMS, y por lo tanto no podemos poner una línea que una 5 Y con una media que está más abajo. d. Repetimos el proceso para 4 2 y Y Y : e. Observar que hay una línea (uniendo las medias 1 y 5) que está de más, ya que las medias 1 y 5 ya aparecen unidas por la línea que va desde la media 3 hasta la media 5. Por lo tanto, eliminamos la línea redundante. Tratamiento Y Trat. 3 35.7 Trat. 1 34.0 Trat. 5 33.9 Trat. 4 25.1 Trat. 2 24.7 Trat. 6 22.8 Tratamiento Y Trat. 3 35.7 Trat. 1 34.0 Trat. 5 33.9 Trat. 4 25.1 Trat. 2 24.7 Trat. 6 22.8
  • 17. 17 f. Ahora podemos dejar las líneas, o cambiar las líneas por letras iguales: Tratamiento Y Trat. 3 35.7 a Trat. 1 34.0 a Trat. 5 33.9 a Trat. 4 25.1 b Trat. 2 24.7 bc Trat. 6 22.8 c g. Se debe observar que las medias que no están unidas por líneas verticales (o la misma letra) son significativamente diferentes entre sí. Tasas de error por comparación y por experimento Recordemos que la probabilidad de cometer error de tipo I se denominaba α. Cuando realizamos comparaciones de todos los pares posibles de medias, el error de tipo I sería declarar que un par de medias difiere significativamente cuando en realidad son iguales. Si consideramos cada comparación individualmente (es decir, como una hipótesis separada de las demás), el error de tipo I es concluir que esa comparación es significativa cuando en realidad esas medias no son diferentes. La probabilidad de cometer error de tipo I para esta comparación individual (promediada a través de todas las comparaciones y todos los experimentos posibles) es la “tasa de error por comparación”, I  . Por otro lado, si consideramos a todas las comparaciones posibles como una sola hipótesis, entonces realizar error de tipo I es decir que por lo menos un par de medias es diferente cuando todas las medias son iguales. La probabilidad de cometer el error de tipo I para todas las comparaciones en conjunto se denomina “tasa de error por experimento”, E  . Supongamos que estamos simulando un experimento en el cual estamos comparando 3 tratamientos A, B, C (por lo tanto tenemos 3 comparaciones de a pares: A vs. B, A vs. C, B vs. C). Supongamos además que no hay diferencias entre las medias (por lo tanto, cada vez que encontremos una diferencia estaremos cometiendo error de tipo I). Vamos a indicar con * los casos en los que encontremos diferencias significativas, y con NS los casos en los que no encontramos diferencias significativas. El experimento se simulará 20 Tratamiento Y Trat. 3 35.7 Trat. 1 34.0 Trat. 5 33.9 Trat. 4 25.1 Trat. 2 24.7 Trat. 6 22.8
  • 18. 18 veces, y cada vez realizaremos las comparaciones de a pares correspondientes. Los resultados se resumen en la siguiente tabla: Simulación Comparaciones A vs. B A vs. C B vs. C 1 NS NS NS 2 * NS NS 3 NS NS NS 4 NS * * 5 NS NS NS 6 * NS NS 7 NS NS NS 8 * * * 9 NS * NS 10 NS NS NS 11 NS NS NS 12 NS NS NS 13 NS NS * 14 NS NS NS 15 NS NS NS 16 NS NS NS 17 NS NS NS 18 NS * * 19 NS NS NS 20 NS NS NS En este ejemplo tenemos un total de 60 comparaciones, y hemos cometido error de tipo I en 11 de ellas. Por lo tanto la tasa de error por comparación es 0.1833. Por otro lado, observamos que hay 20 “experimentos”, y hemos cometido error de tipo I en 7 de ellos. Por lo tanto la tasa de error por experimento es 0.35. En la práctica nunca el mismo experimento lo repetiremos 20 veces, pero las tasas de error tienen la misma interpretación: si no hay diferencias entre las medias y repitiéramos el experimento muchas veces, cometeremos error de tipo I cada vez que declaremos una diferencia significativa. La proporción de comparaciones que se encuentran significativas falsamente es la tasa de error por comparación, y la proporción de experimentos en los que se encuentran diferencias significativas falsamente es la tasa de error por experimento. Corrección de Bonferroni para la prueba de DMS Con el objeto de controlar la tasa de error para todo el experimento (es decir, todas las comparaciones), se pueden aplicar modificaciones a la prueba de DMS. La más sencilla consiste en corregir el nivel de significancia de la prueba para tener en cuenta la
  • 19. 19 multiplicidad de comparaciones que se están realizando. Si llamamos I  al nivel de significancia para una comparación individual (que es el que consideramos en DMS), y E  al nivel de significancia para todo el experimento (que es lo que querríamos controlar para no declarar demasiadas diferencias significativas falsamente), la desigualdad de Bonferroni nos dice que E I m    , donde m es el número de comparaciones que nos interesa realizar en todo el experimento. Para todos los pares posibles, ( 1)/ 2 m t t   . Por lo tanto, si queremos que la tasa de error para todo el experimento no sea mayor de 0.05   , por ejemplo, si hay t=5 tratamientos podemos realizar una prueba de DMS usando un nivel de significancia igual a / 0.05/10 0.005 m    . Es decir, la fórmula de DMS para la prueba de Bonferroni ahora es 0.0025 2 2 2 BON= m CME CME t t n n   Prueba de Tukey Otra manera de evitar el problema de errores acumulados en las conclusiones del experimento es usar métodos alternativos a la prueba de DMS. La idea fundamental es que la probabilidad de cometer el error de tipo I (declarar falsamente diferencias significativas) se mantenga en el nivel especificado ( ) para todo el experimento, aunque esto implique que para cada comparación tomada individualmente la probabilidad disminuya. Es decir, hacemos cada prueba individual más conservadora, de manera que globalmente la probabilidad de cometer al menos un error de tipo I se mantenga razonablemente cerca del nivel especificado (usualmente 5%). La prueba de Tukey se desarrolla con esta idea en mente, y consiste en usar un nivel crítico mayor que el DMS. Este valor crítico es CME ( , ) , W q t n    donde ( , ) q t   se busca en la tabla 10 del libro con t tratamientos y  grados de libertad en el cuadrado medio del error. Si los tamaños de muestra son desiguales, el método se llama prueba de Tukey-Kramer y el valor crítico es CME 1 1 ( , ) . 2 ij i j W q t n n             Si aplicamos la prueba de Tukey al mismo ejemplo considerado anteriormente obtenemos los siguientes resultados: CME 26.3395 ( , ) 4.37 11.21 4 W q t n     
  • 20. 20 52.925-21.975=30.95 >W 52.925-34.150=18.775 >W 52.925-37.700=15.225 >W 52.925-42.025=10.90 <W 42.025-21.975=20.05 >W 42.025-34.150=7.785 <W 42.025-37.700=4.325 <W 37.700-21.175=15.725 >W 37.700-34.150=3.55 <W 34.150-21.975=12.175 >W Tratamiento 1 2 5 3 4 Media 52.925 a 42.025 ab 37.700 b 34.150 b 21.975 c Como podemos apreciar, esta prueba es más conservadora que DMS (encuentra menos diferencias significativas). Para hacer comparaciones múltiples en Infostat debemos usar la solapa “comparaciones” en la ventana de análisis de varianza. Para realizar comparaciones múltiples en SAS, debemos usar el comando MEANS. Por ejemplo, para los datos del ejercicio 2 (laboratorio 2), proc glm; class bloque tratam; model plantas = bloque tratam; means tratam / lsd; means tratam / bon; means tratam / tukey; run;
  • 21. 21 Class Level Information Class Levels Values Bloque 4 1 2 3 4 tratam 3 tratA tratB tratC Dependent Variable: plantas Source DF Sum of Squares Mean Square F Value Pr > F Model 5 2311.416667 462.283333 118.03 <.0001 Error 6 23.500000 3.916667 Corrected Total 11 2334.916667 Source DF Type III SS Mean Square F Value Pr > F Bloque 3 386.250000 128.750000 32.87 0.0004 tratam 2 1925.166667 962.583333 245.77 <.0001 t Tests (LSD) for plantas Note: This test controls the Type I comparisonwise error rate, not the experimentwise error rate. Alpha 0.05 Error Degrees of Freedom 6 Error Mean Square 3.916667 Critical Value of t 2.44691 Least Significant Difference 3.4242 Means with the same letter are not significantly different. t Grouping Mean N tratam A 87.250 4 tratB B 80.000 4 tratC C 57.500 4 tratA
  • 22. 22 Bonferroni (Dunn) t Tests for plantas Note: This test controls the Type I experimentwise error rate, but it generally has a higher Type II error rate than REGWQ. Alpha 0.05 Error Degrees of Freedom 6 Error Mean Square 3.916667 Critical Value of t 3.28746 Minimum Significant Difference 4.6005 Means with the same letter are not significantly different. Bon Grouping Mean N tratam A 87.250 4 tratB B 80.000 4 tratC C 57.500 4 tratA Tukey's Studentized Range (HSD) Test for plantas Note: This test controls the Type I experimentwise error rate, but it generally has a higher Type II error rate than REGWQ. Alpha 0.05 Error Degrees of Freedom 6 Error Mean Square 3.916667 Critical Value of Studentized Range 4.33902 Minimum Significant Difference 4.2936 Means with the same letter are not significantly different. Tukey Grouping Mean N tratam A 87.250 4 tratB B 80.000 4 tratC C 57.500 4 tratA
  • 23. 23 Intervalos de confianza para medias y diferencias de medias en ANOVA Para reportar las medias luego de realizar un ANOVA podemos usar un gráfico de barras (que se genera opcionalmente en InfoStat), e incluir límites de confianza para las medias (o errores estándar para las medias). Las fórmulas estudiadas anteriormente usando la tabla t se podrían aplicar aquí: 2 . s Y t n   Como hemos hecho para el cálculo del DMS, el mejor estimador que tenemos de la desviación estándar poblacional es (bajo el supuesto que las varianzas son iguales), CME Este estimador tiene los grados de libertad del error. Por lo tanto, el intervalo de confianza para una media de tratamiento es 2 CME Y t n   Recordar que en esta fórmula n representa la cantidad de observaciones en la media específica (cantidad de repeticiones), y no la cantidad total de observaciones en todo el experimento. Los grados de libertad para el valor tabular de t son los grados de libertad del error. Similarmente podemos calcular un intervalo de confianza para la diferencia de dos medias. Suponiendo igual número de repeticiones n: /2 2CME i j Y Y t n    Observar que el término que se suma y resta en esta fórmula es DMS, por lo que el intervalo de confianza para la diferencia de dos medias es: DMS i j Y Y   Si este intervalo incluye el valor de cero, las dos medias correspondientes no son significativamente diferentes. Esto es lo que hemos usado cuando estudiamos la prueba de DMS: si la diferencia de dos medias es menor que DMS, esas medias no son significativamente diferentes. El intervalo va a incluir 0 si y solo si la diferencia de las dos medias es menor que DMS.
  • 24. 24 6. Contrastes La prueba F que realizamos en el ANOVA prueba la igualdad de medias (ausencia de efectos de tratamientos) versus una alternativa general. Como hemos visto en las conferencias anteriores, podemos realizar pruebas de comparaciones de a pares (DMS, Tukey, etc.), pero esto puede traernos problemas: por una parte puede haber acumulación de errores, y por otra parte la interpretación no siempre es simple. Cuando hay mucha superposición, es difícil realizar inferencias útiles. Si los tratamientos tienen una estructura dada (no son simplemente 5 variedades, por ejemplo), existen otras hipótesis que pueden resultar de mucho más interés que las que probamos con DMS. Éstas pueden escribirse como combinaciones lineales de medias. Por ejemplo, i i L c    Las i c son los coeficientes de la combinación lineal. Un contraste se define como una combinación lineal con 0. i c   Por ejemplo supongamos que estamos probando las siguientes 5 dietas en pavos: Grupo Dieta 1 Control 2 Nivel 1, suplemento A 3 Nivel 2, suplemento A 4 Nivel 1, suplemento B 5 Nivel 2, suplemento B Es posible que estemos interesados en probar si el promedio de los tratamientos con suplemento A es igual al promedio de los tratamientos con suplemento B: 2 3 4 5 0 : 2 2 H        Esto es equivalente a 0 2 3 4 5 : 0 H         . Podemos verificar que esto es un contraste, y estamos probando 0 : 0 H L  . Observar que 1 1 1 1 0. i c       Si tuviésemos un solo contraste de interés, la estimación y la prueba es directa:       2 2 2 2 ˆ ˆ ˆ ˆ ˆ ˆ var var i i i i i i i i i i i i L c c Y Y cY CME L c Y c c n n                   
  • 25. 25   0 2 ˆ ˆ : 0, : 0 ˆ . . a i i L L H L H L t CME s e L c n      , rechazamos 0 H cuando 2; dfe t t  . En forma equivalente, podemos calcular una suma de cuadrados para el contraste, y construir un estadístico F para probar la misma hipótesis: 2 2 0 ˆ ( ) : 0, : 0 i i a L c n CM L H L H L F CME CME      , rechazamos 0 H cuando ;1,dfe F F  . Debemos observar que el numerador tiene 1 grado de libertad, y por lo tanto la suma de cuadrados es igual al cuadrado medio. Los contrastes pueden clasificarse en “a priori” y “a posteriori”. Los primeros son contrastes que se postulan basándonos únicamente en la estructura de los tratamientos, antes de mirar los datos. Este tipo de contraste es lo que deberíamos usar casi siempre que sea posible. En la mayoría de los casos tenemos más de un contraste de interés. El problema de acumulación potencial de errores estará también presente en estos casos cuando tratemos de obtener conclusiones para todos los contrastes conjuntamente. El método que hemos presentado, basado en la prueba t o F, controla la tasa de error por comparación (igual que el DMS). Esto es porque está diseñado para contrastes individuales. Si cada uno de los contrastes está diseñado para responder a una pregunta “separada”, el método de t o F también puede usarse y la acumulación de errores no será tan importante. Matemáticamente estos contrastes se denominan “ortogonales”. Dos contrastes 1 i i L a    y 2 i i L b    son ortogonales si 0 i i a b   . Un conjunto de contrastes es ortogonal si todos los pares posibles de contrastes son ortogonales entre sí. Si tenemos t tratamientos, no podemos tener más de 1 t  contrastes ortogonales en un conjunto dado (los grados de libertad de tratamientos). En el ejemplo de los pavos un conjunto ortogonal de interés podría ser Grupo L1 L2 L3 L4 1 4 0 0 0 2 -1 1 0 1 3 -1 -1 0 1 4 -1 0 1 -1 5 -1 0 -1 -1 Observar que L1 compara la dieta control con el promedio de las otras, L2 compara los dos niveles del suplemento A, L3 compara los dos niveles del suplemento B, y L4
  • 26. 26 compara el promedio de las dos formulaciones de A con el promedio de las dos formulaciones de B. En resumen, si tenemos más de un contraste “a priori”, podemos usar contrastes ortogonales y probarlos con una prueba t o F. Si no tenemos un conjunto ortogonal de interés, podemos seguir usando las pruebas t o F, pero los niveles de significación deberán dividirse por m, la cantidad de contrastes a priori de interés (prueba de Bonferroni). Si tenemos muchos contrastes no ortogonales “a priori” (lo que hará que Bonferroni sea muy ineficiente) o si tenemos contrastes “a posteriori” podemos usar un procedimiento que controla la tasa de error por experimento: la prueba de Scheffé. Prueba de Scheffé Este procedimiento puede usarse para cualquier contraste, ya que controla la tasa de error para todos los contrastes posibles, sean estos sugeridos por los datos, ortogonales, no ortogonales, de a pares, etc. Dado que es una prueba tan general, tiende a ser muy conservadora (por ejemplo, casi nunca se la usa para comparaciones de a pares, que son un caso particular de contrastes a priori no ortogonales). Para usar la prueba de Scheffé debemos calcular el estadístico F mencionado anteriormente, y el criterio de rechazo será Rechazar 0 H si ; 1,dfe ( 1) t F t F    donde t es el número de tratamientos usados. (El texto presenta una versión equivalente de la prueba de Scheffé que usa el estadístico t, no el estadístico F) Para realizar pruebas F en contrastes podemos usar Infostat o SAS. En Infostat debemos abrir la ventana de contrastes, indicando los tratamientos y los coeficientes. Opcional- mente podemos solicitar que se verifique la ortogonalidad de los contrastes. Para el ejemplo de las dietas de pavos, Se debe destacar que el usuario debe decidir de antemano qué prueba va a realizar: 1. Si es una prueba F sin ninguna corrección por contrastes múltiples, Rechazar 0 H si p   2. Si es una prueba F con corrección de Bonferroni por realizar m contrastes, Rechazar 0 H si / p m   3. Si es una prueba de Scheffé, Rechazar 0 H si ; 1,dfe ( 1) t F t F   
  • 27. 27 Contrastes Tratamiento SC gl CM F valor p Contraste1 3060357.61 1 3060357.61 118.57 <0.0001 Contraste2 450300.50 1 450300.50 17.45 0.0013 Contraste3 41616.13 1 41616.13 1.61 0.2282 Contraste4 739170.06 1 739170.06 28.64 0.0002 Total 4291444.30 4 1072861.08 41.57 <0.0001 Coeficientes de los contrastes Tratamiento Cont. 1 Cont. 2 Cont. 3 Cont. 4 1.00 4.00 0.00 0.00 0.00 2.00 -1.00 1.00 0.00 1.00 3.00 -1.00 -1.00 0.00 1.00 4.00 -1.00 0.00 1.00 -1.00 5.00 -1.00 0.00 -1.00 -1.00 Programa de SAS para contrastes proc glm data=pavos; class trt; model ganancia=trt; means trt; contrast 'control vs. otros' trt 4 -1 -1 -1 -1; contrast 'A1 vs. A2' trt 0 1 -1 0 0; contrast 'B1 vs. B2' trt 0 0 0 -1 1; contrast 'A vs. B' trt 0 1 1 -1 -1; run;
  • 28. 28 7. Diseño de cuadrado latino Consideremos el siguiente ejemplo de aplicación del diseño en bloques completos aleatorizados: vamos a analizar una enzima en camarones para estudiar el efecto de 4 distintos tratamientos de conservación. Como el análisis es muy complicado, vamos a asegurarnos que no haya efecto de analista diseñando el experimento de manera que cada uno de los cuatro analistas realice las determinaciones de los cuatro tratamientos. Es decir, cada analista va a ser un bloque, y debemos aleatorizar el orden en que cada analista va a trabajar (cada tratamiento requiere hacerse en un día diferente). Por ejemplo: Analista Día 1 2 3 4 L Trat A Trat A Trat B Trat A Ma Trat C Trat B Trat C Trat C Mi Trat D Trat D Trat A Trat B J Trat B Trat C Trat D Trat D Podemos ver que si hubiese un efecto de día (por ejemplo, los lunes no son tan confiables como los miércoles), entonces algunos tratamientos pueden verse afectados (por ejemplo, el A aparece 3 veces en lunes). Para evitar esto podríamos hacer que cada día también sea un bloque completo (es decir, que todos los tratamientos estén representados). Un posible arreglo de tratamientos sería: Analista Día 1 2 3 4 L Trat A Trat D Trat B Trat C Ma Trat C Trat B Trat D Trat A Mi Trat D Trat C Trat A Trat B J Trat B Trat A Trat C Trat D Este diseño se denomina cuadrado latino, y tiene la ventaja de controlar dos fuentes de variación (en nuestro ejemplo el analista y el día). Es bastante rígido, ya que requiere, para t tratamientos, t filas y t columnas. Su principal desventaja es que las diferencias entre los tratamientos no deben estar afectadas por las filas o las columnas (es decir, si el tratamiento A es mejor que el B, debe serlo en los 4 analistas). La forma más común de aleatorizar los tratamientos es eligiendo al azar de una tabla de cuadrados latinos uno del tamaño deseado (o armar uno en forma no aleatoria), y después aleatorizar los números de filas, los números de columnas y los números de tratamientos. El modelo que describe los datos provenientes de este diseño es el siguiente: ijk i j k ijk Y           La notación que usaremos será la misma que para el DBCA: tenemos t tratamientos, denota la observación del ésimo tratamiento en la fila y la columna . ijk Y i j k 
  • 29. 29 Ahora tendremos dos fuentes adicionales de variabilidad: las filas y las columnas. Las sumas de cuadrados se calculan de la siguiente manera:   2 2 2 2 SCTotal=SCTot ijk ijk Y Y Y Y t           2 2 2 2 SCTratamientos=SCTrat i i i i Y Y t Y Y t t             2 2 2 2 SCFilas= j j j j Y Y t Y Y t t              2 2 2 2 SCColumnas= k k k k Y Y t Y Y t t          SCResidual=SCError=SCRes SCTot-SCTrat-SCFilas-SCCol  La siguiente es la tabla de ANOVA: Fuente de Variación Suma de Cuadrados grados de libertad Cuadrado Medio F Tratamiento SCTrat 1 t  CMTrat F=CMTrat/CME Filas SCFilas 1 t  CMFilas F=CMFila/CME Columnas SCColumnas 1 t  CMCol F=CMCol/CME Residual (Error) SCRes=SCE    1 2 t t   CMRes=CME Total SCTot 2 1 t  Las hipótesis que probamos, los supuestos y los métodos de comparaciones múltiples se aplican de la misma manera que lo que hemos estudiado para DCA y DBCA. Ejemplo: Éste es el ejercicio 15.8 del libro de Ott (leer la descripción del mismo allí). data melon; input fila col trat peso; datalines; 1 1 1 1.75 1 2 3 1.43 1 3 4 1.28 1 4 2 1.66 2 1 2 1.70 2 2 1 1.78 2 3 3 1.40 2 4 4 1.31 3 1 4 1.35 3 2 2 1.73 3 3 1 1.69 3 4 3 1.41 4 1 3 1.45 4 2 4 1.36 4 3 2 1.65 4 4 1 1.73 proc glm; class fila col trat; model peso = fila col trat; run;
  • 30. 30 Class Level Information Class Levels Values fila 4 1 2 3 4 col 4 1 2 3 4 trat 4 1 2 3 4 Dependent Variable: peso Source DF Sum of Squares Mean Square F Value Pr > F Model 9 0.49335000 0.05481667 438.53 <.0001 Error 6 0.00075000 0.00012500 Corrected Total 15 0.49410000 R-Square Coeff Var Root MSE peso Mean 0.998482 0.724819 0.011180 1.542500 Source DF Type III SS Mean Square F Value Pr > F fila 3 0.00085000 0.00028333 2.27 0.1810 col 3 0.01235000 0.00411667 32.93 0.0004 trat 3 0.48015000 0.16005000 1280.40 <.0001 Para analizar los mismo datos en Infostat debemos seleccionar fila, columna y tratam como variables de clasificación:
  • 31. 31
  • 32. 32 8. Experimentos factoriales con dos factores Existen muchas situaciones en las que los tratamientos representan combinaciones de dos o más variables independientes (=factores). Por ejemplo, supongamos que queremos estudiar el efecto de dos factores: la presencia (o ausencia) de antibiótico y la presencia (o ausencia) de vitamina B12 en la dieta de cerdos. Si combinamos los dos niveles de antibiótico (0mg, 40mg) con los dos niveles de B12 (0mg, 5mg), tendremos cuatro tratamientos: Tratamiento Antibiótico Vitamina B12 1 0 0 2 40 0 3 0 5 4 40 5 Supongamos que aplicamos cada uno de estos cuatro tratamientos a 5 cerdos, según un diseño completamente aleatorizado, y registramos el aumento de peso en cada uno. Por ahora, supongamos que conocemos el aumento promedio verdadero (poblacional) para cerdos en los tres primeros tratamientos. ¿Sería posible predecir el promedio del cuarto tratamiento? Tratamiento Antibiótico Vitamina B12  1 0 0 30 2 40 0 35 3 0 5 45 4 40 5 ? Por una parte observamos que al pasar de 0 a 40 de antibiótico sin vitamina B12 el aumento del promedio es 5. Si podríamos suponer que ese efecto positivo del antibiótico en ausencia de B12 es el mismo que el efecto que el antibiótico tendría en presencia de B12, entonces 4 3 5 50.      Equivalentemente, al pasar de 0 a 5 de B12 sin antibiótico el aumento del promedio es 15. Por lo tanto, al pasar de 0 a 5 de B12 en presencia del antibiótico el promedio sería 4 2 15 50.      Resumiendo, bajo el supuesto que el efecto de un factor es el mismo en ambos niveles del otro factor, podemos calcular una media dadas las otras 3. Cuando esto sucede decimos que los efectos son aditivos (podemos sumarlos) y no sería necesario probar los cuatro tratamientos (con tres sería suficiente). Ahora supongamos que esto no se cumple, sino que 4 60   (por ejemplo debido a que la presencia de ambos suplementos es más beneficiosa que la presencia de uno de ellos
  • 33. 33 por separado). En este caso sí necesitamos estudiar las cuatro combinaciones, y no podemos prescindir de ninguna. Cuando esto sucede decimos que los efectos no son aditivos sino que existe interacción entre los factores. Gráficamente, Efectos Aditivos 20 30 40 50 60 0 10 20 30 40 Antibiótico Media B12=0 B12=5 Efectos con interacción 20 30 40 50 60 0 10 20 30 40 Antibiótico Media B12=0 B12=5 En un experimento factorial siempre probamos todas las combinaciones de tratamiento, ya que estudiar la interacción es uno de los objetivos más importantes al realizar un experimento de este tipo. El ejemplo que hemos presentado se denomina un experimento factorial 2x2, o 22 , ya que tiene dos factores a dos niveles cada uno. Si tuviésemos antibiótico a 2 niveles y B12 a 3 niveles, sería un factorial 2x3 (y en este caso tendríamos 6 tratamientos, o combinaciones de niveles). Un factorial 2x2x3 significa que hay tres factores, uno a dos niveles, otro a dos niveles y un tercero a 3 niveles. El modelo para observaciones provenientes de un arreglo factorial de tratamientos arreglados en un diseño completamente aleatorizado es el siguiente: ijk ij ijk i j ij ijk Y               donde el índice i representa niveles del primer factor, j representa niveles del segundo factor y k representa repeticiones. Si no hubiese interacción, la diferencia (por ejemplo) 12 11    sería igual a la diferencia 22 21    . Esto es lo que observamos en nuestro ejemplo, y se logra si 0 ij   :
  • 34. 34     12 11 1 2 1 1 2 1 22 21 2 2 2 1 2 1                                       Si hubiese interacción esta igualdad no se cumpliría. Por lo tanto, el término ij  representa la interacción entre ambos factores. Los términos i  y j  representan los efectos “principales” del primer y segundo factor respectivamente. Estos efectos principales pueden interpretarse como el efecto de un factor promediado sobre todos los niveles del otro factor (ya discutiremos este concepto más adelante). Para armar nuestra tabla de ANOVA supongamos que el primer factor lo llamamos A, y este factor tiene a niveles. Similarmente, el factor B tiene b niveles, y tenemos n observaciones por tratamiento (combinación de niveles de A y B). Usando la notación de puntos, : total para el nivel del factor : total para el nivel del factor : total para el tratamiento (combinación del nivel de y nivel de ) : total de todas las observac i j ij Y i A Y j B Y ij i A j B Y      iones   2 2 2 SCTotal=SCTot ijk ijk Y Y Y Y nab           2 2 2 SCA i i i i Y Y bn Y Y bn abn             2 2 2 SCB= j j j j Y Y an Y Y an abn            2 2 SCAB=SCTratamientos-SCA-SCB= SCA SCB ij Y Y n nab       SCResidual=SCError=SCRes SCTot-SCA-SCB-SCAB  La siguiente es la tabla de ANOVA: Fuente de Variación Suma de Cuadrados grados de libertad Cuadrado Medio F A SCA a-1 CMA F=CMA/CME B SCB b-1 CMB F=CMB/CME AB SCAB (a-1)(b-1) CMAB F=CMAB/CME Residual (Error) SCRes=SCE ab(n-1) CMRes=CME Total SCTot abn-1
  • 35. 35 Las hipótesis que probamos son tres: 0 11 12 0 1 2 0 1 2 : ... 0 : ... 0 : ... 0 ab a b H H H                      La primera hipótesis que debemos probar siempre es si hay o no hay interacción. Si hay interacción, las hipótesis de efectos principales no tienen demasiado sentido y por lo tanto no deberíamos interpretarlas (excepto bajo ciertas circunstancias). Si no hay interacción significativa, los efectos principales sí tienen interpretación, y por lo tanto podemos probarlos. Vamos a ver nuevamente el ejemplo presentado antes (factorial 2x2) para entender mejor los conceptos de efectos principales e interacciones. Supongamos que observamos tres cerdos en cada tratamiento (DCA) y observamos la ganancia diaria de peso: Tratamiento Antibiótico Vitamina B12 Ganancia Diaria de Peso ij Y  1 0 0 1.30, 1.19, 1.08 1.19 2 40 0 1.05, 1.00, 1.05 1.03 3 0 5 1.26, 1.21, 1.19 1.22 4 40 5 1.52, 1.56, 1.55 1.54 Bajo el nivel 0 de antibiótico (factor A) podemos estimar el efecto simple del factor B: 12 11 1.22 1.19 0.03 Y Y       Similarmente el efecto simple del factor B cuando el factor A está en su segundo nivel se estima como: 22 21 1.54 1.03 0.51 Y Y       El efecto principal del factor B es el promedio de estos dos efectos simples, y es también la diferencia entre las medias de los niveles de B: 2 1 .51 .03 0.27 2 Y Y         Si los efectos simples no son significativamente diferentes, entonces sí tiene sentido promediarlos para obtener el efecto principal. Pero si los efectos simple son significativamente diferentes, entonces estamos en presencia de interacción y no tendría sentido promediarlos. Por lo tanto, la interacción puede estimarse mediante la diferencia de los efectos simples:   22 21 12 11 Interacción: 0.51 0.03 0.48 Y Y Y Y           Como ejercicio, calcular los efectos simples y principal del factor A. Verificar que usando estos efectos simples la interacción es la misma. (Esto tiene sentido, ya que la interacción es un concepto que comprende los dos factores.)
  • 36. 36 El programa SAS para este ejemplo sigue a continuación. data cerdos; input tratam antib vitb12 ganpeso; datalines; 1 0 0 1.30 1 0 0 1.19 1 0 0 1.08 2 40 0 1.05 2 40 0 1.00 2 40 0 1.05 3 0 5 1.26 3 0 5 1.21 3 0 5 1.19 4 40 5 1.52 4 40 5 1.56 4 40 5 1.55 proc glm; class antib vitb12; model ganpeso = antib vitb12 antib*vitb12; run; Class Level Information Class Levels Values antib 2 0 40 vitb12 2 0 5 Dependent Variable: ganpeso Source DF Sum of Squares Mean Square F Value Pr > F Model 3 0.41233333 0.13744444 37.48 <.0001 Error 8 0.02933333 0.00366667 Corrected Total 11 0.44166667 R-Square Coeff Var Root MSE ganpeso Mean 0.933585 4.857193 0.060553 1.246667 Source DF Type III SS Mean Square F Value Pr > F antib 1 0.02083333 0.02083333 5.68 0.0443 vitb12 1 0.21870000 0.21870000 59.65 <.0001 antib*vitb12 1 0.17280000 0.17280000 47.13 0.0001
  • 37. 37 Otra manera de ver este problema es mediante contrastes. Olvidándonos por un momento de los dos factores, nosotros tenemos aquí un DCA con 4 tratamientos. Mediante contrastes apropiados podemos probar las mismas hipótesis (además podríamos escribir contrastes para efectos simples de ser necesario): proc glm; class tratam; model ganpeso = tratam; contrast 'Ef. ppal. A' tratam -1 1 -1 1; contrast 'Ef. ppal. B' tratam -1 -1 1 1; contrast 'Interac. AB' tratam 1 -1 -1 1; run; Class Level Information Class Levels Values tratam 4 1 2 3 4 Dependent Variable: ganpeso Source DF Sum of Squares Mean Square F Value Pr > F Model 3 0.41233333 0.13744444 37.48 <.0001 Error 8 0.02933333 0.00366667 Corrected Total 11 0.44166667 R-Square Coeff Var Root MSE ganpeso Mean 0.933585 4.857193 0.060553 1.246667 Source DF Type III SS Mean Square F Value Pr > F tratam 3 0.41233333 0.13744444 37.48 <.0001 Contrast DF Contrast SS Mean Square F Value Pr > F Ef. ppal. A 1 0.02083333 0.02083333 5.68 0.0443 Ef. ppal. B 1 0.21870000 0.21870000 59.65 <.0001 Interac. AB 1 0.17280000 0.17280000 47.13 0.0001
  • 38. 38 Interacción ordenada y no ordenada Interacción Ordenada 0 10 20 30 40 50 0 1 2 3 4 5 A Media B=1 B=2 B=3 Interacción No Ordenada 0 5 10 15 20 25 0 1 2 3 4 5 A Media B=1 B=2 B=3 Si tenemos interacción ordenada podríamos probar efectos principales (recordemos que son promedios de efectos simples) e interpretar los resultados (con cautela…), pero si tenemos una interacción no ordenada, los efectos principales no se pueden interpretar en términos prácticos (estamos promediando cosas con distinto signo, distinta magnitud, etc.)
  • 39. 39 Pruebas de comparaciones múltiples, contrastes, intervalos de confianza, etc. Para realizar comparaciones o contrastes podemos hacerlo con dos tipos de medias: 1. las medias de niveles de cada factor. Por ejemplo, 1 2      es la diferencia entre el primer nivel de A y el segundo nivel de A. Es un efecto principal. 2. las medias de tratamientos (combinaciones de niveles niveles de cada factor). Por ejemplo, 12 11    es la diferencia entre el primer nivel de B y el segundo nivel de B cuando el factor A está en su primer nivel. Es un efecto simple. Las medias de niveles de cada factor se calculan a partir de más observaciones que las medias de tratamientos, por lo que las fórmulas que hemos estudiado deben corregirse apropiadamente. En el ejemplo de los cerdos, para calcular 1 1 ˆ Y     debemos promediar 2 3 6 bn    observaciones; mientras que para calcular 12 12 ˆ Y    debemos promediar 3 n  observaciones. Esto hace que los errores estándar de las diferencias dependan de qué tipo de media estamos considerando. Por ejemplo,       1 2 3 1 12 11 2 . . 2 . . 2 . . CME s e Y Y bn CME s e Y Y an CME s e Y Y n              
  • 40. 40 9. Experimentos factoriales con tres o más factores Para experimentos con tres o más factores las ideas básicas del análisis son las mismas que para dos factores, aunque todo se complica por la existencia de interacciones dobles, triples, etc. Veamos con un ejemplo qué significaría cada uno de los efectos e interacciones en un factorial 2x2x2. Por ejemplo, supongamos que queremos estudiar el efecto de la presencia (o ausencia) de antibiótico, la presencia (o ausencia) de vitamina B12 y el sexo en la dieta de cerdos. Si combinamos los dos niveles de antibiótico (0mg, 40mg) con los dos niveles de B12 (0mg, 5mg), y los dos sexos tendremos ocho tratamientos: Tratamiento Antibiótico Vitamina B12 Sexo 1 0 0 M 2 40 0 M 3 0 5 M 4 40 5 M 5 0 0 F 6 40 0 F 7 0 5 F 8 40 5 F Supongamos que aplicamos cada uno de estos ocho tratamientos a 5 cerdos, según un diseño completamente aleatorizado, y registramos el aumento de peso en cada uno. El modelo para este ejemplo sería:            ijkm ijk ijkm i j k ij ik jk ijk ijkm Y            donde el índice i representa niveles del primer factor, j representa niveles del segundo factor, k representa niveles del tercer factor y m representa repeticiones. Debemos observar que ahora tenemos tres efectos principales, tres interacciones dobles y una interacción triple. Los efectos principales tienen la misma interpretación que antes: representan las comparaciones entre niveles de un factor promediadas sobre los niveles de los otros dos factores. Por ejemplo, el efecto principal de sexo es la comparación entre los 4 tratamientos con nivel 1 de sexo (trat. 1-4) y los 4 tratamientos con nivel 2 de sexo (trat. 5-8). Las interacciones dobles son comparaciones entre las diferencias de niveles de un factor en cada nivel del otro promediadas sobre los niveles del factor no incluido en la interacción. Por ejemplo, la interacción doble entre antibiótico y vitamina es la siguiente comparación: 111 112 121 122 211 212 221 222 2 2 2 2                      Observar que los niveles de sexo (tercer índice) están promediados, ya que la interacción considerada es entre antibiótico y vitamina.
  • 41. 41 La interacción triple se puede interpretar como que la interacción doble entre dos de los factores en un nivel dado del factor restante no es la misma que la interacción doble en el otro nivel del factor restante. Por ejemplo, la interacción triple podría interpretarse como que la interacción entre el antibiótico y la vitamina no es la misma en machos que en hembras:       111 121 211 221 112 122 212 222                Para armar nuestra tabla de ANOVA supongamos que el primer factor lo llamamos A, y este factor tiene a niveles. Similarmente, el factor B tiene b niveles, el factor C tiene c niveles y tenemos n observaciones por tratamiento (combinación de niveles de A, B y C). Usando la notación de puntos, : total para el nivel del factor : total para el nivel del factor : total para el nivel del factor : total para la combinación del nivel de y nivel de : total i j k ij i k Y i A Y j B Y k C Y i A j B Y         para la combinación del nivel de y nivel de : total para la combinación del nivel de y nivel de : total para el tratamiento : total de todas las observaciones jk ijk i A k C Y j B k C Y ijk Y     Las fórmulas para las sumas de cuadrados pueden consultarse en la página 907 del texto. La siguiente es la tabla de ANOVA: Fuente de Variación Suma de Cuadrados grados libertad Cuadrado Medio F A SCA a-1 CMA F=CMA/CME B SCB b-1 CMB F=CMB/CME C SCC c-1 CMC F=CMC/CME AB SCAB (a-1)(b-1) CMAB F=CMAB/CME AC SCAC (a-1)(c-1) CMAC F=CMAC/CME BC SCBC (b-1)(c-1) CMBC F=CMBC/CME ABC SCABC (a-1)(b-1) (c-1) CMABC F=CMABC/CME Residual (Error) SCRes=SCE abc(n-1) CMRes=CME Total SCTot abcn-1
  • 42. 42 La estrategia general para analizar esta tabla es la misma que para factoriales con dos factores: empezar a probar la interacción de mayor orden, seguir con las dobles de acuerdo al resultado de la prueba de la interacción triple, etc. Un diagrama que nos puede ayudar en esto es el siguiente (ver página 909 en el texto, quinta edición):
  • 43. 43 10. Modelos de efectos aleatorios y mixtos Supongamos que nos interesa estudiar si hay diferencias en calidad según la variedad en semillas de trigo comercializadas por cierta compañía. Para este estudio elegimos al azar 5 variedades (de entre las 40 variedades disponibles) y de cada variedad elegimos 10 muestras al azar de 50 semillas cada una, en las que medimos el porcentaje de germinación, peso, densidad, etc. El modelo para cada una de las variables dependientes sería ij i ij Y       Como en otros modelos estudiados antes, aquí i  representa el efecto de la variedad y ij  el error. La principal diferencia es que el efecto de la variedad es una variable aleatoria. Debemos observar que si hiciésemos el estudio nuevamente, las variedades elegidas serían diferentes (se escogen al azar cada vez). Por otra parte, si las únicas variedades de interés fuesen las cinco variedades del estudio, el efecto de la variedad ( i  ) sería fijo (esta situación sería similar a todos los ejemplos estudiados hasta ahora: al hacer el estudio de nuevo, las muestras serían diferentes pero las variedades serían las mismas). Como en todos los ejemplos anteriores, el error siempre es una variable aleatoria y la media general es fija:     2 2 ~ 0, , ~ 0, i ij N N      Ambos efectos son independientes. La inferencia para modelos de efectos aleatorios es diferente, ya que no estamos interesados en los 5 valores de i  actualmente estudiados sino en todos los valores posibles (los efectos de las 40 variedades). Si todos los efectos fuesen iguales, la varianza de estos efectos sería 0, es decir, 2 0    . Por lo tanto ésta es la hipótesis nula que probamos en un modelo de efecto aleatorio. Los cálculos para la tabla de ANOVA son los mismos que antes (por lo menos en este ejemplo con un solo factor), y la prueba F sigue siendo CMTrat CME F  . Otra manera de ver que la hipótesis que estamos probando es la mencionada es mediante el estudio de los cuadrados medios esperados. Un cuadrado medio esperado es el valor promedio que obtendríamos si repitiésemos nuestro experimento infinidad de veces, calculásemos cada vez un cuadrado medio, y promediásemos estos valores. Debemos observar que según estemos trabajando con efectos fijos o aleatorios el proceso de repetir el experimento va a ser diferente: en el caso de efectos fijos el proceso significa realeatorizar las unidades experimentales a los tratamientos, mientras que con efectos aleatorios deberíamos reelegir aleatoriamente los tratamientos y luego realeatorizar las unidades experimentales a los tratamientos elegidos. Los cuadrados medios esperados son cantidades poblacionales cuyo cálculo requiere bastante teoría. Para el ejemplo que estamos considerando son los siguientes:
  • 44. 44 Fuente de variación Cuadrado Medio Esperado Efectos Fijos Efectos Aleatorios Tratamiento 2 2 ( 1) i n t      2 2 n     Error 2  2  Aquí podemos ver la justificación para la prueba F: bajo la hipótesis nula tanto el numerador como el denominador tienen el mismo valor esperado, mientras que bajo la hipótesis alternativa el numerador tiene un valor esperado más alto que el denominador (de ahí que rechacemos la hipótesis nula para valores altos del estadístico). El mismo concepto de efectos aleatorios lo podemos extender a situaciones con más de un factor, con bloques, etc. Supongamos que estamos estudiando un proceso de empacado de pescado en una fábrica. Escogemos 4 máquinas al azar entre todas las disponibles, y 3 operarios al azar entre los 200 operarios de la fábrica. Para cada combinación de máquina y operario escogemos 5 paquetes al azar de la línea de producción. Debemos notar que éste es un experimento factorial 4x3 con 5 repeticiones en un DCA, pero ambos efectos son aleatorios (si volviésemos a realizar el experimento, tanto las máquinas como los operarios serían diferentes). El modelo en este caso es         2 2 2 2 ~ 0, , ~ 0, ~ 0, , ~ 0, ijk i j ij ijk i j ij ijk Y N N N N                      Todos los efectos aleatorios son independientes entre sí. Otro ejemplo de un factorial con dos factores es el siguiente: deseamos comparar 4 variedades de habichuela aleatoriamente escogidas sembradas bajo 5 dosis de fertilización. Para ello sembramos 2 repeticiones de cada una de las 20 combinaciones de variedad y fertilización en un experimento diseñado según un DCA. En este caso el modelo es mixto: los efectos de las variedades son aleatorios y los efectos de los métodos de fertilización son fijos. El modelo es similar al anterior:       2 2 2 ~ 0, , ~ 0, ~ 0, ijk i j ij ijk j ij ijk Y N N N                  
  • 45. 45 Los cuadrados medios esperados para factoriales pueden resumirse en la siguiente tabla: Fuente de variación Cuadrado Medio Esperado A y B Fijos A y B Aleatorios A fijo, B Aleatorio A 2 2 ( 1) i nb a      2 2 2 n nb        2 2 2 ( 1) i n nb a         B 2 2 ( 1) j na b      2 2 2 n na        2 2 na     AB 2 2 ( 1)( 1) ij n a b       2 2 n     2 2 n     Error 2  2  2  A partir de esta tabla es bastante directo encontrar las hipótesis y la forma de construir estadísticos F para probarlas. La clave es siempre encontrar un numerador y un denominador para el estadístico F que tengan el mismo valor esperado bajo la hipótesis nula. Por ejemplo, en el modelo mixto para probar el efecto principal del factor A tenemos que 0 1 2 : ... 0 a H        , y para probarla podemos construir el siguiente estadístico: CMA CMAB F  . Todas estas fórmulas son válidas sólo si los datos son balanceados (igual número de repeticiones por combinación de niveles de factores). En caso contrario se debe usar otra metodología. Como ejemplo en SAS, consideremos el modelo mixto discutido antes con 5 dosis de fertilizante (fijas) y 4 variedades (aleatorias). data ensayo; input fertil varied rendim; datalines; 1 1 7.2 1 2 4.2 1 3 9.5 1 4 5.4 1 1 9.6 1 2 3.5 1 3 9.3 1 4 3.9 2 1 8.5 2 2 2.9 2 3 8.8 2 4 6.3 2 1 9.6 2 2 3.3 2 3 9.2 2 4 6.0 3 1 9.1 3 2 1.8 3 3 7.6 3 4 6.1 3 1 8.6 3 2 2.4 3 3 7.1 3 4 5.6 4 1 8.2 4 2 3.6 4 3 7.3 4 4 5.0 4 1 9.0 4 2 4.4 4 3 7.0 4 4 5.4 5 1 7.8 5 2 3.7 5 3 9.2 5 4 6.5 5 1 8.0 5 2 3.9 5 3 8.3 5 4 6.9 proc glm; class fertil varied; model rendim = fertil|varied; test h=fertil e=fertil*varied; run;
  • 46. 46 Class Level Information Class Levels Values fertil 5 1 2 3 4 5 varied 4 1 2 3 4 Number of Observations Read 40 Number of Observations Used 40 Dependent Variable: rendim Source DF Sum of Squares Mean Square F Value Pr > F Model 19 200.1027500 10.5317237 30.42 <.0001 Error 20 6.9250000 0.3462500 Corrected Total 39 207.0277500 R-Square Coeff Var Root MSE rendim Mean 0.966550 9.063229 0.588430 6.492500 Source DF Type III SS Mean Square F Value Pr > F fertil 4 3.8115000 0.9528750 2.75 0.0567 varied 3 180.1327500 60.0442500 173.41 <.0001 fertil*varied 12 16.1585000 1.3465417 3.89 0.0037 Tests of Hypotheses Using the Type III MS for fertil*varied as an Error Term Source DF Type III SS Mean Square F Value Pr > F fertil 4 3.81150000 0.95287500 0.71 0.6020
  • 47. 47 La tabla de cuadrados medios esperados también nos da la información necesaria para estimar las componentes de la varianza: 2 2 2 ˆ CME .346 CMAB-CME 1.34654 .34625 ˆ .500 2 CMB-CME 60.04425 .34625 ˆ 5.970 5 2 n an                 Las fórmulas de cuadrados medios esperados a partir de las cuales podemos deducir estas estimaciones de las varianzas son válidas sólo para igual número de repeticiones. Para número desigual de repeticiones, situaciones con estimados negativos, etc. debemos usar otro método llamado REML (implementado en SAS Proc Mixed o en el módulo de modelos mixtos de InfoStat, pero que no lo estudiamos en este curso). Para realizar el mismo ejemplo en Infostat, debemos indicar directamente en las especifi- caciones del modelo el denominador de los estadísticos F de todos los efectos que usen como denominador algo diferente del cuadrado medio de error. En nuestro ejemplo, notar que en modelo escribimos FERTILFERTIL*VARIEDAD (sin espacios intermedios)
  • 48. 48 Análisis de la varianza Variable N R² R² Aj CV rendim 40 0.97 0.93 9.06 Cuadro de Análisis de la Varianza (SC tipo III) F.V. SC gl CM F p-valor (Error) Modelo 200.10 19 10.53 30.42 <0.0001 Fertil 3.81 4 0.95 0.71 0.6020 (Fertil*variedad) variedad 180.13 3 60.04 173.41 <0.0001 Fertil*variedad 16.16 12 1.35 3.89 0.0037 Error 6.93 20 0.35 Total 207.03 39
  • 49. 49 11. Diseños anidados Consideremos los siguientes dos ejemplos: 1. Queremos saber si hay diferencias en el contenido de vitamina C de jugo de china de dos marcas diferentes (A, B). Elegimos aleatoriamente 6 cartones de cada una de las marcas, y de cada cartón tomamos 2 muestras aleatorias de 1 oz. y las analizamos. ¿Cuáles son los factores en estudio? ¿Son fijos o aleatorios? 2. Muestreamos 10 fincas de café al azar en el área central de P. Rico, elegimos 12 árboles al azar en cada finca y de cada árbol obtenemos 3 muestras de 20 hojas cada una y determinamos el porcentaje de hojas con roya en cada muestra. ¿Cuáles son los factores en estudio? ¿Son fijos o aleatorios? En ambos ejemplos tenemos 2 factores de interés, pero, a diferencia de los experimentos factoriales estudiados antes, no tenemos disponibles todas las combinaciones de niveles. Esto hace que no podamos estudiar la interacción entre los factores, sino sólo el efecto del factor A, y el efecto del factor B “dentro” de los niveles de A (es decir, las diferencias entre los niveles de B en un nivel dado de A). El modelo se llama “jerárquico” o “anidado” (hay una jerarquía de factores: tenemos niveles de A, dentro de cada nivel de A tenemos algunos niveles específicos de B, etc.). Decimos que el factor B está anidado dentro del factor A. (En factoriales, decimos que el factor B está cruzado con el factor A, ya que todas las combinaciones de niveles de ambos factores aparecen). El modelo que explica las observaciones es: ( ) ijk i j i ijk Y         Los efectos de A pueden ser fijos o aleatorios, y de B dentro de A generalmente son aleatorios, como hemos visto en los dos ejemplos al principio (el ejemplo 1 es mixto, el 2 es aleatorio).
  • 50. 50 La tabla de ANOVA es la siguiente: Fuente de Variación Suma de Cuadrados grados de libertad Cuadrado Medio A 2 2 SCA i i Y Y bn abn      a-1 CMA B(A) 2 2 SCB(A)= SCA ij Y Y n nab      a(b-1) CMB(A) Error SCE=SCTot-SCA-SCB(A) ab(n-1) CME Total 2 2 SCTot ijk Y Y nab     abn-1 Los cuadrados medios esperados para anidados pueden resumirse en la siguiente tabla: Fuente de variación Cuadrado Medio Esperado A y B Aleatorios A fijo, B Aleatorio A 2 2 2 n nb        2 2 2 ( 1) i n nb a         B(A) 2 2 n     2 2 n     Error 2  2  A partir de esta tabla es bastante directo encontrar las hipótesis y la forma de construir estadísticos F para probarlas. La clave es la misma de la clase anterior: encontrar un numerador y un denominador para el estadístico F que tengan el mismo valor esperado bajo la hipótesis nula. Por ejemplo, en el modelo mixto para probar el efecto principal del factor A tenemos que 0 1 2 : ... 0 a H        , y para probarla podemos construir el siguiente estadístico: CMA CMB(A) F  . Todas estas fórmulas son válidas sólo si los datos son balanceados (igual número de repeticiones por nivel de B, e igual número de niveles de B por nivel de A). En caso contrario se debe usar otra metodología (como Proc Mixed en SAS o el módulo de modelos mixtos en InfoStat, que hemos mencionado para casos desbalanceados en modelos de efectos aleatorio o mixtos estudiados en el capítulo anterior).
  • 51. 51 Como ejemplo en SAS e Infostat, consideremos el modelo mixto del ejemplo 1 con 2 marcas de jugo, 6 cartones por marca y 2 muestras por cartón. data naranja; input marca $ carton muestra vitam; datalines; a 1 1 680 a 1 2 645 a 2 1 438 a 2 2 460 a 3 1 539 a 3 2 565 a 4 1 264 a 4 2 278 a 5 1 693 a 5 2 650 a 6 1 530 a 6 2 585 b 7 1 418 b 7 2 457 b 8 1 475 b 8 2 490 b 9 1 345 b 9 2 321 b 10 1 298 b 10 2 245 b 11 1 546 b 11 2 597 b 12 1 475 b 12 2 444 proc glm; class marca carton; model vitam = marca carton(marca); test h=marca e=carton(marca); means marca; run; Class Level Information Class Levels Values marca 2 a b carton 12 1 2 3 4 5 6 7 8 9 10 11 12 Dependent Variable: vitam Source DF Sum of Squares Mean Square F Value Pr > F Model 11 402713.8333 36610.3485 54.41 <.0001 Error 12 8074.0000 672.8333 Corrected Total 23 410787.8333 R-Square Coeff Var Root MSE vitam Mean 0.980345 5.442706 25.93903 476.5833 Source DF Type III SS Mean Square F Value Pr > F marca 1 61610.6667 61610.6667 91.57 <.0001 carton(marca) 10 341103.1667 34110.3167 50.70 <.0001
  • 52. 52 Tests of Hypotheses Using the Type III MS for carton(marca) as an Error Term Source DF Type III SS Mean Square F Value Pr > F marca 1 61610.66667 61610.66667 1.81 0.2087 Level of marca N vitam Mean Std Dev a 12 527.250000 144.145838 b 12 425.916667 104.715596 Análisis de la varianza Variable N R² R² Aj CV Columna4 24 0.98 0.96 5.44 Cuadro de Análisis de la Varianza (SC tipo I) F.V. SC gl CM F valor p (Error) Modelo 402713.83 11 36610.35 54.41 <0.0001 Marca 61610.67 1 61610.67 1.81 0.2087 (Marca>Cartón) Marca>Cartón 341103.17 10 34110.32 50.70 <0.0001 Error 8074.00 12 672.83 Total 410787.83 23
  • 53. 53 12. Diseño de parcelas divididas Hemos visto en distintos ejemplos cómo la manera en que aleatorizamos (asignamos los tratamientos a las unidades experimentales) define el diseño del experimento. Por ejemplo, si todos los tratamientos están asignados al azar en cada grupo de unidades experimentales tenemos un diseño en bloques completos aleatorizados. Consideremos un experimento en el que deseamos evaluar 4 distintos niveles de fertiliza- ción (f1, f2, f3, f4) de Pasto Pangola para lo cual usamos 12 parcelas. Cada nivel de fertilizante se aplica a 3 parcelas aleatoriamente elegidas. Cada una de las parcelas se divide en 3 subparcelas, y aleatoriamente elegimos una de estas subparcelas para evaluar la producción de materia seca de una de tres variedades del pasto (v1, v2, v3). Este experimento tiene 2 factores, pero la forma en que hemos aleatorizado estos factores no es la usual para los experimentos factoriales. Debemos observar que primero hemos aleatorizado los niveles de un factor (fertilizante) a las parcelas completas y luego hemos aleatorizado los niveles del otro factor (variedad) a las subparcelas. Debemos notar que la aleatorización es más restringida que si hubiésemos aleatorizado todas las 12 combinaciones. ¿Qué ganamos con este diseño? Por una parte, pueden existir razones prácticas para usarlo: por ejemplo es posible que logremos una mejor aplicación del fertilizante si lo aplicamos a parcelas grandes. Por otra parte debemos observar también que cada parcela (completa) está funcionando como un “bloque” para el segundo factor, ya que todos los niveles del segundo factor (en nuestro ejemplo variedad) están presentes en cada parcela completa. Esto hace que este factor gane en precisión. En este diseño tenemos al menos dos factores: uno cuyos niveles se aleatorizan a las parcelas completas y otro cuyos niveles se aleatorizan a las subparcelas. Las parcelas completas pueden estar ordenadas en forma completamente aleatoria (como en nuestro ejemplo), en forma de bloques completos, etc. El modelo para observaciones provenientes de un diseño en parcelas divididas con parcelas completas en un DCA es ( ) ijk i k i j ij ijk Y             Aquí ( ) k i  es el efecto (aleatorio) de la repetición k en el tratamiento i (efecto de la parcela completa). Si las parcelas completas estuviesen en un DBCA entonces debemos agregar un efecto de bloques: ijk i k ik j ij ijk Y               Los cuadrados medios esperados (ambos factores se consideran fijos) para este diseño son
  • 54. 54 A partir de esta tabla es bastante directo encontrar las hipótesis y la forma de construir estadísticos F para probarlas. Es claro que para probar el efecto principal del factor A (y el efecto de bloques) debemos usar como denominador el error de “parcela completa” (error 1), ya que la aleatorización de niveles de este factor se hizo sobre las parcelas completas. Similarmente, para probar efecto principal de B o interacción debemos usar como denominador el error de subparcela (error 2). Para realizar los cálculos de las sumas de cuadrados veamos el siguiente ejemplo, en el que hay dos niveles de irrigación (aplicados a parcelas completas en un DCA con 3 repeticiones) y 2 variedades (aplicados a subparcelas). Irrigación Variedad Repet. 1 Repet. 2 Repet. 3 Totales sin 1 63 52 49 164 sin 2 33 43 48 124 con 1 53 69 55 177 con 2 38 49 42 129 594 Parcelas completas 1 2 3 4 5 6 Totales 96 95 97 91 118 97 Irrigación sin con Totales 288 306 Variedad 1 2 Totales 341 253 SCTotal= 632 +…+422 - 5942 /12 = 1117 SCParcelas Completas= (962 +…+972 )/2 - 5942 /12 = 229 SC A= (2882 +3062 )/6 - 5942 /12 = 27 SC Error 1= SCParcelas Completas-SC A = 202 Fuente de variación Parcelas completas en DCA Parcelas completas en DBCA CM Esperado gl CM Esperado gl Bloques - - 2 2 2 ( 1) k b ab n         n-1 A 2 2 2 ( 1) i b nb a         a-1 2 2 2 ( 1) i b nb a         a-1 Error 1 2 2 b     a(n-1) 2 2 b     (a-1)(n-1) B 2 2 ( 1) j na b      b-1 2 2 ( 1) j na b      b-1 AB 2 2 ( 1)( 1) ij n a b       (a-1)(b-1) 2 2 ( 1)( 1) ij n a b       (a-1)(b-1) Error 2 2  a(b-1)(n-1) 2  a(b-1)(n-1) Total abn-1 abn-1
  • 55. 55 SC B = (3412 +2532 )/6 - 5942 /12 = 645.33 SC AB = (1642 +…+1292 )/3 - 5942 /12 - SC A - SC B = 5.33 SC Error 2 = SCTotal - SCParcelas Completas - SC B - SC AB = 237.33 data a; input riego $ variedad repet rendim; datalines; sin 1 1 63 sin 1 2 52 sin 1 3 49 sin 2 1 33 sin 2 2 43 sin 2 3 48 con 1 1 53 con 1 2 69 con 1 3 55 con 2 1 38 con 2 2 49 con 2 3 42 proc glm data=a; class riego variedad repet; model rendim = riego repet(riego) variedad riego*variedad; test h=riego e=repet(riego); run; Class Level Information Class Levels Values riego 2 con sin variedad 2 1 2 repet 3 1 2 3 Dependent Variable: rendim Source DF Sum of Squares Mean Square F Value Pr > F Model 7 879.666667 125.666667 2.12 0.2442 Error 4 237.333333 59.333333 Corrected Total 11 1117.000000 R-Square Coeff Var Root MSE rendim Mean 0.787526 15.56124 7.702813 49.50000
  • 56. 56 Source DF Type III SS Mean Square F Value Pr > F riego 1 27.0000000 27.0000000 0.46 0.5369 repet(riego) 4 202.0000000 50.5000000 0.85 0.5602 variedad 1 645.3333333 645.3333333 10.88 0.0300 riego*variedad 1 5.3333333 5.3333333 0.09 0.7793 Tests of Hypotheses Using the Type III MS for repet(riego) as an Error Term Source DF Type III SS Mean Square F Value Pr > F riego 1 27.00000000 27.00000000 0.53 0.5052 Para realizar el mismo ejemplo en Infostat debemos especificar el siguiente modelo: Cuadro de Análisis de la Varianza (SC tipo III) F.V. SC gl CM F p-valor (Error) Modelo 879.67 7 125.67 2.12 0.2442 riego 27.00 1 27.00 0.53 0.5052 (riego>repet) riego>repet 202.00 4 50.50 0.85 0.5602 variedad 645.33 1 645.33 10.88 0.0300 riego*variedad 5.33 1 5.33 0.09 0.7793 Error 237.33 4 59.33 Total 1117.00 11
  • 57. 57 Para realizar comparaciones de medias, contrastes, intervalos de confianza, etc., necesitamos conocer el error estándar de la diferencia de dos medias. Es claro que si la diferencia es de dos medias de niveles de A, el error correcto es el Error 1 (error de parcela completa), mientras que si la diferencia es entre dos medias de niveles de B el error correcto es el Error 2 (error de subparcela). El problema está en comparar dos medias a nivel de subparcela pero provenientes de dos parcelas completas diferentes. En este caso la solución es aproximada, ya que no hay una prueba exacta. Diferencia entre Medias (ejemplo) Error estándar de la diferencia Valor tabular dos medias de A i i Y Y      1 2 Y Y    1 2CME nb 1 gl t dos medias de B j j Y Y         2 3 Y Y      2 2CME na 2 gl t dos medias de B en el mismo nivel de A ij ij Y Y       11 12 Y Y    2 2CME n 2 gl t dos medias de A en el mismo o distinto nivel de B ij i j Y Y       11 21 Y Y      11 32 Y Y    2 2CME n (aprox.) 2 gl t (aprox.)
  • 58. 58 13. Repaso de regresión lineal simple Hasta ahora hemos estudiado la relación entre una variable dependiente (Y) y tratamientos (uno o más factores) simplemente considerando que cada tratamiento tiene su media, y nos interesaba comparar estas medias mediante hipótesis apropiadas. Ahora vamos a enfatizar la relación que existe entre dos variables cuantitativas: una independiente y otra dependiente. Por ejemplo la cantidad de proteína en la dieta y el aumento de peso. La variable que nosotros variamos a voluntad es la “variable independiente”, y sobre la que nos interesa estudiar el efecto es la “variable dependiente”. Por ejemplo, queremos ver cuál es el promedio de ganancia de peso cuando agregamos 10%, 15%, 20% y 25% de proteína a la dieta. La relación más simple es la de una línea recta 0 1 Y x     , donde Y es el aumento de peso, x es el porcentaje de proteína en la dieta, 0  es el intercepto (valor de Y cuando x=0) y 1  es la pendiente (cambio en Y cuando x aumenta en una unidad). Este modelo se llama modelo determinístico: conociendo el valor de x podemos predecir exactamente el valor de Y. En la práctica no es muy realista, ya que los puntos observados no van a estar exactamente sobre la línea recta. El siguiente gráfico es más realista: 2 4 6 8 10 0 5 10 x Y Un modelo más realista es pensar que la línea recta representa la relación entre la media de las Y para un valor dado de x y la variable independiente: 0 1 Y x      . Otra forma de escribir este modelo es 0 1 Y x       donde  es el error aleatorio y representa la diferencia entre el valor de Y y su media Y  (o lo que es lo mismo, entre el valor observado y la recta). La media de estos errores aleatorio para un valor dado de x es 0 (es decir, los valores positivos y negativos se “balancean”) y por lo tanto ambas formulaciones de este modelo estocástico son equivalentes.
  • 59. 59 Problema: los parámetros de la recta   0 1 ,   son desconocidos, por lo que necesitaremos una muestra de N observaciones     1 1 , ,..., , N N x Y x Y para estimarlos. La recta que obtendremos será la recta estimada: 0 1 ˆ ˆ Ŷ x     La diferencia entre cada valor observado i Y y el valor correspondiente sobre la recta estimada se llama “error de predicción” o residual, y se denomina como ˆ. i i i e Y Y   Observar que esto no es lo mismo que el error aleatorio i  , que es la diferencia entre cada valor observado y la recta verdadera (poblacional). Para estimar la recta vamos a usar el método de mínimos cuadrados, que consiste en elegir los parámetros   0 1 ,   que minimicen la suma de los cuadrados de los errores de predicción: 2 2 1 1 1 ˆ ˆ ˆ ( ) ( )           N N i i i o i i i Y Y Y x Los estimadores son 1 0 1 ˆ ˆ ˆ , xy xx S Y x S       2 2 2 1 1 1 ( )                N N N xx i i i i i i S X X X X N 1 1 1 1 ( )( )              N N N N xy i i i i i i i i i i S X X Y Y X Y X Y N Ejemplo: Relación entre el peso de gallinas (lb) y el consumo de alimento durante 1 año. Peso Consumo 4.6 87.1 5.1 93.1 4.8 89.8 4.4 91.4 5.9 99.5 4.7 92.1 5.1 95.5 5.2 99.3 4.9 93.4 5.1 94.4
  • 60. 60 4.0 4.5 5.0 5.5 6.0 Peso 86 90 94 98 102 PRED_Consumo Coeficientes de regresión y estadísticos asociados Coef Est. EE LI(95%) LS(95%) T valor p CpMallows const 55.26 9.53 33.28 77.25 5.80 0.0004 Peso 7.69 1.91 3.29 12.09 4.03 0.0038 15.54 Observar que, para este ejemplo 1 0 ˆ ˆ 1.536, 11.812, 7.69, 55.26. xx xy S S       Ahora estamos en condiciones de realizar inferencias. Repasemos nuestro modelo 0 1 i i i Y x       Vamos a asumir que este es el modelo correcto, que los 1,...,  N son independientes y tienen distribución normal con media 0 y varianza constante:   ~ 0, i N    La tabla de análisis de varianza que nos permite partir la variabilidad total es: Fuente de Variación Suma de Cuadrados grados de libertad Cuadrado Medio F Regresión SCRegresión 1 CMReg=SCReg/1 F=CMReg/CME Residual (Error) SCResidual=SCE N-2 CME=SCE/(N-2) Total SCTotal N-1
  • 61. 61 Las fórmulas para estas sumas de cuadrados son:         2 2 2 2 1 2 SCTotal ˆ ˆ SCRegresión ˆ SCResidual =SCTotal SCRegresión                  i YY i i i XY i i Y S Y Y Y N Y Y S Y Y Podemos ver qué pasaría si todas las observaciones estuviesen sobre la recta (SCResidual=0), y qué pasaría si lal mejor recta de ajuste fuese una línea horizontal (SCRegresión=0). Cuadro de Análisis de la Varianza (SC tipo III) F.V. SC gl CM F valor p Modelo 90.84 1 90.84 16.23 0.0038 Peso 90.84 1 90.84 16.23 0.0038 Error 44.77 8 5.60 Total 135.60 9 Para realizar inferencias podemos aplicar propiedades de la distribución muestral de 0 1 ˆ ˆ y   , que es normal con los siguientes parámetros: 0 1 0 1 ˆ ˆ 0 1 2 ˆ ˆ , ,                    xx xx x N S S El estimador de 2   es el cuadrado medio residual. Con esta información podemos construir intervalos de confianza y realizar pruebas de hipótesis usando el estadístico t o F. Por ejemplo, 0 1 1 1 : 0, : 0 ˆ 0 , gl 2           a xx H H t N s S Esta última prueba es la más importante en regresión lineal: si no podemos rechazar 0 H entonces estamos concluyendo que no hay una relación lineal entre el promedio de las Y y las x. Otro estadístico alternativo es el estadístico para esta prueba es CMReg CME F  y debemos rechazar 0 H si F F  . Para encontrar el valor tabular de F debemos buscar en la tabla correspondiente con 1 y N-2 grados de libertad. Podemos verificar que tanto para el valor observado como para el tabular, 2 F t  y por lo tanto ambas pruebas siempre van a conducir a las mismas conclusiones.
  • 62. 62 14. Regresión polinomial Supongamos que tenemos 4 tratamientos, que son las dosis de fertilizante nitrogenado 0, 50, 100 y 200. Realizamos un experimento con estos tratamientos en un DCA con 5 repeticiones. Ahora tenemos dos opciones para analizar estos datos: ANOVA y regresión. En ANOVA el modelo es ij i ij Y       , mientras que en regresión el modelo es 0 1 ij ij ij Y x       . Veamos cómo sería el modelo para observaciones de cada una de las dosis: Dosis Modelo de ANOVA Modelo de regresión 0 1 1 1 j j Y       1 0 1 j j Y     50 2 2 2 j j Y       2 0 1 2 50 j j Y       100 3 3 3 j j Y       3 0 1 3 100 j j Y       200 4 4 4 j j Y       4 0 1 4 200 j j Y       Podemos ver la diferencia entre ambos modelos. En el ANOVA estamos ajustando una media diferente para cada dosis ( i i      ) mientras que en regresión lineal simple la media de cada dosis se calcula a partir de la ecuación lineal. En ANOVA tenemos cuatro parámetros (aparecen 5 en las fórmulas pero la suma de los efectos es cero, así que efectivamente son 4); mientras que en regresión lineal simple tenemos sólo dos parámetros (intercepto y pendiente). ¿Cuál de los dos modelos será mejor? Por una parte el ANOVA siempre tendrá una SCE más pequeña (o a lo sumo igual) que la de la regresión, pero los grados de libertad también son menos (ANOVA tiene más parámetros que regresión lineal simple), por lo que no sabemos lo que pasa con el CME. Si el modelo de regresión ajusta bien (es decir, explica bien los datos) entonces será más útil (podríamos predecir qué pasa con una dosis de 75, por ejemplo). Aunque el modelo de regresión no ajusta, el de ANOVA siempre lo hará, ya que no hay ninguna función a la que las medias deban ajustarse: simplemente cada tratamiento tiene su media. ¿Cómo podemos probar si el modelo de regresión lineal simple ajusta bien? La forma más sencilla e intuitiva de hacerlo es a través de la comparación de las sumas de cuadrado de error de ambos modelos: si son bastante parecidas, entonces razonablemente podremos decir que el modelo de regresión lineal ajusta bien. Si la del ANOVA es sustancialmente menor, entonces obviamente las medias no siguen una relación de línea recta sino que necesitaríamos otro modelo para explicar su relación. Es decir, necesitaremos dos tablas de ANOVA: una para el modelo de ANOVA y otra para el modelo de regresión lineal simple. Denotaremos como SCEANOVA y SCEREG a las sumas de cuadrado de error de ambos modelos. Podemos construir un estadístico F como     REG ANOVA REG ANOVA ANOVA SCE -SCE gle -gle CME F 
  • 63. 63 Este estadístico permitirá probar las hipótesis: 0 0 1 : : el modelo no ajusta Y a H x H      La región de rechazo son los valores F F  , con los grados de libertad apropiados. Debemos notar que para probar esta hipótesis necesitamos que haya valores de Y repetidos para al menos algunos de los valores de x, cosa que no siempre sucede en regresión. ¿Qué hacemos si el modelo de regresión lineal simple no ajusta? Una de las alternativas ya la conocemos: podemos olvidarnos de la regresión y comparar las medias mediante las técnicas de ANOVA (comparaciones múltiples, contrastes, intervalos de confianza, etc.) La otra alternativa es usar un modelo de regresión más complejo, que permita estudiar relaciones curvilíneas. Entre estos modelos tenemos los polinomios, las ecuaciones exponenciales, logarítmicas, etc. El polinomio es la extensión natural de la ecuación lineal simple, y consiste en suma de distintas potencias de x. Por ejemplo un modelo polinomial de tercer grado es: 3 2 0 1 2 3 ij ij ij ij ij Y x x x           Ahora vemos que tenemos un modelo mucho más flexible, pero con mayor cantidad de parámetros (en este ejemplo, la misma cantidad que el modelo de ANOVA considerado antes). En modelos polinomiales podemos aplicar la misma prueba de falta de ajuste presentada antes, pero de manera secuencial. Es decir, empezamos probando si el polinomio de primer grado ajusta. Si aceptamos la hipótesis nula entonces no es necesario hacer nada más: el modelo rectilíneo es apropiado. Si rechazamos la nula, entonces probaríamos si un modelo cuadrático es apropiado, y así seguiremos probando hasta encontrar un grado del polinomio que sea apropiado. Si tenemos t tratamientos el grado máximo del polinomio que podremos ajustar es t-1, ya que en ese caso los grados de libertad de regresión son los mismos que los grados de libertad de tratamientos (en efecto, los modelos son exactamente iguales). Ejemplo: En este ejemplo tenemos rendimientos de tomate bajo cinco regímenes de humedad diferentes: 6, 8, 10, 12 y 14%. Hay 5 repeticiones de cada tratamiento, ubicadas en un DCA. rend. hum. 49.2 6.0 48.1 6.0 48.0 6.0 49.6 6.0 47.0 6.0 51.5 8.0 51.7 8.0 50.4 8.0 rend. hum. 51.2 8.0 48.4 8.0 51.1 10.0 51.5 10.0 50.3 10.0 48.9 10.0 48.7 10.0 48.6 12.0 rend. hum. 47.0 12.0 48.0 12.0 46.4 12.0 46.2 12.0 43.2 14.0 42.6 14.0 42.1 14.0 43.9 14.0 40.5 14.0
  • 64. 64 En Infostat usamos el menú Regresión lineal, con las opciones de “Error Puro” para probar la falta de ajuste, y en la solapa “Polinomios” podemos seleccionar el orden deseado. Al ajustar un modelo de regresión lineal simple obtenemos los siguientes resultados: Análisis de regresión lineal Variable N R² R² Aj rendim 25 0.48 0.46 Coeficientes de regresión y estadísticos asociados Coef Est. EE LI(95%) LS(95%) T valor p CpMallows const 55.38 1.71 51.84 58.93 32.29 <0.0001 humedad -0.76 0.17 -1.10 -0.42 -4.62 0.0001 21.48 Cuadro de Análisis de la Varianza (SC tipo III) F.V. SC gl CM F valor p Modelo 116.13 1 116.13 21.32 0.0001 humedad 116.13 1 116.13 21.32 0.0001 Error 125.27 23 5.45 Lack Of Fit 96.44 3 32.15 22.31 <0.0001 Error Puro 28.82 20 1.44 Total 241.40 24
  • 65. 65 6 8 10 12 14 humedad 40.0 43.5 47.0 50.5 54.0 Rendim Rendimiento de Tomate Al ajustar un modelo de regresión polinomial de segundo orden (cuadrática) obtenemos los siguientes resultados: Análisis de regresión lineal Variable N R² R² Aj rendim 25 0.88 0.87 Coeficientes de regresión y estadísticos asociados Coef Est. EE LI(95%) LS(95%) T valor p CpMallows const 28.44 3.28 21.64 35.24 8.67 <0.0001 humedad 5.10 0.69 3.66 6.53 7.35 <0.0001 53.68 humed^2 -0.29 0.03 -0.36 -0.22 -8.51 <0.0001 71.24 Cuadro de Análisis de la Varianza (SC tipo I) F.V. SC gl CM F valor p Modelo 212.19 2 106.09 79.90 <0.0001 humedad 116.13 1 116.13 87.46 <0.0001 humedad^2 96.06 1 96.06 72.34 <0.0001 Error 29.21 22 1.33 Total 241.40 24 Cuadro de Análisis de la Varianza (SC tipo III) F.V. SC gl CM F valor p Modelo 212.19 2 106.09 79.90 <0.0001 humedad 212.19 2 106.09 79.90 <0.0001 Error 29.21 22 1.33 Lack Of Fit 0.39 2 0.19 0.13 0.8749 Error Puro 28.82 20 1.44 Total 241.40 24
  • 66. 66 6 8 10 12 14 humedad 40.0 43.5 47.0 50.5 54.0 Rendim Rendimiento de Tomate 15. Regresión lineal múltiple Supongamos que estamos estudiando la relación entre la pérdida de peso de un vegetal (en mg) luego de exponerse al aire durante distintos tiempos a diferentes humedades relativas: 0 1 2 3 4 5 6 7 8 9 0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9 Humedad Pérdida
  • 67. 67 0 1 2 3 4 5 6 7 8 9 3 4 5 6 7 8 Tiempo Pérdida Podríamos realizar dos regresiones lineales, pero obtendremos más información si introducimos ambas variables independientes (humedad y tiempo) en el mismo modelo: 0 1 1 2 2 i i i i Y x x         Éste es un modelo de regresión lineal múltiple. Gráficamente es la ecuación de un plano (o un “hiperplano” si hay más de dos variables independientes). Veamos un ejemplo:
  • 68. 68 El intercepto tiene la misma interpretación que en regresión lineal simple: promedio de las Y cuando todas las x valen 0. Recordemos que esto no siempre tiene una interpretación práctica (en este ejemplo no la tiene). La principal dificultad de este modelo es la interpretación de las pendientes (ahora llamadas pendientes parciales o coeficientes de regresión parciales). El parámetro 1  es el cambio en el promedio de las Y cuando 1 x aumenta una unidad y 2 x permanece constante. Es decir, un coeficiente de regresión parcial se interpreta manteniendo todas las otras variables independientes constantes. El término “parcial” enfatiza que no es una pendiente absoluta, sino una pendiente en la dirección de la variable 1 x (es decir, moviéndonos a lo largo del eje 1 x ). Para visualizar modelos de regresión múltiple y observar cómo funcionan las pendientes parciales, recomiendo visitar la página http://www.ats.ucla.edu/stat/sas/faq/spplot/reg_int_cont.htm En esta página también se pueden apreciar modelos con “interacciones” (términos con 1 2 x x ) y términos cuadráticos. Los supuestos son los mismos que realizamos en regresión simple (observar que los errores i  son los mismos): independencia, varianza constante, normalidad y modelo correcto (es decir, no hay necesidad de términos cuadráticos, etc. en ninguna de las variables independientes, ni tampoco de productos entre las variables independientes). Para ajustar este modelo debemos usar programas estadísticos, y a que los cálculos manuales son muy complicados. El ejemplo analizado en SAS e Infostat nos da los siguientes resultados: data fruta; input tiempo humedad perdida; datalines; 4 .6 4.3 5 .6 5.5 6 .6 6.8 7 .6 8.0 4 .7 4.0 5 .7 5.2 6 .7 6.6 7 .7 7.5 4 .8 2.0 5 .8 4.0 6 .8 5.7 7 .8 6.5 proc reg ; model perdida=tiempo humedad; run;
  • 69. 69 The REG Procedure Model: MODEL1 Dependent Variable: perdida Number of Observations Read 12 Number of Observations Used 12 Analysis of Variance Source DF Sum of Squares Mean Square F Value Pr > F Model 2 31.12417 15.56208 104.13 <.0001 Error 9 1.34500 0.14944 Corrected Total 11 32.46917 Root MSE 0.38658 R-Square 0.9586 Dependent Mean 5.50833 Adj R-Sq 0.9494 Coeff Var 7.01810 Parameter Estimates Variable DF Parameter Estimate Standard Error t Value Pr > |t| Intercept 1 3.86667 1.10868 3.49 0.0069 tiempo 1 1.31667 0.09981 13.19 <.0001 humedad 1 -8.00000 1.36677 -5.85 0.0002 Análisis de regresión lineal Variable N R² R² Aj perdida 12 0.96 0.95 Coeficientes de regresión y estadísticos asociados Coef Est. EE LI(95%) LS(95%) T valor p CpMallows const 3.87 1.11 1.36 6.37 3.49 0.0069 tiempo 1.32 0.10 1.09 1.54 13.19 <0.0001 158.71 humedad -8.0 1.37 -11.09 -4.91 -5.85 0.0002 32.93