1. 133
CAPÍTULO 10
ANÁLISIS DE COVARIANZA (ANCOVA)
10.1 INTRODUCCIÓN
Uno de los problemas con el que frecuentemente se enfrenta el investigador, es el de controlar
aquellos factores que no le he es posible medir y cuyo efecto no puede justificar, los cuales constituyen
el error experimental. Una de las formas de minimizar este error es mediante la aleatorización de los
tratamientos y la utilización de material experimental muy homogéneo. Sin embargo, la aleatorización
difícilmente cancela la influencia de las variables involucradas en el error y la disponibilidad de
material experimental homogéneo no es frecuente en algunos experimentos, principalmente con
animales, quedando restringidos a experimentos de laboratorio, invernadero o con animales de bioterio.
Ronald Fisher en 1932 desarrolló una técnica conocida como Análisis de Covarianza, que
combina el Análisis de Regresión con el Análisis de Varianza. Covarianza significa variación
simultánea de dos variables que se asume están influyendo sobre la variable respuesta. En este caso se
tiene la variable independiente tratamientos y otra variable que no es efecto de tratamientos pero que
influye en la variable de respuesta, llamada a menudo: covariable.
El Análisis de Covarianza consiste básicamente en elegir una o más variables adicionales o
covariables que estén relacionadas con la variable de respuesta, evitando que los promedios de
tratamientos se confundan con los de las covariables, incrementando de esa manera la precisión del
experimento. Por ejemplo: número de plantas por unidad experimental, pesos iniciales en animales,
grado de infestación de garrapatas, días de lactancia o edad de destete, etc.; pueden ser covariables que
influyan en el resultado final y cuyo efecto de regresión sobre la variable respuesta el investigador
desea eliminar, ajustando las medias de tratamientos a una media común de X. En este análisis se
asume que la variable dependiente Y está asociada en forma lineal con la variable independiente X,
existiendo homogeneidad de pendientes.
El procedimiento de análisis comprende:
a) ANDEVA para X (covariable),
b) ANDEVA para Y (variable de respuesta),
c) Estimación del coeficiente angular de la regresión.
d) Obtención de la ecuación de regresión y ajuste a los promedios de la variable de respuesta.
10.2 SUPOSICIONES BÁSICAS DEL ANÁLISIS DE COVARIANZA
Como es de esperarse, las suposiciones que se hacen cuando se efectúa un análisis de
covarianza son similares a las requeridas para la regresión lineal y el análisis de varianza. De esta
manera, se encuentran las suposiciones usuales de independencia, normalidad, homocedasticidad, X
fijas, etc. Para ser más exactos, se presenta a continuación los modelos estadísticoímatemáticos
asociados con algunos de los diseños más comunes cuando se realiza un análisis de covarianza.
2. 134
a) Diseño Completamente al Azar
i=1,...,t
Yij = + i + E (Xij X.. ) +
ij
j=1,...,r
Yij = Variable de respuesta medida en la jíésima repetición y el iíésimo tratamiento.
= Media general
i = Efecto del iíésimo tratamiento.
E = Coeficiente angular de la regresión.
Xij = Variable independiente o covariable.
X.. = Media general de la covariable.
= Error experimental.
ij
b) Diseño en bloques completos al azar.
i=1,...,t
Yij = + i + Uj + E (Xij X.. ) +
ij
j=1,...,r
Yij = Variable de respuesta medida en la jíésima repetición y el iíésimo tratamiento.
= Media general
i = Efecto del iíésimo tratamiento.
Uj = Efecto del jíésimo bloque o repetición.
E = Coeficiente angular de la regresión.
Xij = Variable independiente o covariable.
X.. = Media general de la covariable.
= Error experimental.
ij
c) Diseño cuadrado latino
i=1,...,t
Yijk = + i + Uj + Jk + E (Xijk X.. ) + k=1,...,t
ijk
j=1,...,r
Yijk = Variable de respuesta medida en la jíésima repetición y el iíésimo tratamiento.
= Media general
i = Efecto del iíésimo tratamiento.
Uj = Efecto de la jíésima fila.
Jk = Efecto de la kíésima columna.
E = Coeficiente angular de la regresión.
Xijk = Variable independiente o covariable.
X.. = Media general de la covariable.
= Error experimental.
ij k
Otra suposición necesaria para el análisis correcto de covarianza, es que la variable concomitante X, no
debe ser afectada por los tratamientos.
4. 136
Suma de Productos de Tratamietos para x y y. SPTrat (x,y)
t r
¦¦ x .j y. j
[(96 u 9.65) ... (101u 14.42)]
F.C.(x, y) 1856.8 15.673
i 1 j 1
SPTrat(x, y)
r 3
Suma de Productos del Error para x y y. SPE (x,y)
SPE(x, y) SPT(x, y) [ SPTrat(x, y) SPB(x, y) ] 60.16 (15.673 15.165) 29.322
SPE(x, y) 29.322
Coeficiente angular de la regresión: Eˆ 0.1599
SCE(x) 183.33
Este coeficiente da la relación promedio de rendimiento por planta, es decir, el efecto de una
planta en promedio es de 0.1599 kg.
Debe aclararse que el coeficiente de regresión E se supuso diferente de cero. Si este no fuera el
caso, la introducción de la variable concomitante X sería una complicación innecesaria. Algunas veces
el investigador querrá comprobar estas suposiciones. Esto es, evaluará las hipótesis:
Ho: E = 0 (no hay regresión lineal simple)
Ha: E z 0
Utilizando la estadística F (FisherSnedecor):
SPE(x, y)@
2
29.3222
SCE(x) 183.33 100.50
F
CME(y ajustado) 0.04666318
que tiene v1 = 1 y v2 =(r1) (t1) 1, grados de libertad. En este caso F crítica (1,5,0.05) = 6.61. Por lo
tanto se concluye que la regresión lineal es significativa.
El cálculo del coeficiente de correlación lineal (r) se efectúa de la manera siguiente:
SPE(x, y) 29.322
r 0.976
SCE(x) u SCE(y) (183.33) u (4.92)
Este valor de r puede ser evaluado con la prueba t de Student:
r 0.976
t u n u 5 10.02*
1 r2 1 (0.976) 2
t crítica (5,0.05/2) = 2.57
siendo n = 5, el número de grados de libertad del residuo, luego de ser ajustado por la regresión (se le
restó un grado de libertar).
5. 137
3º. ANCOVA (los valores ajustados)
a) Cálculo de la suma de cuadrados de la regresión lineal.
SPE(x, y)@ 29.322
6. 2 2
SC Re g 4.691
SCE(x) 183.33
b) Suma de cuadrados del residuo, ajustada a la regresión
SCE(y Ajustado) SCE(y) SC Re g 4.92 4.69 0.23
c) Suma de cuadrados de los tratamientos, ajustada de acuerdo con la regresión
[ SPTrat(x, y) SPE(x, y) ]2
SCTrat Ajustada SCE(y) SCTrat(y) @ SCE(y Ajustada)
SCTrat(x) SCE(x)
15.673 29.332
8. d) Resumen del ANCOVA
Suma de
FV GL SCX SCY GL SC CM Valor F F crítica
Productos
Tratamientos 3 89.67 5.64 15.673 3 2.914 0.97 21.09* 5.41
Bloques 2 320.67 0.89 15.165
Error 6 183.33 4.92 29.322 5 0.23 0.04666
Total 11 593.67 11.45 60.16 10
De acuerdo con el ANCOVA, existen diferencias significativas entre tratamientos. En
consecuencia, es conveniente hacer un ajuste por número de plantas a los promedios de rendimiento, de
acuerdo con la siguiente ecuación:
ˆ
yi. yi. E (x i. x) , siendo:
ˆ
ˆ
yi. = promedio ajustado de cada tratamiento.
yi. = promedio de cada tratamiento sin ajustar.
Eˆ = coeficiente angular de la regresión.
x i. = promedio del número de plantas de cada tratamiento.
x = promedio general del número de plantas.
9. 138
e) El error estándar para la diferencia SE(d) entre dos medias ajustadas es dado por:
ª 1 1 (x i x j ) 2 º
SE(d) CME(y Ajustado) u « »
« ri rj SCE(x) »
¬ ¼
Cuando el número de repeticiones es el mismo para todos los tratamientos, el error estándar
para la diferencia entre dos medias ajustadas es dado por:
2 u CME(y Ajustado) ª (x i x j ) º
2
SE(d) u «1 »
r «
¬ SCE(x) » ¼
Cuando los valores de x1 , x 2 , . . . , x t no son muy diferentes (lo que se puede concluir
cuando los tratamientos no producen efectos significativos en la variable X), se puede usar una
estimación media para el error estándar, aplicable a cualquier contraste entre dos tratamientos. Esta
estimación media tiene la siguiente expresión:
2 u CME(y Ajustado) ª CMTrat(x) º
SE(d) u «1
r ¬ SCE(x) »
¼
f) ˆ
El cálculo de los promedios ajustados del rendimiento de grano de maíz yi. se presenta a
continuación:
Tratamientos yi. yi. xi. x i. ˆ
yi.
30 9.65 3.22 96 32.00 3.72
40 14.14 4.71 107 35.67 4.63
50 14.59 4.86 118 39.33 4.20
60 14.42 4.81 101 33.67 5.05
Media general 35.17
g) La presentación final de los resultados quedará de la siguiente forma:
Días después de la Media ajustada
polinización (kg/u.exp.)
60 5.05 a
40 4.63 a b
50 4.20 b c
30 3.72 c