2. Son Técnicas que sirven para analizar con mayor
detalle los datos de un experimento, con posterioridad
a la realización del Análisis de la Varianza (ADEVA).
Si dicho análisis confirma la existencia de diferencias
significativas entre los tratamientos, es conveniente
investigar qué medias son distintas.
3. Entre las técnicas más empleadas
tenemos:
Pruebas de significación
Comparaciones ortogonales
Polinomios ortogonales
4. Se aplica cuando entre los tratamientos no existe
ninguna relación
En el ADEVA lo que se determina es, si hay diferencias
en el comportamiento de los tratamientos de un
factor, una vez aceptada la existencia de diferencias, el
siguiente paso es conocer qué tratamientos concretos
producen mayor efecto o cuáles son los tratamientos
diferentes entre sí.
5. Entre los más utilizados tenemos:
Prueba de la diferencia mínima significativa (DMS)
Prueba de la Honestly Significant Difference (HSD)
Prueba de rango múltiple de Duncan
Prueba de rango múltiple Student-Newman-Keuls
(SNK)
Prueba de Scheffé
Prueba de Dunnett
6. o LSD (Least Significant Difference) por sus siglas en
inglés
Este procedimiento fue sugerido por Fisher en 1935,
consiste en una prueba de hipótesis por parejas
basada en la distribución t.
7. Fórmula
DMS = Q x Sx̅
Donde:
Q = valor tabular en la tabla específica DMS
p = 2 valor constante
q = grados de libertad del error experimental
(GLee)
Sx̅ = desviación estándar de los promedios √
𝐶𝑀 𝑒𝑒
𝑟
8. o HSD (Honestly Significant Difference)
Propuesto por Tukey por lo cual es más conocido
como prueba de Tukey, es la más estricta y con mayor
nivel de precisión y confianza de todas las pruebas de
significación y es eficiente en aquellos procesos
experimentales donde se investigan más de dos
tratamientos
9. Fórmula
T = Q x Sx̅
Donde:
Q = valor tabular en la tabla específica de Tukey o SNK
p = número de tratamientos
q = grados de libertad del error experimental (GLee)
Sx̅ = desviación estándar de los promedios √
𝐶𝑀 𝑒𝑒
𝑟
10. Se aplica cuando en el proceso experimental se evalúa
más de dos tratamientos, pero su nivel de exigencia es
inferior al nivel de precisión y confianza que Tukey.
11. Fórmula
Duncan = Q x Sx̅
Donde:
Q = valor tabular en la tabla específica de Duncan
p = número de tratamientos
q = grados de libertad del error experimental (GLee)
Sx̅ = desviación estándar de los promedios √
𝐶𝑀 𝑒𝑒
𝑟
12. Este contraste fue desarrollado por Newman en 1939
y ampliado por Keuls en 1952, se suele denominar
contraste de Newman-Keuls.
Esta prueba es más exigente y eficiente que Duncan
pero menos eficiente que Tukey
13. Fórmula
SNK = Q x Sx̅
Donde:
Q = valor tabular en la tabla específica de SNK
p = número de tratamientos
q = grados de libertad del error experimental
(GLee)
Sx̅ = desviación estándar de los promedios √
𝐶𝑀 𝑒𝑒
𝑟
14. Es de mayor confianza que Tukey por lo cual le da
mayor confiabilidad a los resultados que se generan en
el proceso experimental
15. Fórmula cuando r1 ≠ r2
Sch = √ (t-1) Ftab x √ CMee(
1
𝑟1
+
1
𝑟2
)
Donde:
t = número de tratamientos
Ftab = valores de “F” se busca entre GLt y GLee
CMee = cuadrados medios del error experimental
r1 = número de repeticiones del tratamiento A
r2 = número de repeticiones del tratamiento B
16. Fórmula cuando r1 = r2
Sch = √ (t-1) Ftab x √
2𝐶𝑀 𝑒𝑒
𝑟
Donde:
t = número de tratamientos
Ftab = valores de “F” se busca entre GLt y GLee
CMee = cuadrados medios del error experimental
r = número de repeticiones
17. Procedimiento
Determinar si hay diferencia significativa entre tratamientos
Ordenamos las medias de menor a mayor o viceversa según
el caso
Calcular el valor de la prueba con la que se desea trabar
Realizar la diferencia, entre la 1a y todas las demás. Si no
hay diferencia significativa entre ellas, se compara la 1a con
la 3a y siguientes hasta encontrar la primera diferencia
significativa. De forma similar se realiza la comparación de la
2a media con todas las demás y así sucesivamente se haría
con las restantes medias.
Comparar las diferencias entre las medias de los
tratamientos con el valor de la prueba de significación. Si la
diferencia entre las medias es mayor que la PS entonces las
medias difieren significativamente y lo identificamos con un
asterisco, de no haber diferencias ponemos no significativo
(ns).
Se elabora un cuadro para identificar los rangos “letras” en
el promedio de cada tratamiento
18. Ejemplo
En un experimento bajo el diseño de bloques al azar se
comparó a que nivel de humedad del suelo se debe
regar el cultivo del plátano fruta clon “Cavendish
gigante” con el fin de obtener un mayor rendimiento
(toneladas por hectárea).
19.
20.
21.
22.
Determinar si hay diferencia significativa entre
tratamientos
En el análisis de varianza se puede observar que hay
diferencias entre los tratamientos ya que la Fcal es
mayor que la Ftab, con probabilidad de error menor
de 0.01
25. Realizar la diferencia, entre la 1a y todas las demás. Si
no hay diferencia significativa entre ellas, se compara la
1a con la 3a y siguientes hasta encontrar la primera
diferencia significativa. De forma similar se realiza la
comparación de la 2a media con todas las demás y así
sucesivamente se haría con las restantes medias.
Comparar las diferencias entre las medias de los
tratamientos con el valor de la prueba de significación.
Si la diferencia entre las medias es mayor que la PS
entonces las medias difieren significativamente y lo
identificamos con un asterisco, de no haber diferencias
ponemos no significativo (ns).
26.
27. Se elabora un cuadro para identificar los rangos
“letras” en el promedio de cada tratamiento
28.
29. Es otro criterio del análisis funcional que permite
coadyuvar la información que se encuentra inmerso
en el ADEVA
30. • Se implementa en cualquier tipo de
diseño experimental o arreglo factorial
• Las comparaciones de las variables
cualitativas deben ser lógicas
• Deben ser planificadas antes de
realizar el experimento
31. • No se requiere que haya diferencias significativas entre
los tratamientos
• Habrá tantas comparaciones como grados de libertad
existan en dicha fuente de variabilidad, de ahí que a
cada comparación le corresponde un grado de libertad
• Establecen diferencias entre tratamientos
33. Para establecer los coeficientes en
cualquier comparación, se asigna el signo
negativo (-) al o los tratamientos que
están en el lado izquierdo del vs y el signo
positivo (+) a los tratamientos que están
en el lado derecho
El número de elementos que integran el
lado izquierdo de la comparación es el
coeficiente de los tratamientos que tiene
el signo positivo y el número de
elementos que integran el lado derecho
de la comparación es el coeficiente de los
tratamientos que tienen el signo negativo.
34. Si en una comparación
ortogonal no participa un
tratamiento se le asigna el
valor de cero (0)
Si en el lado izquierdo de
una comparación solo hay
un tratamiento, este ya no
participa en otra
comparación.
35. La suma algebraica de los
coeficientes de cada
comparación tiene que ser
igual a cero
La suma algebraica del
producto de los coeficientes
de dos comparaciones
debe ser igual a cero.
36.
37. T1. Precoz resistente.
T2. Precoz susceptible.
T3. Tardía resistente.
T4. Tardía susceptible.
COMPARACIONES T1 T2 T3 T4
T1T2 VS T3T4 -1 -1 +1 +1
T1 VS T2 -1 +1 0 0
T3 VS T4 0 0 -1 +1
38. Los polinomios ortogonales se utilizan cuando se tiene
un conjunto de tratamientos cuantitativos y nos
interesa saber la tendencia de la respuesta
40. Cuando los tratamientos están igualmente espaciados,
los coeficientes de los tratamientos de los contrastes
SE ENCUENTRAN ESTABLECIDOS EN TABLAS
41.
42.
43.
44.
45. Se realizó un experimento con un diseño de bloques al
azar, con el objetivo de comparar 4 normas de riego en
plátano fruta, clon “Cavendish gigante”.
Las normas fueron:
T1: 20 mm semanales
T2: 40 mm semanales
T3: 60 mm semanales
T4: 80 mm semanales
46.
47.
48. Si los resultados muestran que los efectos (lineal,
cuadrático, cúbico, etc.) son altamente significativos,
los datos se pueden ajustar al modelo de regresión:
49. En general en los procesos experimentales, la mayoría
de las variables tienen una distribución normal, sin
embargo existen algunas variables que no se
distribuyen normalmente, pues poseen otro tipo de
distribución, como la Binomial, Poisson, Multinomial
entre otras.
50. Si no tiene una distribución normal deben llevar a
cabo transformaciones para acercar dichos datos a
una distribución normal.
52. Que va a depender del tipo de variable en estudio.
53. Se utiliza para variables que se expresan en contajes
(números dígitos)
Ejemplo:
Conteo de frutos,
Conteo de insectos en campos bien tratados
Conteo de pústulas
Conteo de malezas
Conteo de esporas
Conteo de colonias, etc.
54. En este caso los datos originales (números dígitos), se
sustituyen por su raíz cuadrado 𝑥.
Cuando hay valores de cero,
se añade 0,5 𝑥 + 0,5
o 1 𝑥 + 1
a todos los datos originales antes de sacar la raíz
cuadrada.
55. Se utiliza para variables que se expresan en porcentaje
(%), resultado de la apreciación subjetiva del
investigador, sobre todo cuando los datos son muy
pequeños y muy grandes.
Ejemplo:
Porcentaje de infección de roya
Porcentaje de infestación de trips
Porcentaje de infestación de malezas
56. Se utiliza para variables que se expresan en contajes,
en los casos donde existen diferencias muy grandes
entre los diferentes valores de los tratamientos.
Por ejemplo se pueden encontrar unos pocos insectos
en una parcela tratada con una sustancia efectiva
(valores expresados en unidades o decenas), mientras
que en otras no tratadas la cantidad de insectos
pueden alcanzar valores muy grandes (valores
expresados en miles o millones).
57. Transformaciones para un campo grande de variación
en los datos
X ' = log.X (sin valores cero)
X '= log(X +1) (con valores de cero)