2. EXPERIMENTO: es un procedimiento llevado a cabo para apoyar, refutar,
o validar una hipótesis. Los experimentos proporcionan idea sobre causa-
y-efecto por la demostración de qué resultado ocurre cuándo un factor
particular es manipulado. Los experimentos varían mucho en objetivo y
escala, pero se apoyan en la repetición de procedimientos y análisis
lógico de los resultados. Allí también existen estudios experimentales
naturales.
3. EXPERIMENTACIÓN
Tiene por objeto comprobar en la
práctica, una hipótesis formulada
sobre el valor de un
procedimiento, factor o elemento;
generalmente se usa un “testigo”
o “control”, que constituye el
individuo o parcela experimental,
que no recibe el tratamiento cuyo
efecto se desea medir.
4. En investigaciones con animales, se puede probar balanceados, sistemas
de pastoreo, carga animal, tipos de vacuna, uso de vitaminas, minerales,
etc. En tales casos, se forman varios grupos de animales, tan
homogéneos como sea posible. Para la formación de grupos se debe
tener en cuenta aspectos como edad, peso, sexo, etc.
Mientras a varios grupos se administra diferentes dosis de vitaminas, por
ejemplo, un grupo testigo no las recibe; el análisis estadístico dará
información cómo el incremento de peso, altura, precocidad de los
animales que recibieron la vitamina, frente a los que no la recibieron.
Se ha definido el concepto de experimento como el conjunto de reglas
usadas para sacar la muestra de la población y una vez concluido el
ensayo, obtener información sobre la población.
5. En ocasiones en que no es posible o conveniente realizar un censo
(analizar a todos los elementos de una población), se selecciona una
muestra, entendiendo por tal una parte representativa de la población.
MUESTREO
El muestreo es por lo tanto una herramienta de la investigación científica,
cuya función básica es determinar que parte de una población debe
examinarse, con la finalidad de hacer inferencias sobre dicha población
La muestra debe lograr una representación adecuada de la población, en
la que se reproduzca de la mejor manera los rasgos esenciales de dicha
población que son importantes para la investigación. Para que una muestra
sea representativa, y por lo tanto útil, debe de reflejar las similitudes y
diferencias encontradas en la población, es decir ejemplificar las
características de ésta.
6. TIPOS DE MUESTREO
Existen diferentes criterios de clasificación de los diferentes tipos de
muestreo, aunque en general pueden dividirse en dos grandes
grupos: métodos de muestreo probabilísticos y métodos de muestreo
no probabilísticos
Muestreo probabilístico
Los métodos de muestreo probabilísticos son aquellos que se basan
en el principio de equiprobabilidad. Es decir, aquellos en los que
todos los individuos tienen la misma probabilidad de ser elegidos
para formar parte de una muestra y, consiguientemente, todas las
posibles muestras de tamaño n tienen la misma probabilidad de ser
seleccionadas. Sólo estos métodos de muestreo probabilísticos nos
aseguran la representatividad de la muestra extraída y son, por tanto,
los más recomendables. Dentro de los métodos de muestreo
probabilísticos encontramos los siguientes tipos:
7. El procedimiento empleado es el siguiente: 1) se asigna un número a
cada individuo de la población y 2) a través de algún medio mecánico
(bolas dentro de una bolsa, tablas de números aleatorios, números
aleatorios generados con una calculadora u ordenador, etc.) se eligen
tantos sujetos como sea necesario para completar el tamaño de
muestra requerido.
Este procedimiento, atractivo por su simpleza, tiene poca o nula
utilidad práctica cuando la población que estamos manejando es muy
grande.
Muestreo aleatorio simple
8. Este procedimiento exige, como el anterior, numerar todos los elementos de
la población, pero en lugar de extraer n números aleatorios sólo se extrae
uno. Se parte de ese número aleatorio i, que es un número elegido al azar,
y los elementos que integran la muestra son los que ocupa los lugares i,
i+k, i+2k, i+3k,...,i+(n-1)k, es decir se toman los individuos de k en k, siendo
k el resultado de dividir el tamaño de la población entre el tamaño de la
muestra: k= N/n. El número i que empleamos como punto de partida será
un número al azar entre 1 y k.
Muestreo aleatorio sistemático
9. El riesgo este tipo de muestreo está en los casos en que se dan periodicidades
en la población ya que al elegir a los miembros de la muestra con una
periodicidad constante (k) podemos introducir una homogeneidad que no se da
en la población. Imaginemos que estamos seleccionando una muestra sobre
listas de 10 individuos en los que los 5 primeros son varones y los 5 últimos
mujeres, si empleamos un muestreo aleatorio sistemático con k=10 siempre
seleccionaríamos o sólo hombres o sólo mujeres, no podría haber una
representación de los dos sexos.
10. Trata de obviar las dificultades que presentan los anteriores ya que
simplifican los procesos y suelen reducir el error muestral para un
tamaño dado de la muestra. Consiste en considerar categorías
típicas diferentes entre sí (estratos) que poseen gran homogeneidad
respecto a alguna característica (se puede estratificar, por ejemplo,
según la profesión, el municipio de residencia, el sexo, el estado civil,
etc.).
Muestreo aleatorio estratificado
Lo que se pretende con este tipo de muestreo es asegurarse de que
todos los estratos de interés estarán representados adecuadamente
en la muestra. Cada estrato funciona independientemente, pudiendo
aplicarse dentro de ellos el muestreo aleatorio simple o el
estratificado para elegir los elementos concretos que formarán parte
de la muestra. En ocasiones las dificultades que plantean son
demasiado grandes, pues exige un conocimiento detallado de la
población. (Tamaño geográfico, sexos, edades,...).
11.
12. A veces, para estudios exploratorios, el muestreo probabilístico resulta
excesivamente costoso y se acude a métodos no probabilísticos, aun siendo
conscientes de que no sirven para realizar generalizaciones (estimaciones
inferenciales sobre la población), pues no se tiene certeza de que la muestra
extraída sea representativa, ya que no todos los sujetos de la población tienen
la misma probabilidad de se elegidos. En general se seleccionan a los sujetos
siguiendo determinados criterios procurando, en la medida de lo posible, que la
muestra sea representativa.
Muestreo no probabilístico
En algunas circunstancias los métodos estadísticos y epidemiológicos permiten
resolver los problemas de representatividad aun en situaciones de muestreo no
probabilístico, por ejemplo los estudios de caso-control, donde los casos no son
seleccionados aleatoriamente de la población. Entre los métodos de muestreo
no probabilísticos más utilizados en investigación encontramos:
13. También denominado en ocasiones "accidental". Se asienta generalmente
sobre la base de un buen conocimiento de los estratos de la población y/o de
los individuos más "representativos" o "adecuados" para los fines de la
investigación. Mantiene, por tanto, semejanzas con el muestreo aleatorio
estratificado, pero no tiene el carácter de aleatoriedad de aquél.
Muestreo por cuotas
Este tipo de muestreo se caracteriza por un esfuerzo deliberado de
obtener muestras "representativas" mediante la inclusión en la
muestra de grupos supuestamente típicos. Es muy frecuente su
utilización en sondeos preelectorales de zonas que en anteriores
votaciones han marcado tendencias de voto.
Muestreo intencional o de conveniencia
14. Se localiza a algunos individuos, los cuales conducen a otros, y estos
a otros, y así hasta conseguir una muestra suficiente. Este tipo se
emplea muy frecuentemente cuando se hacen estudios con
poblaciones "marginales", delincuentes, sectas, determinados tipos
de enfermos, etc.
Muestreo Bola de nieve
15. n= Tamaño de la muestra buscado
N= Tamaño de la población
Z= Parámetro estadístico que depende del nivel de confianza (NC)
e= Error de estimación
p= Probabilidad de que ocurra el evento estudiado (éxito)
q= Probabilidad de que no ocurra el evento estudiado (fracaso)
Cálculo del Tamaño de la muestra
16. Nivel de confianza
Calcular el tamaño de la muestra para una población de 500
Consumidores de carne de (Bos indicus) donde el investigador
asigna un nivel de confianza del 95% y un margen de error de 5%
donde se desconoce la probabilidad del evento
17. Calcular el tamaño de la muestra para una población de 500
Consumidores de carne de (Bos indicus) donde el investigador
asigna un nivel de confianza del 95% y un margen de error de 5%
donde se desconoce la probabilidad del evento
18. EXPERIMENTACIÓN
Tiene por objeto comprobar en la práctica, una hipótesis formulada sobre
el valor de un procedimiento, factor o elemento; generalmente se usa un
“testigo” o “control”, que constituye el individuo o parcela experimental,
que no recibe el tratamiento, cuyo efecto se desea medir.
Con qué se
experimenta?
Balanceados
Sistemas de producción
Carga animal
Vacunas
Uso de vitaminas
19. Fases de la experimentación
Todo investigador tiene una lista táctica de pasos a seguir cuando diseña
un ensayo. En general, estos pasos coinciden con las diferentes etapas
mencionadas al describir el método científico.
Estas etapas son:
Enunciado del problema
Formulación de la o las hipótesis
Selección del procedimiento experimental y del diseño
Ejecución del experimento
Aplicación de los procedimientos estadísticos a los resultados
Interpretación de los resultados
Análisis económico de los mismos, a fin de valorar la conveniencia
práctica de adoptar el tratamiento cuya superioridad ha sido demostrada
por el experimento.
Obtención de conclusiones y recomendaciones
Publicación de los resultados.
20. Clases de experimentos
Básicamente existen cuatro tipos de experimentos: Preliminares,
críticos, demostrativos y ensayos regionales.
CLASES DE EXPERIMENTOS
El investigador
comienza con
muchos
tratamientos,
va depurando
según la curva
de respuesta.
Se detecta
diferencias
más pequeñas
entre
tratamientos
Trata demostrar
a un grupo de
personas lo
investigado,
ventajas,
recomendaciones
Se hacen para
confirmar los
resultados
obtenidos
previamente.
Factores climáticos
de Ecuador son
variantes
Preliminares Críticos Demostrativos Ensayos regionales
21. Tratamientos
Conjunto de Condiciones experimentales, procedimientos o variables, que
serán impuesta a una unidad experimental en un diseño elegido. ¿Qué es
lo que se quiere evaluar?
Selección de tratamientos
La selección de los tratamientos tiene una importancia decisiva en la
precisión de un experimento. Se puede incrementar el grado de precisión,
al probar más de una variable, en lugar de diseñar un ensayo para cada
variable.
Por ejemplo, si tratamos de introducir 5 nuevos cruce de vacas a una
localidad (prueba de adaptación y rendimientos), se puede añadir la
variable valor proteico de la leche, con lo que no solamente se obtiene
doble información dentro del mismo experimento sino que se aumenta el
grado de precisión, al disponer de mayor número de grados de libertad
para el error.
22. Unidad Experimental
La unidad puede ser una parcela de terreno, un animal, un árbol, una
maceta, un lote de semilla, etc. Es la unidad material a la cual se aplica
tratamientos dentro de una repetición o bloque del ensayo
Error experimental
Es la variación que resulta de las Unidades Experimentales que reciben el
mismo tratamiento.
=
𝐱 − ഥ
𝒙 𝟐
𝒏 − 𝟏
𝑺𝟐
Varianza
23. El Error Experimental resulta de la variación inherente de las U.E., los
tratamientos evaluados y la variación introducida en el manejo
A pesar que el Error Experimental es un componente necesario de los
análisis estadísticos, debe ser lo mas bajo posible
Un Error Experimental muy elevado encubre el efecto de los tratamientos
y nos impide encontrar diferencias entre los efectos evaluados y también
nos puede llevar a conclusiones erradas
Para reducir el error experimental es necesario tener bloques compactos
y parcelas largas y angostas, aumentar el número de repeticiones y
disminuir el tamaño de las parcelas teniendo en cuenta el “efecto de
borde”
24. Repeticiones
Se llama repetición, replicación o reproducción, al
conjunto básico de tratamientos dentro del
ensayo, lo que, experimentación agrícola van uno
al lado del otro en el terreno, formando un
“bloque” más o menos compacto
Las principales razones por las cuales es
deseable la repetición son: Primero por que
proporciona una estimación del error
experimental, siendo tal estimación confiable a
medida que aumenta el número de repeticiones,
y segundo permite estimaciones más precisas
del tratamiento en estudio.
25.
26.
27. Análisis de Varianza (ANOVA)
El análisis de la varianza permite contrastar la hipótesis nula de que las
medias de K poblaciones (K >2) son iguales, frente a la hipótesis alternativa
de que por lo menos una de las poblaciones difiere de las demás en cuanto a
su valor esperado. Este contraste es fundamental en el análisis de resultados
experimentales, en los que interesa comparar los resultados de K
'tratamientos' o 'factores' con respecto a la variable dependiente o de interés.
El análisis de la varianza ANOVA La varianza total se descompone en la
varianza de los tratamientos y la varianza del error.
El objetivo es determinar si existe una diferencia entre los tratamientos, para
los cual se compara la varianza del tratamiento contra la varianza del error y se
determina si la primera es lo suficientemente alta según la distribución de F
28. Análisis de Varianza (Analysis Of Variance - ANOVA)
El análisis de la varianza se utiliza en muchas ciencias, permite determinar si
existen diferencias significativas entre las medias de dos o más poblaciones o
muestras
Sirve para encontrar relación de causalidad entre una variable independiente
(factor de estudio) y una variable dependiente (variable respuesta)
Supuestos del ANOVA
Los datos poblacionales o muestrales obtenidos deben cumplir los siguientes
criterios:
Ajuste a una distribución de probabilidad normal: Prueba de
normalidad
Varianza de los tratamientos iguales: prueba de homocedasticidad
Las muestras deben ser independientes: prueba de independencia
30. Análisis de Varianza (ANOVA)
Para un nivel de significancia Prefijado α se
rechaza H0 si F0 > F α, K-1,N-1 o también se
rechaza H0 si el valor p < α
31. Se consideran para comparar dos o más
tratamientos.
Diseño completamente al azar (DCA)
Es el más simple de este tipo de diseños.
Solo consideran dos fuentes de variabilidad:
los tratamientos y el error aleatorio.
Se llama completamente al azar porque las
corridas experimentales (Pruebas) se realizan
en orden aleatorio
Solo consideran un factor que afecta a la
variable de respuesta
CORREGIR ESTO
32. Modelo del Diseño
Variable respuesta de la ij-ésima unidad experimental
Media general de la variable respuesta
Efecto de i-ésimo tratamiento (nivel del factor)
Error experimental asociado a la ij-ésima unidad experimental
33. Diseño de bloques completamente al azar (DBCA)
Conocido como diseño de doble vía, se aplica cuando el material es
heterogéneo
El diseño de Bloques Completos al Azar
(DBCA) es uno de los diseños
experimentales que tienen mayores
aplicaciones en la investigación
agronómica.
Este diseño es especialmente útil, para
experimentos de campo en donde no es
muy alto el numero de tratamientos que
se evalúan y el área experimental sigue
un gradiente de productividad predecible
34. Características generales
La principal característica que distingue a este diseño es la presencia de
bloques o franjas de igual tamaño, conteniendo a cada uno de los
tratamientos que se ensayan
La formación de bloques reduce el error experimental eliminando la
contribución de fuentes de variación conocidas sobre las unidades
experimentales.
36. Diseño en Cuadrado Latinos
En el diseño en cuadrado latino (DCL) la restricción para controlar la
variabilidad, está en dos direcciones: filas y columnas, por lo que se tienen
cuatro fuentes de variabilidad que pueden afectar la respuesta observada,
éstas son: los tratamientos, el factor de bloque 1 (Columnas), el factor de
bloque 2(filas) y el error aleatorio.
Se le llama cuadro latino, en
primer lugar, porque los factores
involucrados se prueban en la
misma cantidad de niveles, y en
segundo lugar es latino porque se
utilizan letras latinas para denotar
a los tratamientos o niveles del
factor de interés.
38. Diseño con Arreglo factorial
Un experimento factorial completo es un experimento cuyo diseño consta de
dos o más factores, cada uno de los cuales con distintos valores o niveles,
cuyas unidades experimentales cubren todas las posibles combinaciones de
esos niveles en todos los factores. Este tipo de experimentos permiten el
estudio del efecto de cada factor sobre la variable respuesta, así como el efecto
de las interacciones entre factores sobre dicha variable.
Planteamiento de Hipótesis
39. Modelo del Diseño Representa a la variable respuesta o dependiente
Representa a la media general de la variable respuesta
Representa al factor 1
Representa al factor 2
Representa la interacción de los factores 1 y 2
Representa al error experimental
40. Modelo del Diseño
Representa a la variable respuesta o dependiente
Representa a la media general de la variable respuesta
Representa al factor 1
Representa al factor 2
Representa la interacción de los factores 1 y 2
Representa al error experimental
Representa al factor 3
Representa la interacción de los factores 1 y 3
Representa la interacción de los factores 2 y 3
Representa la interacción de los factores 1, 2 y 3
42. Diseño en Parcelas Divididas
El arreglo en parcelas divididas clásico es una extensión del diseño en
bloques, donde las parcelas del bloque (parcelas principales) son
divididas en subparcelas.
Un conjunto de
tratamientos son
asignados a las parejas
principales y las
subparcelas reciben un
segundo conjunto de
tratamientos.
43. También se emplean en experimentos factoriales en las que las condiciones del
material experimental, o las operaciones experimentales contempladas
dificultan el manejo de toda la combinación de factores.
Involucra la asignación de tratamientos de un fator a parcelas principales o
parcelas grandes, las cuales se disponen en diseños experimentales clásicos.
Los tratamientos del
segundo factor
(generalmente niveles), se
asignan a subparcelas que
se aleatorizan dentro de la
parcela principal.
44. En el diseño en parcelas divididas se distinguen dos errores ya que los distintos
conjuntos de tratamientos son asignados a parcelas de distinto tamaño.
Error tipo I
Error tipo II
En estadística se define como el rechazo de la hipótesis nula cuando esta es,
en realidad, cierta. Al error de tipo 1 se le conoce también como falso positivo
o error de tipo alfa.
También llamado error de tipo beta (β) (β es la probabilidad de que exista este
error) o falso negativo, se comete cuando el investigador no rechaza la
hipótesis nula siendo esta falsa en la población.
45. Comparaciones múltiples de medias
Al estudiar el comportamiento de los tratamientos de un factor, mediante un
análisis de la varianza, el único objetivo es saber si, globalmente, dichos
tratamientos difieren significativamente entre sí. Ahora estamos interesados, una
vez aceptada la existencia de diferencias entre los efectos del factor, en conocer
qué tratamientos concretos producen mayor efecto o cuáles son los tratamientos
diferentes entre sí. En estas misma condiciones, puede ser útil también realizar
comparaciones adicionales entre grupos de medias de los tratamientos.
46. Conceptos previos
El intervalo de confianza describe la variabilidad entre la medida obtenida en un
estudio y la medida real de la población (el valor real). Corresponde a un rango de
valores, cuya distribución es normal y en el cual se encuentra, con alta probabilidad,
el valor real de una determinada variable. Esta «alta probabilidad» se ha establecido
por consenso en 95%. Así, un intervalo de confianza de 95% nos indica que dentro
del rango dado se encuentra el valor real de un parámetro con 95% de certeza.
Intervalos de confianza
Error tipo I
Error tipo II
También llamado error de tipo beta (β) (β es la probabilidad de que exista este
error) o falso negativo, se comete cuando el investigador no rechaza la
hipótesis nula siendo esta falsa en la población.
En estadística se define como el rechazo de la hipótesis nula cuando esta es,
en realidad, cierta. Al error de tipo 1 se le conoce también como falso positivo
o error de tipo alfa.
47. Método de Fisher (MDS, LSD)
El procedimiento clásico para el análisis de comparaciones por pares fue el de
Fisher, conocido como método de la mínima diferencia significativa, MDS, y
consta de un conjunto de pruebas t entre pares de medias, Las pruebas de
comparaciones por pares tienen los mismos supuestos requeridos en el ANOVA:
normalidad de las poblaciones y homogeneidad de varianzas
48. El ANOVA estándar generalmente al 5%. Si no se rechaza H0, el proceso
termina y se concluye que no hay suficiente evidencia en los datos para
sustentar diferencias entre medias poblaciones
Si se rechaza H0, el segundo paso consiste en aplicar la prueba t de
diferencia de medias a cada par de medias con el mismo α del ANOVA.
Si la prueba t es no significativa, las dos medias se asignarán a un mismo grupo;
si es significativa, estas se ubicarán en grupos diferentes. Mediante este proceso
se logra una agrupación de medias que proporciona información rápida y
completa.
Método de Fisher (MDS, LSD)
50. Método de Duncan
La nueva prueba de rango múltiple de Duncan es un procedimiento de
comparación múltiple desarrollado por David B. Duncan en 1955
Se ordenan las medias y se prepara una tabla de diferencias de medias de
modo que se forme un arreglo triangular
Se calculan rangos críticos estudentizados según el número de medias
incluidas en el grupo de comparación, de aquí que se le llama prueba de
rango múltiple
Otro método de comparaciones por pares es el del rango múltiple de Duncan,
RMD. Es un método que proporciona mejor potencia que los anteriores, pero no
protege al investigador con respecto a la probabilidad de error de tipo I
51.
52. PRUEBA DE TUKEY
John Wilder Tukey (16 de junio de 1915 - 26 de julio de 2000).
Estadístico estadounidense nacido en New Bedford,
Massachusetts, conocido entre otras cosas por el desarrollo de la
FFT (Fast Fourier Transform, que es un algoritmo para el cómputo
de la DFT o Discrete Fourier Transform), así como el Diagrama de
la caja y bigotes, o Box plot. Obtuvo su doctorado Ph.D. en
topología, campo en el que también obtuvo renombre. Fue un niño
prodigio que a los tres años ya había aprendido a leer por su
cuenta.
Tukey acuñó muchos términos estadísticos que ahora son de uso común, pero las dos
palabras más famosas inventadas por él están relacionadas con la informática. Mientras
trabajaba con John Von Neumann en los primeros diseños de computadoras, Tukey introdujo la
palabra "bit" como contracción de «Dígito binario» (por sus siglas en inglés Binary Digit).8
Tukey también usó el término "Software de Computación" (Computer Software) en un contexto
computacional en un artículo escrito en 1958, en el American Mathematical Monthly, lo que
aparentemente constituye el primer uso del término.
También fue el creador del no tan conocido "Lines Media-Media", un método más simple para
obtener la línea de regresión.
Fuente: Wikipedia