1. Experimento Puro
UN EXPERIMENTO “PURO”
➢ Un Experimento se hace para analizar si una o más variables independientes
afectan a una o más variables dependientes y por qué lo hacen.
➢ Para que una variable se considere como independiente debe cumplir dos
requisitos: que varíe o sea manipulada y que esta variación pueda controlarse. Aquí,
manipular es sinónimo de hacer variar o asignar distintos valores a la variable
independiente.
➢ La variable dependiente no se manipula, sino que se mide para ver el efecto que la
manipulación de la variable independiente tiene en ella; si existe una relación causal, al
variar la variable independiente varía también la variable dependiente.
La idea es manipular una o más variables independientes para ver sus efectos sobre
una o más variables dependientes.
La variable independiente tiene al menos dos grados de manipulación
(presencia/ausencia). Por cada grado de manipulación hay un grupo seleccionado al
azar. El grupo de control es aquel que no recibe el tratamiento experimental.
Variables independientes se representan con la X.
Variables dependientes se representan con la O de observación porque éstas se
miden.
Los grupos se representan con la G y cuando son seleccionados al azar se les anticipa
una R de random.
El esquema más simple sería: RG1 X O1 (grupo con tratamiento experimental)
RG2 - O2 (grupo de control)
Con pre-prueba RG1 O1 X O3 (grupo con tratamiento experimental)
RG2 O2 - O4 (grupo de control)
2. ¿Cómo se explica la dependencia de las variables?
1. CO VARIACION. Existencia de asociación entre la variable explicativa (VI) y la
explicada (VD).
2. ANTECEDENCIA TEMPORAL de la variable explicativa (VI) .
3. CONTROL de toda otra posible variable explicativa (explicaciones rivales).
R G1 O1 X O 3
R G2 O2 - O4
Co variación
Antecedencia temporal
Descarte de explicaciones rivales (control)
Resultado del experimento:
Si (O1 - O3) = (O2 - O4) VI explica VD
Validez de los diseños experimentales
Validez interna: es la mínima imprescindible sin la cual la asociación de las variables
no puede probarse, y depende de las técnicas de control y manipulación. Es el grado
de certeza en que las diferencias observadas se deben al tratamiento experimental y
no a otras variables.
Validez externa: indica el grado de generalidad de los resultados del experimento a
otras situaciones no experimentales, sujetos o poblaciones.
Los dos tipos de validez son importantes, y si bien sin validez interna no puede haber
validez externa, los dos tipos de validez con frecuencia se contraponen en el sentido
que un tipo de diseño experimental puro favorece la validez interna pero perjudica la
validez externa, o viceversa.
3. FACTORES QUE AMENAZAN LA VALIDEZ INTERNA
Problemas de igualación de los Grupos
- Selección incorrecta de los integrantes de los grupos
Problemas de Medición durante el experimento
- Inestabilidad de los atributos a medir
- Defecto en los instrumentos de medición
- Efecto regresión
Modificación de los grupos durante el experimento
- Historia (contexto)
- Maduración
- Sensibilización por la administración de la prueba
- Mortalidad experimental
- Efectos combinados que llevan a una evolución distinta de los grupos
FACTORES QUE AMENAZAN LA VALIDEZ EXTERNA
INTERACCION DE LAS PRUEBAS cuando un pretest podría aumentar o
disminuir la sensibilidad de o la calidad de la reacción del participante a la
variable experimental, haciendo que los resultados obtenidos para una población
con pretest no fueran representativos de los efectos de la variable experimental
para el conjunto sin pretest del cual se seleccionan los participantes
experimentales.
REACTIVIDAD A DISPOSITIVOS EXPERIMENTALES que impedirían hacer
extensivo el efecto de la variable experimental a las personas expuestas a ella
en una situación no experimental
4. INTERFERENCIAS DE LOS TRATAMIENTOS MULTIPLES que pueden
producirse cuando se aplican tratamientos múltiples a los mismos participantes,
pues suelen persistir los efectos de tratamientos anteriores.
El primer requisito de un experimento puro es la manipulación intencional de una o
más variables independientes. La variable independiente es la que se considera como
supuesta causa en una relación entre variables, es la condición antecedente; y el
efecto provocado por dicha causa se le denomina variable dependiente.
Un experimento se lleva a cabo para analizar si una o más variables independientes
afectan a una o más variables dependientes y porque las afectan.
En un autentico experimento la variable independiente resulta de interés para
investigador porque es la variable que se hipotetiza será una de las causas que
producen el efecto supuesto.
El Segundo requisito es medir el efecto de la variable independiente sobre la variable
dependiente. Es requisito que su medición sea válida y confiable. Porque si no
podemos asegurar que estuvo adecuadamente medida + los resultados no servirán y el
experimento será una pérdida de tiempo.
El tercer requisito es el control o validez interna de la situación experimental.
El termino control tiene diversas connotaciones dentro de la experimentación, sin
embargo su acepción más común se refiere a que si se observo con el experimento
que una o más variantes independientes al ser manipuladas hacen variar a la (s)
dependiente (s) la variación de estas últimas se debe a la manipulación de las
independientes no a otros factores o causas. En términos mas coloquiales tener control
significa saber que está ocurriendo realmente con la relación entre VI, la VD.
Cuando hay control podemos conocer la relación causal, cuando no se logra el control
no se puede conocer dicha relación, no se sabe que está detrás del cuadro negro.
En la estrategia de la investigación experimental el investigador no manipula una
variable solo para comprobar lo que ocurre con la otra, sino que al efectuar un
experimento es necesario realizar una observación controlada.
5. Lograr control en un experimento es controlar la influencia de otras variables extraña
que son de nuestro interés sobre las VD para que así podamos saber realmente si las
VI que nos interesan tienen o no efecto en las VD
Experimentos verdaderos son aquellos que reúnen los requisitos para lograr el control y
la validez interna.
1. Grupos de comparación (manipulación de la variable independiente o de varios
independientes)
2. Equivalencia de los grupos. Los diseños auténticamente experimentales pueden
abarcar una o más variables independiente y una o más dependiente.
Así mismo pueden utilizar prepuebas y pospruebas para analizar la evolución de los
grupos antes y después del tratamiento experimental. Desde luego no todos los
diseños experimentales utilizan prepueblas pero las pospruebas es necesario para
determinar los efectos a las condiciones experimentales.
Ejemplo:
(Sampieri, 2004)
Objetivo: analizar el posible efecto de los contenidos televisivos antisociales sobre la
conducta agresiva de los niños;
Procedimiento: hacer que un grupo de niños vea un programa con contenidos
antisociales y otro grupo de niños vea un programa sin contenidos antisociales
evaluando posteriormente cuál de los grupos muestra mayor conducta agresiva.
Hipótesis: la exposición por parte de los niños a contenidos antisociales tenderá a
provocar un aumento en su conducta agresiva.
TIPOS DE DISEÑO.
1. Diseño con posprueba únicamente y grupo control
Este diseño incluye dos grupos, uno recoge el tratamiento experimental y el otro no
(grupo control); los sujetos se asignan a los grupos de manera aleatoria con el fin de
conformar grupos equivalentes. La manipulación de la variable independiente sólo
alcanza dos niveles: presencia y ausencia.
La medición es posterior al experimento.
6. 2. Diseño con preprueba-posprueba y grupo control
Este diseño incorpora la administración de pre-pruebas a los grupos que componen el
experimento:
Ejemplo: analizar el efecto de videos didácticos para enseñar hábitos higiénicos.
3. Diseño de cuatro grupos de Solomon
Mezcla de los diseños dos anteriores:
Se originan cuatro grupos: dos experimentales y dos de control; los primeros reciben el
mismo tratamiento experimental y los segundos no reciben tratamiento; sólo a uno de
los grupos experimentales y a uno de los grupos de control se les administra la pre-
prueba.
A los cuatro grupos se les aplica la posprueba.
4. Diseños experimentales de series cronológicas múltiples
Sirve para analizar efectos en el mediano o largo plazo razón por la cual
se realizan varias pospruebas.
El término “serie cronológica” se aplica a cualquier diseño que efectúe a través del
tiempo varias observaciones o mediciones sobre una variable.
5. Diseños de series cronológicas con repetición del estímulo
En ocasiones, el investigador anticipa que el tratamiento o estímulo experimental no
tiene efecto o es mínimo si se aplica una sola vez; en estos casos es posible repetir el
tratamiento experimental y administrar una posprueba después de cada aplicación para
evaluar el efecto de cada una de éstas aplicaciones.
Ejemplo: analizar los efectos que un comercial televisivo tiene en los consumidores.
6. Diseño con tratamientos múltiples
Sirve para analizar el efecto de aplicar los diversos tratamientos experimentales a todos
los sujetos (tratamientos múltiples); la aplicación de tratamientos puede ser individual o
en grupo y hay distintas variaciones.
Ejemplo: evaluar el efecto de diferentes tipos de abordaje terapéutico para las fobias
sociales (tratamiento individual, grupal, farmacológico, etc.).
Varios grupos: se tienen varios grupos a los cuales se asignan los sujetos al
azar; a cada grupo se le aplican todos los tratamientos; la secuencia de la
aplicación de tratamiento puede o no ser la misma para todos los grupos y es
posible administrar una o más pospruebas a los grupos.
7. Un solo grupo
7. Diseños factoriales
Los diseños factoriales manipulan dos o más variables independientes e incluyen dos o
más niveles de presencia en cada una de las variables independientes.