1. Universidad Yacambu
Maestría en Gerencia de Finanzas
y Negocios
Diseño Cuantitativos de
Investigación
Integrantes:
- Eduardo Elcock
- Grey Da Silva
2. - Es un proceso que compara un patrón seleccionado con el objeto o
fenómeno cuya magnitud física se desea medir
- Es un acto para determinar la magnitud de un objeto en cuanto a
cantidad.
- Es un acto para comparar la cantidad desconocida que queremos
determinar y una cantidad conocida de la misma magnitud, que
elegimos como unidad. Al resultado de medir se le denomina medida
- Estatura
- Velocidad
- Tiempo
- Cantidad (unidades)
- Temperatura
- etc.
Qué es medir?
En nuestra vida diaria
hemos medido:
¡Eso es medir, comparar!
3. La validez abarca el concepto
experimental entero y
establece si los resultados
obtenidos cumplen todos los
requisitos del método de la
investigación científica o no.
Por ejemplo, debe haber
existido una aleatorización de
los grupos de muestra y un
cuidado y diligencia
apropiados respecto de la
asignación de los controles.
Validez
Externa
“Cualquier investigación puede verse afectada por diferentes
tipos de factores que, aunque sean ajenos a las cuestiones de
la investigación, pueden invalidar los resultados"
De Población
Ecológica
Interna
Por causa-
Efecto
De la Prueba
Criterio
Concurrente
Predictiva
Contenido
Constructo
Convergente
Discriminante
4. Validez Externa
Población Ecológica
Se relaciona con la generalización: ¿hasta qué punto
un efecto en la investigación puede ser generalizado
a poblaciones, configuraciones, variables de
tratamiento y variables de medición?
Validez Interna
Describe en qué grado se
puede extrapolar a toda una
población la muestra utilizada
Analiza el entorno de prueba y
determina cuánto influye en el
comportamiento
Es una medida que asegura que el diseño de un experimento de un investigador es bastante fiel
al principio de causa y efecto. "¿Puede existir otra causa, o causas, que expliquen mis
observaciones y resultados?"
Aunque tus resultados sean excelentes, un diseño descuidado e inconsistente comprometerá tu
integridad a los ojos de la comunidad científica. La validez interna y la fiabilidad son el núcleo de
cualquier diseño experimental.
5. Criterio
Validez De la Prueba
La validez de criterio evalúa si una prueba refleja un cierto conjunto de habilidades o no. Para medir el criterio de validez de
una prueba, los investigadores deben compararlo con un estándar conocido o con él mismo
Concurrente
Predictiva
La validez concurrente mide la prueba respecto de una prueba de referencia. Una correlación alta
indica que la prueba tiene una validez de criterio fuerte.
Es una medida que determina qué tan bien predice habilidades una prueba. Se trata de probar un grupo de
sujetos para una construcción determinada y luego compararlos con los resultados obtenidos en algún
momento del futuro
Constructo
Define si una prueba o experimento está a la altura de sus pretensiones o no. Se refiere a si la definición operacional de una variable
refleja el significado teórico verdadero de un concepto
Convergente
Discriminante
La validez convergente prueba que los constructos que se espera que estén relacionados de hecho, lo
están
La validez discriminante (o validez divergente) prueba que los constructos que no deberían tener
ninguna relación de hecho, no la tienen
Contenido Llamada la validez lógica o racional, determina en qué grado una medida representa a cada elemento de un constructo.
6. Se puede definir como la capacidad de un producto de realizar su
función de la manera prevista. De otra forma, la confiabilidad se puede
definir también como la probabilidad en que un producto que realizará
su función prevista sin incidentes por un período de tiempo especificado
y bajo las condiciones indicadas.
8. Test-Retest
Consiste en aplicar repetidas veces el mismo cuestionario a las mismas personas en un espacio de tiempo breve entre una y otra pasación para comprobar el correcto
funcionamiento del cuestionario como instrumento de recogida de información.
Formas paralelas
Este procedimiento es el que se deriva naturalmente del modelo. Requiere que se utilicen dos pruebas o instrumentos paralelos, esto es, que midan lo mismo de forma diferente
(por ejemplo, dos tests que con diferentes preguntas midan un determinado rasgo). Después se comparan los dos tests, calculando el coeficiente de correlación de Pearson. Esta
correlación será, como hemos visto en el apartado anterior, el coeficiente de fiabilidad. Si la correlación es alta, se considera que hay una buena fiabilidad.
Split-halves
Un método utilizado para calibrar la fiabilidad de una prueba; dos series de puntajes se obtienen de la misma prueba, un conjunto de elementos extraños y un conjunto de
artículos, incluso, y las puntuaciones de los dos conjuntos están correlacionados. Como el instrumento real es el doble que los usados en la prueba, el coeficiente de Pearson se
corrige Coeapfliiccanideon lat fóerm Aulal dfea S pdearem an Brown
Cronbach
Es un coeficiente que sirve para medir la fiabilidad de una escala de medida, y cuya denominación Alfa fue realizada por Cronbach en 1951, aunque sus orígenes se encuentran en
los trabajos de Hoyt (1941) y de Guttman (1945).
Coeficiente KR-20
Técnica para el calculo de la confiabilidad de un instrumento aplicable sólo a investigaciones en las que las respuestas a cada ítem sean dicotómicas o binarias, es decir, puedan
codificarse como 1 ó 0.