Validez y confiabilidad en la investigación: conceptos y tipos
1. VALIDEZ Y CONFIABILIDAD
Universidad Yacambú
Vicerrectorado de Investigación y Post grado
Instituto de Investigación y Postgrado
Diseño Cuantitativo de Investigación
María Alexandra Meléndez
2. MEDICIÓN
Una medición es el resultado de la acción de medir. Este verbo, con
origen en el término latino metiri, se refiere a la comparación que se
establece entre una cierta cantidad y su correspondiente unidad para
determinar cuántas veces dicha unidad se encuentra contenida en la
cantidad en cuestión.
La medición, en definitiva, consiste en determinar qué proporción existe
entre una dimensión de algún objeto y una cierta unidad de medida. Para
que esto sea posible, el tamaño de lo medido y la unidad escogida tienen
que compartir una misma magnitud.
3. VALIDEZEn relación con el significado de validez es importante señalar lo
expuesto por varios autores, quienes en términos generales coinciden
bastante en su definición.
Manheim y
Rich
• "Validez es el término que nosotros usamos para referirnos al
alcance en el cual nuestras medidas corresponden a los
conceptos que ellas están tratando de reflejar".
Alreck y
Settle
• "Una encuesta es válida en el grado de que ella mida lo que y
sólo que se supone debe medir. Para ser válida ella no debe ser
afectada por factores extraños que sistemáticamente empujan o
presionan el resultado en una particular dirección".
Sampieri y
otros
• "La validez, en términos generales, se refiere al grado en que un
instrumento mide la variable que pretende medir……….La
validez es una cuestión más compleja que debe alcanzarse en
todo instrumento de medición que se aplica".
4. 1. VALIDEZ DE CONTENIDO. Este tipo de validez se refiere a la
relevancia del contenido del test, a la representatividad de los ítems que
lo componen, respecto a la totalidad del campo o rasgo objeto de
evaluación. Un test tendrá validez de contenido si el conjunto de
preguntas en él incluido constituye una muestra suficientemente extensa
y representativa del rango al que hacen referencia.
2. VALIDEZ REFERIDA A UN CRITERIO EXTERNO. Se refiere a
la correlación existente entre un test y un criterio externo al mismo,
como puede ser otro test. Puede ser de dos clases
Validez concurrente. Indica hasta qué punto las puntuaciones
en un test correlacionan con una variable criterio, que generalmente es
otro test que evalúa lo mismo. La validez se obtiene averiguando la
correlación de Pearson entre las puntuaciones de ambos test. Grado de
relación entre dos instrumentos diferentes que miden el mismo concepto
y que se administran a la misma vez.
TIPOS DE VALIDEZ
5. Validez predictiva. La correlación se observa en los resultados
obtenidos en un test aplicado con anterioridad. El índice de validez viene
expresado por la regresión de la puntuación predicha sobre la variable
criterio. Grado de correlación entre un instrumento que mide el concepto
y un evento que operacionaliza el mismo en el futuro.
3. VALIDEZ DE CONSTRUCTO. Se refiere a que si el test evalúa
realmente el rasgo que pretende evaluar. La validez de constructo hace
referencia al grado de concordancia entre los resultados obtenidos al
aplicar un test y los planteamientos o hipótesis teóricas existentes sobre
el campo o rasgo evaluado.
TIPOS DE VALIDEZ
6. CONFIABILIDAD
Se refiere al grado en que su aplicación de un instrumento repetida al mismo
sujeto producen guales resultados” Hernández,
Fernández y Bastita (1998) “(p.21) Se refiere a la consistencia de los
resultados. En el análisis de la confiabilidad se busca que los resultados de un
cuestionario concuerden con los resultados del cuestionario en otra ocasión.
Menéndez (2009) Se refiere al grado en que su aplicación repetida al mismo
sujeto u objeto produce iguales resultados.
7. CONFIABILIDAD
Existen diversos procedimientos para calcular la confiabilidad de un
instrumento de medición. Todos utilizan fórmulas que producen coeficientes
de confiabilidad. Estos coeficientes pueden oscilar entre O y 1. Donde un
coeficiente de O significa nula confiabilidad y 1 representa un máximo de
confiabilidad (confiabilidad total).
8. CONFIABILIDAD
Los procedimientos más utilizados para determinar la confiabilidad mediante
un coeficiente son:
Medida de estabilidad (confiabilidad por test-retest).
En este procedimiento un mismo instrumento de medición (o ítems o indicadores) es
aplicado dos o más veces a un mismo grupo de personas, después de un periodo de
tiempo. Si la correlación entre los resultados de las diferentes aplicaciones es
altamente positiva, el instrumento se considera confiable. Se trata de una especie de
diseño panel. Desde luego, el periodo de tiempo entre las mediciones es un factor a
considerar. Si el periodo es largo y la variable susceptible de cambios, ello puede
confundir la interpretación del coeficiente de confiabilidad obtenido por este
procedimiento. Y si el periodo es corto las personas pueden recordar cómo
contestaron en la primera aplicación del instrumento, para aparecer como más
consistentes de lo que son en realidad (Bohrnstedt, 1976).
9. CONFIABILIDAD
Los procedimientos más utilizados para determinar la confiabilidad mediante
un coeficiente son:
Método de formas alternativas o paralelas.
En este procedimiento no se administra el mismo instrumento de
medición, sino dos o más versiones equivalentes de éste. Las
versiones son similares en contenido, instrucciones, duración y otras
características. Las versiones —generalmente dos— son admi-
nistradas a un mismo grupo de personas dentro de un periodo de
tiempo relativamente corto. El instrumento es confiable si la
correlación entre los resultados de ambas administraciones es
significativamente positiva. Los patrones de respuesta deben variar
poco entre las aplicaciones.
10. CONFIABILIDADLos procedimientos más utilizados para determinar la confiabilidad mediante
un coeficiente son:
Método de mitades partidas (split-halves).
Los procedimientos anteriores (medida de estabilidad y método de formas
alternas), requieren cuando menos dos administraciones de la medición en
el mismo grupo de individuos. En cambio, el método de mitades-partidas
requiere sólo una aplicación de la medición. Específicamente, el conjunto
total de ítems (o componentes) es dividido en dos mitades y las
puntuaciones o resultados de ambas son comparados. Si el instrumento es
confiable, las puntuaciones de ambas mitades deben estar fuertemente
correlacionadas. Un individuo con baja puntuación en una mitad, tenderá a
tener también una baja puntuación en la otra mitad. El procedimiento se
diagrama en la figura 9.5.
11. CONFIABILIDADLos procedimientos más utilizados para determinar la confiabilidad mediante
un coeficiente son:
Método de mitades partidas (split-halves).
La confiabilidad varía de acuerdo al número de ítems que incluya el instrumento de
medición. Cuantos más ítems la confiabilidad aumenta (desde luego, que se refieran a
la misma variable). Esto resulta lógico, veámoslo con un ejemplo cotidiano: Si se desea
probar qué tan confiable o consistente es la lealtad de un amigo hacia nuestra persona,
cuantas más pruebas le pongamos, su confiabilidad será mayor. Claro está que
demasiados ítems provocarán cansancio en el respondiente.
12. CONFIABILIDAD
Los procedimientos más utilizados para determinar la confiabilidad mediante
un coeficiente son:
Coeficiente alfa de Cronbach.
Este coeficiente desarrollado por J. L. Cronbach requiere una sola
administración del instrumento de medición y produce valores que oscilan
entre O y 1. Su ventaja reside en que no es necesario dividir en dos mitades a
los ítems del instrumento de medición, simplemente se aplica la medición y se
calcula el coeficiente.
Coeficiente KR-20.
Kuder y Richardson (1937) desarrollaron un coeficiente para estimar la
confiabilidad de una medición, su interpretación es la misma que la del
coeficiente alfa.