1. Universidad Yacambú
Vicerrectorado de Investigación y Postgrado
Instituto de Investigación y Postgrado
Maestrías en Finanzas y Negocios
VVaalliiddeezz yy
CCoonnffiiaabbiilliiddaadd
Jhonmer Domínguez C.
MFN-142-00026V
Prof. Leonardo Castillo
2. Medición: ¿en qué consiste?
La medición es un proceso básico de
la ciencia que consiste en comparar un
patrón seleccionado con el objeto o
fenómeno cuya magnitud física se
desea medir para ver cuántas veces el
patrón está contenido en esa
magnitud.
3. Validez. Definición.
La validez abarca el concepto experimental
entero y establece si los resultados obtenidos
cumplen todos los requisitos del método de la
investigación científica o no.
Según Hansen, citado en Pérez Serrano (1998):
“la precisión con que los hallazgos obtenidos
reproducen efectivamente la realidad empírica
y los constructos concebidos caracterizan
realmente la experiencia humana”.
5. Validez de Contenido
Es llamada a veces validez lógica o racional, determina en qué grado
una medida representa a cada elemento de un constructo.
Es considerada un prerrequisito para la validez de criterio, ya que es
un buen indicador de si la característica deseada es medida. Si los
elementos de la prueba son irrelevantes para el constructo principal,
entonces están midiendo algo completamente diferente, creando
un sesgo potencial.
Asimismo, la validez de criterio deriva correlaciones cuantitativas de
las puntuaciones de las pruebas.
La validez de contenido es cualitativa en naturaleza y pregunta si un
determinado elemento agrega o resta valor a una prueba o un
programa de investigación.
6. Validez de Criterio
La validez de criterio evalúa si una prueba refleja un cierto
conjunto de habilidades o no.
Para medir el criterio de validez de una prueba, los
investigadores deben compararlo con un estándar conocido o
con él mismo.
Comparar la prueba con una medida establecida recibe el
nombre de validez concurrente; probarla durante un período de
tiempo se denomina validez predictiva.
No es necesario utilizar ambos métodos. Uno es suficiente si el
diseño experimental es fuerte.
Una de las formas más sencillas de evaluar la validez relacionada
con el criterio es compararla con un estándar conocido.
7. Validez de Constructo
La validez de constructo define si una prueba o experimento
está a la altura de sus pretensiones o no. Se refiere a si la
definición operacional de una variable refleja realmente el
significado teórico verdadero de un concepto.
La forma más sencilla de pensar en ella es como una prueba de
generalización, como la validez externa, pero evalúa si
el experimento se ocupa de la variable que estás probando.
La validez de constructo es un dispositivo utilizado casi
exclusivamente en las ciencias sociales, la psicología y la
educación.
8. Confiabilidad
Se refiere al grado en que el instrumento arroja los resultados
cuando se vuelve a medir la característica en situaciones
similares, dando por hecho que el evento medido no ha
cambiado.
La confiabilidad se refiere a la exactitud de la medición.
La confiabilidad como unidad de probabilidad se expresa en
unidades que varían de cero a uno, en ningún caso podrá ser
negativa. Entre más se aproxime a uno es más confiable el
instrumento, es decir es más preciso en la medición de lo que se
quiere medir.
9. Test-Retest
Con este método el coeficiente de fiabilidad se calcula pasando mismo test dos veces a los
mismos sujetos. Se pueden pasar inmediatamente, o dejando un intervalo de tiempo
entre el test y el retest. Después se calcula la correlación de Pearson entre las
puntuaciones de ambas aplicaciones, y el resultado obtenido será el coeficiente de
fiabilidad. Se considera un caso específico de formas paralelas, dado que evidentemente
un test es paralelo a sí mismo. Al resultado obtenido se le denomina coeficiente de
estabilidad, al servir de indicador de hasta qué punto son estables las mediciones
realizadas durante la primera aplicación del test. Las diferencias en los resultados se
atribuyen al grado de consistencia interna o muestreo de los ítems de la prueba en el caso
de pasar el retest de forma inmediata, y se le suman las fluctuaciones en el tiempo en el
caso del intervalo temporal.
Dejar transcurrir un espacio de tiempo excesivo entre ambas aplicaciones puede suponer una
amenaza a la validez interna por las posibles influencias externas a la que pueden estar
expuestos los sujetos durante el intervalo, y que pueden afectar a su desempeño en la
segunda aplicación.
10. Formas Paralelas
Este procedimiento es el que se deriva naturalmente del modelo. Requiere que se
utilicen dos pruebas o instrumentos paralelos, esto es, que midan lo mismo de forma
diferente. Después se comparan los dos tests, calculando el coeficiente de
correlación de Pearson. Esta correlación será, como hemos visto en el apartado
anterior, el coeficiente de fiabilidad. Si la correlación es alta, se considera que hay
una buena fiabilidad. Al valor obtenido también se le conoce como coeficiente de
equivalencia, en la medida en que supone un indicador del grado de equivalencia
entre las dos formas paralelas de un test.
La dificultad de este procedimiento radica en ccoonnsseegguuiirr qquuee ddooss iinnssttrruummeennttooss sseeaann
rreeaallmmeennttee ""ppaarraalleellooss"", dada la dificultad que supone realizar dos pruebas que midan
exactamente lo mismo, pero con diferentes ítems. No obstante, en condiciones
ideales en las que se pueda garantizar el paralelismo de ambas formas, este es el
método más recomendable.
11. Split-halves
Requiere sólo una aplicación de la medición. Específicamente, el conjunto total de ítems (o
componentes) es dividido en dos mitades y las puntuaciones o resultados de ambas son
comparados. Si el instrumento es confiable, las puntuaciones de ambas mitades deben
estar fuertemente correlacionadas. Un individuo con baja puntuación en una mitad,
tenderá a tener también una baja puntuación en la otra mitad.
El siguiente esquema nos da una idea del proceso del Split-halves
1
2
3
4
5
6
1
3
5
2
4
6
Resultados
(Puntuaciones)
Resultados
(Puntuaciones)
P
C (0 a 1)
P
El instrumento
de medición se
aplica a un
grupo.
Los ítems se dividen
en dos mitades (el
instrumento se
divide en dos).
Cada mitad se califica
independientemente.
Se correlacionan
puntuaciones y se
determina la
confiabilidad.
12. Coeficiente Alfa de Cronbach
El alfa de Cronbach permite cuantificar el nivel de fiabilidad de
una escala de medida para la magnitud inobservable construida
a partir de las n variables observadas.
El alfa de Cronbach no deja de ser una media ponderada de las
correlaciones entre las variables (o ítems) que forman parte de
la escala. Puede calcularse de dos formas: a partir de las
varianzas (Alpha de Cronbach) o de las correlaciones de los
ítems (Alpha de Cronbach estandarizado). Hay que advertir que
ambas fórmulas son versiones de la misma y que pueden
deducirse la una de la otra. El Alpha de Cronbach y el Alpha de
Cronbach estandarizados, coinciden cuando se estandarizan las
variables originales (ítems).
13. Coeficiente KR-20
Es una técnica para el cálculo de la confiabilidad de un instrumento aplicable sólo a
investigaciones en las que las respuestas a cada ítem sean dicotómicas o binarias, es decir,
puedan codificarse como 1 ó 0 (Correcto – incorrecto, presente – ausente, a favor – en
contra, etc.)
La fórmula para calcular la confiabilidad de un instrumento de n ítems o KR20 será:
2 .
st p q
2
*
1 st
r k tt
k
-å
-
=
æ x -
x
ö çèn
st
i å ÷ø
=
__ 2
2
K=número de ítems del instrumento.
p=personas que responden
afirmativamente a cada ítem.
q=personas que responden
negativamente a caca ítem.
St2= varianza total del instrumento
xi=Puntaje total de cada encuestado.