Dr. Gustavo Antonio Huerta Patraca
Doctorado en Tecnologías de Información
Materia: Seminario de Investigación Tecnológica I
2º Semestre
DISEÑO Y VALIDACIÓN DE
INSTRUMENTOS DE RECOLECCIÓN DE
INFORMACIÓN
•Definición
conceptual
•Definición
operacional
Diseño
•De criterio
•De contenido
•De constructo
Validez
•Alfa de Cronbach
•KR-20
Confiabilidad
•Aplicación
•Análisis de datos
•Resultados
Piloteo
 Tipo de instrumento
 Objetivo
 Población
 Definición conceptual de variables (retomar autores y
definición propia)
 Definición operacional de variables (dimensiones, categorías,
indicadores e ítems)
Variables Dimensiones Categorías Indicadores Ítems
 Se retoman definiciones de cada variable a partir de la
revisión de literatura, buscando fuentes primarias y autores
iniciales y de mayor relevancia.
 Se construye una definición personal que retome las
definiciones analizadas.
 Se recomienda ubicar variables conceptualmente ya
existentes. No se definen palabras por separado.
 Se busca a ver observable y medible la variable a partir de los
elementos que la conforman. Puede incluir dimensiones o
categorías ya existentes y emergentes.
 Se concreta en indicadores, es decir, elementos mínimos que
permiten identificar la presencia, ausencia y condición en que
se ubica la variable. Deben ser medibles,
 La validez, en términos generales, se refiere al grado en
que un instrumento mide realmente la variable que
pretende medir. Por ejemplo, un instrumento válido
para medir la inteligencia debe medir la inteligencia y
no la memoria.
 Se divide en validez
◦ De criterio
◦ De contenido
◦ De constructo
 Se refiere al grado en que un instrumento refleja un dominio
específico de contenido de lo que se mide. Es el grado en el
que la medición representa al concepto o variable medida
 El dominio de contenido de una variable normalmente está
definido o establecido por la literatura (teoría y trabajos
antecedentes).
 La validez de criterio de un instrumento de medición se
establece al comparar sus resultados con los de algún criterio
externo que pretende medir lo mismo.
 El principio de la validez de criterio es sencillo: si diferentes
instrumentos o criterios miden el mismo concepto o variable,
deben arrojar resultados similares.
 Puede ser:
 Concurrente (se centra en el presente)
 Predictiva (se centra en el futuro)
 Debe explicar cómo las mediciones del concepto o
variable se vinculan de manera congruente con las
mediciones de otros conceptos correlacionados
teóricamente.
 Constructo o construcción: Variable medida que
tiene lugar dentro de una hipótesis, teoría o modelo
teórico.
 la validez de expertos o face validity, la cual
se refiere al grado en que aparentemente un
instrumento mide la variable en cuestión, de
acuerdo con “voces calificadas”. Se encuentra
vinculada a la validez de contenido
 La confiabilidad de un instrumento de medición se refiere al
grado en que su aplicación repetida al mismo individuo u
objeto produce resultados iguales.
 Por ejemplo, si se midiera en este momento la temperatura
ambiental usando un termómetro y éste indicara que hay
22°C, y un minuto más tarde se consultara otra vez y señalara
5°C, tres minutos después se observara nuevamente y éste
indicara 40°C, dicho termómetro no sería confiable, ya que su
aplicación repetida produce resultados distintos.
 1. Medida de estabilidad (confiabilidad por test-retest).
 2. Método de formas alternativas o paralelas.
 3. Método de mitades partidas (split-halves).
 4. Medidas de coherencia o consistencia interna. Éstos son
coeficientes que estiman la confiabilidad: a) el alfa de
Cronbach y b) los coeficientes KR-20 y KR-21 de Kuder y
Richardson.
1. Primera versión del instrumento
2. Análisis de Validez
3. Piloteo
4. Análisis estadístico para confiabilidad
5. Versión final
6. Selección del tamaño de la muestra
7. Aplicación y análisis de resultados

Diseño y validación de instrumentos DTI

  • 1.
    Dr. Gustavo AntonioHuerta Patraca Doctorado en Tecnologías de Información Materia: Seminario de Investigación Tecnológica I 2º Semestre DISEÑO Y VALIDACIÓN DE INSTRUMENTOS DE RECOLECCIÓN DE INFORMACIÓN
  • 2.
    •Definición conceptual •Definición operacional Diseño •De criterio •De contenido •Deconstructo Validez •Alfa de Cronbach •KR-20 Confiabilidad •Aplicación •Análisis de datos •Resultados Piloteo
  • 3.
     Tipo deinstrumento  Objetivo  Población  Definición conceptual de variables (retomar autores y definición propia)  Definición operacional de variables (dimensiones, categorías, indicadores e ítems) Variables Dimensiones Categorías Indicadores Ítems
  • 4.
     Se retomandefiniciones de cada variable a partir de la revisión de literatura, buscando fuentes primarias y autores iniciales y de mayor relevancia.  Se construye una definición personal que retome las definiciones analizadas.  Se recomienda ubicar variables conceptualmente ya existentes. No se definen palabras por separado.
  • 5.
     Se buscaa ver observable y medible la variable a partir de los elementos que la conforman. Puede incluir dimensiones o categorías ya existentes y emergentes.  Se concreta en indicadores, es decir, elementos mínimos que permiten identificar la presencia, ausencia y condición en que se ubica la variable. Deben ser medibles,
  • 6.
     La validez,en términos generales, se refiere al grado en que un instrumento mide realmente la variable que pretende medir. Por ejemplo, un instrumento válido para medir la inteligencia debe medir la inteligencia y no la memoria.  Se divide en validez ◦ De criterio ◦ De contenido ◦ De constructo
  • 7.
     Se refiereal grado en que un instrumento refleja un dominio específico de contenido de lo que se mide. Es el grado en el que la medición representa al concepto o variable medida  El dominio de contenido de una variable normalmente está definido o establecido por la literatura (teoría y trabajos antecedentes).
  • 8.
     La validezde criterio de un instrumento de medición se establece al comparar sus resultados con los de algún criterio externo que pretende medir lo mismo.  El principio de la validez de criterio es sencillo: si diferentes instrumentos o criterios miden el mismo concepto o variable, deben arrojar resultados similares.  Puede ser:  Concurrente (se centra en el presente)  Predictiva (se centra en el futuro)
  • 9.
     Debe explicarcómo las mediciones del concepto o variable se vinculan de manera congruente con las mediciones de otros conceptos correlacionados teóricamente.  Constructo o construcción: Variable medida que tiene lugar dentro de una hipótesis, teoría o modelo teórico.
  • 10.
     la validezde expertos o face validity, la cual se refiere al grado en que aparentemente un instrumento mide la variable en cuestión, de acuerdo con “voces calificadas”. Se encuentra vinculada a la validez de contenido
  • 11.
     La confiabilidadde un instrumento de medición se refiere al grado en que su aplicación repetida al mismo individuo u objeto produce resultados iguales.  Por ejemplo, si se midiera en este momento la temperatura ambiental usando un termómetro y éste indicara que hay 22°C, y un minuto más tarde se consultara otra vez y señalara 5°C, tres minutos después se observara nuevamente y éste indicara 40°C, dicho termómetro no sería confiable, ya que su aplicación repetida produce resultados distintos.
  • 12.
     1. Medidade estabilidad (confiabilidad por test-retest).  2. Método de formas alternativas o paralelas.  3. Método de mitades partidas (split-halves).  4. Medidas de coherencia o consistencia interna. Éstos son coeficientes que estiman la confiabilidad: a) el alfa de Cronbach y b) los coeficientes KR-20 y KR-21 de Kuder y Richardson.
  • 14.
    1. Primera versióndel instrumento 2. Análisis de Validez 3. Piloteo 4. Análisis estadístico para confiabilidad 5. Versión final 6. Selección del tamaño de la muestra 7. Aplicación y análisis de resultados