6. Datos primarios: son aquellos que el investigador
obtiene directamente de la realidad, recolectándolos con
sus propios instrumentos.
Datos secundarios: son registros escritos que
proceden también de un contacto con la práctica, pero
que ya han sido elegidos y procesados por otros
investigadores.
7. En el protocolo de investigación se debe
describir las estrategias implementadas para
asegurar la calidad del dato
1.En el diseño (procedimientos detallados)
2.Previo al inicio de recoger la información (entrenando a
encuestadores)
3.Durante la recolección de información (supervisando el proceso y
controlando los instrumentos de recolección)
4.Durante el manejo (asegurando correcto ingreso y limpieza de
base de datos
8. 1. Antes de finalizar visita, entrevista o medición debe comprobarse que se
han recogido todos los datos
2. En caso se requiera se debe volver a entrevistar a parte de la muestra:
detectar datos ficticios, datos poco fiables, errores en formular pregunta.
3. Comparar datos entre observadores: detectar diferencias sistemáticas.
4. Evaluar la variabilidad de los datos.
5. Corregir aspectos del entrenamiento a los encuestadores.
Control de calidad de los datos durante la recogida
9. 1. BASE DE DATOS
Una vez ejecutado el estudio se
deben reunir las fichas de
recolección de datos ya
numeradas, ordenarlas, para
generar una base de datos
(matriz de sistematización) que
permita analizar e interpretar
los datos
10. Control de calidad de los datos antes del ingreso de
datos
1. Revisar los instrumentos de recolección de datos:
• Detectar errores u omisiones de información.
• Problemas de legibilidad
2. Doble entrada de datos.
3. Uso de filtros (detectar valores fuera de rango, o sin valor consignado).
4. Revisar la distribución de los datos (buscar valor extremos o ilógicos).
5. Evaluar la coherencia de datos.
11. Cuidado en la Creación de Bases de Datos
• Su elaboración debe ser cuidadosa, sus deficiencias perjudicarán el
análisis y pueden invalidar las conclusiones del estudio.
• Todas las personas involucradas en el estudio deben estar
capacitadas uniformemente en el manejo estructural de la base de
datos.
• Antes de iniciar cualquier análisis estadístico, SE DEBE llevar a cabo
una “Limpieza” de la base.
12. Limpieza de datos
1. Identificador único
2. Mejorar la presentación
a. Etiqueta de valor
b. Etiqueta de variable
c. Formato
3. Valores perdidos
4. Preguntas filtros
5. Preguntas de opción múltiple
6. Preguntas abiertas: otras / especificar
13. Datos Faltantes – Missing Values
Son ausencias de información en la
recolección de datos, los cuales
suelen evidenciarse en la creación
de la base de datos; estos pueden
deberse a:
• No respuesta total.
• No respuesta parcial.
• Error en los datos.
14. Datos Atípicos – Outliers Values
Los Outliers, también denominados
datos atípicos, son aquellas
observaciones que toman valores muy
diferentes a la mayoría, por lo que
generan dispersión de la estimación.
La decisión de mantenerlos debe
evaluarse tanto metodológica como
estadísticamente.
15.
16.
17. Control de la variabilidad
Controlar el error aleatorio asegura la precisión y controlar el error sistemático asegura la
exactitud de las mediciones que garantizan la validez del estudio.
18.
19.
20.
21.
22. • El primero es el control de las
variaciones aleatorias
• El segundo es el control del
error humano
La investigación científica es un proceso
sistemático y como todo sistema necesita control
23.
24. Control del error aleatorio
Cada vez que ejecutemos el mismo estudio, en la misma
población, pero con diferente muestra, encontraremos resultados
diferentes aunque muy cercanos.
Estas diferencias se deben a la variabilidad de las muestras y se
denomina error aleatorio.
1
25. • Primer estudio10%
• Segundo estudio 12%
• Tercer estudio 8%
Variabilidad
natural de
las muestras
Vamos a suponer que queremos encontrar la
prevalencia de diabetes en una población,
ejecutamos un estudio y hallamos un valor de :
Control del error aleatorio
1
26. Es estudiando a toda la población, solo en ese
caso el error aleatorio desaparece; entonces…
Si realizamos un estudio de prevalencia en
toda la población y volvemos a replicar el
estudio, en toda la población, tendríamos que
encontrar exactamente el mismo valor.
La única forma de eliminar el error aleatorio
27. Significa, que como investigadores, reconocemos
que habrá un error aleatorio.
Debido a la variabilidad natural que presentan
las muestras, pero que estamos dispuestos a
ponerle un límite a ese error de estimación.
El control del error aleatorio significa
Límite
28. Control del error sistemático
Incluso si fuéramos capaces de estudiar a toda la población, de
replicar dos veces el mismo estudio sobre la misma población.
No necesariamente nos brindará dos resultados exactamente
iguales, porque existen errores en el proceso investigativo.
2
29. Mientras más corta sea la distancia entre la
media de todos los grupos estudiados y
verdadero valor del parámetro, nuestro
resultado será más exacto.
La exactitud NO depende del azar o la
aleatoriedad, sino del esfuerzo que realice el
investigador.
Control del error sistemático
2
30. El error aleatorio que se controla mediante el
cálculo del tamaño de la muestra y se puede
conocer la magnitud del error de estimación.
En el error sistemático, no es posible conocer la
magnitud del error que queda luego de haber
hecho todo lo necesario para reducirlo.
El error sistemático no se puede eliminar
31.
32. La validez interna, es una condición que debe
alcanzar el estudio si es que queremos realizar
inferencia.
Si el estudio no es capaz de alcanzar la validez
interna, entonces sus conclusiones no son
extrapolables a la población de donde fue extraía
la muestra.
La validez interna es la validez de inferencia
33. Mediante los criterios de elegibilidad, debemos identificar
a las variables intervinientes…
Estos elementos que contaminan la relación entre dos
variables analíticas, y mediante los criterios de inclusión y
exclusión, debemos eliminarlas.
Control metodológico
3
34. Un instrumento que mide lo que debe medir, no es
suficiente, además debe ser consistente y estable.
Debe entregar mediciones que sean factibles de
corroborar y debe estar optimizando para entregar
los mejores niveles de sensibilidad y especificidad.
El instrumento debe estar previamente validado
35. No existe un capítulo donde coloquemos todo lo
necesario para hacer control del estudio.
El protocolo en sí es un documento que debe
exhibir en todo su contenido estrategias para
controlar los sesgos, para asegurar la validez
interna.
En un protocolo de investigación
36. Control estadístico
El proyecto de investigación debe ser un registro completo de
todas las acciones que realizaremos para controlar
metodológicamente el estudio.
Pero no todos los elementos que contaminan la validez de un
estudio pueden controlarse a nivel metodológico.
4
37. Un estudio prospectivo siempre será mejor que uno retrospectivo.
Pero la verdad es que por factibilizar nuestro trabajo, asumiremos
una gran cantidad de sesgo que tendremos que controlar con la
estadística.
Control estadístico
4
38. Por ejemplo, si un gimnasio ofrece a 30 pacientes
diabéticos un programa de 3 meses, para reducir, 10 kg,
En el camino algunos pacientes se van retirando al final
únicamente quedan 10, no podemos hacer conclusiones
con estos únicos 10 pacientes.
Un programa de dieta y ejercicios
39. No es solamente para estimar frecuencias,
construir tablas y gráficas de resultados.
El análisis de datos nos ayuda a decidir si la
información que tenemos en frente es útil o no, o
que grado de confianza le podemos conferir a
nuestra información.
El análisis de datos aplicado a la investigación científica
41. Control de la medición
Incluso si se ha seleccionado adecuadamente una muestra representativa de la población, aún
puede haber error sistemático si cometemos sesgos de medición.
42. Existen múltiples situaciones derivadas de la
factibilidad del estudio que nos empujaran a
cometer errores en el proceso de la medición.
Estos errores se pueden deber al observador, al
instrumento y al observado.
Los sesgos de medición
43. Sesgo del observador
La capacidad de observación de un suceso es variable de un individuo
a otro, adicionalmente el observador tiene una predisposición
personal y, a veces, prejuiciosa…
Debido a su interés de querer demostrar su hipótesis; o evidenciar
alguna condición que lo haya llevado a desarrollar su estudio.
1
44. En un estudio de casos y controles, el investigador suele ser más
entusiasta a la hora de buscar la característica que diferenciará al
grupo de casos respecto de los controles.
La necesidad de querer demostrar las diferencias, lo motivará a
ponerle mayor énfasis en el análisis del grupo de los casos, no así en
el grupo de los controles.
Sesgo del observador
1
45. Se consigue evitando que el investigador conozca la
naturaleza de los grupos a comparar (doble ciego).
El observador, que no es el investigador, deberá
desconocer los objetivos de la investigación, no
tendrá la posibilidad de identificar al grupo de
estudio y al grupo control.
El control del sesgo del observador
46. Sesgo de la capacidad diagnóstica
La falta de capacidad diagnóstica de un instrumento para detectar
lo que debe medir ocurre cuando se utilizan métodos diagnósticos
distintos al estándar de oro.
Es conocido que no existe coincidencia absoluta entre dos
instrumentos de medición...
2
47. Los instrumentos documentales requieren de validación en
términos de contenido, a diferencia de los instrumentos mecánicos
que carecen de este sesgo…
Lo primero que tenemos que hacer, para poder medir una variable
subjetiva, una magnitud lógica es definir el concepto que queremos
medir.
Sesgo de la capacidad diagnóstica
2
48. Cuenta no solamente con validez de contenido, es
decir que, no solamente mide lo que debe medir;
sino que además tiene validez de constructo.
Se trata de un arreglo interno de su contenido en
dimensiones que cubren adecuadamente el
concepto...
Un instrumento válido
49. Sesgo de rendimiento
Al igual de lo que ocurre con los instrumentos mecánicos que
tienen que ser calibrados constantemente.
Los instrumentos documentales, tienen que ser vigilados en el
sentido de que, no se alteren sus propiedades métricas.
3
50. Si queremos evaluar el rendimiento académico de un grupo de
alumnos y utilizamos un instrumento documental no calibrado.
Es posible, que algunos alumnos resulten aprobados, incluso si no
tienen el nivel de conocimientos suficientes para aprobar la
asignatura.
Sesgo de rendimiento
3
51. Sesgo de memoria
Conocido también como sesgo de la unidad de información, es propio
de los estudios retrospectivos.
Si preguntamos a un paciente que padece de una determinada
enfermedad, por un antecedente de exposición, existe la posibilidad
de olvido.
4
52. Los datos secundarios no fueron recolectados por el
investigador y, por ello, no se puede dar fe su exactitud.
Tanto sí corresponden a variables objetivas como a
variables subjetivas, dado que la información ya está
registrada nunca conoceremos el valor real de la
medición.
En los estudios basados en la documentación
53. Por otro lado las personas sanas (que son el grupo control) van a
minimizar cualquier evento del pasado.
Van a pasar por inadvertido las circunstancias que incluso pudieron
haber generado su enfermedad, siendo que son sanos, para ellos
ningún evento del pasado fue potencialmente nocivo.
Sesgo de memoria
4
54. Sesgo de adaptación
Las respuestas de los evaluados pueden estar condicionadas a
los resultados del estudio.
Por ejemplo en una encuesta para acceder a un puesto laboral,
el evaluado emite una respuesta interesada a fin de obtener
una ganancia secundaria.
5
55. Es natural que el sujeto evaluado tienda a cambiar sus respuestas o a
mentir sobre su realidad.
Una forma de detectar y solucionar este problema es mezclando
diferentes instrumentos de medición, se pueden intercalar las
preguntas de uno y otro instrumento.
Sesgo de adaptación
5
56. Se realiza, no advirtiendo a los participantes sobre el tipo
de exposición.
Si los participantes no conocen cuál es el tipo de exposición,
a esto se le llama estudio ciego y si le sumamos el haber
cegado al observador, hablamos de doble ciego.
El control del sesgo de adaptación
57. 1. Que otro investigador realice las mediciones.
2. Utilizar instrumentos estándar de oro.
3. Realizar ajustes de calibración y optimizar el
instrumento.
4. Estrategias de recolección de datos para evitar
respuestas direccionadas .
5. Evitar que los individuos evaluados sepan el
grupo al que se les ha asignado.
58. Error aleatorio: Producto de realizar el estudio con una muestra y no a toda la
población y generalizar los resultados que hemos obtenido en nuestra muestra a
la población. Es un error que se puede cuantificar mediante el cálculo del
intervalo de confianza y el nivel de seguridad con el que se da ese intervalo.
Este tipo de error será de mayor si conforme la muestra sea mas pequeña y
disminuirá al aumentar el tamaño muestral, llegando a desaparecer si
estudiamos a toda la población.
Error sistemático: Se puede producir durante el diseño del proyecto de investigación
por errores en la selección de los sujetos o recogida de la información. También se
denomina sesgo. No se puede cuantificar y no desaparece aunque estudiemos a toda
la población.
59. Precisión: Es el grado de ausencia de error aleatorio. Es decir, cuanto mayor
sea el tamaño muestral menor es el papel que juega el azar en nuestra
estimaciones (el intervalo de confianza será menor y aumenta la precisión.
Validez: Un estudio tendrá validez si realmente mide lo que pretendemos medir. Esto
es, este libre de sesgos o errores sistemáticos.
• Validez interna : capacidad que tiene un estudio para generalizar los resultados
obtenidos en una muestra a la población experimental.
• Validez externa: capacidad que tiene un estudio para poder generalizar los
resultados a toda la población. En la medida en que utilicemos unos criterios de
selección mas restrictivos menor validez externa.