El documento describe los pasos clave en el procesamiento de datos, incluyendo la edición y codificación de datos, la conversión a una forma legible por computadora, la depuración del conjunto de datos, la generación de nuevas variables, la ponderación de datos y el almacenamiento final para análisis. Explica conceptos como caso, representación de datos, paquete de datos, matriz de datos y más.
2. 4. PROCESAMIENTO DE DATOS CONCEPTO En el procesamiento de datos consiste en convertir los datos en bruto del instrumento de recolección y datos en una forma legible por el computador. Luego podemos hacer uso de procedimiento computarizado de análisis de datos para extraer la información de los datos.
3. 4.1 DISTINGIR ENTRE LOS CONCEPTOS BASICOS DEL PROCESAMIENTO DE DATOS CASO: Un caso es una unidad especifica de análisis para el estudio. Con bastante frecuencia, la unidad de análisis es el encuestado de un cuestionario, por tanto, cada encuestado se considera un caso y el numero total de casos es igual al tamaño de la muestra 4.1.1 distinguir el caso
4. 4.1 DISTINGIR ENTRE LOS CONCEPTOS BASICOS DEL PROCESAMIENTO DE DATOS 4.1.2 Definir representación computarizada de los datos Los datos suministrados por un instrumento de investigación deben convertirse a una forma legible por el computador. La tarjeta del computador es un instrumento básico utilizado para la investigación .
5. 4.1 DISTINGIR ENTRE LOS CONCEPTOS BASICOS DEL PROCESAMIENTO DE DATOS 4.1.3 Definir paquete de datos El paquete de datos esta compuesta por todas las tarjetas del computador necesarias para representar los datos que aparecen en todos los cuestionarios. El paquete de datos es lo que alimenta al computados
6. Por ejemplo: si hubiéramos utilizado un cuestionario que utilizara tres tarjetas para representar los datos que aparecen en este y tuviéramos un tamaño muestra de 400, tendríamos 3 x 400= 1200 tarjetas en nuestro paquete de datos
7. 4.1 DISTINGIR ENTRE LOS CONCEPTOS BASICOS DEL PROCESAMIENTO DE DATOS 4.1.4 almacenamiento de datos Una vez que los datos se han ingresado al computador, el investigador pueden utilizar las capacidades del computador para almacenar los datos del paquete en una USB y así de esta manera evitan los problemas que se presentarían si se eliminarse o perdiese el paquete de datos.
8. 4.1 DISTINGIR ENTRE LOS CONCEPTOS BASICOS DEL PROCESAMIENTO DE DATOS 4.1.5 definir la matriz de datos Disposición de almacenamiento de datos con nfilas y mcolumnas, donde el numero de filas es igual numero de casos y el numero de columnas es igual al numero de variables
9. 4.2 IDENTIFICAR EL FLUJO DEL PROCESAMIENTO DE LOS DATOS Y SUS COMPONENTES PRINCIPALES 4.2.1 Decisión sobre si se debe utilizar o no el instrumento de recolección de datos para el análisis Al recibir un instrumento de recolección de datos de campo, el investigador debe examinarlo para determinar si es aceptable o no para utilizarlo en el estudio. Los criterios exactos para juzgar un instrumento como no aceptable varían de un estudio a otro, pero lo que se enumeran a continuación son característicos:
10. Una parte significativa del instrumento se deja sin contestar, o los elementos claves se dejan sin respuestas Es claro, con base en las respuestas dadas, que el encuestado no comprendió la tarea requerida al completar el instrumento . La respuesta muestra poca varianza. Por ejemplo, la respuesta a unas series de preguntas de actitud son todas 3 en una escala de 7 puntos. Esto es evidencia que el encuestado no esta tomando la tarea con seriedad
11. 4. Un elemento equivocado de la muestra a completado el instrumento. Por ejemplo, el estudio exige que el encuestado sea mujeres que trabajan, y un hombre a completado el instrumento. 5. El instrumento esta físicamente incompleto. Por ejemplo, es posible que no se haya incluido una pagina o que esta se haya eliminado en el campo. 6. El instrumento se recibe después de una fecha de corte establecida. Si se espera que todos los instrumento se devuelvan del campo, es probable que el estudio no se complete a tiempo
12. Edición significa revisar los instrumentos de recolección de datos para asegurar la máxima exactitud y mínima ambigüedad . Es importan que la edición se realice en forma consistente. Al realizar la función de edición, editor debería ocuparse de las aéreas que describen a continuación 4.2 IDENTIFICAR EL FLUJO DEL PROCESAMIENTO DE LOS DATOS Y SUS COMPONENTES PRINCIPALES 4.2.2 Edición
13. Legibilidad: para que posteriormente se codifiquen en forma apropiada, los datos deben ser legibles. El editor elimina la ambigüedad de los datos registrados, de manera que el codificador sepa exactamente qué hacer.
14. 2.- Integridad: las preguntas que no se contestaron pueden tratarse de tres formas. El Primero, el editor puede contactar al entrevistador para tratar de determinar si el encuestado no respondió la pregunta o si el entrevistador simplemente no registro la pregunta. El segundo enfoque consiste en clasificar este dato en particular como faltante El tercero si el editor considerara que faltan demasiados elementos de datos, puede volver a enviar todo el instrumento al campo o eliminarlo del estudio.
15. Consistencia: en este punto se hace una verificación sobre la consistencia de los datos. (posteriormente, el computador realizara una verificación mas detallada) Por ejemplo, el editor podría verificar que los encuetados que afirman que comprar gasolina con tarjera de crédito, si tengan tarjeta de crédito.
16. Exactitud : el editor necesita estar atento a cualquier evidencia de inexactitud en los datos. En este caso, el área mas importante se relaciona con el posible sesgo o trampa del entrevistador.
17. Clasificación de respuesta: Algunas veces las respuestas a preguntas abiertas son difícil de interpretar a claridad. Es posibles que las palabras de las personas que registra las respuestas hayan abreviado demasiado las respuestas o que unas palabras sean ambiguas. El riesgo de error es algo ambos casos. Obviamente, un buen trabajo de campo inicial puede editar que surjan muchos problemas
18. 4.2 IDENTIFICAR EL FLUJO DEL PROCESAMIENTO DE LOS DATOS Y SUS COMPONENTES PRINCIPALES 4.2.3 Codificación La codificación comprende la asignación de un símbolo numérico a un determinada columna de la hoja de calculo, o columnas del archivo ASCII para representar una respuesta especifica de un instrumento de recolección de datos
19. Preguntas de respuestas cerrada y abierta Para preguntas estructuradas o de respuesta cerrada, usualmente el esquema de codificación se especifica antes de emprender el trabajo de campo. Por ejemplo, una clasificación por sexo pueden aparecer en el instrumento como: 31 ¿Cuál es su sexo? 1 2 Femenino masculino
20. El detalle del esquema de codificaciones necesita estar documentado, y esta documentación se coloca en lo que se llama libro de códigos. Libros de códigos: Un libro de códigos es el lugar donde se documenta toda la información necesaria acerca de las variables en el conjunto de datos.
21. Las hojas de codificación terminadas se entregan al personal para su ingreso al computador; ellos ingresan los números exactos que aparecen en las hojas en un archivo ASCII del computador. Luego el archivo ésta listo para ser convertido en una hoja de calculo o matriz de datos. 4.2 IDENTIFICAR EL FLUJO DEL PROCESAMIENTO DE LOS DATOS Y SUS COMPONENTES PRINCIPALES 4.2.4 ingreso de datos al computador y verificación
22. El archivo de datos debe de introducirse en el computador de una manera tal que lo puedan utilizar los programas computacionales de análisis de datos. La mayoría de los programas con mayor probabilidad de uso por parte de un investigador están contenidos dentro de un paquete de programas. Los datos de hoja de calculo pueden ser la información generada por los archivos ASCII legibles para la mayoría de los paquetes estadísticos. 4.2 IDENTIFICAR EL FLUJO DEL PROCESAMIENTO DE LOS DATOS Y SUS COMPONENTES PRINCIPALES 4.2.5 conversión del paquete de datos a una forma legible para el computador
23. 4.2 IDENTIFICAR EL FLUJO DEL PROCESAMIENTO DE LOS DATOS Y SUS COMPONENTES PRINCIPALES 4.2.6 Depuración del conjunto de datos Ahora ya tenemos un conjunto de datos estructurado como un archivo de computador, pero aún debemos tratar de depurar el conjunto de datos de posibles errores. Se realizan tres tipos de verificaciones en el conjunto de datos y son: verificación de códigos normales Verificación de consistencia Verificación de caso extremo
24. Verificación de códigos normales: los primeros elementos que deseamos eliminar de nuestro conjunto de datos son llamados códigos normales, es decir los que no están definidos en el libro de códigos para una determinada variable. Verificación de consistencia: este consiste en verificar la consistencia de las respuestas dentro de cada caso. Por ejemplo: podríamos verificar si los encuestados que tiene hipoteca, también son propietarios de una casa. Existen dos tipos de V.C: de una entre y de dos entradas. Una situación de consistencia de una entrada, A es verdadero si B es verdadero, pero el inverso no tiene que ser verdadero. Y el de dos entradas seria A es verdadero si y solo si B es verdadero y viceversa
25. Verificación de casa extremo: este se define como una respuesta de una variable, que esta muy por fuera de lo común. Por ejemplo, un puntaje SAT registrado como 976 en el archivo de datos puede ser sustancialmente alto que todos los demás puntajes. Podemos ordenarle al computador que imprima del total de casos los números de casos con puntajes SAT por encima de 775. Luego verificaríamos si estos puntajes fueron los correctos.
26. Una ves depurado el conjunto de datos originalmente codificado, podemos agregar nuevas variables a este conjunto de datos que se utilizará posteriormente en el análisis. Existen varias circunstancias en las cuales podrían generase nuevas variables: 4.2 IDENTIFICAR EL FLUJO DEL PROCESAMIENTO DE LOS DATOS Y SUS COMPONENTES PRINCIPALES 4.2.7generación de nuevas variables
27. Es posible que queremos agregar datos no recolectados en la entrevista. Por ejemplo, es probable que queramos introducir información de un censo sobre el área en el cual vive un encuestado. Es posible que queramos dividir una variable de intervalo, como ingreso, en categorías o que queramos combinar las categorías de algunas variables para que nos dé una variable con menos categoría.
28. 3. Es posible que queramos formar una variable que se defina mediante combinaciones de otras variables. Por ejemplo, la variable “la etapa del ciclo de vida de la familia” se forma utilizando edad, estado, civil, presencia de hijos, etc. 4. Es posible que queramos crear un índice para representar un número de variables. Por ejemplo, podemos simplemente agregar un conjunto de medias a escala acerca de un producto para formar un índice relacionado con el interés en el producto.
29. 4.2 IDENTIFICAR EL FLUJO DEL PROCESAMIENTO DE LOS DATOS Y SUS COMPONENTES PRINCIPALES 4.2.8 Ponderación de datos Saber la ponderación de los datos de acuerdo con el plan de muestreo, o debido a resultados muéstrales inesperados. Le ordenamos al computador que asigne las ponderaciones apropiadas a los casos
30. Ya que tenemos a un grupo de datos completamente preparado para el análisis. Por lo general se almacena en un disquete o USB y aparte se tiene un respaldo de la información para así poderla guardar en un lugar seguro. Ahora estamos listos para hacer el análisis de datos ó información 4.2 IDENTIFICAR EL FLUJO DEL PROCESAMIENTO DE LOS DATOS Y SUS COMPONENTES PRINCIPALES 4.2.9 Almacenamiento del grupo de datos
33. Verificar casa extremoFlujo clásico del Procesamiento de Datos Generar nuevas variables en la medida que sea necesario Plan de muestreo y resultados Ponderar datos Almacenar conjunto de datos para el análisis