1. PROGRAMA: MAESTRIA SALUD PUBLICA
CUATRIMESTRE: 5
MATERIA: ANALISIS DE INVESTIGACION
TITULO: ESTRUCTURA DEL ANALISIS
ALUMNO: FERNANDO PONCE DE LEON BALLESTEROS
TUTOR: SAMANTHA LUCIA RIO GALVAN
COORDINACIÓN: FACULTAD DE LA SALUD MTRA. ROCIO ARAIZA DE OLARTE
2. INTRODUCCION
• El análisis de contenido en un sentido amplio es una técnica de interpretación de textos, ya sean escritos, grabados,
pintados, filmados..., u otra forma diferente donde puedan existir toda clase de registros de datos, trascripción de
entrevistas, discursos, protocolos de observación, documentos, videos,... el denominador común de todos estos
materiales es su capacidad para albergar un contenido que leído e interpretado adecuadamente nos abre las puertas al
conocimientos de diversos aspectos y fenómenos de la vida social. (1)
• El análisis de contenido se basa en la lectura (textual o visual) como instrumento de recogida de información, lectura
que a diferencia de la lectura común debe realizarse siguiendo el método científico, es decir, debe ser, sistemática,
objetiva, replicable, y valida. En ese sentido es semejante es su problemática y metodología, salvo algunas
características especificas, al de cualquier otra técnica de recolección de datos de investigación social, observación,
experimento, encuestas, entrevistas, etc. No obstante, lo característico del análisis de contenido y que le distingue de
otras técnicas de investigación sociológica, es que se trata de una técnica que combina intrínsecamente, y de ahí su
complejidad, la observación y producción de los datos, y la interpretación o análisis de los datos. (2)
• Todo contenido de un texto o una imagen pueden ser interpretado de una forma directa y manifiesta o de una forma
soterrada de su sentido latente. Por tanto, se puede percibir de un texto o una imagen el contenido manifiesto, obvio,
directo que es representación y expresión del sentido que el autor pretende comunicar. Se puede además, percibir un
texto, latente oculto, indirecto que se sirve del texto manifiesto como de un instrumento, para expresar el sentido
oculto que el autor pretende transmitir.(1,2,3)
3. • Berelson (1952 p.18) sostiene que el análisis de contenido es “una técnica de investigación para la descripción
objetiva, sistemática y cuantitativa del contenido manifiesto de la comunicación”. Según esta definición el
análisis de contenido ha de someterse a ciertas reglas. La “objetividad” se refiere al empleo de procedimientos
que puedan ser utilizados por otros investigadores de modo que los resultados obtenidos sean susceptibles de
verificación. La “sistematización” hace referencia a pautas ordenadas que abarquen el total del contenido
observado (J. Andréu 1998).
• En realidad estos dos elementos como indica Krippendorff (1990) confluyen en el requisito de 3
“reproductividad” de todo instrumento de investigación científica, es decir, que las reglas que lo gobiernen
sean explicitas (objetivas) y aplicables a todas las unidades de análisis (sistemáticas).
• La llegada de los ordenadores y, sobre todo, la posibilidad de acceso con ellos al análisis literal, más bien que
numérico, ha inclinado aún más la balanza hacia la técnica cualitativa. Un importante elemento para el
desarrollo y el auge en los últimos años del análisis de contenido cualitativo ha sido la incorporación de la
“Teoría Fundamental” (Grounded Theory) y los métodos de comparación constante (MCC) de Glaser y Strauss
a programas como Atlas.ti, Maxqda, Kwalitan..., y el decidido apoyo y consejo de Anselm Strauss a los
desarrolladores de estos programas Thomas Muhr, Udo Kuckartz, Vincent Peters..., en la utilización de la
inducción analítica para la búsqueda de códigos y categorías en los textos. No obstante, los mejores análisis de
contenido actuales utilizan, en realidad, la técnica de la “triangulación” en la que se combinan los métodos de
estadística multivariante (análisis de correspondencias múltiples, análisis factoriales...) con las técnicas
cualitativas más sutiles (análisis de redes semánticas, análisis de intensidad y árboles jerárquicos, ..). De este
modo, la tecnología del análisis de contenido combina diferentes métodos de análisis tenidos habitualmente
como antitéticos (6)
4. DESARROLLO
• Organización de las ideas para estructurar los análisis intermedios a medida que evoluciona la
recolección de los datos de campo.
La base del análisis es la categorización de los datos primero de lo descriptivo par allegar a lo teórico y abstracto, por medio de métodos que
tienen patrones, regularidades, pero también presentan inconsistencias, incoherencias y discontinuidades.
La lógica que subyace es la de agrupar en un gran conjunto lo común y en otro lo disperso. Al inicio como se ha planteado esta categorización
será de tipo descriptivo para posteriormente evolucionar a un carácter más teórico y abstracto.
El análisis lo podemos realizar por grupos; un grupo común y otro disperso.
Para el armado del análisis cualitativo se van registrando las ideas que van emergiendo a medida que se leen y organizan los archivos a los
cuales llamaremos memos o recordatorios. Estos deben ser organizados de manera que puedan recuperar permitiendo así que se
incorporen a la investigación, así como para la búsqueda de nueva recolección de datos o como hipótesis emergentes que permitan conectar
hallazgos de la investigación con la teoría formal ya existente.
La validación de los hallazgos derivados de estos análisis intermedios se realizan mediante dos estrategias básicas:
• Permanente contacto con los actores o participantes (validez interna)
• Revisión sostenida de la literatura producida desde la teoría ya existente (validez externa)
5. • Aplicación de computadora para la organización y análisis de datos cualitativos.
Las cualidades y utilidad que prestan a la tarea de análisis lleva a distinguir tres grupos dentro de estas aplicaciones,
siendo:
• Recuperadores de texto (software especializado)- primera generación.
• Programas de codificación y recuperación – segunda generación.
• Programas de elaboración teórica – tercera generación.
Procesos para análisis de datos cualitativos acorde diseñadores de programas computacionales:
1. Creación de archivos de datos a partir de las notas de campo, revisión de documentos y/o transcripción de las entrevistas.
2. Codificación de los datos en los archivos, de modo que permitan la identificación y definición de segmentos de información
relevantes para el análisis.
3. Realización de búsquedas dentro de los datos almacenados, para lo cual se ordenan y tamizan los segmentos de información
previamente identificados.
4. Realización de descubrimientos para lo cual se identifican patrones, secuencias, procesos, reglas, estrategias y relaciones.
6. • Ethnograph
• el programa Ethnograph funciona “cortando y
pegando” segmentos o trozos de información de
fuentes como notas de campo, entrevistas
transcritas, documentos transcritos, entre otros.
A su vez permite codificar, recodificar y ordenar
archivos de datos en categorías analíticas.
• Este programa considera que los datos están
categorizados, por lo que la información es
confiable, sistémica y cumple con los requisitos
de calidad necesarios para ser válidos y
confiables.
7. • Organización de datos.
Comprensión, síntesis, teorización y recontextualización son procesos que corresponden a una secuencia
lógica. Al alcanzar la comprensión de la realidad humana objeto de estudio, se alcanza la teorización,
previo a sintetizar y de ahí se podrá recontextualizar cuando los conceptos o modelos se hubieran
desarrollado completamente.
La complejidad de la tarea de análisis demanda desde un principio la elección del cómo abordaremos los
aspectos a observar, que variables plantearemos y la forma de analizar por lo que seguramente optaremos.
Esto es circunscribirlo, elegir y mirar con una lupa el proceso para equivocarnos lo menos posible en la
reducción que haremos.
8. • Teorización.
Es una guía para realizar la comprensión y síntesis de los datos, y no como una estructura o marco dentro del cual
se ordenan los datos.
La teorización es el proceso por medio del cual se construyen y asumen explicaciones alternativas, apoyándose,
para ello, en la lectura e interpretación sostenida de los datos generados por la investigación; siempre buscando
una mejor, más conveniente y sencilla explicación de dichos datos.
La realización de este proceso implica, plantearse y responder un conjunto de preguntas que permitan establecer
nexos entre los datos arrojados por la investigación y la teoría ya establecida o existente; para ello se recurre a
alguna de cuatro estrategias:
• Encadenamiento: orienta a la identificación de las creencias y valores presentes en los datos de los que se dispone, buscando
generar, entre ellos, nexos en cadena o relaciones, que permitan completar el análisis, trascendiendo la dimensión meramente
descriptiva.
• uso de pensamiento lateral: se apoya en el uso del llamado pensamiento lateral, que es un recurso mediante el cual se examinan
conceptos similares en otros escenarios o, en su lugar, se buscan otras fuentes complementarias de datos en nuevos contextos.
• Inducción analítica: consiste en adelantar un desarrollo inductivo creciente y sistemático de la teoría sustantiva o de la teoría
formal, partiendo, para ello, de los datos obtenidos.
• Falsación y la construcción de conjeturas: se basa en el empleo de la conjetura y la falsación, para lo cual se realiza un ejercicio de
formulación de hipótesis sobre nexos causales, de una forma sistemática o una tarea de secuenciación de las características
atribuidas a ciertos comportamientos o experiencias. Para apoyar esta tarea se emplean dos recursos metodológicos: el muestreo
teórico y la validación con los informantes.
9. • Recontextualización
Este proceso ocurre cuando el investigador prueba extender o extrapolar la aplicación de la teoría emergente a
poblaciones o escenarios diferentes a aquellos en los cuales tuvo su origen. Destaca que el trabajo de otros
investigadores y la teoría existente, desempeñan un papel crítico.
La teoría ya elaborada dentro de cualquier disciplina relacionada con la temática abordada recontextualiza los
nuevos hallazgos proporcionándoles un referente de comprensión más amplio y general, adaptándolos de modo
que haga posible el avance del conocimiento disciplinario
10. • Análisis de datos cualitativos.
Se debe tomar la decisión que información incluir y cual descartar a la hora de construir los datos de análisis, esto
implica leer y releer el material previamente recolectado, así como el registro previo para garantizar que el
investigador encuentre la diversidad que presenta el fenómeno estudiado.
El análisis de datos debe permitir realizar construcciones narrativas que requieran selecciones e interpretaciones.
El proceso de análisis de datos cualitativos se compone de diversas fases, aunque puede ser un procedimiento
iterativo o de aproximación sucesiva. Las fases son:
• Descubrimiento y obtención de los datos
• Preparación, revisión y transcripción
• Organización de los datos
• Categorización
• Análisis de los datos y generación de hipótesis, teorías, conclusiones
11. El análisis es la parte más creativa de la investigación y que requiere más tiempo y cuidado que la
recolección misma de la información, es por ello que se debe apoyar en:
• LA TAREA: cada texto debe de ser leído y releído para construir un significado de acuerdo a la
interpretación del investigador. Esta se apoyará con la perspectiva estructurada y la perspectiva de
mapeo.
• Perspectiva estructurada: comienza el análisis con una descripción fidedigna y pormenorizada del contexto.se
describen situaciones e interpretaciones que varían al avanzar el análisis, nos lleva a comprender e interpretar el
fenómeno estudiado y las interconexiones de conceptos o variables.
• Perspectiva de mapeo: centrada en las relaciones que se construyen a partir de lo dicho de los discursos de los
sujetos, entre el tipo de relaciones entre los sujetos.
12. PROPUESTA
• Mediante la recolección de datos mediante entrevista se puede conocer cuales son los factores socio
culturales por lo que los hombres no acuden a un chequeo médico temprano en especial chequeo
prostático en la población que acude a consulta externa en el Hospital General de Morelia “Dr. Miguel
Silva”.
13. CONCLUSIÓN.
• Analizar datos significa ser capaz de interpretar los significados de los mismos, la forma como se haga el
análisis es lo que determina el enfoque o perspectiva de la tesis.
• La investigación cualitativa puede ser vista como el intento de obtener una comprensión profunda de los
significados y definiciones de la situación tal como nos la presentan las personas, más que la producción de
una medida cuantitativa de sus características o conducta.
• La metodología cualitativa ha abierto un espacio multidisciplinario que convoca a profesionales de las más
diversas disciplinas (sociólogos, antropólogos, médicos, enfermeras, psicólogos, trabajadores sociales,
relacionistas públicos, entre otros) lo que lejos de ser un inconveniente aporta una gran riqueza en la
producción. Sin embargo, también provoca una serie de efectos perversos, tales como, la gran variabilidad
existente en la manera de afrontar el análisis: Imprecisión y confusión de conceptos, multiplicidad de
métodos, más descripción que interpretación, riesgo de especulación, escasa visión de conjunto, ateorización,
entre otros, hasta tal punto que hoy día no podríamos hablar del análisis cualitativo, sino más bien de los
análisis cualitativos. (7)
14. BIBLIOGRAFÍA
1. Altheide, D.L. (1996). Qualitative media analysis. Qualitative Research Methods. Vol. 38. Thousand Oaks. Sage
2. Colle, R. (1988) ANATEX: Software de análisis de concurrencias, Esc. de Periodismo PUC y Secico, Santiago.
3. Berelson, B. (1952). Content Analysis in Comunication Research, Free Press, Glencoe
4. Andréu, J. (1998) . Los españolos: Opinión sobre sí mismo, España y el Mundo. Análisis Longitudinal Escala de
Cantril. Ed. Universidad de Granada.
5. Krippendorff, K.(1990). Metodología de análisis de contenido. Teoría y Práctica. Piados Comunicación.
6. Andréu Abela J. (SF). Las técnicas de Análisis de Contenido: Una revisión actualizada.
http://mastor.cl/blog/wp-content/uploads/2018/02/Andreu.-analisis-de-contenido.-34-pags-pdf.pdf
7. Amescua, M. & Gálvez, A. (2002). Los modos de análisis en investigación cualitativa en salud: Perspectiva
crítica y reflexiones en voz alta. Revista Española de Salud Pública. Vol.76.
No.5. http://www.scielosp.org/scielo.php?script=sci_arttextpid=s113557272002000500005