Se ha denunciado esta presentación.
Se está descargando tu SlideShare. ×

ESTRUCTURA DEL ANALISIS.pptx

Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Cargando en…3
×

Eche un vistazo a continuación

1 de 14 Anuncio

Más Contenido Relacionado

Más reciente (20)

Anuncio

ESTRUCTURA DEL ANALISIS.pptx

  1. 1. PROGRAMA: MAESTRIA SALUD PUBLICA CUATRIMESTRE: 5 MATERIA: ANALISIS DE INVESTIGACION TITULO: ESTRUCTURA DEL ANALISIS ALUMNO: FERNANDO PONCE DE LEON BALLESTEROS TUTOR: SAMANTHA LUCIA RIO GALVAN COORDINACIÓN: FACULTAD DE LA SALUD MTRA. ROCIO ARAIZA DE OLARTE
  2. 2. INTRODUCCION • El análisis de contenido en un sentido amplio es una técnica de interpretación de textos, ya sean escritos, grabados, pintados, filmados..., u otra forma diferente donde puedan existir toda clase de registros de datos, trascripción de entrevistas, discursos, protocolos de observación, documentos, videos,... el denominador común de todos estos materiales es su capacidad para albergar un contenido que leído e interpretado adecuadamente nos abre las puertas al conocimientos de diversos aspectos y fenómenos de la vida social. (1) • El análisis de contenido se basa en la lectura (textual o visual) como instrumento de recogida de información, lectura que a diferencia de la lectura común debe realizarse siguiendo el método científico, es decir, debe ser, sistemática, objetiva, replicable, y valida. En ese sentido es semejante es su problemática y metodología, salvo algunas características especificas, al de cualquier otra técnica de recolección de datos de investigación social, observación, experimento, encuestas, entrevistas, etc. No obstante, lo característico del análisis de contenido y que le distingue de otras técnicas de investigación sociológica, es que se trata de una técnica que combina intrínsecamente, y de ahí su complejidad, la observación y producción de los datos, y la interpretación o análisis de los datos. (2) • Todo contenido de un texto o una imagen pueden ser interpretado de una forma directa y manifiesta o de una forma soterrada de su sentido latente. Por tanto, se puede percibir de un texto o una imagen el contenido manifiesto, obvio, directo que es representación y expresión del sentido que el autor pretende comunicar. Se puede además, percibir un texto, latente oculto, indirecto que se sirve del texto manifiesto como de un instrumento, para expresar el sentido oculto que el autor pretende transmitir.(1,2,3)
  3. 3. • Berelson (1952 p.18) sostiene que el análisis de contenido es “una técnica de investigación para la descripción objetiva, sistemática y cuantitativa del contenido manifiesto de la comunicación”. Según esta definición el análisis de contenido ha de someterse a ciertas reglas. La “objetividad” se refiere al empleo de procedimientos que puedan ser utilizados por otros investigadores de modo que los resultados obtenidos sean susceptibles de verificación. La “sistematización” hace referencia a pautas ordenadas que abarquen el total del contenido observado (J. Andréu 1998). • En realidad estos dos elementos como indica Krippendorff (1990) confluyen en el requisito de 3 “reproductividad” de todo instrumento de investigación científica, es decir, que las reglas que lo gobiernen sean explicitas (objetivas) y aplicables a todas las unidades de análisis (sistemáticas). • La llegada de los ordenadores y, sobre todo, la posibilidad de acceso con ellos al análisis literal, más bien que numérico, ha inclinado aún más la balanza hacia la técnica cualitativa. Un importante elemento para el desarrollo y el auge en los últimos años del análisis de contenido cualitativo ha sido la incorporación de la “Teoría Fundamental” (Grounded Theory) y los métodos de comparación constante (MCC) de Glaser y Strauss a programas como Atlas.ti, Maxqda, Kwalitan..., y el decidido apoyo y consejo de Anselm Strauss a los desarrolladores de estos programas Thomas Muhr, Udo Kuckartz, Vincent Peters..., en la utilización de la inducción analítica para la búsqueda de códigos y categorías en los textos. No obstante, los mejores análisis de contenido actuales utilizan, en realidad, la técnica de la “triangulación” en la que se combinan los métodos de estadística multivariante (análisis de correspondencias múltiples, análisis factoriales...) con las técnicas cualitativas más sutiles (análisis de redes semánticas, análisis de intensidad y árboles jerárquicos, ..). De este modo, la tecnología del análisis de contenido combina diferentes métodos de análisis tenidos habitualmente como antitéticos (6)
  4. 4. DESARROLLO • Organización de las ideas para estructurar los análisis intermedios a medida que evoluciona la recolección de los datos de campo. La base del análisis es la categorización de los datos primero de lo descriptivo par allegar a lo teórico y abstracto, por medio de métodos que tienen patrones, regularidades, pero también presentan inconsistencias, incoherencias y discontinuidades. La lógica que subyace es la de agrupar en un gran conjunto lo común y en otro lo disperso. Al inicio como se ha planteado esta categorización será de tipo descriptivo para posteriormente evolucionar a un carácter más teórico y abstracto. El análisis lo podemos realizar por grupos; un grupo común y otro disperso. Para el armado del análisis cualitativo se van registrando las ideas que van emergiendo a medida que se leen y organizan los archivos a los cuales llamaremos memos o recordatorios. Estos deben ser organizados de manera que puedan recuperar permitiendo así que se incorporen a la investigación, así como para la búsqueda de nueva recolección de datos o como hipótesis emergentes que permitan conectar hallazgos de la investigación con la teoría formal ya existente. La validación de los hallazgos derivados de estos análisis intermedios se realizan mediante dos estrategias básicas: • Permanente contacto con los actores o participantes (validez interna) • Revisión sostenida de la literatura producida desde la teoría ya existente (validez externa)
  5. 5. • Aplicación de computadora para la organización y análisis de datos cualitativos. Las cualidades y utilidad que prestan a la tarea de análisis lleva a distinguir tres grupos dentro de estas aplicaciones, siendo: • Recuperadores de texto (software especializado)- primera generación. • Programas de codificación y recuperación – segunda generación. • Programas de elaboración teórica – tercera generación. Procesos para análisis de datos cualitativos acorde diseñadores de programas computacionales: 1. Creación de archivos de datos a partir de las notas de campo, revisión de documentos y/o transcripción de las entrevistas. 2. Codificación de los datos en los archivos, de modo que permitan la identificación y definición de segmentos de información relevantes para el análisis. 3. Realización de búsquedas dentro de los datos almacenados, para lo cual se ordenan y tamizan los segmentos de información previamente identificados. 4. Realización de descubrimientos para lo cual se identifican patrones, secuencias, procesos, reglas, estrategias y relaciones.
  6. 6. • Ethnograph • el programa Ethnograph funciona “cortando y pegando” segmentos o trozos de información de fuentes como notas de campo, entrevistas transcritas, documentos transcritos, entre otros. A su vez permite codificar, recodificar y ordenar archivos de datos en categorías analíticas. • Este programa considera que los datos están categorizados, por lo que la información es confiable, sistémica y cumple con los requisitos de calidad necesarios para ser válidos y confiables.
  7. 7. • Organización de datos. Comprensión, síntesis, teorización y recontextualización son procesos que corresponden a una secuencia lógica. Al alcanzar la comprensión de la realidad humana objeto de estudio, se alcanza la teorización, previo a sintetizar y de ahí se podrá recontextualizar cuando los conceptos o modelos se hubieran desarrollado completamente. La complejidad de la tarea de análisis demanda desde un principio la elección del cómo abordaremos los aspectos a observar, que variables plantearemos y la forma de analizar por lo que seguramente optaremos. Esto es circunscribirlo, elegir y mirar con una lupa el proceso para equivocarnos lo menos posible en la reducción que haremos.
  8. 8. • Teorización. Es una guía para realizar la comprensión y síntesis de los datos, y no como una estructura o marco dentro del cual se ordenan los datos. La teorización es el proceso por medio del cual se construyen y asumen explicaciones alternativas, apoyándose, para ello, en la lectura e interpretación sostenida de los datos generados por la investigación; siempre buscando una mejor, más conveniente y sencilla explicación de dichos datos. La realización de este proceso implica, plantearse y responder un conjunto de preguntas que permitan establecer nexos entre los datos arrojados por la investigación y la teoría ya establecida o existente; para ello se recurre a alguna de cuatro estrategias: • Encadenamiento: orienta a la identificación de las creencias y valores presentes en los datos de los que se dispone, buscando generar, entre ellos, nexos en cadena o relaciones, que permitan completar el análisis, trascendiendo la dimensión meramente descriptiva. • uso de pensamiento lateral: se apoya en el uso del llamado pensamiento lateral, que es un recurso mediante el cual se examinan conceptos similares en otros escenarios o, en su lugar, se buscan otras fuentes complementarias de datos en nuevos contextos. • Inducción analítica: consiste en adelantar un desarrollo inductivo creciente y sistemático de la teoría sustantiva o de la teoría formal, partiendo, para ello, de los datos obtenidos. • Falsación y la construcción de conjeturas: se basa en el empleo de la conjetura y la falsación, para lo cual se realiza un ejercicio de formulación de hipótesis sobre nexos causales, de una forma sistemática o una tarea de secuenciación de las características atribuidas a ciertos comportamientos o experiencias. Para apoyar esta tarea se emplean dos recursos metodológicos: el muestreo teórico y la validación con los informantes.
  9. 9. • Recontextualización Este proceso ocurre cuando el investigador prueba extender o extrapolar la aplicación de la teoría emergente a poblaciones o escenarios diferentes a aquellos en los cuales tuvo su origen. Destaca que el trabajo de otros investigadores y la teoría existente, desempeñan un papel crítico. La teoría ya elaborada dentro de cualquier disciplina relacionada con la temática abordada recontextualiza los nuevos hallazgos proporcionándoles un referente de comprensión más amplio y general, adaptándolos de modo que haga posible el avance del conocimiento disciplinario
  10. 10. • Análisis de datos cualitativos. Se debe tomar la decisión que información incluir y cual descartar a la hora de construir los datos de análisis, esto implica leer y releer el material previamente recolectado, así como el registro previo para garantizar que el investigador encuentre la diversidad que presenta el fenómeno estudiado. El análisis de datos debe permitir realizar construcciones narrativas que requieran selecciones e interpretaciones. El proceso de análisis de datos cualitativos se compone de diversas fases, aunque puede ser un procedimiento iterativo o de aproximación sucesiva. Las fases son: • Descubrimiento y obtención de los datos • Preparación, revisión y transcripción • Organización de los datos • Categorización • Análisis de los datos y generación de hipótesis, teorías, conclusiones
  11. 11. El análisis es la parte más creativa de la investigación y que requiere más tiempo y cuidado que la recolección misma de la información, es por ello que se debe apoyar en: • LA TAREA: cada texto debe de ser leído y releído para construir un significado de acuerdo a la interpretación del investigador. Esta se apoyará con la perspectiva estructurada y la perspectiva de mapeo. • Perspectiva estructurada: comienza el análisis con una descripción fidedigna y pormenorizada del contexto.se describen situaciones e interpretaciones que varían al avanzar el análisis, nos lleva a comprender e interpretar el fenómeno estudiado y las interconexiones de conceptos o variables. • Perspectiva de mapeo: centrada en las relaciones que se construyen a partir de lo dicho de los discursos de los sujetos, entre el tipo de relaciones entre los sujetos.
  12. 12. PROPUESTA • Mediante la recolección de datos mediante entrevista se puede conocer cuales son los factores socio culturales por lo que los hombres no acuden a un chequeo médico temprano en especial chequeo prostático en la población que acude a consulta externa en el Hospital General de Morelia “Dr. Miguel Silva”.
  13. 13. CONCLUSIÓN. • Analizar datos significa ser capaz de interpretar los significados de los mismos, la forma como se haga el análisis es lo que determina el enfoque o perspectiva de la tesis. • La investigación cualitativa puede ser vista como el intento de obtener una comprensión profunda de los significados y definiciones de la situación tal como nos la presentan las personas, más que la producción de una medida cuantitativa de sus características o conducta. • La metodología cualitativa ha abierto un espacio multidisciplinario que convoca a profesionales de las más diversas disciplinas (sociólogos, antropólogos, médicos, enfermeras, psicólogos, trabajadores sociales, relacionistas públicos, entre otros) lo que lejos de ser un inconveniente aporta una gran riqueza en la producción. Sin embargo, también provoca una serie de efectos perversos, tales como, la gran variabilidad existente en la manera de afrontar el análisis: Imprecisión y confusión de conceptos, multiplicidad de métodos, más descripción que interpretación, riesgo de especulación, escasa visión de conjunto, ateorización, entre otros, hasta tal punto que hoy día no podríamos hablar del análisis cualitativo, sino más bien de los análisis cualitativos. (7)
  14. 14. BIBLIOGRAFÍA 1. Altheide, D.L. (1996). Qualitative media analysis. Qualitative Research Methods. Vol. 38. Thousand Oaks. Sage 2. Colle, R. (1988) ANATEX: Software de análisis de concurrencias, Esc. de Periodismo PUC y Secico, Santiago. 3. Berelson, B. (1952). Content Analysis in Comunication Research, Free Press, Glencoe 4. Andréu, J. (1998) . Los españolos: Opinión sobre sí mismo, España y el Mundo. Análisis Longitudinal Escala de Cantril. Ed. Universidad de Granada. 5. Krippendorff, K.(1990). Metodología de análisis de contenido. Teoría y Práctica. Piados Comunicación. 6. Andréu Abela J. (SF). Las técnicas de Análisis de Contenido: Una revisión actualizada. http://mastor.cl/blog/wp-content/uploads/2018/02/Andreu.-analisis-de-contenido.-34-pags-pdf.pdf 7. Amescua, M. & Gálvez, A. (2002). Los modos de análisis en investigación cualitativa en salud: Perspectiva crítica y reflexiones en voz alta. Revista Española de Salud Pública. Vol.76. No.5. http://www.scielosp.org/scielo.php?script=sci_arttextpid=s113557272002000500005

×