Este documento presenta una introducción al análisis estadístico, incluyendo hipótesis estadísticas, puntuaciones z, y diferentes tipos de hipótesis como de estimación, correlación y diferencias de medias. Explica cómo traducir hipótesis de investigación a términos estadísticos y provee ejemplos para ilustrar los conceptos.
Verbos para investigacion taxonomia de bloomAna Garcia
El documento habla sobre los verbos que expresan objetivos en investigación. Explica que la taxonomía de Bloom reporta verbos para diferentes niveles del proceso de pensamiento como conocimiento, comprensión, aplicación, análisis, síntesis y evaluación. También detalla verbos utilizados según el tipo de investigación exploratoria, descriptiva o explicativa, así como verbos para redactar objetivos generales y específicos.
El documento describe los conceptos de unidad de análisis, población y muestra en la investigación. Una unidad de análisis es el sujeto u objeto de estudio seleccionado en base al planteamiento inicial. La población es el conjunto total de unidades de análisis relacionadas con el objeto a investigar, mientras que la muestra es un subgrupo de la población seleccionado para el estudio. Existen muestras probabilísticas, donde todos los elementos tienen la misma posibilidad de ser escogidos de forma aleatoria, y no probabil
Este documento describe los elementos clave para plantear adecuadamente un problema de investigación. Explica que un problema de investigación debe expresar una relación entre dos o más variables y formularse como una pregunta clara. También destaca la importancia de los objetivos medibles y específicos, las preguntas de investigación orientadas a encontrar respuestas, y la justificación, viabilidad y delimitación del problema. El documento provee una guía completa para definir todos los componentes esenciales de un problema de investigación.
El documento describe los diferentes métodos para organizar y presentar datos estadísticos recolectados en una investigación, incluyendo tablas, gráficos y figuras. Explica el uso de estadísticas descriptivas e inferenciales, y recomienda presentar los datos de manera sintética y legible para facilitar su comprensión. Además, destaca la importancia de explicar claramente la metodología utilizada en la investigación.
Técnicas e instrumentos de recolección de datosSara Alarcón
Este documento presenta diferentes técnicas e instrumentos para la recolección de datos en investigaciones cuantitativas, cualitativas y mixtas. En el enfoque cuantitativo se utilizan la encuesta, observación y análisis de contenido cuantitativo, mientras que en el cualitativo se emplean la observación, entrevista, grupos de discusión y revisión documental. Los enfoques mixtos combinan diferentes técnicas cualitativas con la encuesta.
Este documento describe los métodos cualitativos y cuantitativos de investigación. Los métodos cualitativos se basan en fuentes primarias como testimonios o evidencia directa, e interpretan y analizan estas fuentes de una manera subjetiva para construir teorías. Los métodos cuantitativos se basan en fuentes secundarias y estudian variables de una manera objetiva para formular leyes universales. Ambos métodos siguen una serie de pasos como la formulación de preguntas de investigación, el diseño de un plan, la recolección y análisis de
Presentación de Validez y Confiabilidadscgambiental
Este documento trata sobre los conceptos de medición, instrumentos de medición, y validez y confiabilidad en investigación cuantitativa. Brevemente resume que la medición implica asignar valores a variables, y los instrumentos de medición deben cumplir con criterios de validez, confiabilidad y objetividad. Explica los tipos de validez como validez de contenido, criterio y constructo, y métodos para medir la confiabilidad como test-retest, formas paralelas, coeficiente alfa de Cronbach y split-halves.
Este documento describe los métodos de investigación mixta, incluyendo su definición, ventajas y desventajas. Explica que la investigación mixta integra métodos cuantitativos y cualitativos para comprender un problema de manera más completa. También describe los diferentes tipos de diseños de investigación mixta, como triangulación, incrustado y secuenciales, así como consideraciones clave como la prioridad, secuencia y análisis de datos. El objetivo es ilustrar las diversas formas de realizar investigación mixta de manera efect
Verbos para investigacion taxonomia de bloomAna Garcia
El documento habla sobre los verbos que expresan objetivos en investigación. Explica que la taxonomía de Bloom reporta verbos para diferentes niveles del proceso de pensamiento como conocimiento, comprensión, aplicación, análisis, síntesis y evaluación. También detalla verbos utilizados según el tipo de investigación exploratoria, descriptiva o explicativa, así como verbos para redactar objetivos generales y específicos.
El documento describe los conceptos de unidad de análisis, población y muestra en la investigación. Una unidad de análisis es el sujeto u objeto de estudio seleccionado en base al planteamiento inicial. La población es el conjunto total de unidades de análisis relacionadas con el objeto a investigar, mientras que la muestra es un subgrupo de la población seleccionado para el estudio. Existen muestras probabilísticas, donde todos los elementos tienen la misma posibilidad de ser escogidos de forma aleatoria, y no probabil
Este documento describe los elementos clave para plantear adecuadamente un problema de investigación. Explica que un problema de investigación debe expresar una relación entre dos o más variables y formularse como una pregunta clara. También destaca la importancia de los objetivos medibles y específicos, las preguntas de investigación orientadas a encontrar respuestas, y la justificación, viabilidad y delimitación del problema. El documento provee una guía completa para definir todos los componentes esenciales de un problema de investigación.
El documento describe los diferentes métodos para organizar y presentar datos estadísticos recolectados en una investigación, incluyendo tablas, gráficos y figuras. Explica el uso de estadísticas descriptivas e inferenciales, y recomienda presentar los datos de manera sintética y legible para facilitar su comprensión. Además, destaca la importancia de explicar claramente la metodología utilizada en la investigación.
Técnicas e instrumentos de recolección de datosSara Alarcón
Este documento presenta diferentes técnicas e instrumentos para la recolección de datos en investigaciones cuantitativas, cualitativas y mixtas. En el enfoque cuantitativo se utilizan la encuesta, observación y análisis de contenido cuantitativo, mientras que en el cualitativo se emplean la observación, entrevista, grupos de discusión y revisión documental. Los enfoques mixtos combinan diferentes técnicas cualitativas con la encuesta.
Este documento describe los métodos cualitativos y cuantitativos de investigación. Los métodos cualitativos se basan en fuentes primarias como testimonios o evidencia directa, e interpretan y analizan estas fuentes de una manera subjetiva para construir teorías. Los métodos cuantitativos se basan en fuentes secundarias y estudian variables de una manera objetiva para formular leyes universales. Ambos métodos siguen una serie de pasos como la formulación de preguntas de investigación, el diseño de un plan, la recolección y análisis de
Presentación de Validez y Confiabilidadscgambiental
Este documento trata sobre los conceptos de medición, instrumentos de medición, y validez y confiabilidad en investigación cuantitativa. Brevemente resume que la medición implica asignar valores a variables, y los instrumentos de medición deben cumplir con criterios de validez, confiabilidad y objetividad. Explica los tipos de validez como validez de contenido, criterio y constructo, y métodos para medir la confiabilidad como test-retest, formas paralelas, coeficiente alfa de Cronbach y split-halves.
Este documento describe los métodos de investigación mixta, incluyendo su definición, ventajas y desventajas. Explica que la investigación mixta integra métodos cuantitativos y cualitativos para comprender un problema de manera más completa. También describe los diferentes tipos de diseños de investigación mixta, como triangulación, incrustado y secuenciales, así como consideraciones clave como la prioridad, secuencia y análisis de datos. El objetivo es ilustrar las diversas formas de realizar investigación mixta de manera efect
El documento explica los conceptos de comprender, contextualizar y relacionar un problema. Comprender un problema implica conocer sus elementos y cómo se relacionan. Contextualizar un problema significa analizar sus relaciones con el entorno y los efectos. También implica reunir conocimiento teórico relevante y adaptarlo para la investigación. Finalmente, contextualizar un problema es relacionarlo con el tema general de investigación del cual emerge.
Este documento describe el método mixto de investigación, el cual combina enfoques cualitativos y cuantitativos. Explica que este método permite responder una amplia gama de preguntas de investigación de manera comprehensiva al añadir significado y precisión a los datos. También describe varios tipos de diseños de métodos mixtos, como el diseño convergente paralelo y el diseño explicativo secuencial, así como las etapas típicas para llevar a cabo este tipo de investigación.
Validez y confiabilidad de instrumentos de medición en investigación cuantita...Mariela Nuñez
Presentación en formato power point sobre La Validez y Confiabilidad de los instrumentos de medición en una investigación científica, exigido por pensum de estudios de la maestría en Gerencia de Finanzas y de los Negocios, cuyo profesor titular es el Msc. Leonardo Castillo, Universidad Yacambu, Barquisimeto, Estado Lara, Venezuela.
Población, muestra y elaboración de instrumentos en investigaciones cuantitat...Evelyn Acevedo
Este documento describe los conceptos de población, muestra e instrumentos en investigaciones cuantitativas. Explica la diferencia entre población y muestra, y los diferentes tipos de muestreo como probabilístico y no probabilístico. También cubre los elementos fundamentales en la elaboración de instrumentos para la recolección de datos en este tipo de investigaciones.
PLANTEAMIENTO DEL PROBLEMA DE INVESTIGACIÓNJacinto Arroyo
Este documento presenta información sobre la formulación de estudios de investigación. Explica que la formulación implica reconocer los hechos relevantes, encontrar detalles que requieren resolución y caracterizar el problema. Luego, se debe formular el problema mediante una pregunta que conecte lógicamente las variables de estudio dentro de un contexto geográfico y temporal específico. Por último, proporciona ejemplos de cómo estructurar problemas de investigación de manera explicativa y correlacional.
Enfoques cuantitativos y cualitativos en la investigación científicaMEP
El documento describe las diferencias entre los enfoques cuantitativo y cualitativo de investigación. Indica que el enfoque cuantitativo se centra en describir, explicar y predecir fenómenos de manera objetiva, mientras que el enfoque cualitativo busca comprender e interpretar fenómenos de una manera subjetiva. También contrasta los métodos, diseños de investigación, recolección y análisis de datos propios de cada enfoque.
El documento describe los diferentes métodos de análisis de datos, incluyendo técnicas estadísticas como pruebas t, z y de varianza, estimaciones de punto e intervalos, correlación, frecuencia y medidas de tendencia central y dispersión. Explica cómo representar gráficamente los resultados de un análisis de datos usando tablas, diagramas y gráficos. También menciona el software SPSS y sus funciones para el análisis estadístico de datos.
Marco teorico. enfoque cuantitativo. (raquel gómez y luis saavedra) 201504140578752
Este documento presenta los pasos para construir un marco teórico bajo el enfoque cuantitativo de investigación. Explica que el marco teórico se elabora mediante la revisión de literatura para identificar teorías y estudios previos relacionados con el tema. También describe las funciones del marco teórico como guiar el estudio, prevenir errores, inspirar nuevas líneas de investigación y proveer un marco de referencia para los resultados. Finalmente, resume las etapas para construir el marco teórico, que incl
En las presentaciones existe las líneas de investigación que toda organización de la educación no universitaria y universitaria debe definir para orientar la investigación.
4.Alcance de la investigación. Los 10 pasos de la InvestigacionEdison Coimbra G.
Este documento describe los diferentes alcances que puede tener una investigación científica, incluyendo exploratorio, descriptivo, correlacional y explicativo/causal. Explica que el alcance depende del grado de desarrollo del conocimiento sobre el tema de investigación y del enfoque que se le quiere dar. Además, provee ejemplos para cada uno de los alcances.
Este documento describe diferentes medidas de dispersión como el rango, la varianza, la desviación estándar y el coeficiente de variación. Estas medidas cuantifican cuánto se alejan los valores de una distribución del centro y son útiles para comparar muestras. El documento también explica cómo calcular estas medidas y provee ejemplos ilustrativos.
Este documento describe el noveno paso del proceso de investigación, que es analizar los datos. Explica que se debe decidir qué pruebas estadísticas son apropiadas para analizar los datos dependiendo de las hipótesis y variables. Luego, se debe elaborar un programa de computadora para analizar los datos y obtener los análisis requeridos e interpretarlos. Finalmente, presenta los objetivos de comprender los conceptos y procedimientos estadísticos para analizar los datos.
Los métodos mixtos se refieren a la integración sistemática de los enfoques cuantitativo y cualitativo en un solo estudio con el objetivo de obtener una comprensión más completa del fenómeno bajo investigación. Surgen en la década de 1960 y se fortalecieron en los años 80 y 90, aplicándose en campos como la educación y la salud. Permiten lograr una perspectiva amplia del tema, datos más ricos y el desarrollo de la creatividad teórica.
Verbos para objetivos generales y objetivos específicos trabajo social Andrea Zúñiga Villagra
Este documento lista verbos para objetivos generales y específicos. Para objetivos generales, incluye verbos como analizar, calcular, categorizar y comparar. Para objetivos específicos, incluye verbos como formular, advertir, enumerar y especificar.
Una hipótesis es una posible respuesta a una pregunta de investigación que puede ser probada o rechazada mediante un experimento. Sirve para diseñar un experimento que ponga a prueba la afirmación. Una hipótesis es una declaración que, si se demuestra, ayuda a explicar un fenómeno, pero si se rechaza obliga a formular una nueva explicación.
El documento describe los diferentes tipos de estudios de casos como metodología de investigación cualitativa. Explica que los estudios de casos se enfocan en una unidad como persona, grupo u organización. Luego describe dos enfoques de estudios de casos, positivista e interpretativo, y diferentes clasificaciones como descriptivos, explicativos, ilustrativos y de acuerdo al número de casos estudiados. Finalmente, explica los componentes clave para diseñar un estudio de caso cualitativo.
El documento presenta un resumen del análisis cuantitativo de datos. Explica que este método usa la recolección de datos numéricos y análisis estadísticos para probar hipótesis y establecer patrones de comportamiento. Luego describe los pasos del proceso de investigación cuantitativa como decidir el programa a usar, explorar y analizar los datos de forma descriptiva y confirmar la validez de los hallazgos. Finalmente, menciona algunos programas estadísticos comunes como SPSS y Minitab para realizar este tipo de
El documento explica el proceso de operacionalización de variables, que consiste en transformar variables abstractas en términos concretos, observables y medibles. Esto implica definir las dimensiones e indicadores de una variable, así como establecer las escalas y unidades de medición. La operacionalización es necesaria para medir variables teóricas de forma empírica y desarrollar instrumentos que permitan la recolección de datos.
El documento presenta una introducción al programa estadístico SPSS, describiendo sus principales características y funcionalidades para la organización y análisis de datos. Explica los tres pasos claves en un estudio estadístico y las tres ventanas de SPSS. Además, detalla los procedimientos básicos para introducir y explorar datos, así como diferentes técnicas estadísticas de análisis.
Este documento describe las etapas clave del proceso de investigación, incluyendo la formulación del marco teórico, la operacionalización de variables a través de indicadores, el diseño de instrumentos para la recolección de datos, y las técnicas para el análisis de datos. Explica que la identificación y definición precisa de las variables es fundamental para el resto del proceso de investigación.
El documento explica los conceptos de comprender, contextualizar y relacionar un problema. Comprender un problema implica conocer sus elementos y cómo se relacionan. Contextualizar un problema significa analizar sus relaciones con el entorno y los efectos. También implica reunir conocimiento teórico relevante y adaptarlo para la investigación. Finalmente, contextualizar un problema es relacionarlo con el tema general de investigación del cual emerge.
Este documento describe el método mixto de investigación, el cual combina enfoques cualitativos y cuantitativos. Explica que este método permite responder una amplia gama de preguntas de investigación de manera comprehensiva al añadir significado y precisión a los datos. También describe varios tipos de diseños de métodos mixtos, como el diseño convergente paralelo y el diseño explicativo secuencial, así como las etapas típicas para llevar a cabo este tipo de investigación.
Validez y confiabilidad de instrumentos de medición en investigación cuantita...Mariela Nuñez
Presentación en formato power point sobre La Validez y Confiabilidad de los instrumentos de medición en una investigación científica, exigido por pensum de estudios de la maestría en Gerencia de Finanzas y de los Negocios, cuyo profesor titular es el Msc. Leonardo Castillo, Universidad Yacambu, Barquisimeto, Estado Lara, Venezuela.
Población, muestra y elaboración de instrumentos en investigaciones cuantitat...Evelyn Acevedo
Este documento describe los conceptos de población, muestra e instrumentos en investigaciones cuantitativas. Explica la diferencia entre población y muestra, y los diferentes tipos de muestreo como probabilístico y no probabilístico. También cubre los elementos fundamentales en la elaboración de instrumentos para la recolección de datos en este tipo de investigaciones.
PLANTEAMIENTO DEL PROBLEMA DE INVESTIGACIÓNJacinto Arroyo
Este documento presenta información sobre la formulación de estudios de investigación. Explica que la formulación implica reconocer los hechos relevantes, encontrar detalles que requieren resolución y caracterizar el problema. Luego, se debe formular el problema mediante una pregunta que conecte lógicamente las variables de estudio dentro de un contexto geográfico y temporal específico. Por último, proporciona ejemplos de cómo estructurar problemas de investigación de manera explicativa y correlacional.
Enfoques cuantitativos y cualitativos en la investigación científicaMEP
El documento describe las diferencias entre los enfoques cuantitativo y cualitativo de investigación. Indica que el enfoque cuantitativo se centra en describir, explicar y predecir fenómenos de manera objetiva, mientras que el enfoque cualitativo busca comprender e interpretar fenómenos de una manera subjetiva. También contrasta los métodos, diseños de investigación, recolección y análisis de datos propios de cada enfoque.
El documento describe los diferentes métodos de análisis de datos, incluyendo técnicas estadísticas como pruebas t, z y de varianza, estimaciones de punto e intervalos, correlación, frecuencia y medidas de tendencia central y dispersión. Explica cómo representar gráficamente los resultados de un análisis de datos usando tablas, diagramas y gráficos. También menciona el software SPSS y sus funciones para el análisis estadístico de datos.
Marco teorico. enfoque cuantitativo. (raquel gómez y luis saavedra) 201504140578752
Este documento presenta los pasos para construir un marco teórico bajo el enfoque cuantitativo de investigación. Explica que el marco teórico se elabora mediante la revisión de literatura para identificar teorías y estudios previos relacionados con el tema. También describe las funciones del marco teórico como guiar el estudio, prevenir errores, inspirar nuevas líneas de investigación y proveer un marco de referencia para los resultados. Finalmente, resume las etapas para construir el marco teórico, que incl
En las presentaciones existe las líneas de investigación que toda organización de la educación no universitaria y universitaria debe definir para orientar la investigación.
4.Alcance de la investigación. Los 10 pasos de la InvestigacionEdison Coimbra G.
Este documento describe los diferentes alcances que puede tener una investigación científica, incluyendo exploratorio, descriptivo, correlacional y explicativo/causal. Explica que el alcance depende del grado de desarrollo del conocimiento sobre el tema de investigación y del enfoque que se le quiere dar. Además, provee ejemplos para cada uno de los alcances.
Este documento describe diferentes medidas de dispersión como el rango, la varianza, la desviación estándar y el coeficiente de variación. Estas medidas cuantifican cuánto se alejan los valores de una distribución del centro y son útiles para comparar muestras. El documento también explica cómo calcular estas medidas y provee ejemplos ilustrativos.
Este documento describe el noveno paso del proceso de investigación, que es analizar los datos. Explica que se debe decidir qué pruebas estadísticas son apropiadas para analizar los datos dependiendo de las hipótesis y variables. Luego, se debe elaborar un programa de computadora para analizar los datos y obtener los análisis requeridos e interpretarlos. Finalmente, presenta los objetivos de comprender los conceptos y procedimientos estadísticos para analizar los datos.
Los métodos mixtos se refieren a la integración sistemática de los enfoques cuantitativo y cualitativo en un solo estudio con el objetivo de obtener una comprensión más completa del fenómeno bajo investigación. Surgen en la década de 1960 y se fortalecieron en los años 80 y 90, aplicándose en campos como la educación y la salud. Permiten lograr una perspectiva amplia del tema, datos más ricos y el desarrollo de la creatividad teórica.
Verbos para objetivos generales y objetivos específicos trabajo social Andrea Zúñiga Villagra
Este documento lista verbos para objetivos generales y específicos. Para objetivos generales, incluye verbos como analizar, calcular, categorizar y comparar. Para objetivos específicos, incluye verbos como formular, advertir, enumerar y especificar.
Una hipótesis es una posible respuesta a una pregunta de investigación que puede ser probada o rechazada mediante un experimento. Sirve para diseñar un experimento que ponga a prueba la afirmación. Una hipótesis es una declaración que, si se demuestra, ayuda a explicar un fenómeno, pero si se rechaza obliga a formular una nueva explicación.
El documento describe los diferentes tipos de estudios de casos como metodología de investigación cualitativa. Explica que los estudios de casos se enfocan en una unidad como persona, grupo u organización. Luego describe dos enfoques de estudios de casos, positivista e interpretativo, y diferentes clasificaciones como descriptivos, explicativos, ilustrativos y de acuerdo al número de casos estudiados. Finalmente, explica los componentes clave para diseñar un estudio de caso cualitativo.
El documento presenta un resumen del análisis cuantitativo de datos. Explica que este método usa la recolección de datos numéricos y análisis estadísticos para probar hipótesis y establecer patrones de comportamiento. Luego describe los pasos del proceso de investigación cuantitativa como decidir el programa a usar, explorar y analizar los datos de forma descriptiva y confirmar la validez de los hallazgos. Finalmente, menciona algunos programas estadísticos comunes como SPSS y Minitab para realizar este tipo de
El documento explica el proceso de operacionalización de variables, que consiste en transformar variables abstractas en términos concretos, observables y medibles. Esto implica definir las dimensiones e indicadores de una variable, así como establecer las escalas y unidades de medición. La operacionalización es necesaria para medir variables teóricas de forma empírica y desarrollar instrumentos que permitan la recolección de datos.
El documento presenta una introducción al programa estadístico SPSS, describiendo sus principales características y funcionalidades para la organización y análisis de datos. Explica los tres pasos claves en un estudio estadístico y las tres ventanas de SPSS. Además, detalla los procedimientos básicos para introducir y explorar datos, así como diferentes técnicas estadísticas de análisis.
Este documento describe las etapas clave del proceso de investigación, incluyendo la formulación del marco teórico, la operacionalización de variables a través de indicadores, el diseño de instrumentos para la recolección de datos, y las técnicas para el análisis de datos. Explica que la identificación y definición precisa de las variables es fundamental para el resto del proceso de investigación.
La frecuencia estadística se refiere a la cantidad de veces que se repite un valor de una variable. Existen cuatro tipos de frecuencias: frecuencia absoluta, frecuencia relativa, frecuencia absoluta acumulada y frecuencia relativa acumulada. Estas frecuencias se utilizan para representar y analizar la distribución de valores de una variable estadística.
El documento describe los procedimientos para analizar datos cuantitativos, incluyendo seleccionar un programa estadístico, ejecutar el programa, analizar y visualizar los datos, y analizar hipótesis. Explica conceptos como distribución de frecuencias, medidas de tendencia central como moda, mediana y media, y medidas de variabilidad como rango y desviación estándar. El objetivo final es proporcionar una descripción de las variables del estudio.
El documento presenta información sobre dos pruebas estadísticas para analizar datos categóricos: la prueba de Ji cuadrado de independencia y la prueba Ji cuadrado de bondad de ajuste. La prueba de independencia determina si dos variables categóricas son independientes analizando las frecuencias observadas y esperadas en una tabla de contingencia. La prueba de bondad de ajuste compara los datos muestrales con una distribución teórica para evaluar si se ajustan a ella. El documento incluye ejemplos y pasos
Este documento presenta el proceso de análisis de datos cuantitativos en una investigación educativa. Explica las siete fases del análisis: 1) seleccionar un programa estadístico, 2) ejecutar el programa, 3) explorar los datos, 4) evaluar la confiabilidad de los instrumentos, 5) analizar las hipótesis con pruebas estadísticas, 6) realizar análisis adicionales, y 7) preparar los resultados. Describe conceptos como variables de la matriz de datos, variables de investigación, y
Este documento discute el muestreo por conveniencia como un método de muestreo no probabilístico. Define el muestreo por conveniencia como la selección de participantes disponibles y accesibles para un estudio. Proporciona ejemplos como estudiantes de una clase o participantes en un evento. También discute las ventajas de bajo costo y facilidad de administración, así como las desventajas de falta de representatividad y mayor probabilidad de sesgo.
Este documento ofrece orientación sobre cómo formular una pregunta de investigación efectiva. Explica que la pregunta debe enfocarse en una relación entre conceptos clave en lugar de plantear un problema social o normativo. Además, la pregunta debe precisar la unidad de análisis, la propuesta explicativa y las variables independiente y dependiente que se estudiarán empíricamente. El objetivo es desarrollar una pregunta que contribuya al conocimiento académico y sea útil para tomadores de decisiones.
Este documento describe dos tipos de software: 1) software estadístico, que se usa para analizar y modelar datos, incluyendo software para estadística descriptiva y inferencial; y 2) software matemático, como sistemas algebraicos computacionales y hojas de cálculo, que se usan para resolver problemas matemáticos y realizar cálculos numéricos. También explica conceptos estadísticos básicos como la media, mediana, moda, varianza y desviación estándar.
Este documento describe un proyecto para aprender a usar el programa estadístico SPSS con el objetivo de aplicarlo en la solución de problemas de comercio exterior. El proyecto busca investigar información sobre el uso de programas estadísticos y aprender a utilizar correctamente SPSS para desarrollar ejercicios y resolver problemas relacionados con el comercio exterior usando análisis estadísticos. El documento también incluye una revisión teórica sobre conceptos estadísticos como regresión lineal, correlación, prueba de
Este documento describe un proyecto de investigación sobre el uso del programa estadístico SPSS para analizar datos y resolver problemas de comercio exterior. El objetivo general es aprender a usar SPSS para determinar parámetros estadísticos e inferenciales y aplicarlos a problemas de comercio exterior. El documento también incluye una revisión de conceptos estadísticos como regresión lineal, correlación, prueba de hipótesis, distribución normal y t de Student.
Este documento trata sobre medidas de dispersión y variabilidad estadística. Explica conceptos como desviación típica, varianza, coeficiente de variación y rango intercuartílico, los cuales permiten medir cuán similares o diferentes son los valores de una variable con respecto a su valor central. También introduce el diagrama de caja, una herramienta gráfica para visualizar y comparar la variabilidad entre distribuciones.
Linear regression correlation coefficient, residual analysis,regression analysis,media aritmetica,error tipo 1 ,error tipo2, jose cintron, mba4help.com, advance business consulting
El documento proporciona información sobre medidas de variabilidad y dispersión estadística como la varianza, desviación estándar y coeficiente de variación. Explica cómo calcular estas medidas para datos agrupados y no agrupados, incluyendo fórmulas y ejemplos numéricos. También describe las propiedades de estas medidas y cómo se pueden usar para comparar la variabilidad entre distribuciones de datos.
Este documento resume los conceptos básicos de la estadística, incluyendo la estadística descriptiva y la estadística inferencial. La estadística descriptiva se utiliza para resumir y describir datos, utilizando medidas como la media, moda, mediana y desviación estándar. La estadística inferencial permite sacar conclusiones sobre una población basadas en una muestra. También se describen pruebas estadísticas como la correlación de Pearson, la prueba t de Student y el análisis de varianza.
Este documento describe los conceptos básicos de la estadística, incluyendo la estadística descriptiva y la estadística inferencial. La estadística descriptiva se utiliza para resumir y describir los datos, mientras que la estadística inferencial permite sacar conclusiones sobre una población a partir de una muestra. Se explican medidas como la media, moda, mediana, desviación estándar, varianza y rango. También se cubren pruebas estadísticas como la correlación de Pearson, la prueba t de Student y
Este documento describe diferentes medidas de dispersión estadísticas, incluyendo el rango, la desviación media, y la desviación típica. Explica cómo calcular cada una de estas medidas y cuándo es más apropiado usar una u otra. También proporciona ejemplos numéricos para ilustrar los cálculos.
El documento define conceptos estadísticos básicos como población, muestra, sujeto, estadística descriptiva e inferencial. Explica las escalas de medición y variables. Describe medidas de tendencia central como la media, mediana y moda, y medidas de dispersión como la varianza y desviación estándar. Incluye un ejemplo para calcular estas medidas a partir de datos reales.
Este documento describe diferentes pruebas estadísticas para comparar grupos, incluyendo diagrama de cajas, prueba t de Student, análisis de varianza de un factor y prueba t para muestras relacionadas. Explica cómo estas pruebas permiten contrastar hipótesis sobre las diferencias entre medias de grupos y los supuestos de normalidad y homocedasticidad requeridos. También menciona cómo SPSS puede usarse para realizar estas pruebas y evaluar los supuestos.
Este documento describe diferentes pruebas estadísticas para comparar grupos, incluyendo diagrama de cajas, prueba t de Student, análisis de varianza de un factor y prueba t para muestras relacionadas. Explica cómo estas pruebas permiten contrastar hipótesis nulas sobre la igualdad de medias y varianzas entre grupos y los supuestos de normalidad y homocedasticidad requeridos. También resume los estadísticos y gráficos provistos por SPSS para realizar estas pruebas.
Este documento resume los principales estadísticos utilizados para describir conjuntos de datos, incluyendo medidas de tendencia central, dispersión, posición, simetría, apuntamiento y forma. Describe estadísticos como la media, mediana, varianza, desviación estándar, coeficiente de variación, percentiles, cuartiles, deciles e índices de asimetría y curtosis.
Este documento presenta un portafolio de estadística inferencial realizado por una estudiante para su curso de Comercio Exterior y Negociación Comercial Internacional. El objetivo general era aprender a manejar el programa SPSS para determinar parámetros estadísticos y aplicarlos a problemas de comercio exterior. El documento incluye la definición y tipos de estadística, regresión lineal, correlación, prueba de hipótesis, y distribución normal entre otros conceptos estadísticos.
Este documento describe un portafolio de estadística inferencial creado por una estudiante como parte de sus estudios en la Escuela de Comercio Exterior y Negociación Comercial Internacional de la Universidad Politécnica Estatal del Carchi en Ecuador. El portafolio cubre temas como el uso de programas estadísticos, regresión lineal, correlación, pruebas de hipótesis y distribuciones normales con el objetivo de aplicar estos conceptos a problemas de comercio exterior.
Este documento describe un proyecto de investigación sobre el uso del programa estadístico SPSS para aplicar estadística inferencial en la solución de problemas de comercio exterior. El objetivo general es aprender a manejar SPSS para determinar parámetros estadísticos e implementarlos en problemas de comercio exterior. El documento incluye la justificación, marco teórico sobre estadística inferencial, y métodos como regresión lineal, correlación, prueba de hipótesis y t de Student.
El documento describe los pasos del análisis de datos cuantitativos, incluyendo decidir el programa de análisis, explorar los datos, evaluar la confiabilidad de los instrumentos, analizar e interpretar los resultados mediante pruebas estadísticas. También describe técnicas como la organización de datos en matrices de tabulación, el análisis estadístico descriptivo para describir cada variable, y el análisis estadístico inferencial para probar hipótesis y estimar parámetros poblacionales.
El documento explica diferentes medidas de dispersión como el rango, desviación típica, varianza y coeficiente de variación. Define cada medida y describe sus características y cálculos. El rango es la diferencia entre el valor máximo y mínimo, la desviación típica mide la dispersión de los datos respecto a la media, la varianza es la esperanza del cuadrado de la desviación de la variable respecto a la media y el coeficiente de variación muestra la desviación típica como porcentaje de la media.
Este documento describe cuatro tipos principales de investigación: exploratoria, descriptiva, comparativa y analítica. La investigación exploratoria pretende dar una visión general de un tema poco conocido, la descriptiva describe situaciones y eventos, la comparativa identifica diferencias o similitudes entre contextos, y la analítica analiza un evento en términos de sus aspectos menos evidentes a través de la síntesis y el análisis de sus partes. Cada tipo tiene objetivos, técnicas y procesos específicos.
Este documento presenta una guía metodológica para la formulación y evaluación de proyectos orientados a resultados. Explica el ciclo de vida de un proyecto y los diferentes momentos de evaluación. Luego se enfoca en la evaluación ex ante, detallando los pasos para identificar problemas, priorizarlos, conceptualizar soluciones y analizar la factibilidad técnica y financiera de las propuestas. También cubre el seguimiento y la evaluación ex post para medir el impacto de los proyectos. El objetivo final es mejorar la inversión pública
Este documento presenta la tercera edición de la guía "El Proyecto de Investigación: Guía para su elaboración" de Fidias G. Arias. El prólogo destaca que el libro provee información útil y concisa para la elaboración de proyectos de investigación y la comunicación científica. Además, introduce las normas APA para citas y referencias, así como ejemplos de referencias de páginas web, elementos importantes para la investigación actual. El libro ayuda a los estudiantes a formalizar proyectos de investigación y comunicar sus
Este documento presenta una ampliación del capítulo sobre métodos mixtos de un libro de texto. Define los métodos mixtos como la combinación de datos cuantitativos y cualitativos en una sola investigación. Explica diferentes posturas sobre la posibilidad de fusionar enfoques cuantitativos y cualitativos, incluyendo fundamentalistas que defienden solo un enfoque, separatistas que los mantienen separados, e integradores que los combinan. El documento también brinda definiciones adicionales de métodos mixtos y discute su sustento filosófico
Este documento proporciona consejos prácticos para realizar investigación académica de manera efectiva. Recomienda que los estudiantes delimiten su tema de investigación de una manera específica y concreta, ya sea mediante la selección de una pregunta de investigación precisa, una población objetivo clara, o un enfoque o método definido. También sugiere que los estudiantes exploren su tema desde diferentes perspectivas para comprenderlo a profundidad antes de comenzar su investigación.
Este documento presenta cinco listados de parámetros para evaluar la calidad de una investigación. El primero se enfoca en investigaciones cuantitativas y contiene siete rubros con factores como el planteamiento del problema, la revisión de literatura, el alcance, las hipótesis, el diseño, la muestra y la recolección de datos. Los otros listados también proporcionan criterios para evaluar estudios cuantitativos, cualitativos y mixtos.
Sampieri propuestas cuantitativa y mixtasYAS Arias
Este documento describe los elementos clave que debe contener una propuesta de investigación. Explica que la propuesta debe identificar claramente qué, por qué y cómo se llevará a cabo el estudio, así como los recursos y tiempo requeridos. Además, recomienda que la propuesta siga una estructura lógica y responda preguntas clave para los lectores/evaluadores. Finalmente, detalla los contenidos típicos de una propuesta cuantitativa y cualitativa.
Este documento describe el proceso paso a paso para construir un instrumento de medición cuantitativo. Explica las fases de redefinición de variables y objetivos, revisión de literatura para identificar instrumentos existentes, determinación del alcance de las variables y sus indicadores, y decisiones clave sobre si utilizar, adaptar o desarrollar un nuevo instrumento. Además, proporciona ejemplos detallados para ilustrar cada etapa del proceso.
Este documento presenta una ampliación de los conceptos de diseños experimentales, incluyendo las fuentes de invalidación interna como la historia, maduración e instrumentación. También describe diseños como las series cronológicas múltiples y factoriales. Finalmente, comenta los diseños cuasiexperimentales y cómo controlar factores alternativos para validar los resultados.
Este documento define y describe los estudios de caso. Explica que un estudio de caso analiza en profundidad una unidad integral dentro de su contexto, utilizando múltiples fuentes de información. Detalla los componentes clave de un estudio de caso, como el planteamiento del problema, las unidades de análisis, y las fuentes e instrumentos de recolección de datos. También describe el proceso general de un estudio de caso, incluyendo la investigación, recolección de datos, análisis e informe de resultados.
Este documento amplía conceptos relacionados con la teoría, sus funciones y valor. Explora diferentes definiciones de teoría y cómo ha sido utilizado el término. Finalmente, adopta la definición de teoría como un conjunto de proposiciones lógicamente vinculadas que explican por qué y cómo ocurre un fenómeno, proporcionando entendimiento.
El documento discute los principios éticos en la investigación con seres humanos. Explica que los participantes tienen derecho a estar informados, negarse a participar o retirarse, y mantener su anonimato y confidencialidad. También tienen derecho a no ser expuestos a riesgos físicos o mentales. El investigador debe obtener el consentimiento informado de los participantes y proteger su privacidad y bienestar.
El documento describe brevemente la historia de los enfoques cuantitativo, cualitativo y mixto en la investigación. Explica que el enfoque cuantitativo se originó con el positivismo de Auguste Comte y Émile Durkheim en el siglo XIX, influenciado por científicos como Galileo y Newton. Más tarde, el pospositivismo surgió como un enfoque más flexible a fines del siglo XIX e inicios del XX. El documento también destaca algunos momentos clave en el desarrollo del enfoque cuantitativo como las
Tipos investigacion holistica hurtado de barreraYAS Arias
Este documento describe los diferentes tipos de investigación holística, incluyendo exploratoria, descriptiva, analítica, comparativa, explicativa, predictiva, proyectiva, interactiva, confirmatoria y evaluativa. Cada tipo se define brevemente por su objetivo, nivel de objetivos, propósitos y enunciados holopráxicos.
1. CAPÍTULO
8
ANÁLISIS ESTADÍSTICO:
SEGUNDA PARTE
INTRODUCCIÓN
Con este capítulo se complementa el 10 de Metodología de la investigación, 5ª edición,
además de que se actualizó su contenido. Se presentan primero las hipótesis
estadísticas, las puntuaciones z, cálculos inferenciales o estimaciones de parámetros y
luego el cálculo del coeficiente alfa‐Cronbach y el sustento del análisis de varianza
unidireccional. Finalmente los análisis multivariados y algunas fórmulas, así como una
secuencia de análisis en Minitab y otra en SPSS. Los autores asumimos que se revisó
previamente el capítulo en cuestión.
HIPÓTESIS ESTADÍSTICAS
En el capítulo 10 se señaló que cada prueba estadística obedece a un tipo de hipótesis
de investigación e hipótesis estadística distinta. Las hipótesis estadísticas son la
2. transformación de las hipótesis de investigación, nulas y alternativas en símbolos
estadísticos. Algunas revistas académicas solicitan que se incluyan estas hipótesis y
ayudan a conceptualizar ciertas pruebas revisadas en el capítulo 10 del texto impreso.
En ocasiones, el investigador traduce su hipótesis de investigación y nula (y cuando
se formulan hipótesis alternativas, también éstas) en términos estadísticos.
Básicamente hay tres tipos de hipótesis estadísticas, que corresponden a clasificaciones
de las hipótesis de investigación y nula: 1) de estimación, 2) de correlación y 3) de
diferencias de medias. A continuación mencionaremos y daremos ejemplos de cada una
de ellas.
Hipótesis estadísticas de estimación
Corresponden a las que, al hablar de hipótesis de investigación, se les denomina
hipótesis descriptivas de un dato que se pronostica. Sirven para evaluar la suposición de
un investigador respecto del valor de alguna característica en una muestra de
individuos, otros seres vivos, sucesos u objetos, y en una población. Se fundamentan en
información previa. Supongamos que, basándose en ciertos datos, un investigador
plantea la siguiente hipótesis: “el promedio mensual de casos de trastorno
psiconeurótico caracterizados por reacción asténica, que serán atendidos en los
hospitales de la ciudad de Linderbuck, resultará mayor a 20”. Además, desea
transformar esta hipótesis de investigación en una hipótesis estadística. Lo primero que
debe hacer es analizar cuál es la estadística a que su hipótesis hace referencia (en el
ejemplo se trata de un promedio o media mensual de casos atendidos). El segundo paso
consiste en encontrar cómo se simboliza esa estadística (promedio se simboliza como
). El tercer paso consiste en traducir la hipótesis de investigación a una forma
estadística:
Hi: > 20 (“el promedio mensual de casos atendidos será mayor a 20”.)
La hipótesis estadística nula sería la negación de la hipótesis anterior:
Ho: < 20 (“el promedio mensual de casos atendidos será menor a 20”.)
y la hipótesis alternativa podría ser:
Ha: = 20 (“el promedio mensual de casos… es igual a 20”.)
3. Después, el investigador comparará el promedio estimado por la hipótesis con el
promedio actual de la muestra que seleccionó. La exactitud de su estimación se evalúa
con esta comparación. Y como señalan Black y Champion (1976), algunos
investigadores consideran las hipótesis estadísticas de estimación como hipótesis de
diferencia, pues en última instancia lo que se evalúa es la diferencia entre un valor
planteado en la hipótesis y un valor observado en una muestra.
La estimación de estas hipótesis no se limita a promedios, ya que puede incluirse
cualquier estadística: porcentajes, medianas, modas, etc. (Crosby et al., 2006).
Hipótesis estadísticas de correlación
Estas hipótesis tienen por objetivo traducir en términos estadísticos una correlación
entre dos o más variables. El símbolo de una correlación entre dos variables es “r”
(minúscula), y entre más de dos variables “R” (mayúscula). La siguiente hipótesis: “a
mayor cohesión en un grupo, mayor eficacia en el logro de sus metas primarias”, se
traduciría tal como se muestra en el esquema.
Hi: r x y ≠ 0 (no es igual a cero o, lo que es lo mismo, ambas
variables están correlacionadas)
La correlación
entre dos variables (cohesión y eficacia)
La hipótesis nula se traduciría:
Ho: rxy = 0 (Las dos variables no están correlacionadas; su correlación es cero.)
Otro ejemplo:
Hi: Rxyz ≠ 0 (La correlación entre las variables autonomía, variedad y motivación
intrínseca no es igual a cero. Es decir, las tres variables “x”, “y”, “z” están
asociadas).
Ho: Rxyz = 0 (No hay correlación)
Hipótesis estadísticas de la diferencia de medias u otros valores
En estas hipótesis se compara una estadística entre dos o más grupos. Supongamos que
un investigador plantea la siguiente pregunta de estudio: ¿difieren los periódicos Télex y
Noticias en cuanto al promedio de editoriales mensuales que dedicaron, durante el
4. último año, al tema del terrorismo internacional?1 Su hipótesis de investigación podría
ser: “existe una diferencia entre el promedio de editoriales mensuales que dedicó,
durante el último año, al tema del terrorismo internacional el diario Télex, y el que
dedicó el diario Noticias”. La estadística que se compara entre los grupos (editoriales de
Télex, un grupo, y editoriales de Noticias, otro grupo) es el promedio mensual ( ). La
hipótesis estadística se formularía así:
es diferente
Hi: 1 ≠ 2 (promedio del grupo 2: editoriales de Noticias)
(promedio del grupo uno: editoriales de
Télex)
La hipótesis nula:
Ho: 1 = 2 (“No hay diferencia entre los promedios de los dos grupos de
editoriales”.)
Con otra estadística (porcentaje) y tres grupos, se obtendrían hipótesis estadísticas
como las siguientes:
Hi: %1 ≠ %2 ≠ %3 (“Los porcentajes de los tres grupos son distintos”.)
Ho: %1 = %2 = %3 (“No hay diferencias”.)
PUNTUACIONES z
Puntuación z Medida
Las puntuaciones z son transformaciones que se pueden que indica la dirección y
hacer a los valores o las puntuaciones obtenidas, con el el grado en que un valor
individual se aleja de la
propósito de analizar su distancia respecto a la media, en media, en una escala de
unidades de desviación estándar. Una puntuación z nos indica unidades de desviación
estándar.
la dirección y el grado en que un valor individual obtenido se
1 Nombres completamente ficticios
5. aleja de la media, en una escala de unidades de desviación estándar. Como mencionan
Nie et al. (1975), las puntuaciones z son el método más comúnmente utilizado para
estandarizar la escala de una variable medida en un nivel por intervalos.
Su fórmula es:
donde X es la puntuación o el valor a transformar, es la media de la distribución y s la
desviación estándar de ésta. El resultado z es la puntuación transformada en unidades
de desviación estándar.
Supongamos que en una distribución de frecuencias obtuvimos una media de 60 y
una desviación estándar de 10, y deseamos comparar una puntuación de “50” con el
resto de la distribución. Entonces, transformamos esta puntuación o tal valor en una
puntuación z. Tenemos que:
X = 50
= 60
s = 10
La puntuación z correspondiente a un valor de “50” es:
Podemos decir que el valor “50” se localiza a una desviación estándar por debajo de
la media de la distribución (el valor “30” está a tres desviaciones estándar por debajo de
la media).
Estandarizar los valores permite comparar puntuaciones de dos distribuciones
diferentes (la forma de medición es la misma, aunque se trata de distribuciones
distintas). Por ejemplo, podemos contrastar una distribución obtenida en una
6. preprueba con otra obtenida en una posprueba (en un contexto experimental).
Supongamos que se trata de un estímulo que incrementa la productividad. Un
trabajador obtuvo en la preprueba una productividad de 130 (la media del grupo fue de
122.5 y la desviación estándar de 10). Y en la posprueba obtuvo 135 (la media del grupo
fue de 140 y la desviación estándar de 9.8). ¿Mejoró la productividad del trabajador? En
apariencia, la mejoría no es considerable. Sin transformar las dos calificaciones en
puntuaciones z, no es posible asegurarlo porque los valores no pertenecen a la misma
distribución. Entonces transformamos ambos valores a puntuaciones z, los pasamos a
una escala común donde la comparación es válida. El valor de 130 en productividad en
términos de unidades de desviación estándar es igual a:
130 − 122.5
z= = 0.75
10.0
Y el valor de 135 corresponde a una puntuación z de:
135 − 140
z= = −0.51
9.8
Como observamos, en términos absolutos 135 es una mejor puntuación que 130,
pero no en términos relativos (en relación con sus respectivas distribuciones).
La distribución de puntuaciones z no cambia la forma de la distribución original,
pero sí modifica las unidades originales a “unidades de desviación estándar” (Wright,
1979). La distribución de puntuaciones z tiene una media de 0 (cero) y una desviación
estándar de 1 (uno). La figura 8.1 muestra la distribución de puntuaciones z.
7.
Figura 8.1 Distribución de puntuaciones z
Las puntuaciones z también sirven para comparar mediciones de distintas pruebas
o escalas aplicadas a los mismos participantes (los valores obtenidos en cada escala se
transforman en puntuaciones z y se comparan) (Delbaere et al., 2007). No debe
olvidarse que los elementos de la fórmula específicamente son la media y la desviación
estándar que corresponden al valor a transformar (de su misma distribución). También,
las puntuaciones z sirven para analizar distancias entre puntuaciones de una misma
distribución y áreas de la curva que abarcan tales distancias, o para sopesar el
desempeño de un grupo de participantes en varias pruebas. Las puntuaciones z son un
elemento descriptivo adicional que se agrega para analizar nuestros datos.
ESTIMACIÓN DE PARÁMETROS:
UN EJEMPLO CON LA MEDIA POBLACIONAL
En el capítulo 10 del texto impreso se mencionó que una de las funciones de la
estadística inferencial es la estimación de parámetros, pues bien, al calcular la media de
nuestra muestra y si no estamos muy seguros de su representatividad podemos seguir
un procedimiento para ver si nuestra hipótesis respecto a la media poblacional es
8. aceptada o rechazada.2 Lo anterior es para responder a la siguiente pregunta: ¿qué
hacemos para ver si nuestra hipótesis sobre la media poblacional es aceptada o
rechazada? Pero antes de estudiar el procedimiento, es necesario hacer las siguientes
consideraciones:
a) La distribución muestral es una distribución normal de puntuaciones z, es
decir, la base de la curva son unidades de desviación estándar.
b) Las puntuaciones z son distancias que indican áreas bajo la distribución
normal. En este caso, áreas de probabilidad.
c) El área de riesgo es tomada como el área de rechazo de la hipótesis; por el
contrario, el área de confianza, como el área de aceptación de la hipótesis.
d) Se habla de una hipótesis acerca del parámetro (en este caso, media
poblacional).
Si partimos de estas consideraciones, el procedimiento es:
1. Sobre bases firmes (revisión de la literatura e información disponible),
establecer una hipótesis acerca del parámetro poblacional. Por ejemplo: el
promedio de horas diarias que se exponen los niños de la ciudad de Valladolid
a la televisión en fin de semana es de 3.0 horas.
2. Definir el nivel de significancia. Por ejemplo, .05.
3. Recolectar los datos en una muestra representativa. Vamos a suponer que
obtuvimos una media de 2.9 horas y una desviación estándar de 1.2 horas; la
muestra incluyó 312 niños.
4. Estimar la desviación estándar de la distribución muestral de la media
utilizando la siguiente fórmula:
2 En este ejemplo se utiliza la media, tal vez el caso más conocido, pero puede ser cualquier otro parámetro
poblacional.
9. Donde es la desviación estándar de la distribución muestral de la media, s
representa la desviación estándar de la muestra y n es el tamaño de la muestra.
En el ejemplo:
5. Transformar la media de la muestra en una puntuación z, en el contexto de la
distribución muestral, con una variación de la fórmula ya conocida para obtener
puntuaciones z:
donde X es la media de la muestra (recordemos que la distribución muestral es de
medias y no de puntuaciones), es la media hipotética de la distribución muestral
(parámetro poblacional), es la desviación estándar de la distribución
muestral de medias. Así, tenemos:
2.9 − 3.0
z= = −1.47
0.0679
6. En la tabla de áreas bajo la curva normal (ver apéndice, 4 tabla 1 de este CD), buscar
aquella puntuación z que deje a 25% por encima de ella, que es 1.96. En la tabla del
apéndice 4 se presenta la distribución de puntuaciones z, sólo la mitad, pues
debemos recordar que es una distribución simétrica y se aplica igual para ambos
lados de la media. Así se incluye en los textos de estadística. Se busca 2.5%, porque
la tabla sólo abarca la mitad de la distribución y el riesgo que estamos afrontando es
de 5% (2.5% del extremo de cada lado). La tabla mencionada contiene cuatro
columnas: la primera indica puntuaciones z, la segunda expresa la distancia de la
puntuación z a la media. La tercera, el área que está por de bajo de esa puntuación
10. desde el comienzo de la distribución, como se muestra en la gráfica:
z
Y la cuarta, del área que está por encima de esa puntuación:
z
Las áreas se expresan en proporciones. Lo que buscamos es una puntuación z
que deje por encima un área de 0.0250 o 2.5% (la encontramos en la cuarta columna
de la tabla); esta puntuación z es de 1.96. Siempre que nuestro nivel de significancia
sea 0.05, tomamos la puntuación z de 1.96.
7. Comparar la media de la muestra transformada a puntuación z con el valor 1.96; si
es menor, aceptar la hipótesis; si es mayor, rechazarla. Veamos el ejemplo:
Media de la muestra transformada a z Nivel de significancia del 0.05
1.47 1.96
Decisión: Aceptar la hipótesis a un nivel de significancia de 0.05 (95% a favor y 5% de
riesgo de cometer un error).
Si la media obtenida
al transformarse en z,
Hubiera sido 3.25,
7.46 o un valor mayor Rechazar la hipótesis
Por ejemplo :
Media de la muestra = 2.0
11. Desviación estándar de la muestra = 0.65
n = 700
S = 0.0246
z = 40.65
La media está situada a más de 40 desviaciones estándar de al media; se localiza en la
zona crítica (más allá de 1.96 desviaciones estándar). Rechazar la hipótesis.
¿POR QUÉ ES IMPORTANTE OTRO CONCEPTOPARA LA
ESTIMACIÓN DE PARÁMETROS: EL INTERVALO DE CONFIANZA?
Se ha hablado de la distribución muestral por lo que respecta a la prueba de hipótesis,
pero otro procedimiento de la estadística inferencial es construir un intervalo donde se
localiza un parámetro (Wiersma y Jurs, 2008). Por ejemplo, en lugar de pretender
probar una hipótesis acerca de la media poblacional, puede buscarse un intervalo donde
se ubique dicha media. Lo anterior requiere un nivel de confianza, al igual que en la
prueba de hipótesis inferenciales. El nivel de confianza es al intervalo de confianza lo
que el nivel de significancia es a la prueba de hipótesis. Es decir, se trata de una
probabilidad definida de que un parámetro se va a ubicar en un determinado intervalo.
Recordemos que los niveles de confianza –expresados en porcentajes– más comunes en
la investigación son 0.95 y 0.99 (.05 y .01). Su sentido es similar al ya comentado, si es
de 0.95; quiere decir que tenemos 95% en favor de que el parámetro se localice en el
intervalo estimado, contra 5% de elegir un intervalo equivocado. El nivel de 0.99 señala
99% de probabilidad de seleccionar el intervalo adecuado. Tales niveles de confianza se
expresan en unidades de desviación estándar. Una vez más se acude a la distribución
muestral, concretamente a la tabla de áreas bajo la curva normal (apéndice 4, tabla 1 de
este CD anexo o en STATS® “Áreas bajo la curva normal”)3, y se elige la puntuación z
correspondiente al nivel de confianza seleccionado. Una vez hecho esto, se aplica la
siguiente fórmula:
3 También STATS® contiene esta tabla.
12. Puntuación z que Desviación estándar de
expresa el nivel de la distribución muestral
Intervalo de confianza = estadígrafo + confianza elegido correspondiente
En la fórmula, el estadígrafo es la estadística calculada en la muestra, la puntuación
z es 1.96 con un nivel de 0.95 y de 2.58 con un nivel de 0.99, en tanto que el error
estándar depende del estadígrafo en cuestión. Veámoslo con el ejemplo de la media en
el caso de la exposición diaria a la televisión (en fin de semana) por parte de los niños
de Valladolid:
Media = 2.9 horas
s = 1.2 horas
(desviación estándar de la distribución muestral de la media).
Nivel de confianza
= 0.95 (z = 1.96)
Intervalo de confianza = 2.9 ± (1.96) (0.0679)
= 2.9 ± (0.133)
Intervalo de confianza: la media poblacional está entre 2.767 y 3.033 horas, con
95% de probabilidades de no cometer error.
CÁLCULO DEL COEFICIENTE DE CONFIABILIDAD
(FIABILIDAD) ALFA‐CRONBACH
En los capítulos 9 y 10 se definió el coeficiente alfa de Cronbach (α), así como sus usos e
interpretación. Los programas de análisis estadístico como SPSS, Minitab, SAS y otros, lo
incluyen y calculan instantáneamente. Pero para quienes no tienen acceso a estos
programas, presentamos la forma de obtenerlos. De acuerdo con Carmines y Zeller
(1988, pp. 44 y 45), así como Corbetta (2003), existen tres procedimientos para
determinar el coeficiente “α” o alfa:
1. Sobre la base de la varianza de los ítems, con la aplicación de la siguiente
fórmula:
13. N
α=
⎡ N − 1⎤ ⎢
( )
⎡ 1 − ∑ s 2 Yi ⎤
⎥
⎣ ⎦ s2 x
⎢
⎣ ⎥
⎦
En donde N representa el número de ítems de la escala, ∑ s (Yi ) es igual a la
2
sumatoria de las varianzas de los ítems y “s2x” equivale a la varianza de toda la escala.
2. Sobre la base de la matriz de correlación de los ítems, el procedimiento sería:
a) Se aplica la escala.
b) Se obtienen los resultados.
c) Se calculan los coeficientes de correlación r de Pearson entre todos los ítems
(todos contra todos de par en par).
d) Se elabora la matriz de correlación con los coeficientes obtenidos. Por ejemplo:
Ítems
1 2 3 4
1 — 0.451 0.399 0.585
2 ya fue calculado — 0.489 0.501
3 ya fue calculado ya fue calculado — 0.541
4 ya fue calculado ya fue calculado ya fue calculado —
Los coeficientes que se mencionan como “ya fue calculado”, se ubican en la parte
superior de las líneas horizontales (guiones). Es decir, cada coeficiente se incluye una
sola vez y se excluyen los coeficientes que vinculan al ítem o puntuación consigo misma
(1 con 1, 2 con 2, 3 con 3 y 4 con 4).
e) Se calcula (promedio de las correlaciones).
14. ( es la sumatoria de los valores de las correlaciones y NP el número
de correlaciones no repetidas o no excluidas).
f) Se aplica la fórmula siguiente:
Np
α=
1 + p (N − 1)
Donde N es el número de ítems y el promedio de las correlaciones entre ítems.
En el ejemplo:
α = 0.798
α = 0.80 (cerrando)
Es un coeficiente aceptable y recordemos que todos los ítems de la escala deben
estar medidos en intervalos o razón.
3. Mediante otra fórmula que se basa en la correlación promedio (Corbetta, 2003,
p. 238).
15. Se usa la siguiente fórmula:
nr
α=
1 + r(n − 1)
Donde n representa el número de ítems o elementos de la escala y r es su
correlación promedio.
SUSTENTO DEL ANÁLISIS DE VARIANZA UNIDIRECCIONAL
En el capítulo 10 del texto impreso, se dijo que el ANOVA unidireccional produce un
valor F, el cual se basa en una distribución muestral, conocida como distribución F, y tal
valor compara las variaciones en las puntuaciones debidas a dos diferentes fuentes:
variaciones entre los grupos que se contrastan y variaciones dentro de los grupos.
Si los grupos difieren realmente entre sí, sus puntuaciones variarán más de lo que
puedan variar las puntuaciones entre los integrantes de un mismo grupo. Veámoslo con
un ejemplo cotidiano. Si tenemos tres familias A, B y C. La familia A está integrada por
Felipe, Angélica, Elena y José Luis. La familia B está compuesta por Chester, Pilar, Íñigo,
Alonso y Carlos. Y la familia C está integrada por Rodrigo, Laura y Roberto. ¿Qué
esperamos? Pues que los integrantes de una familia se parezcan más entre sí que a los
miembros de otra familia. Esto se graficaría como en la figura 8.2.
16.
Figura 8.2 Ejemplo de las variaciones de los grupos comparados
Es decir, esperamos homogeneidad intrafamilias y heterogeneidad interfamilias.
¿Qué sucedería si los miembros de las familias se parecieran más a los integrantes de las
otras familias que a los de la suya propia? Quiere decir que no hay diferencia entre los
grupos (en el ejemplo, familias).
Esta misma lógica se aplica a la razón F, la cual nos indica si las diferencias entre los
grupos son mayores que las diferencias intragrupos (dentro de éstos). Estas diferencias
se miden en términos de varianza. La varianza es una medida de dispersión o
variabilidad alrededor de la media y se calcula en términos de desviaciones elevadas al
cuadrado. Recuerde que la desviación estándar es un promedio de desviaciones respecto
a la media X − X y la varianza es un promedio de desviaciones respecto a la media
( ) . La varianza por eso se simboliza como S y su fórmula
2
elevadas al cuadrado X − X 2
∑( X − X )
2
es n . En consecuencia, la razón F, que es una razón de varianzas, se
expresa así:
17. En donde la media cuadrática implica un promedio de varianzas elevadas al
cuadrado. La media cuadrática entre los grupos se obtiene al calcular la media de las
puntuaciones de todos los grupos (media total), después se obtiene la desviación de la
media de cada grupo respecto a la media total y se eleva al cuadrado cada una de estas
desviaciones, y luego se suman. Finalmente se sopesa el número de individuos en cada
grupo y la media cuadrática se obtiene con base en los grados de libertad intergrupales
(no se calcula con base en el número de puntuaciones). La media cuadrática dentro de
los grupos se calcula obteniendo primero la desviación de cada puntuación respecto a la
media de su grupo; posteriormente esta fuente de variación se suma y combina para
obtener una media de la varianza intragrupal para todas las observaciones, tomando en
cuenta los grados de libertad totales (Wright, 1979; Doncaster y Davey, 2007).
Las fórmulas de la media cuadrática son:
º
Los grados de libertad entre grupos = (donde K es el número de grupos).
Los grados de libertad intragrupos = n − K (n es el tamaño de la muestra, la suma
de los individuos de todos los grupos, y K recordemos que es el número de grupos).
Pues bien, cuando F resulta significativa, quiere decir que los grupos difieren
“significativamente” entre sí. Es decir, se acepta la hipótesis de investigación y se
rechaza la hipótesis nula.
Cuando se efectúa el análisis de varianza por medio de un programa computacional
estadístico, se genera una tabla de resultados con los elementos de la tabla 8.1.
18. Tabla 8.1 Elementos para interpretar un análisis de varianza
unidireccional realizado en SPSS
Sumas de Grados de Medias
Fuente de cuadrados libertad cuadráticas Significancia
variación (Sums of (Degrees of (Mean Razón F de F
(Source) squares) freedom) squares) (F‐ratio) (F prob.)
Entre SS entre + gl entre SS entre/gl α
grupos entre
(between
groups)
Intragrupos SS intra gl intra SS intra/gl
(within intra
groups)
Total SS entre gl entre +
SS intra gl intra
En Minitab se dan los siguientes elementos:
Fuente GL (grados SC (suma de MC (media F (valor) P (sig.)
de libertad) cuadrados) cuadrática)
El valor alfa o probabilidad a elegir una vez más es 0.05 o 0.01. Si es menor que 0.05
es significativo en este nivel, y si es menor que 0.01 también es significativo en este
nivel. Cuando el programa o paquete estadístico no incluye la significancia se acude a la
tabla 3 del apéndice 4 (tabla de la distribución F o en STATS® a “Valores de “F” al nivel
de confianza de .05 y .01”). Esta tabla contiene una lista de razones significativas
(razones F) que debemos obtener para aceptar la hipótesis de investigación en los
niveles de confianza de 0.05 y 0.01. Al igual que en caso de la razón t, el valor exacto de
F que debemos obtener depende de sus grados de libertad asociados. Por lo tanto, la
utilización de la tabla se inicia al buscar los dos valores gl, los grados de libertad entre los
grupos y los grados de libertad intragrupos. Los grados de libertad entre grupos se
indican en la parte superior de la página, mientras que los grados de libertad
intragrupos se han colocado al lado izquierdo de la tabla. El cuerpo de la tabla de la
distribución F presenta razones F significativas en los niveles de confianza de 0.05 y
0.01.
19. Si F = 1.12
gl entre = 2
gl intra = 60
Este valor F se compara con el valor que aparece en la tabla de la distribución F que
es 3.15 y como el valor F calculado es menor al de dicha tabla, rechazaríamos la
hipótesis de investigación y aceptaríamos la hipótesis nula. Para que el valor F calculado
sea significativo debe ser igual o mayor al de la tabla.
ANÁLISIS MULTIVARIADO
En el capítulo 10 del libro, cuando se analizaron los principales métodos estadísticos
paramétricos, concretamente, después de revisar el ANOVA unidireccional, nos
preguntábamos: ¿pero qué ocurre cuando tenemos diversas variables independientes y
una dependiente, varias independientes y dependientes? Tal como observábamos en
diagramas como el que se muestra en la figura 8.3.
Autoestima de
la persona
Sentido
Edad de vida
de la
persona
Género
Religión
Figura 8.3 Ejemplo con cuatro variables independientes y una dependiente.
La respuesta era: entonces, requerimos de otros métodos estadísticos. Éstos son los
que revisaremos a continuación y una vez más, sobre la base de que existen
computadoras y programas como el SPSS, del mismo modo centrándonos en los
20. elementos fundamentales de interpretación.
¿Qué son los métodos de análisis multivariado?
Los métodos de análisis multivariado son aquellos en que se analiza la relación entre
diversas variables independientes y al menos una dependiente. Son métodos más
complejos que requieren del uso de computadoras para efectuar los cálculos necesarios
(normalmente se enseñan a nivel posgrado).
¿Qué es el análisis factorial de varianza?
ANOVA (análisis de varianza de k direcciones o varios factores)
Definición: Es una prueba estadística para evaluar el efecto de dos o más variables
independientes sobre una variable dependiente.
Responde a esquemas como el que se muestra en la figura 8.4.
X1
X2
Y
Xk
Figura 8.4 Esquema de un análisis factorial de varianza
Constituye una extensión del análisis de varianza unidireccional, solamente que incluye
más de una variable independiente. Evalúa los efectos por separado de cada variable
independiente y los efectos conjuntos de dos o más variables independientes.
Variables: dos o más variables independientes y una dependiente.
21. Nivel de medición de las variables: la variable dependiente (criterio) debe estar medida
en un nivel por intervalos o razón, y las variables independientes (factores) pueden
estar en cualquier nivel de medición, pero expresadas de manera categórica.
Interpretación y ejemplo
Hi: “la similitud en valores, la atracción física y el grado de realimentación positiva son
variables que inciden en la satisfacción sobre la relación en parejas de novios”.
Contexto: Muestra de parejas de adultos jóvenes (23‐29 años) de Santiago de Chile,
pertenecientes a estratos económicos altos (n = 400).
El ANOVA efectuado mediante un paquete estadístico computacional como SPSS
produce los siguientes elementos básicos:
• Fuente de la variación (source of variation). Es el factor que origina variación en la
dependiente. Si una fuente no origina variación en la dependiente, no tiene efectos.
• Efectos principales (main effects). Es el efecto de cada variable independiente por
separado; no está contaminado del efecto de otras variables independientes ni de error.
Suele proporcionarse la suma de todos los efectos principales.
• Interacciones de dos direcciones (2‐way interactions). Representa el efecto conjunto de
dos variables independientes, aislado de los demás posibles efectos de las variables
independientes (individuales o en conjuntos). Suele proporcionarse la suma de los
efectos de todas estas interacciones.
• Interacciones de tres direcciones (3‐way interactions). Constituye el efecto conjunto de
tres variables independientes, aislado de otros efectos. Suele proporcionarse la suma de
los efectos de todas estas interacciones.
• Puede haber efecto de K‐direcciones, esto depende del número de variables
independientes.
En nuestro ejemplo, tenemos los resultados que se muestran en la tabla 8.2.
22. Tabla 8.2 Ejemplo de resultados en el ANOVA
VARIABLE DEPENDIENTE: SATISFACCIÓN EN LA RELACIÓN
Fuente de variación Suma de Grados de Medias Razón Significancia
(SOURCE OF VARIATION) cuadrados libertad cuadráticas de F O P
(SUMS OF (DEGREES OF (MEAN
SQUARES) FREEDOM) SQUARES)
Efectos principales — — — 22.51 0.001**
(main effects)
Similitud — — — 31.18 0.001**
Atracción — — — 21.02 0.001**
Realimentación — — — 11.84 0.004**
Interacción de dos — — —
direcciones (2‐way
interactions) 7.65 0.010*
Similitud — — — 4.32 0.040*
Atracción
Similitud — — — 2.18 0.110
Realimentación
Atracción — — — 1.56 0.190
Interacción de tres — — — 8.01 0.020*
direcciones (3‐way
interaction)
Similitud
Atracción — — —
Realimentación
—Residual — — —
—Total — — —
Nota: A los estudiantes que se inician en el ANOVA normalmente les interesa saber si las razones “F”
resultaron o no significativas; por tanto, sólo se incluyen estos valores. Por lo que es a ellos a quienes los
autores recomiendan concentrarse en dichos valores y evitar confusiones. Desde luego, el investigador
experimentado acostumbra estudiar todos los valores.
** Razón “F” significativa al nivel del 0.01 (p < 0.01)
* Razón “F” significativa al nivel del 0.05 (p < 0.05)
Como podemos ver en la tabla 8.2, la similitud, la atracción y la realimentación
tienen un efecto significativo sobre la satisfacción en la relación. Respecto a los efectos
de dos variables independientes conjuntas, sólo la similitud y la atracción tienen un
efecto, hay un efecto conjunto de las tres variables independientes. La hipótesis de
investigación se acepta y la nula se rechaza. Asimismo, se recuerda al lector que en el capítulo
5 del presente disco: diseños experimentales: segunda parte: series cronológicas, factoriales y
cuasiexperimentos (en el apartado sobre diseños factoriales) se explica la noción de
interacción entre variables independientes. Cabe agregar que el ANOVA es un método
estadístico propio para los diseños experimentales factoriales.
23. ¿Qué es el análisis de covarianza?
Definición: es un método estadístico que analiza la relación entre una variable
dependiente y dos o más independientes, con el que se elimina o controla el efecto de al
menos una de estas independientes. Similar al ANOVA, excepto que permite controlar la
influencia de una variable independiente, la cual con frecuencia es una característica
antecedente que puede variar entre los grupos (Mertens, 2005; Babbie, 2009) o influir
los resultados y afectar la claridad de las interpretaciones.
Perspectivas o usos: Wildt y Ahtola (1978, pp. 8‐9) destacan tres perspectivas para el
análisis de covarianza:
A. Perspectiva experimental. Se aplica a aquellas situaciones en que el interés del
investigador se centra en las diferencias observadas en la variable dependiente,
por medio de las categorías de la variable independiente (o variables
independientes). Pero el experimentador asume que hay otras variables
independientes cuantitativas que contaminan la relación y cuya influencia debe
ser controlada (figura 8.5).
Variables X1
independientes X2
categóricas
Xk
Y Variable
dependiente
Variables
independientes Z 1
cuantitativas Z 2
continuas Zk
Figura 8.5 Ejemplo de variables independientes que afectan a una dependiente
24. Y el investigador únicamente se interesa por conocer la relación entre las
variables independientes categóricas y la variable dependiente. Desea al mismo
tiempo remover y controlar el efecto de las variables independientes cuantitativas
no categóricas (continuas). Es decir, desea tener un esquema como el de la figura
8.6.
X1
X2
Xk
Y
Remover o
Z1 controlar
Z2
Zk
Figura 8.6 Ejemplo de control de variables independientes no categóricas.
El objetivo es “purificar la relación entre las independientes categóricas y la
dependiente, mediante el control del efecto de las independientes no categóricas o
continuas”.
Ejemplos de variables independientes categóricas serían: género (masculino,
femenino), inteligencia (alta, media, baja), ingreso (menos de un salario mínimo, dos
a cuatro salarios mínimos, cinco a 10 salarios mínimos, 11 o más salarios mínimos).
Los niveles de medición nominal y ordinal son categóricos en sí mismos, mientras
que los niveles de intervalos y razón deben transformarse en categorías más
discretas. Estos últimos son en sí: cuantitativos, continuos y de categorías múltiples.
Por ejemplo, el ingreso en su “estado natural” (pesos, dólares, euros, etc.) varía de la
categoría cero hasta la categoría (K)k, ya que puede haber millones de categorías.
25. Variable categórica — unas cuantas categorías o un rango medio.
Variable continua — muchas categorías (a veces una infinidad).
A dichas variables independientes cuantitativas continuas, cuya influencia se
controla, se les denomina “covariables”. Una covariable se incluye en el análisis para
remover su efecto sobre la variable dependiente, e incrementar el conocimiento de
la relación entre las variables independientes categóricas de interés y la
dependiente, lo cual aumenta la precisión del análisis(Doncaster y Davey, 2007).
En esta perspectiva, el análisis de covarianza puede ser concebido primero como
un ajuste en la variable dependiente respecto a diferencias en la covariable o las
covariables y, posteriormente, como una evaluación de la relación entre las
variables independientes categóricas y los valores ajustados de la variable
dependiente (Wildt y Ahtola, 1978). En términos de Creswell (2005): el
procedimiento “ajusta” las puntuaciones en la dependiente para dar cuenta de la
covarianza (por decirlo en términos sencillos: “hace equivalentes a los grupos en
la(s) covariable(s)” y controla influencias potenciales que pueden afectar a la
variable dependiente).
B. Perspectiva de interés por la covariable. Esta perspectiva se ejemplifica con aquellas
instancias en las cuales el interés principal se centra en analizar la relación entre la
variable dependiente y la covariable (variable cuantitativa continua) o las
covariables. Aquí el enfoque es distinto; la influencia que se remueve es la de las
variables independientes categóricas. Primero se controla el efecto (en este caso
“contaminante”) de estas variables y después se analiza el efecto “purificado” de las
covariables.
C. Perspectiva de regresión. En esta tercera perspectiva, tanto las variables
independientes categóricas como las covariables resultan de interés para el
investigador, quien puede desear examinar el efecto de cada variable
independiente (covariables y no covariables, todas) y después ajustar o corregir los
efectos de las demás variables independientes.
En cualquier caso, el análisis de covarianza elimina influencias no deseadas sobre la
variable dependiente. Se puede utilizar en contextos experimentales y no
26. experimentales. La mayoría de las veces la función del ANCOVA es “remover” la
varianza compartida entre una o más covariables y la dependiente, de este modo,
se valora en su justa dimensión la relación causal entre la(s) variable(s)
independiente(s) de interés y la dependiente (Creswell, 2005). Veámoslo
conceptualmente pero de forma gráfica con un ejemplo simple:
EJEMPLO
Estudio: Al investigador le interesa analizar el efecto en el aprendizaje de la computación, por medio
de un nuevo método para su enseñanza a niños. La hipótesis es: “el nuevo método de enseñanza de
la computación (MA‐RH) provocará un mayor aprendizaje en los niños que un método tradicional”.
Entonces, implementa el siguiente experimento: a un grupo de infantes lo expone al nuevo
método de enseñanza de computación (MA‐RH); el otro grupo aprende con el método tradicional;
finalmente, un tercer grupo, de control, no recibe ningún tipo de enseñanza en computación.
La variable independiente es el tipo de método con tres categorías o niveles (método nuevo,
método tradicional y ausencia de método), la dependiente es el aprendizaje en computación (medida
por una prueba estandarizada a nivel de intervalos). Se tiene un esquema como el de la figura 8.7.
Tipo de método (X) Aprendizaje (Y)
El investigador sabe que el aprendizaje se puede deber a muchas razones, además del método. Es decir, el
aprendizaje varía por diversos motivos, lo cual se representa en forma de conjuntos de la siguiente manera:
Variable Variable
independiente: dependiente:
método (X) aprendizaje (Y)
Varianza del aprendizaje no
explicada (que no se debe al
Varianza en común entre
método sino a otros factores)
método y aprendizaje
27.
Con el experimento el investigador desea conocer la varianza en común entre método y aprendizaje
(cuantificarla), la relación XY (pura). Si los niños son asignados al azar a los grupos del experimento
y tiene grupos de tamaño aceptable, por el diseño mismo, remueve la influencia de las covariables
que pudieran afectar. Pero si no es factible hacerlo y tiene un diseño cuasiexperimental (grupos
intactos), debe remover tal influencia con el análisis de covarianza (eliminar al mínimo posible la
varianza del aprendizaje no explicada), para evitar que las covariables impidan ver con claridad la
relación XY. Por ejemplo, el nivel educativo tecnológico de los padres puede influir (hace variar al
aprendizaje) y este efecto debe ser controlado, al introducirlo como covariable.
Variable
dependiente:
Variable aprendizaje (Y)
independiente:
método (X)
El nivel educativo
tecnológico de los
padres (COVARIABLE)
Varianza en común: entre
método y aprendizaje
Varianza compartida entre el nivel
educativo de los padres y el aprendizaje (la
cual se controla con el ANCOVA)
Entre más covariables se controle, más se explicará sobre la varianza común entre el método y el
aprendizaje.
Figura 8.7 Ejemplo del control de las covariables (con una covariable).
28.
Lo que el investigador desea también se puede expresar
gráficamente así:
Tipo de método Aprendizaje
ANCOVA
Nivel educativo
tecnológico de los
padres (covariable) Controlar influencia de la covariable
Wildt y Ahtola (1978, p. 13) definen algunos usos del análisis de covarianza:
1. Incrementar la precisión en experimentos con asignación al azar.
2. Eliminar influencias extrañas o contaminantes que pueden resultar cuando las
pruebas o los individuos no son asignados al azar a las diferentes condiciones
experimentales (grupos de un experimento).
3. Eliminar efectos de variables que confundan o distorsionen la interpretación de
resultados en estudios no experimentales.
Nivel de medición de las variables: la variable dependiente siempre está medida por
intervalos o razón y las variables independientes pueden estar medidas en cualquier nivel.
Interpretación: depende de cada caso específico, ya que el análisis de covarianza
efectuado mediante un programa estadístico computacional, produce un cuadro de
resultados muy parecido al del análisis de varianza. Los elementos más comunes
pueden observarse en la tabla 8.3.
29.
Tabla 8.3 Ejemplo de elementos comunes de un análisis de covarianza
Fuente de Sumas de Sumas de Grados de Medias Razón Significancia de
variación cuadrados cuadrados libertad cuadráticas F (F) F (Sig.)
(Source of y ajustadas (Degrees
variation) productos (Adjusted of
cruzados sum of freedom)
(Sum of squares)
squares
and cross
products)
La razón F es, igual que en el análisis de varianza, una razón de varianzas. El
razonamiento estadístico es el mismo y F se interpreta igual, incluso se utiliza el mismo
cuadro de la distribución F (tabla 3, apéndice 4 o en STATS® a “Valores de “F” al nivel de
confianza de .05 y .01”). Solamente que las inferencias y conclusiones se hacen al
considerar que las medias de la variable dependiente, a través de las categorías de las
variables independientes, se han ajustado, de este modo eliminan el efecto de la
covariable o covariables.
EJEMPLO
Diseño de investigación que utiliza el análisis de covarianza
Hi: “los trabajadores que reciban retroalimentación verbal sobre el desempeño de parte
de su supervisor mantendrán un nivel mayor de productividad que los trabajadores que
reciban retroalimentación sobre el desempeño por escrito, y más aún que los
trabajadores que no reciban ningún tipo de retroalimentación”.
Hi: 1 > 2 > 3
(verbal) (por escrito) (ausencia)
30.
El investigador plantea un diseño experimental para intentar probar su hipótesis.
Sin embargo, no puede asignar aleatoriamente a los trabajadores a los tres grupos del
experimento. El diseño sería con grupos intactos (cuasiexperimental) y se
esquematizaría así:
G1 X1
1
G2 X2
G3 —
2
Asimismo, el investigador presupone que hay un factor que puede contaminar los
resultados (actuar como fuente de invalidación interna): la motivación. Diferencias
iniciales en motivación pueden invalidar el estudio. Como la asignación al azar está
ausente, no se sabe si los resultados se ven influidos por dicho factor. Entonces, el
3
experimentador decide eliminar o controlar el efecto de la motivación sobre la
productividad para conocer los efectos de la variable independiente: tipo de
retroalimentación. La motivación se convierte en covariable. El esquema es el que se
muestra en la figura 8.8.
Retroalimentación (variable Productividad (variable
independiente categórica) dependiente)
ANCOVA
Motivación
(covariable)
31.
Figura 8.8 Ejemplo donde la motivación es covariable
Cabe destacar que, para introducir una covariable en el análisis, de preferencia debe
medirse antes del inicio del experimento.
El análisis de covarianza “quita” a la variabilidad de la dependiente lo que se debe a la
covariable. Ajusta la varianza de la variable dependiente en las categorías de la
independiente, al basarse en la covariable. En el ejemplo, ajusta la varianza de la
productividad debida a la motivación, en las categorías experimentales (tratamientos o
grupos). El ajuste se realiza sobre la base de la correlación entre la covariable y la
dependiente. Esto se muestra esquemáticamente en la tabla 8.4.
Tabla 8.4 Ejemplo de un diseño de investigación que utiliza el análisis de covarianza como
herramienta para ajustar diferencias en motivación entre los grupos
Covariable Variable Variable
independiente dependiente
Calificación en
Puntuaciones en
motivación Tipo de
productividad ajustadas,
realimentación
tomando en cuenta la
covariable
G1 0 X1 0
G2 0 X2 0
G3 0 — 0
Una vez realizado el análisis de covarianza, se evalúa si F es o no significativa.
Cuando F resulta significativa se acepta la hipótesis de investigación.
Si el resultado fuera:
G1 = 35
32. G2 = 36
La correlación entre la calificación en motivación y las puntuaciones en
productividad es la base para el ajuste.
G3 = 38
Gl entre = K – 1 = 3 – 1 = 2
Gl intra = N – K = 107
F = 1.70
Comparamos con el valor de la tabla respectiva: en el nivel de 0.05 es igual a 3.07, y
nuestra razón F a 1.70 es menor a este valor. Por tanto, rechazamos la hipótesis de
investigación y aceptamos la hipótesis nula. Esto se contrasta y profundiza con las
medias ajustadas de los grupos que proporcione el análisis de covarianza (no las medias
obtenidas en el experimento por cada grupo, sino las ajustadas con base en la
covariable).
Recordemos que SPSS y Minitab nos proporcionan automáticamente la significancia
de F.
¿Qué es la regresión múltiple?
Es un método para analizar el efecto de dos o más variables independientes sobre una
dependiente. Asimismo, constituye una extensión de la regresión lineal sólo que con
mayor número de variables independientes. Es decir, sirve para predecir el valor de una
variable dependiente, cuando se conoce el valor y la influencia de las variables
independientes incluidas en el análisis. Si queremos conocer el efecto que ejercen las
variables: a) satisfacción sobre los ingresos percibidos, b) antigüedad en la empresa, c)
motivación intrínseca en el trabajo y d) percepción del crecimiento y desarrollo
personal en el trabajo; sobre la variable “permanencia en la empresa” (duración o
estancia), el modelo de regresión múltiple es el adecuado para aplicarlo a los datos
obtenidos. Otro ejemplo sería el siguiente:
33. VARIABLES INDEPENDIENTES
VARIABLE
DEPENDIENTE
Diseño de estrategias de
cooperación entre maestros para la
enseñanza en las clases.
Grado de utilización de la
tecnología computacional en el
aula.
Desempeño escolar
de los alumnos
Grado de involucramiento de los
padres en las estrategias de
enseñanza.
Grado de cooperación y trabajo en
equipo por parte de los alumnos
para realizar las tareas.
Figura 8.9 Esquema de un modelo con una variable dependiente y varias independientes,
donde se conoce el efecto de cada una de éstas
Es decir, el modelo de regresión múltiple nos indica:
• La relación entre cada variable independiente y la única dependiente (cómo cambios
en la independiente se vinculan con cambios en la dependiente).
• La relación entre todas las variables independientes (en conjunto) y la dependiente
(cómo cambios en las independientes se vinculan con cambios en la dependiente).
• La predicción de la dependiente a partir de las independientes.
• La correlación entre las variables independientes (colinealidad).
Las variables independientes se denominan “predictoras”4 y anteceden
temporalmente a la variable dependiente o criterio.
La información básica que proporciona la regresión múltiple es el coeficiente de
correlación múltiple (R) y la ecuación de regresión.
4 Término anglosajón.
34. Coeficiente de correlación múltiple (R). Señala la correlación entre la variable
dependiente y todas las variables independientes tomadas en conjunto.
El coeficiente puede variar de cero a uno; cuanto más alto sea su valor, las variables
independientes estarán más correlacionadas con la variable dependiente y explicarán
en mayor medida sus fluctuaciones (varianza); en consecuencia, son factores más
efectivos para predecir el comportamiento de esta última.
En el capítulo 10 del libro, se comentó el coeficiente de correlación de Pearson y se
mencionó que cuando el coeficiente r se eleva al cuadrado (r2), se obtiene el coeficiente
de determinación y el resultado indica la varianza de factores comunes, esto es, el
porcentaje de la variación de una variable debido a la variación de la otra y viceversa (o
cuánto explica o determina una variable la variación de la otra). Pues bien, algo similar
ocurre con el coeficiente de correlación múltiple, solamente que tenemos más variables
a considerar. Cuando el coeficiente R se eleva al cuadrado (R2), se produce el llamado
coeficiente de determinación o correlación parcial, que nos señala la varianza explicada
de la variable dependiente por todas las independientes (dicho de otra forma, el
porcentaje de variación en la dependiente es debido a las independientes consideradas).
Veámoslo gráficamente en la figura 8.10 con dos independientes y una dependiente,
a fin de que resulte menos complejo de entender.
Variable independiente Variable
1 independiente 2
R2 (expresa en
porcentaje la varianza
Variable compartida por las tres
dependiente variables)
Figura 8.10
Esquema de un coeficiente de determinación o correlación parcial
35. Este coeficiente (R2) resulta útil también para determinar la cantidad de varianza
que una variable interviniente explica tanto de la variable independiente como de la
dependiente, de este modo, se puede remover la varianza compartida de la interviniente
con la variable independiente o la dependiente (Creswell, 2005; Sengupta, 2009), que es
algo similar a lo que se efectúa con el análisis de covarianza.
Tal sería el caso de una relación del siguiente tipo:
Autoestima del estudiante relación negativa Consumo de estupefacientes
(independiente) (dependiente)
Reforzamiento de los
valores del estudiante
por parte de sus tutores
(interviniente)
relación negativa
Figura 8.11 Ejemplo del coeficiente de determinación (correlación parcial)
Si resumimos lo visto en el capítulo 10 del libro sobre correlación y regresión lineal
y lo expuesto hasta aquí, tenemos los coeficientes que se resumen en la tabla 8.5.
Tabla 8.5 Resumen de coeficientes de correlación bivariada y múltiple
Coeficiente Símbolo Información producida
Pearson Grado de asociación entre dos variables
r
(oscila entre 0 y 1).
Coeficiente de Varianza de factores comunes (porcentaje
r2
determinación de la variación de una variable debido a la
variación de la otra variable y viceversa).
Oscila entre 0 y 100%.
Múltiple Correlación entre la variable dependiente
R
36. y todas las variables independientes
tomadas en conjunto. Oscila entre 0 y 1.
Determinación Varianza explicada de la dependiente por
R2
(correlación parcial) todas las independientes. Oscila entre
0 y 100%.
Otra información relevante producida por el análisis de regresión múltiple son los
valores “beta” (β o b) que indican el peso o la influencia que tiene cada variable
independiente sobre la dependiente, al controlar la varianza de todas las demás
independientes. Cada peso beta es un coeficiente que señala la magnitud de la
predicción de una variable independiente para una variable dependiente (criterio),
después de remover los efectos de todas las demás independientes. Los valores beta
están estandarizados, es decir, no importa que cada variable predictora esté medida en
una escala diferente (como ocurría con las puntuaciones z) y se interpretan como el
coeficiente de Pearson, de – 1.00 a + 1.00 (Creswell, 2005).
También el análisis proporciona coeficientes de correlación bivariados entre la
dependiente y cada independiente (Shaw, 2009).
Para predecir valores de la variable dependiente se aplica la ecuación de regresión
múltiple:
y = a + b1X1 + b2X2 + b3X3 + … bkXk
Donde a es una constante de regresión para el conjunto de puntuaciones obtenidas,
b1, b2, b3,…bk son los pesos “beta” de las variables independientes. Mientras que X1, X2,
X3 y …Xk son valores de las variables independientes que fija el investigador para hacer
la predicción.
La variable dependiente debe estar medida en un nivel por intervalos o de razón.
Las independientes, en cualquier nivel de medición (el modelo estandariza mediciones).
Cuando se utilizan variables categóricas (nominales u ordinales, como género, grupo
étnico, nivel jerárquico, etc.) se transforman en variables “dummy” y se introducen al
modelo como predictores. Los códigos dummy son series de números asignados para
37. indicar la pertenencia a un grupo en cualquier categoría exhaustiva y mutuamente
excluyente.
De acuerdo con Mertens (2005), la cantidad de varianza que cada independiente
aporta para la variable dependiente puede tener cambios con diferentes órdenes de
entrada de las variables independientes. Al respecto no hay reglas, se usa la lógica del
investigador o criterios como los siguientes:
- Ingresar las variables de acuerdo con la fuerza de su correlación con la
variable dependiente, de la más alta a la más baja.
- Seguir el orden en que se han introducido en estudios previos.
- Proceder de acuerdo con la teoría.
- Orden cronológico (tiempo en que se introducen las variables en un
experimento o al medirse, si es que su medición fue por etapas, de la
primera a la última).
Los resultados más relevantes que produce SPSS sobre la regresión múltiple se
muestran en las tablas 8.6, 8.7 y en la figura 8.12, que corresponden a un estudio para
predecir el clima laboral (criterio o dependiente) sobre la base de las siguientes
variables independientes (Hernández Sampieri, 2005):
• Normalización (formalización de políticas en documentos).
• Avance del proceso de calidad en el departamento (un nuevo esquema de
trabajo introducido en el 2004).
• Innovación departamental.
• Identificación del trabajo individual en los resultados generales de la
organización.
• Comunicación (percepción del grado en que la información relevante de la
empresa les es transmitida a los empleados de su departamento).
• Desempeño (índice de productividad del empleado).
• Motivación general.
• Antigüedad en la empresa (en meses).
38. • Satisfacción general en el trabajo.
• Liderazgo (percepción del superior inmediato como líder).
• Cultura (arraigo de la cultura organizacional definida por la dirección de la
empresa).
• Pago (salario).
Primero. Se presentan las variables introducidas en el modelo de regresión:
Tabla 8.6 Variables introducidas en el ejemplo de regresión múltiple
Variables introducidas /eliminadas
Modelo Variables Variables Método (b)
introducidas (a) eliminadas
Pago
Innovación
Antigüedad
Motivación
Normalización
Proceso de calidad Introducir
Cultura
Identificación
Desempeño
Liderazgo
Satisfacción
Comunicación
a. Todas las variables solicitadas introducidas
b. Variable dependiente: clima
Segundo. Se presentan resultados de varianzas (ANOVA), los cuales omitimos, y los
coeficientes beta y estadísticas de colinealidad (tabla 8.7).
39. Hora Nombre del participante Condición experimental
Codificador Fecha
Categoría Subcategoría 0’ 10’’ 20’’ 30’’ 40’’ 50’’ 1’ 10’’ 20’’ 30’’ 40’’ 50’’ 2’ 10’’ 20’’ 30’’ 40’’ 50’’ 3’
Distancia Alejamiento (0)
física Acercamiento (2)
Estático (1)
Movimientos Tensión (0)
corporales Relajación (2)
Ninguno (1)
Conducta Al sujeto (1)
visual
A otra parte (0)
Conducta F. completas (1)
verbal F. dicótomas (0)
Silencios (0)
Nota: Se agregaron las subcategorías “estático” en la categoría “distancia física” y “ninguno” en la categoría “movimientos corporales”.
Figura 7.11 Primer ejemplo de un formato de registro o codificación
66
40.
Figura 7.12 Segundo ejemplo de un formato de registro o codificación
El ejemplo de la figura
7.12 es un formato para registrar conductas inapropiadas en la clase y analizar
cuáles son las que se presentan con mayor frecuencia y el número de estudiantes
involucrados (Creswell, 2005).
Los números (columnas) representan episodios de conducta inapropiada en la
clase (cada vez que ocurre). Se coloca en la fila “CI” (conducta inapropiada) la letra
inicial de la conducta (ejemplo: O, ofensa verbal; H, hablar en clase…), y “1” si son otras.
Asimismo, en la fila “N” se indica el número de estudiantes involucrados en el episodio.
67
41. La hoja de codificación, formato o guía debe acompañarse de las instrucciones
para su llenado o registros y la mención de las unidades de observación, así como el
tiempo que durará ésta. Debe evitarse un instrumento que sea tan complejo que sea
difícil de codificar y utilizarse en la realidad.
7. Determinar el papel de los observadores. ¿Qué tan cercanos deben estar el
observador y los observados? A este respecto mucho se ha escrito y los roles
varían desde una distancia prudentemente lejana, hasta una cercanía completa.
Anastas (2005) y también Polster y Collins (2007) plantean dos roles
fundamentales de la relación observador‐observados: a) participante (donde hay
relación entre el observador y las personas observadas) y b) no participante (la
relación es mínima —simplemente por el hecho de que los individuos saben que
están siendo observados— o puede ser nula, si los individuos no saben que están
siendo observados).
La ética de la investigación marca que siempre que va a observarse a un ser
humano, se debe obtener su consentimiento; asimismo, no se deben invadir sus
esferas privadas (baños, recámaras, etc.). Anastas (2005) está de acuerdo con esta
consideración, aunque marca una excepción: cuando se observan conductas
inocuas que pudieran ocurrir de manera natural en situaciones públicas y cuando
las personas observadas no son identificadas o afectadas por los observadores. En
última instancia, si el investigador busca evitar la “reactividad” en el proceso (que
la presencia de los observadores provoque reacciones poco o nada naturales en
los participantes), una vez que se efectúan las observaciones, debe solicitársele a
cada sujeto su autorización, mantener su nombre en el anonimato, nunca mostrar
las filmaciones o registros y respetar su negativa, si es el caso.
Jorgensen (1989) sugiere tres actuaciones: a) participante activo, el
observador interactúa plenamente con los observados, tiene un papel de
miembro, es uno más de ellos (por ejemplo, si se trata de observar el compromiso
de trabajadores en los grupos de calidad, el observador es un miembro del grupo
con funciones específicas), b) participante privilegiado, no es un miembro del
grupo, pero tiene acceso a información amplia y privada, los observados lo
conocen y le tienen confianza y c) observador limitado, no tiene más que el papel
68
42. de observador externo. Rogers y Bouey (2005) los clasifican en el siguiente
continuo:
Participante completo: Participante Observador Observador
total interacción, su observador: su rol participante: su rol completo: nula
primario es participar, primario es observar, participación, se
rol primario es
participar y generar la pero casi a la par aunque tiene ciertas limita a observar
interacción. observa. participaciones.
Patton (2001) sugiere que el observador debe ubicarse en varios continuos para
establecer su papel (que es una ubicación aproximada y no exacta):
Sin que de ninguna manera sea una norma, cuando la observación
cuantitativa trabaja con personas, regularmente es no participante, encubierta o
69
43. intermedia, de corta estancia y enfocada. Mientras que la observación cualitativa
es participante, abierta, prolongada y general.
8. Seleccionar a los observadorescodificadores. Puesto que son las personas que
habrán de codificar la conducta, deben conocer las variables, categorías y
subcategorías. Las habilidades más importantes de un buen observador son:
• Selectividad para registrar lo que observa, de acuerdo con reglas.
• Uso de todos los sentidos, particularmente ante lo que no se esperaba
encontrar.
• Capacidad para seguir el sistema de registro que involucra el
procesamiento de información.
9. Proporcionar entrenamiento a observadorescodificadores (en las variables,
categorías, subcategorías, unidades de análisis y el procedimiento para codificar,
así como sobre las diferentes maneras como puede manifestarse una categoría o
subcategoría de conducta). Debido a que, en algún grado, la observación
involucra hacer juicios, el entrenamiento debe apoyar la estandarización de
procedimientos y, por ende, la objetividad.
10. Efectuar la prueba piloto y calcular la confiabilidad de los observadores
(intraobservador e interobservadores). En la prueba piloto se evalúa todo lo
relativo al proceso de observación. Desde la iluminación en el ambiente
(ejemplo, cámara de Gesell), el sonido y los equipos de filmación; hasta el lugar
donde se coloquen los observadores, las instrucciones y la guía de observación o
registro.
Gracias a la prueba piloto nos podemos dar cuenta de problemas
potenciales y corregirlos (por ejemplo, si vamos a observar conductas agresivas
en niños y nada más hemos trabajado con adultos, nos percataremos de que la
agresión no se manifiesta igual en adultos que en niños o adolescentes. De este
modo, durante la prueba piloto podemos registrar comportamientos agresivos
no contemplados, que se agregarán como subcategorías en el instrumento de
observación definitivo). Esto se hace con una muestra del repertorio de
conductas o actos a considerar. Con respecto a la confiabilidad, recordemos que
debe demostrarse y no asumirse y se determina para evaluar si los
70
44. observadores están registrando coherentemente (confiabilidad individual) y si
están registrando entre sí de manera similar los mismos eventos o conductas
(confiabilidad interobservadores). Los procedimientos y las fórmulas pueden
ser las mismas que las vistas en el apartado sobre el análisis de contenido; lo
único que cambia es la palabra “codificadores”, “codificación”, “codificadas”, por
“observadores”, “observación”, “observadas”. Por ejemplo:
Haynes (1978, p. 160) proporciona otra fórmula para calcular la
confiabilidad entre observadores o el grado de acuerdo interobservadores (Ao).
Donde Ia es el número total de acuerdos entre observadores, e Id es el
número total de desacuerdos entre observadores. Un “acuerdo” se define como la
codificación de una unidad de análisis en una misma categoría por distintos
observadores. Se interpreta como cualquier coeficiente de confiabilidad (0 a l).
Es muy importante al establecer la confiabilidad, evitar que los
observadores “copien” o vean el trabajo de sus compañeros, ya que esto puede
ocurrir.
Anastas (2005) y Grinnell, Williams y Unrau (2009) consideran como una
confiabilidad interobservadores mínima aceptable 0.85 u 85%. Si se elige un
instrumento ya desarrollado, al igual que en otros métodos de medición, debe
demostrarse que en los estudios donde se aplicó resultó válido y confiable, y
adaptarse a las condiciones de nuestra investigación.
71