4. Objetivos de aprendizaje del capítulo
4
Al terminar este capítulo, el alumno será capaz de:
• Revisar el proceso para analizar los datos cuantitativos.
• Reforzar los conocimientos estadísticos fundamentales.
• Comprender las principales pruebas o métodos
estadísticos desarrollados, así como sus aplicaciones y
la forma de interpretar sus resultados.
• Analizar la interrelación entre distintas pruebas
estadísticas.
• Diferenciar la estadística descriptiva y la inferencial, la
paramétrica y la no paramétrica.
5. Análisis de datos
cuantitativos
Se realizan mediante programas
computacionales y tomando en cuenta
los niveles de medición de las variables
y mediante la estadística
Descriptiva
Inferencial
Análisis paramétricos
Análisis multivariados
Análisis no paramétricos
5
6. ¿Qué procedimiento se siguen para
analizar cuantitativamente los datos?
• Una vez que los datos se han codificado, transferido a una
matriz, guardado en un archivo y “limpiado” de errores, el
investigador procede a analizarlos.
• El análisis cuantitativo de los datos se lleva a cabo por
computadora u ordenador.
6
7. Proceso para efectuar análisis estadístico
7
FASE 1
Seleccionar un
software apropiado
para analizar los
datos
FASE 2
Ejecutar el programa
FASE 3
Explorar, describir y
visualizar los datos
por variable
(Análisis descriptivo)
FASE 4
Evaluar la
confiabilidad y
validez
FASE 5
Analizar las hipótesis
(análisis estadístico
inferencial)
FASE 6
Realizar análisis
adicionales
FASE 7
Preparar los
resultados para
presentarlos
8. Selección del programa de análisis I
• Existen actualmente varios programas que son
apropiados para el análisis, entre ellos:
Paquete Estadístico para las Ciencias Sociales (IBM
SPSS®).
Minitab®.
STATISTICA®.
Statistical Analysis System (SAS) ®.
Stats®.
8
9. Selección del programa de análisis II
En la mayoría de los programas se trabaja con la matriz
de datos para efectuar los análisis, mediante diversos
comandos.
9
10. Revisar la base o matriz de los datos
Se revisa una vez más la base de datos para evaluar que
no existan errores de codificación (ítem por ítem,
indicador por indicador, cada recuadro implica un valor
de un caso en un ítem, indicador o equivalente).
10
Variables (columnas)
Filas
(casos)
11. Acciones para revisar la base o
matriz de datos I
• Solicitar y evaluar las distribuciones de
frecuencias.
• Explorar la matriz.
• Generar tablas de contingencia.
• Generar razones.
11
Lo anterior de acuerdo con las definiciones operacionales y la
forma como se desarrolló el instrumento o instrumentos de
medición
12. Acciones para revisar la base o
matriz de datos II
• Indicar al programa cómo se deben agrupar los ítems o
indicadores en las variables del estudio.
12
13. Un primer apunte o acotación
• Recordemos que las variables de la matriz
son diferentes de las variables de la investigación.
13
Variables (columnas)
14. Un segundo apunte o acotación
Los análisis de los datos dependen
de tres factores:
El nivel de medición de las
variables.
La manera como se formularon
las hipótesis.
El interés del investigador.
14
16. Estadística descriptiva para cada
variable II
Regularmente la distribución de frecuencias incluye:
• Categorías (valores de la variable).
• Códigos (valores).
• Frecuencias absolutas.
• Frecuencias relativas (porcentajes).
• Frecuencias relativas válidas (porcentajes válidos,
excluyendo los valores perdidos).
• Frecuencias acumuladas (porcentajes acumulados).
16
17. Las distribuciones de frecuencias se
pueden graficar para darle un
mayor valor ilustrativo
17
Colombiana
Alemana
Mexicana
Rusa
Chilena
Argentina
Ninguna
18. Polígonos de frecuencias
• Otra alternativa para graficar distribuciones.
18
Número de veces que ha tenido que acudir la
ciudadanía para realizar su trámite en la Alcaldía
20. Principales medidas de variabilidad
• Rango.
• Desviación estándar o típica.
• Varianza.
• Máximo y mínimo.
• Asimetría y curtosis.
20
21. Razones y tasas
• Una razón es la relación entre dos categorías.
• Una tasa es la relación entre el número de casos,
frecuencias o eventos de una categoría y el número
total de observaciones, multiplicada por un múltiplo
de 10, generalmente 100 o 1 000.
21
22. Determinación de la confiabilidad o
fiabilidad I
1. Medida de estabilidad (confiabilidad por test-retest).
2. Método de formas alternativas o paralelas.
22
Resultados de la
prueba A
Momento 1
Resultados de la
prueba A
Momento 2
Coeficiente de
correlación
Resultados de la
prueba
A versión 1
Resultados de la
prueba
A versión 2
Coeficiente de
correlación
23. Determinación de la confiabilidad o
fiabilidad II
3. Método de mitades partidas (split-halves).
4. Medidas de coherencia o consistencia interna: Alfa de
Cronbach y los coeficientes KR-20 y KR-21 de Kuder y
Richardson.
23
Resultados de la
mitad de la
prueba A
Resultados de la
otra mitad
de la prueba A
Coeficiente de
correlación
24. Medidas de coherencia o consistencia
interna
24
0 1
Nula
confiabilidad
Confiabilidad
perfecta
Mediana
confiabilidad
26. Validez de constructo
• Análisis de factores.
• Correlaciones entre dimensiones.
26
Número de componente
Eigenvalor
1
2
3
1 2 3 4 5 6
4
27. Estadística inferencial: de la muestra
a la población
• Se utiliza para probar hipótesis y estimar parámetros.
27
Recolección
de
los datos en la
muestra
Cálculo de
estadígrafos
Inferencia de
los
parámetros
de la
población
28. ¿En qué consiste la prueba de hipótesis?
• Determinar si la hipótesis poblacional es congruente
con los datos obtenidos en la muestra.
28
¿Qué es una distribución muestral?
• Conjunto de valores sobre una estadística calculada
de todas las muestras posibles de determinado
tamaño de una población.
30. ¿Qué es el nivel de significancia?
• Es un nivel de la probabilidad de equivocarse y que
fija de manera a priori el investigador.
30
.05
.01
.0001
.0000
32. ¿Qué errores se pueden cometer
al probar hipótesis?
1. Aceptar una hipótesis verdadera (decisión correcta).
2. Rechazar una hipótesis falsa (decisión correcta).
3. Aceptar una hipótesis falsa (conocido como error
del tipo II o error beta).
4. Rechazar una hipótesis verdadera (conocido como
error del tipo I o error alfa).
32
33. Prueba de hipótesis
• Análisis paramétricos.
• Análisis no paramétricos.
33
Coefficientsa
-3.3E-016 .000 .000 1.000
.421 .000 .568 3E+008 .000 .941 1.000 .334
.084 .000 .085 8E+007 .000 -.021 1.000 .081
.179 .000 .237 1E+008 .000 .897 1.000 .126
.316 .000 .298 2E+008 .000 .857 1.000 .190
(Constant)
RelacionesHumanas
ProcesoInterno
Sistemas
Metas
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig. Zero-order Partial Part
Correlations
Dependent Variable: ClimaTotal
a.
B = número de Zis mayor que
34. Análisis paramétricos (premisas)
1. La distribución poblacional de la variable
dependiente es normal.
2. El nivel de medición de las variables es por
intervalos o razón.
3. Cuando dos o más poblaciones son estudiadas,
tienen una varianza homogénea.
34
35. Principales métodos o pruebas
paramétricas
• Coeficiente de correlación de Pearson y regresión
lineal.
• Prueba t.
• Prueba de contraste de la diferencia de
proporciones.
• Análisis de varianza unidireccional (ANOVA en un
sentido, “oneway”).
• Análisis de varianza factorial (ANOVA).
• Análisis de covarianza (ANCOVA).
35
37. Profesor o profesora: seleccione los
ejemplos pertinentes o desarrolle
los propios
37
38. Ejemplos simplificados de correlaciones
donde es apropiado el coeficiente r
• “Sentido de vida” (escala) e “ingreso económico anual”
(pesos u otra unidad monetaria).
• “Asistencia al trabajo” (número de faltas en el trabajo) y
“productividad” (índice).
• “Peso corporal” y “presión arterial”.
• “Volumen máximo expirado en el primer segundo de una
expiración forzada (FEV1)” y la “talla” (estatura en
centímetros).
• “Dosis de un medicamento contra un cáncer” y “grado de
remisión del padecimiento cancerígeno” (escala).
38
39. Ejemplos simplificados de correlaciones
donde es apropiado el coeficiente r
• “Dedicación al estudio” (tiempo semanal –en horas
que dedican los alumnos al estudio) y su
“desempeño académico” (calificaciones promedio al
final del periodo escolar).
• “Actividad nerviosa superior” (medida por un test) y
“ansiedad rasgo-estado” (medida por una prueba
estandarizada).
• “Autonomía en el trabajo” y “satisfacción laboral”.
• “Costos mensuales de rentas” (unidad monetaria) y
“tamaño de la vivienda” (metros cuadrados).
39
40. Ejemplos simplificados de correlaciones
donde es apropiado el coeficiente r
• “Espíritu emprendedor del estudiante” (escala) y su
“promedio general en la carrera”.
• “Inversión en gasto social y el Índice de Desarrollo
Humano” en países subdesarrollados.
• “Grado de exposición a la violencia televisa” (minutos) y
“conducta violenta de los niños” (número de actos).
• Parámetros sísmicos de “aceleración máxima” (Amax) y
“velocidad máxima” (Vmax) del suelo que son usados
frecuentemente en la estimación de daño en tuberías
enterradas, contenidos y elementos no estructurales.
40
45. Ejemplos donde la prueba t es
apropiada I
• Comparar la rapidez con que dos anestésicos
generales logran la insensibilidad al dolor.
• Contrastar la productividad de dos plantas que
fabrican ciertos electrodomésticos.
• Cotejar la resistencia de dos materiales bases para la
construcción de puentes.
• Comparar el tiempo que dedican a ver televisión los
niños y las niñas.
45
46. Ejemplos donde la prueba t es
apropiada II
• Comparar la efectividad de dos métodos de enseñanza sobre el
aprendizaje de estadística descriptiva.
• Cotejar el monto promedio de compras mensual en determinado
periodo entre los clientes de una tienda departamental que
utilizaron crédito y los que no lo hicieron.
• Contrastar la inteligencia emocional de hombres versus mujeres
adultos jóvenes.
46
47. Prueba de diferencia de proporciones
(DP)
Se interpreta significancia
47
Diferencia entre dos proporciones o
porcentajes
48. Ejemplos donde DP resulta apropiada
• Comparar la efectividad de dos vacunas diseñadas para
reducir el número de casos positivos del ébola (% de casos
positivos después de la aplicación de ambas vacunas).
• Cotejar el porcentaje de jóvenes que están en contra del
aborto en dos municipios.
• Contrastar el porcentaje de hombres con el porcentaje de
mujeres que manifiestan que votarán por un candidato en
una determinada elección.
48
49. Análisis de varianza unidireccional o
de un factor (ANOVA oneway) I
• Método o prueba estadística para analizar si más de dos
grupos difieren significativamente entre sí en cuanto a sus
medias y varianzas.
• La prueba t se utiliza para dos grupos y el análisis de
varianza unidireccional se usa para tres, cuatro o más
grupos.
49
Una variable independiente
y una variable dependiente
50. • Se interpreta el valor F (resultado).
50
Grupo
1
Grupo
2
Grupo
3
Valor F
Análisis de varianza unidireccional o
de un factor (ANOVA oneway) II
51. Ejemplos donde el ANOVA unidireccional
es conveniente I
• Contrastar la productividad de cinco plantas que fabrican
arneses automotrices de las mismas características.
• Comparar el impacto de tres comerciales de televisión
sobre la predisposición de compra del producto
publicitado en una determinada población.
• Cotejar la motivación intrínseca de los trabajadores de tres
turnos de producción.
• Contrastar el impacto sobre el aprendizaje de la aritmética
de cuatro métodos de enseñanza a niños.
51
52. • Determinar si el tiempo requerido para completar una
determinada tarea difiere entre cuatro niveles de entrenamiento
para los empleados (intensivo = 40 horas, medio = 30 horas, bajo
= 16 horas, mínimo = 8 horas).
52
Ejemplos donde el ANOVA
unidireccional es conveniente II
53. Principales comparaciones
posteriores (post hoc) en el ANOVA
unidireccional
• Diferencia menos significativa.
• Prueba F de Ryan-Einot-Gabriel-Welsch.
• Prueba de rango de Ryan-Einot-Gabriel-Welsch.
• Prueba de Tukey.
• Otras: Waller-Duncan, T2 de Tamhane, T3 de
Dunnett, Games-Howell, C de Dunett, Bonferroni,
Sidak, Gabriel, Hochberg, Scheffé…
53
54. Estadística multivariada
• Pruebas o métodos para analizar relaciones y
efectos entre diversas variables independientes
y al menos una dependiente.
54
Variable independiente
Variable independiente
Variable independiente
Variable dependiente
Variable dependiente
55. Ejemplos de métodos multivariados
• Análisis de varianza factorial.
• Análisis de covarianza.
• Análisis de regresión múltiple.
• Análisis multivariado de varianza (MANOVA).
• Análisis lineal de patrones (PATH).
• Análisis discriminante.
55
56. Análisis no paramétricos (premisas)
Para realizar análisis no paramétricos debe
partirse de los siguientes supuestos:
1. El universo o población no necesariamente tiene una
distribución normal.
2. El nivel de medición de las variables no es por
intervalos o razón.
3. Cuando dos o más poblaciones son estudiadas, no
necesariamente poseen una varianza homogénea.
56
57. ¿Cuáles son los principales métodos o
las pruebas estadísticas no paramétricas
más utilizadas?
• La chi cuadrada o χ2.
• Los coeficientes de correlación e independencia para
tabulaciones cruzadas.
• Los coeficientes de correlación por rangos ordenados
de Spearman y Kendall.
• Otros coeficientes.
57
58. Chi cuadrada o χ2
58
Se calcula por medio de una
tabla de contingencia o
tabulación cruzada
Considera frecuencias
esperadas (al azar) versus
frecuencias observadas o
registradas
59. Tabla de contingencia
• Un cuadro o tabla de dos dimensiones: cada
dimensión representa una variable y posee dos o
más categorías.
59
A1 B1 A2 B1
A1 B2 A2 B2
Variable A
Variable
B
Categoría A1 Categoría A2
Categoría B1
Categoría B2
60. Tabla de contingencia 2 X 4
60
A1 B1 A2 B1
A1 B2 A2 B2
A1 B3 A2 B3
A1 B4 A2 B4
Variable A
Variable
B
Categoría A1 Categoría A2
Categoría B1
Categoría B2
Categoría B3
Categoría B4
61. Ejemplos donde la χ2 es conveniente
• Relacionar género (masculino-femenino) con intención de
voto por dos candidatos (candidato 1-candidato 2): 2X2.
• Asociar género con deporte preferido para practicar (fútbol-
béisbol-basquetbol-gimnasia-natación-tenis-otros): 2X7.
• Vincular vacuna (vacuna 1, vacuna 2, vacuna 3) con número
de casos positivos de un virus (menos de 10, 11-50, 51-100,
101-200, más de 200): 3X5.
• Relacionar tamaño de una legumbre (tamaño 1, tamaño 2,
tamaño 3) con el tipo de fertilizante utilizado (fertilizante 1,
fertilizante 2, fertilizante 3): 3X3.
61
62. Coeficientes de correlación e
independencia para tabulaciones
cruzadas I
• Phi (φ): tablas 2 × 2.
• Coeficiente de contingencia C de Pearson: tablas de
cualquier tamaño.
• V de Cramer (C): cualquier tamaño.
• Goodman-Kruskal, Lambda o sólo Lambda (λ): cualquier
tamaño.
62
63. Coeficientes de correlación e
independencia para tabulaciones
cruzadas II
• Coeficiente de incertidumbre o entropía o U de Theil:
cualquier tamaño.
• Gamma de Goodman y Kruskal: cualquier tamaño.
• Tau-a, Tau-b y Tau-c (τa, τb, τc): cualquier tamaño.
• D de Somers: cualquier tamaño.
• Kappa: cualquier tamaño.
63
65. Ejemplos donde los coeficientes de
Spearman y Kendall son apropiados I
• Relacionar jerarquía en la organización y personalidad
autoritaria (rangos en una prueba).
• Vincular rangos de precios medios de la vivienda (muy alto,
alto, medio, bajo, muy bajo) y cercanía a un nuevo centro
comercial (considerando número de cuadras o manzanas, las
cuales no son todas exactamente del mismo tamaño).
65
66. Ejemplos donde los coeficientes de
Spearman y Kendall son apropiados II
• Determinar la vinculación entre el ejercicio físico
(rangos) y la capacidad de trabajo (rangos) en
determinados obreros.
• Asociar la valoración que hacen dos médicos respecto
a la gravedad de sus pacientes (contrastar
percepciones de los galenos a través de correlacionar
sus respectivas jerarquizaciones).
• Relacionar sentido de vida (alto, medio y bajo) con
nivel socioeconómico (segmentos: A, A/B, B, C, D y E).
66
67. ¿Qué otros coeficientes existen?
• Eta.
• Biserial (rb).
• Biserial por rangos (rrb ).
• Biserial puntual (rpb ).
• Tetracórico (tetrachoric).
67
68. Coeficiente eta
• Relaciones no lineales.
• Eta define la “correlación perfecta” (1.00) como
curvilineal y a la “relación nula” (0.0) como la
independencia estadística de las variables.
• Es un coeficiente asimétrico.
68
70. Preparar los resultados para
presentarlos I
1) Revisar cada resultado.
2) Organizar los resultados (descriptivos confiabilidad
y la validez inferenciales).
3) Cotejar diferentes resultados (congruencia).
4) Priorizar la información más valiosa.
70
71. Preparar los resultados para
presentarlos II
5) Copiar y/o “formatear” las tablas en el programa con el cual se
elaborará el reporte de la investigación.
6) Comentar o describir brevemente la esencia de los análisis,
valores, tablas, diagramas, gráficas.
7) Volver a revisar los resultados.
8) Elaborar el reporte de
investigación.
71
72. Ejercicio
• Presentar una coreografía respecto a qué análisis son
adecuados para su investigación.
• Los análisis inferenciales deben justificarse.
72