2. Investigación Social
• La investigación social es el proceso en el que
aplicamos el método científico para el estudio
de problemas sociales (educación, salud,
empleo, pobreza, entre otros). Busca generar
nuevos conocimientos en los temas
estudiados sobre diferentes grupos de
individuos en nuestra sociedad (población
afro-peruana).
3. Enfoques de Investigación Social
• Los principales enfoques de investigación social son:
– Investigación Cuantitativa: busca poner a prueba teorías o
hipótesis, identificar relaciones causales o asociaciones, y busca
hacer predicciones.
– Investigación Cualitativa: busca entender e interpretar
relaciones y/o interacciones de diferentes individuos o grupos
sociales.
– Investigación Mixta (Cuantitativa y Cualitativa): uso tanto de
métodos cuantitativos y cualitativos para poder tener un mejor
entendimiento de la pregunta y/o objeto de estudio.
4. Diseños de Investigación Cuantitativa
• Los diseños de investigación cuantitativa son:
– Descriptiva: busca dar información respecto a un fenómeno (encuestas de
medio y/o fin del curso).
– Correlacional: busca determinar la asociación entre dos o más variables pero
no busca probar causalidad (¿cuál es el efecto de la desnutrición en el
rendimiento de los estudiantes?)
– Cuasi-experimental: busca determinar relaciones de causa-efecto pero las
variables objeto del estudio no pudieron ser manipuladas por el investigador
(¿Cuál es el impacto de las clases de música en el autoestima de los
estudiantes?)
– Experimental: busca determinar relaciones de causa-efecto y las variables
objeto del estudio pudieron ser manipuladas por el investigador (¿Cuál es el
impacto de los desayunos escolares en el rendimiento de los estudiantes?)
5. Diseños de Investigación Cualitativa
• Los principales diseños de investigación cualitativa son:
– Fenomenología: busca determinar que aspectos comunes hay entre los diferentes
individuos que son parte del estudio y busca dar un alcance de como un individuo o
grupo de individuos vivieron o experimentaron el fenómeno de estudio (¿Cómo viven los
docentes la enseñanza en zonas rurales?)
– Etnografía: busca descubrir o describir los valores, practicas, rituales, normas, entre
otros de un grupo de individuos o sociedad (¿Cómo es el proceso de enseñanza y los
resultados que obtienen los estudiantes de escuelas bilingües en nuestro país?)
– Teoría fundamentada (Grounded Theory): busca construir y verificar una teoría (¿Cuáles
son los mecanismos que usan los estudiantes que vienen provincia para adaptarse en
universidades de Lima Metropolitana?)
– Casos de estudio: busca dar información detallada sobre un individuo o grupos de
individuos (¿Cómo viven la etapa universitaria las mujeres en las diferentes
concentraciones de estudio?)
7. ¿Por qué hacer análisis descriptivo?
¿ Qué hacer con estos
datos?
8. Estadística Descriptiva
Cuando se hace una recolección de datos, al final se cuenta con una base de datos que
por si sola no dice nada y necesita ser trabajada para poder tener información acerca
de lo que se recogió en campo.
De esta manera, el análisis descriptivo de una base de datos sirve para tal fin, nos
permite describir la información recogida en campo. Asimismo, el tipo de análisis
descriptivo que se realiza dependerá del tipo de variable que se está analizando.
Los tipos de análisis descriptivo que se pueden realizar son:
Medidas de tendencia central (p.ej.: media)
Medidas de dispersión (p.ej.: varianza)
Comparación de medias:
Test Paramétricos (p.ej.: ANOVA)
Test No Paramétricos (p.ej.: Chi cuadrado)
9. Tipos de Variables
Los tipos de variables son:
Variables Cuantitativas
Variables Cualitativas
10. Variables Cuantitativas
Los valores de este tipo de variables son números que se
pueden ordenar y/o comparar de menor a mayor. Este tipo
de variables se pueden dividir en dos:
•
Discretas: aquellas que pueden tomar solo valores
enteros, como por ejemplo: Número de hijos, Años de
escolaridad.
•
Continuas: aquellas que pueden tomar cualquier valor
dentro de los números reales, como por ejemplo: la
estatura de un grupo de personas, el nivel de ingresos
de las personas en Lima metropolitana, entre otras.
11. Variables Cualitativas
• Estas variables representan características y/o
atributos de una persona, lugar o cosa. No se
pueden ordenar, lo que implica que ningún
valor que tome es mayor o menor que el otro.
• Algunos ejemplos de este tipo de variables
son: el género, estado civil, etnicidad, entre
otras.
12. TIPOS DE VARIABLES
CUANTITATIVAS
ORDINALES
•Número de alumnos
•Nivel educativo
•Niveles de bienestar
CONTINUAS
(INTERVALOS / RAZON)
•Nivel de ingresos.
•La estatura de una persona
•Tiempo de duración de un
examen.
CUALITATIVAS
(NOMINALES)
•Sexo
•Lugar de residencia.
•Tipo de institución educativa
(público o privada)
13. Medidas de tendencia central (i)
Las medidas de tendencia central nos
muestran alrededor de qué punto se agrupan
la mayoría de las observaciones de una
variable.
Las medidas de tendencia central más usadas
son:
Media
Mediana
Moda
14. Medidas de tendencia central (ii)
Media aritmética: es el valor promedio de una serie
de datos, el cual se obtiene dividendo la suma de los
valores de la variable entre el número de
observaciones.
N
X
x1
x2
x3 ........ xN
N
1
xN
Por ejemplo: 1, 2, 3, 4, 6, 8
∑ = 24 , N=6, Media = 4
xi
i 1
N
15. Medidas de tendencia central (iii)
Mediana: La mediana de una variable es el valor que
divide los datos en dos partes iguales. El número de
observaciones menores a la mediana es igual al
numero de observaciones mayores a esta.
Por ejemplo: 1, 6, 12, 72, 144
Mediana: 12
Cuando se cuenta con una serie de datos par, la
mediana es el promedio de los números del medio.
16. Medidas de tendencia central (iv)
Moda: es el valor de una variable que se
presenta con mayor frecuencia en la variable.
Por ejemplo: 1, 2, 3, 3, 3, 3, 3, 4, 5, 6
Moda: 3
17. Medidas de dispersión (i)
Medidas que permiten medir la variabilidad
que presenta los valores de una variable, es
decir, nos dan un alcance de la dispersión de
los datos.
Las medidas de dispersión más usadas son:
La varianza
La desviación estándar
El coeficiente de variación
18. Medidas de dispersión (ii)
Varianza: es la medida de dispersión de una
variable, es decir son las diferencias entre el valor
observado y su valor medio o esperado al
cuadrado. Suele denotarse con la letra griega
sigma ( σ ) elevada al cuadrado.
Var( X )
2
(X
x
)
2
n 1
Donde X es la variable que estamos analizando y
n es el número de observaciones
19. Medidas de dispersión (iii)
Desviación estándar: es la raíz cuadrada de la
varianza. Al igual que la varianza, suele
denotarse con la letra griega sigma.
DE ( X )
(X
x
)
2
n 1
Donde X es la variable que estamos
analizando y n el numero de observaciones.
20. Medidas de dispersión (iv)
Coeficiente de variación (CV): se utiliza para
comparar la dispersión de dos distribuciones
distintas dado que elimina la escala (p.ej.:
kilogramos, metros) de las variables que se
comparan.
C.V .( X )
D.E.
Media
Var ( X )
X
X
El CV se obtiene del ratio de la desviación estándar
de una variable y su media.
21. Ejemplo utilizando las bases de datos
de la Evaluación Nacional del 2004
Utilizando los puntajes en comunicación de las siguientes
Instituciones Educativas:
Desviación estándar
N estudiantes
Institución Educativa 1
5
Institución Educativa 2
30
Media
292.7
274.4
DE
52.9
66.8
CV
0.18
0.24
Número de
observaciones
C.V. de 1 > C.V. de 2
Promedio 1 > Promedio de 2
22. Ejemplo usando diferentes variables
N
1
2
3
4
5
6
Media
DE
Varianza
CV
Edad (años) Estatura (cm)
18
167
35
172
20
160
46
184
51
167
24
171
Peso (kg)
60
85
70
67
55
74
24. Normalidad de una variable
• Para ver si una variable sigue una distribución
normal, se puede realizar una prueba
estadística como el Kolmogorov-Smirnov
test, Jarque-Bera tests, entre otros.
• Lo que todas estas pruebas o tests tienen en
común es que evalúan la existencia de
normalidad a partir de dos estadísticos:
Skewness y la Kurtosis.
25. Skewness y Kurtosis
• La skewness es una medida de simetría de la
distribución de una variable. Así, una variable se le
llama simétrica si la distribución luce similar tanto
por encima como por debajo del promedio.
• Los tipos de skewness que hay son: i) positive skew, y
ii) negative skew.
Skewness igual a 0 : normal
Skewness mayor a 0: negative skew
Skewness menor a 0: positive skew
26. Skewness y Kurtosis
• La kurtosis es un estadístico que nos indica que
tanto es el apuntalamiento de los datos en la
variable que se está trabajando. Es decir, nos
dice qué tan plana es la distribución de los datos.
• Al igual que en la skewness, existen diferentes
tipos de kurtosis, que nos indican que tan
aplanada es la distribución de los datos.
Kurtosis igual a 0 : normal
Kurtosis mayor a 0: leptokurtic
Kurtosis menor a 0: mesocurtic
Nota: Algunos programas (como el SPSS)
usan el 3 en lugar de 0
27. Códigos para calcular los estadísticos
descriptivos en STATA y SPSS
STATA
SPSS
• Para calcular los estadísticos
descriptivos de una o más
variables, hay varios comandos
en STATA que permiten obtener
estos indicadores.
• Para calcular los estadísticos
descriptivos de una o más
variables, en SPSS se tiene el
comando descriptives.
Los principales son:
summarize [variables], detail
tabstat [variables], s(mean sd sd
skew kurtosis)
Códigos para obtener los
estadísticos descriptivos:
descriptives [variables]
/statistics = mean stddev
variance min max semean
kurtosis skewness.
28. Ejemplo en SPSS de los estadísticos
descriptivos
DESCRIPTIVES VARIABLES=rend_com rend_mat
/STATISTICS=MEAN STDDEV MIN MAX.
31. Comparaciones de Medias
Las pruebas de comparaciones de medias sirven para probar
si las medias de dos grupos son estadísticamente diferentes.
Estas pruebas se pueden realizar asumiendo normalidad o sin
asumir normalidad en la variable que se va comparar.
En el caso de normalidad en la variable a analizar, la pruebas que se
pueden utilizar son paramétricas tales como: i) el análisis de varianza,
o ii) el test de la t de student (ttest)
En el caso de no normalidad en la variable a analizar, las pruebas que
se pueden utilizar son no-paramétricas tales como: i) la prueba de U
Mann-Whitney , o ii) Wilcoxon test.
32. Comparaciones de medias
Asimismo las comparaciones de media se pueden realizar
para muestras independientes o muestras no independientes
(dos observaciones en el tiempo)
Finalmente, se puede asumir igualdad o no de las varianzas en
cada grupo que se va comparar.
33. Pruebas paramétricas: ANOVA
El análisis de varianza es una prueba que permite
comparar las medias de diferentes grupos de tal
forma de ver si son estadísticamente diferentes.
La hipótesis nula es que las muestras para cada
grupo han sido realizadas de forma aleatoria y
por lo tanto las medias deben ser iguales.
Finalmente, esta prueba asume que las variables
a comparar siguen una distribución normal.
34. Análisis de Varianza
SCT
SC E
Suma de cuadrados
totales
Suma de cuadrados entre
grupos o explicada
SC D
Suma de cuadrados
dentro de grupos o no
explicada
36. Suma total de cuadrados o variación total
SCT
(Ycaso Y total )
2
Promedio total = 12
37. Suma de cuadrados entre grupos o explicada
SC E
(Y grupo Y total
2
)
38. Suma de cuadrados dentro de grupo o no explicada
SC D
Prom(A)
SCD
(Y
Individuo
Prom(B)
Y grupo ) 2
Prom(C)
39. Suma de cuadrados
totales
Suma de cuadrados entre
grupos o explicada
SCT
SC E
142
10
Suma de cuadrados
dentro de grupos o no
explicada
SC D
132
40. Varianza entre grupos (between)
Varianza del cuadrado medio entre grupos
Suma de cuadrados entre grupos
grados de libertad entre grupos (K - 1)
Para este caso “K “ es igual a 3, pues son 3 colegios.
Varianza del cuadradomedio entre grupos
SC E
K -1
10
3 1
10
2
5
41. Varianza al interior de los grupos (within)
Varianza del cuadrado medio dentro de grupos
Suma de cuadrados dentro de los grupos
grados de libertad dentro de grupos (n - K)
En este caso “n” es igual a 15 (observaciones)
“K” es igual a 3 (colegios)
Varianza del cuadrado medio dentro de grupos
142
(n - K)
142
(15 - 3)
142
12
11.83
42. Varianza del cuadrado medio total
Varianza del cuadrado medio total
Suma de cuadrados totales
grados de libertad total (n - 1)
En este caso “n” es igual a 15 (observaciones)
Varianza del cuadrado medio total
142
(n - 1)
142
(15 - 1)
142
(14)
10.14
43. Estadístico de prueba de la razón de F
Varianza explicada
Estadístic o de la razón F
Varianza no explicada
Estadístico de la razón F
0.422 3.89
5
0.42
11.83
F de la distribución de Fisher, con 2 (K-1)
grados de libertad en el numerador y 12
(n-K) grados de libertad del denominador.
No se rechaza la hipótesis nula de
igualdad de las medias para este ejemplo.
La hipótesis nula se evalúa al 95%
44. Comandos para hacer un ANOVA en
STATA y SPSS
STATA
El comando para hacer un
ANOVA en STATA se llama:
oneway.
SPSS
El comando para hacer un t-test en
SPSS se llama oneway.
El código para correr este análisis es:
El código para correr este
análisis es:
oneway [outcome] [group]
Oneway [outcome] by [group] ([values])
/statistics = all.
45. Pruebas Paramétricas: T-Test
Supuesto:
Normalidad de la distribución de la variable
S(X 1
X 2)
(n1 1)
En donde :
S es el error estándar
2
es la varianza
2
( X 1 ) (n2 1)
n1 n2 2
2
( X 2 ) n1 n2
n1 n2
46. Prueba t para diferencia de medias
Prueba
original
Hipótesis
nula
Prueba con
remplazo de
la hipótesis
nula
prueba t
H0 :
x1
prueba t
X1
X
2
(
S(X 1
x2
X1
S(X 1
x1
x2
)
X 2)
x1
X2
X 2)
x2
0
47. Comandos para hacer un t-test en
STATA y SPSS
STATA
SPSS
El comando para poder hacer
un t-test en STATA se llama:
ttest.
El comando para poder hacer un ttest en SPSS se llama t-test.
Los códigos para correr este
análisis es:
Los códigos para correr este análisis
es:
Varianzas iguales
ttest [outcome], by([group])
Varianzas diferentes
ttest [outcome], by([group])
unequal
t-test groups = [group] ([values])
/variables = [outcome]
/criteria = CIN (.99).
El SPSS en su ventana de resultados da los
resultados de la prueba asumiendo
igualdad o no de varianzas.
48. Ejemplo: Comparación de medias de notas en
matemática, para rural – urbano (usando SPSS)
Se observa que se rechaza la hipótesis nula
de igualdad de medias al 99% de confianza.
49. Pruebas No-Paramétricas:
Test U de Mann-Whitney
• Esta prueba tiene las siguientes características:
No asume distribución normal para las variables.
Compara las medianas en cada grupo
Se utiliza para variables discretas
La hipótesis nula es que las medianas entre grupos
son iguales
50. Pruebas No-Paramétricas:
Test U Mann-Whitney
• El estadístico de U Mann-Whitney es:
U
N1 N 2
N1 ( N1 1)
R1
2
U : el estadístico de U Mann Whitney
N1 o N2 : el número de observaciones en cada
grupo.
R1 : La suma del ranking para el primer grupo
51. Códigos para hacer el análisis en STATA
y SPSS
STATA
• El comando para hacer la
prueba no-paramétrica del
U Mann-Whitney es
ranksum.
SPSS
• El comando para hacer la
prueba no-paramétrica del
U Mann-Whitney es NPAR
TESTS.
• El código es:
ranksum [outcome],
by([group])
• El código es:
NPAR TESTS
/ M-W=[outcome] BY
[group]([values])
/ MISSING ANALYSIS.