1. ANALISIS MULTIVARIADO OBJETIVO: Reducir grandes conjuntos de datos con la intención de aportar resúmenes razonablemente complejos de la información que resida en ellos Camacho(1995) El AM puede arrojar luz sobre las interrelaciones e interdependencias de las variables y de la importancia relativa de las características implicadas
2.
3.
4. La covarianza de X1 y X2 Covarianza: Promedio de los productos de las desviaciones de las puntuaciones con respecto a la media correspondiente de los n elementos que componen un grupo.
5. La correlación lineal de Pearson entre X1 y X2 Coeficiente de Correlación de Pearson ( r ): Se define como la razón entre la covarianza de dos variables y el productos de sus varianzas
6. EL ANALISIS FACTORIAL COMPONENTES PRINCIPALES ¿Que es la creatividad, el amor, el altruismo y la depresión? A diferencia de las variables color de ojos, estatura y por ejemplo nivel de colesterol, no tienen una escala conocida y por otra parte no son directamente observables. El análisis factorial es una técnica estadística que permite identificar un número relativamente pequeño de componentes o factores que pueden ser utilizados para representar la relación que existe entre el grupo de variables mas numeroso del que surge. La meta del AF es identificar el factor no observable a partir de la relación existente entre sus indicadores observables (las variables)
7. ¿Qué es un Factor? Un grupo de variables (cuestionario) que miden lo mismo o distintos aspectos de un mismo constructo muestran correlaciones entre sí.. Estas correlaciones se agrupan en una matriz de correlaciones o matriz-R La matriz-R puede mostrar subconjuntos de variables que están muy relacionadas entre sí y no lo están o lo están menos con otras variables. Estas agrupaciones de variables (ítems del cuestionario) parecen referirse a dimensiones que nosotros llamamos FACTORES (o variables latentes). Es por esto que cuando analizamos un conjunto de variables, intentamos reducir este gran conjunto a subconjuntos más parsimoniosos.
8. p.e. midamos el constructo popularidad Factor 1 Factor 2 Matriz-R El objetivo es reducir la matriz-R a sus dimensiones latentes mirando qué variables parecen agruparse con cierto sentido. Esto es mirando qué variables correlacionan con otras alto pero no correlacionan con otro/s grupos de variables. En este ejemplo parece que hay dos agrupaciones.. Hablar 1 H. Sociales Intereses Hablar 2 Egoísmo Mentira Hablar 1 (de otros) 1,00 H. Sociales 0,77 1,00 Intereses 0,65 0,88 1,00 Hablar 2 (de uno mismo) 0,07 -0,12 0,05 1,00 Egoísmo -0,13 0,03 -0,10 0,44 1,00 Mentira 0,07 0,01 0,11 0,36 0,28 1,00
9. 1 -1 -1 1 Consideración a otros Sociabilidad Hablar 2 Mentir Egoísmo Hablar 1 Interés H. sociales 0 Los factores son entidades estadísticas que pueden visualizarse espacialmente en un eje de coordenadas. En este ejemplo se agrupan las variables rojas en el eje de sociabilidad y las verdes en el eje de consideración a otros
10. Coeficientes Estructura Idealmente queremos que las variables se agrupen los “más pegadas” a un eje. Esto indicaría que una variable particular está relacionada sólo con ese factor. Y el grupo mide distintos aspectos de la misma dimensión latente. El índice que mide lo “pegada” que está una variable a un factor se denomina “carga factorial” o “ coeficiente estructura ”. Se puede entender como la correlación entre dicha variable y el factor o dimensión latente Los coeficientes estructura varían entre -1 y 1. Si son positivos cuanto mayor el valor en la variable mayor el valor en el factor. Si son negativos cuanto mayor el valor en la variable, menor el valor en el factor.
12. X resulta en una combinación lineal de pesos (A) por factores F más un término llamado Unicidad relativo a la parte de X que no esta explicada por los factores extraidos. Cada sujeto i tendrá un valor en la componente o factor F que resulta de multiplicar el peso de la variable X en dicha componente por el valor del sujeto en la variable X tipificada Z
13. A = Matriz de Coeficientes estructura (pesos) o Factor Matrix Las cargas o pesos factoriales pueden organizarse en una matriz en el que cada columna representa un factor o dimensión y las filas representan las variables iniciales. Esta matriz se denota normalmente como Matriz Es necesario recordar que las columnas (factores) en realidad son combinaciones lineales de las variables originales.. 0,87 0,01 0,96 -0,03 0,92 0,04 0,00 0,82 -0,1 0,75 0,09 0,7
14. Matriz estructura vs. Matriz Patrón Definimos la carga factorial como la correlación entre la variable y el factor. Pero también hemos definido un factor como combinación de bs que son, en realidad, coeficientes de regresión. Por tanto ¿Son coeficientes de correlación o coeficientes de regresión? Lo importante es entender que la carga factorial es la contribución de una variable al factor en cuestión. La diferenciación en terminología tiene que ver con algo que veremos más adelante y llamamos rotación. Hay dos tipos Rotación: Ortogonal y Oblicua. Cuando la rotación es ortogonal la carga factorial puede ser vista como una correlación y también como un coeficiente (su valor coincide). Pero si la rotación es Oblicua ya no coinciden hablando entonces de matriz estructura (correlación) y de matriz de patrones (coeficientes de regresión)
15. Descubriendo Factores… La variabilidad de una variable particular puede ser descompuesta en dos. a) varianza común que comparte con otras variables y b) varianza única. Definimos la comunalidad como la proporción de varianza común presente en una variable. En el AF estamos interesados primeramente en conocer el valor de esta comunalidad. Pero no podemos saber dicho valor sin llevar a cabo el AF!!! Por tanto, cuando hacemos un AF asumimos inicialmente la máxima comunalidad (es decir 1) es por eso que inicialmente tenemos tantos factores como variables o componentes.
16. Extrayendo Factores… No todos los factores se retienen en un AF… ¿qué criterio utilizar?. Un criterio es retener factores con los autovalores más grandes.. Los autovalores son el porcentaje de varianza que explica los factores (componentes) retenidos de las variables originales… Queremos explicar la máxima varianza con el mínimo de componentes. Por eso existen reglas analíticas (como la anterior) o gráficas que permiten retener cierto número de componentes. La regla analítica utilizada es la de Kaiser “retener los factores o componentes que tienen un autovalor o valor propio mayor que 1” Dado que la varianza a explicar por los componentes es igual al número de variables, hay tantos componentes como variables, por puro azar cada componente le corresponde valor 1.
17. El método gráfico es graficar los autovalores (eje Y) frente a los factores (eye X) Se retienen dos factores: salto brusco y autovalores > 1. Con N> 200 este gráfico es bastante fiable…
18. Mejorando la interpretación: rotación factorial.. Una vez obtenidos los coeficientes estructuras estos deben rotarse para conseguir que las variables pesen mucho en un factor y poco o nada en otro. Normalmente los coeficientes bipolares (correlaciones altas positivas con un factor y negativas con otro factor) provocan la necesidad de rotaciones. ¿Qué es una rotación? Factor 1 Ortogonal Oblicua Factor 2 Factor 1 90 0 Factor 2
19. ¿Qué método de rotación utilizar?.. Rotación Ortogonal : Varimax.. Maximizar la varianza dentro de los factores.. Provocando que las variables tengan altos coeficientes estructura en un factor y próximos a cero en otros… Quartimax.. Hace lo mismo que la varimax pero para las variables no los factores o componentes.. Equamax.. Una mezcla entre las dos anteriores.. Rotación Oblicua : Oblimin… es como llevar a cabo una varimax y una quatrimax.. Lo que hace que ya los factores no sean ortogonales… La rotación depende de la teoría detrás de la investigación. Si el investigador sospecha que los factores son independientes, entonces una rotación varimax es lo mejor… si por el contrario la sospecha es que los factores iniciales sólo son de primer orden y hay relación entre los factores entonces una rotación oblimin es lo mejor
20.
21. Ejemplo… Se construyó un cuestionario para predecir la ansiedad que genera el aprendizaje del SPSS… queremos saber si la ansiedad relativa al SPSS se puede descomponer en formas específicas de ansiedad.. ¿Qué variables latentes contribuyen a la ansiedad relativa al SPSS? Una regla antes de empezar… como medida de fiabilidad del AF es bueno contar con al menos entre 10-15 sujetos por variable. Abrimos el archivo SAQ.sav…
25. Valores próximos a 1 indican que el AF es pertinente…. La prueba de Barlet debe llevarnos al rechazo de la Hipótesis nula de que la matriz de correlaciones es una matriz identidad (unos en la diagonal principal y ceros fuera de la diagonal principal)
26. Extracción de Factores Primer componente explica un 31,696 de varianza con un autovalor de 7,290 Factores retenidos Factores retenidos después de la rotación
27. Tabla de Comunalidades iniciales y después de la extracción… Recordar que es el porcentaje de varianza que los factores retenidos explican de cada variable.. O que el 43,5% de la varianza del ítem 1 es común a los factores retenidos…
28. Matriz de componentes (no están todos por falta de espacio) Coeficientes estructura… correlación entre la variable y el factor retenido… o la carga de cada variable en cada factor..
29.
30. El grado en el que cada factor fue rotado para obtener una solución.. Si no hubiera habido rotación esta matriz sería una identidad (unos y ceros).. Si es una rotación ortogonal se espera una matriz simétrica… aunque esa matriz parece indicar que necesitamos una rotación oblicua… normalmente para analisis inexpertos es mejor solo observarla…. Cargas después de la rotación… es la solución final a la que llegamos… es necesario observarla bien, ya que a partir de ella podremos etiquetar los factores sabiendo qué items contempla cada uno….
31. ¿Realmente nuestra escala mide lo que dice medir? Análisis de Fiabilidad… El índice más utilizado es el Alfa de Cronbach que está basado en la correlación promedio de los ítems en un test, si éstos están estandarizados. Si no utiliza las covarianzas entre los ítems..
32. Interpretando el alfa de Cronbach… Normalmente se aceptan valores entre 0,7 y 0,8. Kline (1999) propone 0,8 para variables cognitivas en el caso de constructos de pesonalidad 0,7 sería lo aceptable incluso por debajo… Cortina (1993) propone ser cautos.. Alfa depende del número de ítems de la escala (ver la ecuación).. Por tanto es posible encontrar un alfa alto no por la fiabilidad sino por el número de ítems.. Cuando una escala tiene subescalas el alfa debería calcularse para cada una no para el total…
33. Un ejemplo del cálculo del Alfa de Cronbach.. Correlación entre cada ítem y la puntuación total en el cuestionario. Es esperable que en toda escala todos los items deberían correlacionar con el total Alfa de la escala si el ítem se elimina.