SlideShare una empresa de Scribd logo
1 de 54
Universidad Nacional del Altiplano Puno
1
DOCENTE: Ernesto, CALANCHO MAMANI
INTEGRANTES:
• ALVAREZ VALDEZ Emerson Santy
• APAZA APAZA Jhoan Tito
• CALCINA LUQUE, Yorgiño Alex
• CALISAYA ROJAS Edward Alexander
• CALLE CHURA, Yenifer Katerin
• CCAPA PAJA Ludwing
• CHOQUE RUELAS Jóse Richard
• CHURA CHURA, Wilber
• ESPILLICO CHAGUA Yony Ivan
• HUANCA AMANQUI Jhon Cristian
• HURTADO SANCHEZ JOEL WILMER
• LIRA POMA, Karem Nataly
• MAMANI CHAMBILLA, Joseluis
Nombre del moderador
ÍNDICE
• Definición de Análisis
Factorial
• Análisis de la matriz de
correlación
• Extracción de factores
• Rotación de Factores
• Puntuaciones Factoriales
• Ejemplo
3
Análisis
Factorial
¿Qué es el Análisis Factorial?
• El análisis factorial es una técnica de reducción de datos que
sirve para encontrar grupos homogéneos de variables a partir de
un conjunto numeroso de variables.
• El Análisis Factorial es, por tanto, una técnica de reducción de la
dimensionalidad de los datos. Su propósito consiste en buscar el
número mínimo de dimensiones capaces de explicar el máximo
de información contenida en los datos.
• A diferencia de lo que ocurre en otras técnicas como el análisis
de varianza o el de regresión, en el análisis factorial todas las
variables del análisis cumplen el mismo papel: todas ellas son
independientes en el sentido de que no existe a priori una
dependencia conceptual de unas variables sobre otras.
Fundamentalmente lo que se pretende con el Análisis Factorial
es simplificar la información que nos da una matriz de
correlaciones para hacerla más fácilmente interpretable.
3/9/20XX Título de la presentación 5
¿Qué hace el Análisis Factorial?
• Se encarga de analizar la varianza común a todas las variables.
Partiendo de una matriz de correlaciones, trata de simplificar la
información que ofrece. Se opera con las correlaciones elevadas al
cuadrado r2 (coeficientes de determinación), que expresan la
proporción de varianza común entre las variables. En cada casilla de la
matriz de correlaciones se refleja la proporción de varianza común a
dos ítems o variables, excepto en la diagonal principal (donde cada
ítem coincide consigo mismo) En los 1 de la diagonal principal se refleja
la varianza que cada ítem o variable comparte con los demás y también
los que no comparten. Si se desea analizar exclusivamente la varianza
compartida habrá que eliminar los unos de la matriz de correlaciones y
poner en su lugar la proporción de varianza que cada ítem tiene en
común con todos los demás.
3/9/20XX Título de la presentación 6
En el Análisis Factorial, por tanto, caben
dos enfoques:
I. Analizar TODA la varianza (común y no común). En este caso utilizamos los unos
de la matriz de correlaciones. El método más usual es el de Análisis de
Componentes Principales.
II. Analizar SOLO la varianza común. En este caso, se substituyen los unos de la
diagonal por estimaciones de la varianza que cada ítem tiene en común con los
demás (y que se denominan Comunalidades). Para la estimación de las
comunalidades no hay un cálculo único, existen diversos procedimientos
(correlaciones múltiples de cada ítem con todos los demás, coeficientes de
fiabilidad si cada variable es un test). El procedimiento por el que se sustituyen los
unos por las comunalidades se denomina Análisis de Factores Comunes.
Los dos enfoques caben bajo la denominación genérica de Análisis Factorial, aunque
es el Análisis de Factores Comunes al que con más propiedad se le aplica la
denominación de Análisis Factorial. Ambos enfoques dan resultados similares y se
interpretan de manera casi idéntica
3/9/20XX Título de la presentación 7
¿Qué es un
FACTOR?
En realidad los factores no existen, lo que
existe de cada sujeto es una suma de sus
respuestas a una serie de ítems o
preguntas, una combinación lineal de
variables (ítem a + ítem b + ítem c + … ).
• Si encontramos, por ejemplo, tres factores, esto quiere decir
que podemos descomponer el instrumento original en tres
instrumentos; cada uno está compuesto por todos los ítems,
pero en cada instrumento los ítems tienen un peso específico
distinto según sea su relación con cada factor:
• El análisis factorial se reduce a la búsqueda de estos
pesos para localizar medidas distintas a partir de las
variables originales, y de manera que, a poder ser, entre
todas las nuevas medidas agoten o expliquen toda la
varianza presente en las variables originales.
3/9/20XX Título de la presentación 10
ESQUEMA DE UN ANÁLISIS
FACTORIAL:
3/9/20XX Título de la presentación 11
MODELO DEL ANÁLISIS
FACTORIAL
Sean (X1, X2,…, Xp) las p variables objeto de análisis
que supondremos en todo lo que sigue, que están
tipificadas.
El investigador mide estas variables sobre n individuos,
obteniéndose la siguiente matriz de datos:
Donde:
• (F1, F2, …, Fk) (k<p) son los Factores
Comunes.
• (u1, u2, …, up) los Factores únicos o
• Específicos.
• y los Coeficientes (aij) {i = 1, …, p; j=1,
... ,k} las Cargas factoriales.
• además, los Factores Comunes están
incorrelados [Cov(Fi, Fj) = 0 si i≠j; j,
i=1,…,k] estamos ante un modelo con
factores ortogonales.
• En caso contrario el modelo se dice
que es de factores oblicuos.
EXPRESADO EN FORMA MATRICIAL:
Utilizando las hipótesis anteriores, se tiene:
La varianza de cada una de las variables
analizadas se puede descomponer en dos
partes:
La Comunalidad: que representa la
varianza explicada por los factores
comunes
Especificidad: que representa la parte de
la varianza específica de cada variable.
𝒉𝒊
𝟐
= Comunalidad
Ψ= Especificidad
• por lo que son los factores comunes
los que explican las relaciones
existentes entre las variables.
• Por este motivo, los factores
comunes tienen interés y son
susceptibles de interpretación
• Experimental.
Análisis de la
matriz de
correlación
3/9/20XX Título de la presentación 15
¿Qué es una matriz de correlación?
Es una matriz de coeficientes de correlación entre varias
variables que son cuantitativas. La correlación trata de
establecer la relación o dependencia que existe entre las dos
variables que intervienen en una distribución bidimensional. La
correlación entre dos variables mide el grado de ajuste de la
nube de puntos a la función matemática asignada.
Variables X Y Z
X 𝑟𝑥𝑥 𝑟𝑥𝑦 𝑟𝑥𝑧
Y
𝑟𝑦𝑥 𝑟𝑦𝑦 𝑟𝑦𝑧
Z 𝑟𝑧𝑥 𝑟𝑧𝑦 𝑟𝑧𝑧
Es decir, determinar si los cambios en una de las variables
influyen en los cambios de la otra.
16
¿Qué es coeficiente de correlación?
Es una medida del grado de asociación lineal entre dos variables
cuantitativas. 𝒓𝒙𝒚 = [−𝟏, 𝟏] ∓𝟎. 𝟎𝟎 ∓𝟎. 𝟎𝟗 Correlación nula
∓𝟎. 𝟏𝟎 ∓𝟎. 𝟏𝟗 Correlación muy débil
∓𝟎. 𝟐𝟎 ∓𝟎. 𝟒𝟗 Correlación débil
∓𝟎. 𝟓𝟎 ∓𝟎. 𝟔𝟗 Correlación moderada
∓𝟎. 𝟕𝟎 ∓𝟎. 𝟖𝟒 Correlación significativa
∓𝟎. 𝟖𝟓 ∓𝟎. 𝟗𝟓 Correlación fuerte
∓𝟎. 𝟗𝟔 ∓𝟏. 𝟎 Correlación perfecta
Correlación igual a cero
(r=0): Cuando la correlación
es igual a cero significa que
no es posible determinar
algún sentido de covariación.
Sin embargo, no significa
que no exista una relación no
lineal entre las variables.
1
Correlación mayor a cero
(r > 0): Si la correlación es
igual a +1 significa que es
positiva perfecta. En este
caso significa que la
correlación es positiva, es
decir, que las variables se
correlacionan directamente.
2
Correlación menor a cero
(r < 0): Si la correlación es
menor a cero, significa que
es negativa, es decir, que las
variables se relacionan
inversamente.
3
18
EJEMPLO:
Una empresa realiza una encuesta y se plantea a sus
trabajadores algunas cuestiones como la siguientes.
A B C D
Años de antigüedad laboral. 1 4 7 8
Estudio de actualización en el último año. 2 2 8 4
Ingreso semanal que perciben. 1 13 1 5
SOLUCION:
 x = Años de antigüedad laboral.
 y = Estudio de actualización en el último año.
 z = Ingreso semanal que perciben.
19
X Y Z
1 2 1
4 2 13
7 8 1
8 4 5
Calculo con funciones simples de Excel
X Y Z
X 1
0.670820
39 0
Y
0.670820
39 1 -0.5
Z 0 -0.5 1
Interpretación
Los valores que quedan en la diagonal todos adquieren el
valor 1 esto debe a que la variable se esta relacionando
consigo mismo es decir x con x.
Lo que nos interesa es la relación entre las distintas variables.
Tomamos por ejemplo las variables X la relacionamos con la
variable Y, la relación que hay se mide por el valor de
coeficiente en este caso es 0.67082039 por lo tanto hay una
correlación moderada entre esas variables.
20
La finalidad de analizar la matriz de las correlaciones
muestrales es la correlación muestral observada entre las
variables, es comprobar si sus características son las
adecuadas para realizar un Análisis Factorial.
Uno de los requisitos que deben cumplirse es que las
variables se encuentran altamente intercorrelacionadas.
También se espera que las variables que tengan correlación
muy alta entre sí la tengan con el mismo factor o factores.
En consecuencia, si las correlaciones entre todas las
variables son bajas, tal vez no sea apropiado el Análisis
Factorial.
Kaiser-
Meyer-Olkin
(KMO)
Indica la adecuación de los datos a
un modelo de AF.
Permite valorar el grado en que
cada una de las variables es
predecible a partir de las demás.
Valores KMO por debajo de 0.5 no
serán aceptables, considerándose
inadecuados los datos a un modelo
de AF.
Mientras más cercanos a 1 los
valores de KMO mejor es la
adecuación de los datos a un AF
Esfericidad
de Bartlett
Corroborar que el modelo factorial es
adecuado para explicar los datos de la
muestra, indicando que existen relaciones
significativas entre las variables.
Pone a prueba la hipótesis nula de que las
variables analizadas no están
correlacionadas en la muestra o que la
matriz de correlación es la identidad (las
intercorrelaciones entre las variables son
cero)
Tiene que ser significativo el valor de Chi-
cuadrado (p< 0.05)
Ejemplo
3/9/20XX Título de la presentación 23
Tabla 3. Prueba de adecuación de Kaiser-Meyer-Olkin y esfericidad de Bartlett
Medida Kaiser-Meyer-Olkin de adecuación de muestreo ,813
Prueba de esfericidad de Bartlett Aprox. Chi-cuadrado 2414,969
gl 45
Sig. ,000
Fuente: Salida resultados SPSS.
Métodos de
extracción de
factores
3/9/20XX Título de la presentación 25
MÉTODO DESCRIPCIÓN
MÉTODO DE LAS
COMPONENTES
PRINCIPALES
Utilizada para formar combinaciones lineales no correlacionadas de las variables
observadas. El primer componente tiene la varianza máxima. Las componentes
sucesivas explican progresivamente proporciones menores de la varianza y no
están correlacionadas unas con otras. El análisis principal de las componentes se
utiliza para obtener la solución factorial inicial. No se puede utilizar cuando una
matriz de correlaciones es singular.
MÉTODO DE LOS EJES
PRINCIPALES
Parte de la matriz de correlaciones original con los cuadrados de los coeficientes
de correlación múltiple insertados en la diagonal principal como estimaciones
iniciales de las comunalidades. Las cargas factoriales resultantes se utilizan para
estimar de nuevo las comunalidades que reemplazan a las estimaciones previas
de comunalidad en la diagonal. Las iteraciones continúan hasta que el cambio en
las comunalidades, de una iteración a la siguiente, satisfaga el criterio de
convergencia para la extracción.
MÉTODO DE LA MÁXIMA
VEROSIMILITUD
Proporciona las estimaciones de los parámetros que con mayor probabilidad ha
producido la matriz de correlaciones observada, si la muestra procede de una
distribución normal multivariada. Las correlaciones se ponderan por el inverso de
la exclusividad de las variables, y se emplea un algoritmo iterativo.
MÉTODO DESCRIPCIÓN
Método Mínimos cuadrados no ponderados Minimiza la suma de los cuadrados de las diferencias entre las
matrices de correlación observada y reproducida, ignorando las
diagonales.
Método Mínimos cuadrados generalizados Minimiza la suma de los cuadrados de las diferencias entre las
matrices de correlación observada y reproducida. Las
correlaciones se ponderan por el inverso de su exclusividad, de
manera que las variables que tengan un valor alto de
exclusividad reciban una ponderación menor que aquéllas que
tengan un valor bajo de exclusividad.
Factorización de imágenes Desarrollado por Guttman y basado en la teoría de las
imágenes. La parte común de una variable, llamada la imagen
parcial, se define como su regresión lineal sobre las restantes
variables, en lugar de ser una función de los factores hipotéticos.
Factorización Alfa Método de extracción factorial que considera a las variables
incluidas en el análisis como una muestra del universo de las
variables posibles. Este método maximiza el Alfa de Cronbach
para los factores.
3/9/20XX Título de la presentación 26
DETERMINAR EL
NÚMERO DE FACTORES:
Se trata de cumplir el principio de
parsimonia, entonces se debe de
determinar el número de factores que
conviene conservar para lo cual existen
diversas reglas y criterios
3/9/20XX Título de la presentación 27
CRITERIO PROS CONTRAS
Determinación “a
priori”
Es el criterio más fiable si los datos y las variables están
bien elegidos y el investigador conoce la situación.
Lo ideal es plantear el Análisis Factorial con una idea previa
de cuántos factores hay y cuáles son.
.
Regla de Kaiser
Calcula los valores propios de la matriz de correlaciones y
toma como número de factores el número de valores
propios superiores a la unidad.
Tiende a infraestimar el
número de factores por lo
que se recomienda su uso
para establecer un límite
inferior.
Criterio del
porcentaje de la
varianza
Tiende a infraestimar el número de factores por lo que se
recomienda su uso para establecer un límite inferior.
No tiene ninguna justificación
teórica o práctica.
Criterio de
Sedimentación
Se trata de la representación gráfica donde los factores
están en el eje de abscisas y los valores propios en el de
ordenadas.
Los factores con varianzas altas suelen diferenciarse de los
factores con varianzas bajas.
Se pueden conservar los factores situados antes de este
punto de inflexión.
Tiene el inconveniente de que
depende del ‘ojo’.
CRITERIO PROS CONTRAS
Criterio de
división a la
mitad
La muestra se divide en dos partes iguales tomadas al
azar y se realiza el Análisis Factorial en cada una de
ellas.
Solo se conservan los factores que tienen alta
correspondencia de cargas de factores en las dos
muestras.
Antes de aplicarlo, conviene
comprobar que no existen
diferencias significativas entre
las dos muestras en lo que se
refiere a las variables
estudiadas..
Pruebas de
significación
En la mayor parte de los casos exploratorios “k” no
puede ser especificado por adelantado y, en
consecuencia, se utilizan procedimientos secuenciales
para determinar “k”.
Los parámetros en el modelo factorial son estimados
utilizando el método de máxima verosimilitud.
Se comienza usualmente un valor pequeño: k=1
Si el estadístico del test no es significativo, se acepta el
modelo con este número de factores, en caso contrario,
se aumenta k=2 y se repite el proceso hasta alcanzar
una solución aceptable.
El principal inconveniente de
este método es que está basado
en resultados asintóticos y que,
si el tamaño de la muestra es
grande, se corre el riesgo de
tomar el valor “k” excesivamente
grande
puesto que el test detecta
cualquier factor por pequeño
que sea su poder explicativo.
INTERPRETACIÓN DE LOS
FACTORES:
La interpretación de los factores se
basa en las correlaciones estimadas de
los mismos con las variables originales.
3/9/20XX Título de la presentación 30
• Juega un papel preponderante el conocimiento del investigador.
• Proceso de interpretación:
• Identificar las variables cuyas correlaciones con el factor son las más
elevadas en valor absoluto.
• Intentar dar nombre a los factores: El nombre se asigna de acuerdo
con la estructura de las correlaciones. Cuando es positiva la relación
entre el factor y dicha variable, es directa, caso contrario es inversa.
• Ordenar la matriz factorial de forma que las variables con cargas altas
para el mismo factor aparezcan juntas.
• Eliminar las cargas factoriales bajas y de este modo suprimir
información redundante. El investigador decide a partir de qué valor
deben eliminarse las cargas factoriales. De cara a una mayor facilidad
interpretativa, el investigador puede ordenar la matriz factorial y
eliminar las cargas factoriales bajas. Generalmente, se toma como
significativas las cargas superiores a 0,5 en valor absoluto. Aunque, si
el factor es más tardío o el número de variables es grande, se eleva el
valor mínimo de la carga factorial significativa.
31
Rotación de
Factores
• La Rotación de Factores a partir de la solución inicial buscan factores cuya
matriz de cargas factoriales los hagan más fácilmente interpretables.
• Estos métodos intentan aproximar la solución obtenida al Principio de
Estructura Simple Louis Leon Thurstone 1935, y debe reunir las siguientes
características:
• Cada factor debe tener pocos pesos altos y los otros próximos a 0.
• Cada variable no debe estar saturada más que en un factor.
• No deben existir factores con la misma distribución, es decir, los factores
distintos deben presentar distribuciones de cargas altas y bajas distintas.
Existen dos formas básicas de realizar la Rotación de Factores:
• Rotación ortogonal.
• Rotación oblicua.
3/9/20XX Título de la presentación 33
ROTACION ORTOGONAL: Los métodos empleados en la rotación
ortogonal de factores son: Varimax, Quartimax, Equamax.
• Rotación de Criterio Varimax (Ortogonal)
• Método de rotación ortogonal que minimiza el número de variables que tienen cargas altas en cada
factor. Simplifica la interpretación de los factores.
• Rotación de Criterio de Quartimax
• El objetivo es que cada variable tenga correlaciones elevadas con un pequeño número de factores.
Para ello Maximiza la varianza de las cargas factoriales al cuadrado
de cada variable en los factores, es decir, se trata de maximizar la función:
• Método Equamax.
• Método de rotación que es combinación del método varimax, que simplifica los factores,
y el método quartimax, que simplifica las variables. Se minimiza tanto el número de
variables que saturan alto en un factor como el número de factores necesarios para
explicar una variable.
3/9/20XX Título de la presentación 34
ROTACION OBLICUA
• La matriz factorial no rotada se convierte en dos matrices diferentes:
la matriz de ponderaciones (que es la que se utiliza en la
interpretación) y la matriz de correlaciones entre factores y variables.
También obtendremos otra matriz de correlaciones entre factores.
• La rotación oblicua puede utilizarse cuando es probable que los
factores en la población tengan una correlación muy fuerte.
3/9/20XX Título de la presentación 35
Puntuaciones
Factoriales
CÁLCULO DE
PUNTUACION
ES
FACTORIALE
S
Son variadas las posibilidades de analizar las
puntuaciones factoriales de los sujetos:
• Conocer qué sujetos son los más raros o
extremos.
• Conocer dónde se ubican ciertos grupos o sub
colectivos de la muestra.
• Conocer en qué factor sobresalen unos sujetos y
n qué factor no.
Es necesario conocer los valores que toman los
factores en cada observación, pues en ocasiones, el
Análisis Factorial es un paso previo a otros análisis:
Regresión Múltiple o Análisis Cluster, en los que
sustituye el conjunto de variables originales por los
factores obtenidos.
3/9/20XX Título de la presentación 37
Métodos del Cálculo
de las Puntuaciones.
Existen diversos métodos de estimación de la
matriz F, las propiedades deseables que
verificarán los factores estimados son:
Cada factor estimado presente una correlación
alta con el verdadero factor.
Cada factor estimado tenga correlación nula con
los demás factores verdaderos.
Los factores estimados son incorrelados dos a
dos (mutuamente ortogonales si son
ortogonales).
Los factores estimados son estimadores
insesgados de los verdaderos factores.
3/9/20XX Título de la presentación 38
Los métodos de estimación más
utilizados: Regresión, Barlett,
Anderson‐Rubin.
Método de Regresión: Estima F por el
método de los mínimos cuadrados:
El Método de
Regresión da
lugar a
puntuaciones
con máxima
correlación con
las
puntuaciones
teóricas.:
Método de Barlett: Utiliza el método de
los mínimos cuadrados generalizados
estimando las puntuaciones factoriales
mediante::
El Método de
Barlett da lugar a
puntuaciones
correladas con las
puntuaciones
teóricas,
insesgadas y
unívocas.
Método de Anderson‐Rubin: Estima F
mediante el método de los mínimos
cuadrados generalizados, imponiendo
la condición F'F=1
:
El Método de
Anderson‐Rubin
da lugar a
puntuaciones
ortogonales que
están correladas
con las
puntuaciones
teóricas
SELECCIÓ
N DE
VARIABLE
S.
El investigador en
ocasiones desea
seleccionar las variables
más representativas de
los factores, en lugar de
calcular sus puntuaciones.
3/9/20XX Título de la presentación 42
VALIDACIÓ
N DEL
MODELO
El último paso en el Análisis
Factorial es estudiar la validez
del modelo. El proceso debe
realizarse en dos direcciones:
Analizando la bondad de
ajuste y la Generalidad de los
resultados.
3/9/20XX Título de la presentación 43
Bondad de Ajuste
• Una suposición básica subyacente
al Análisis Factorial es que la
correlación observada entre las
variables puede atribuirse a
factores comunes.
Generalidad de los resultados
• Es conveniente refrendar los
resultados del primer análisis
factorial realizando nuevos análisis
factoriales sobre nuevas muestras
extraídas de la población objeto de
estudio y, en caso de no ser
posible, sobre submuestras de la
muestra original.
3/9/20XX Título de la presentación 44
Otro de los procedimientos metodológicos y estadísticos que
complementan y profundizan las interpretaciones que se
deducen del análisis factorial consiste en la realización de
otros análisis factoriales en base, no al conjunto total de la
muestra o población, sino referido a subcolectivos o grupos
que están presentes en la muestra y que pueden formarse
utilizando las categorías de las variables primarias
3/9/20XX 45
Lo que se desprende de los trabajos e
investigaciones que han utilizado este
procedimiento es que generalmente la
interpretación que se da y que es válida
para el conjunto total de sujetos debe
modificarse, en algunos casos
sustancialmente, cuando se refiere a esos
sub colectivos
• Las variables se
comportan en el Análisis
Factorial de distinta forma
según de qué muestra se
trate.
• No existe el sujeto ‘tipo’
sino que existen diferentes
‘tipos’ de sujetos en la
muestra global.
3/9/20XX Título de la presentación 46
ANÁLISIS
FACTORIA
L
Siendo una técnica estadística multivariante cuya finalidad es analizar
las relaciones de interdependencia existentes entre un conjunto de
variables, calculando un conjunto de variables latentes, denominadas
factores, que explican con un número menor de dimensiones, dichas
relaciones.
Por este motivo, el Análisis Factorial es una técnica de reducción de
datos con un número menor de variables sin distorsionar dicha
información, lo que aumenta el grado de manejo e interpretación de la
misma.
Ejemplo
Se considera una muestra de los
años de vida esperados por país,
edad y sexo procedentes de Keyfitz
y Flieger (1971).
3/9/20XX Título de la presentación 49
m0 m25 m50 m75 w0 w25 w50 w75
Algeria 63 51 30 13 67 54 34 15
Cameroon 34 29 13 5 38 32 17 6
Madagascar 38 30 17 7 38 34 20 7
Mauritius 59 42 20 6 64 46 25 8
Reunion 56 38 18 7 62 46 25 10
Seychelles 62 44 24 7 69 50 28 14
South Africa(C) 50 39 20 7 55 43 23 8
South
Africa(W)
65 44 22 7 72 50 27 9
Tunisia 56 46 24 11 63 54 33 19
Canada 69 47 24 8 75 53 29 10
Costa Rica 65 48 26 9 68 50 27 10
Dominican Rep 64 50 28 11 66 51 29 11
El Salvador 56 44 25 10 61 48 27 12
Greenland 60 44 22 6 65 45 25 9
Grenada 61 45 22 8 65 49 27 10
Guatemala 49 40 22 9 51 41 23 8
Honduras 59 42 22 6 61 43 22 7
Jamaica 63 44 23 8 67 48 26 9
Mexico 59 44 24 8 63 46 25 8
Nicaragua 65 48 28 14 68 51 29 13
Panama 65 48 26 9 67 49 27 10
Trinidad(62) 64 63 21 7 68 47 25 9
Trinidad (67) 64 43 21 6 68 47 24 8
United States
(66)
67 45 23 8 74 51 28 10
United States
(NW66)
61 40 21 10 67 46 25 11
United States
(W66)
68 46 23 8 75 52 29 10
United States
(67)
67 45 23 8 74 51 28 10
Argentina 65 46 24 9 71 51 28 10
Chile 59 43 23 10 66 49 27 12
Columbia 58 44 24 9 62 47 25 10
3/9/20XX Título de la presentación 50
Estadísticos descriptivos
Media
Desviación
típica
N del análisis
m0 59,613 79,191 31
m25 44,129 59,033 31
m50 22,935 34,052 31
m75 8,387 20,278 31
w0 64,194 88,220 31
w25 47,516 49,858 31
w50 26,290 33,386 31
w75 10,129 25,787 31
Matriz de correlaciones(a)
m0 m25 m50 m75 w0 w25 w50 w75
Correlación
m0 1,000 ,748 ,636 ,290 ,980 ,874 ,697 ,318
m25 ,748 1,000 ,667 ,391 ,693 ,725 ,647 ,393
m50 ,636 ,667 1,000 ,752 ,557 ,772 ,802 ,593
m75 ,290 ,391 ,752 1,000 ,247 ,547 ,687 ,710
w0 ,980 ,693 ,557 ,247 1,000 ,887 ,710 ,365
w25 ,874 ,725 ,772 ,547 ,887 1,000 ,940 ,684
w50 ,697 ,647 ,802 ,687 ,710 ,940 1,000 ,828
w75 ,318 ,393 ,593 ,710 ,365 ,684 ,828 1,000
Sig.
(Unilateral)
m0 ,000 ,000 ,057 ,000 ,000 ,000 ,041
m25 ,000 ,000 ,015 ,000 ,000 ,000 ,014
m50 ,000 ,000 ,000 ,001 ,000 ,000 ,000
m75 ,057 ,015 ,000 ,090 ,001 ,000 ,000
w0 ,000 ,000 ,001 ,090 ,000 ,000 ,022
w25 ,000 ,000 ,000 ,001 ,000 ,000 ,000
w50 ,000 ,000 ,000 ,000 ,000 ,000 ,000
w75 ,041 ,014 ,000 ,000 ,022 ,000 ,000
a Determinante = 7,91E-007
3/9/20XX Título de la presentación 51
KMO y prueba de Bartlett
Medida de adecuación muestral de Kaiser-Meyer-Olkin. ,794
Prueba de esfericidad de
Bartlett
Chi-cuadrado aproximado 372,323
gl 28
Sig. ,000
Comunalidades(a)
Método de extracción:
Máxima verosimilitud.
Matriz factorial(a)
a 3 factores extraídos.
Requeridas 7 iteraciones.
Prueba de la bondad de ajuste
Chi-
cuadrado
gl Sig.
6,275 7 ,508
3/9/20XX Título de la presentación 52
Correlaciones reproducidas
m0 m25 m50 m75 w0 w25 w50 w75
Correlación
reproducida
m0 ,999(b) ,748 ,636 ,290 ,980 ,874 ,696 ,318
m25 ,748 ,649(b) ,684 ,431 ,697 ,723 ,647 ,369
m50 ,636 ,684 ,905(b) ,725 ,557 ,769 ,807 ,600
m75 ,290 ,431 ,725 ,707(b) ,244 ,556 ,690 ,653
w0 ,980 ,697 ,557 ,244 ,996(b) ,887 ,711 ,363
w25 ,874 ,723 ,769 ,556 ,887 ,989(b) ,939 ,688
w50 ,696 ,647 ,807 ,690 ,711 ,939 ,980(b) ,827
w75 ,318 ,369 ,600 ,653 ,363 ,688 ,827 ,852(b)
Residual(a)
m0 ,001 ,000 -7,91E-5 1,04E-5 -7,65E-5 ,000 ,000
m25 ,001 -,017 -,040 -,004 ,002 ,000 ,024
m50 ,000 -,017 ,027 ,000 ,003 -,004 -,006
m75 -7,91E-5 -,040 ,027 ,003 -,009 -,003 ,058
w0 1,04E-5 -,004 ,000 ,003 ,000 -,001 ,002
w25 -7,65E-5 ,002 ,003 -,009 ,000 ,001 -,004
w50 ,000 ,000 -,004 -,003 -,001 ,001 ,001
w75 ,000 ,024 -,006 ,058 ,002 -,004 ,001
Método de extracción: Máxima verosimilitud.
a Los residuos se calculan entre las correlaciones observadas y reproducidas.
Hay 1 (3,0%) residuales no redundantes con valores absolutos mayores que 0,05.
b Comunalidades reproducidas
3/9/20XX Título de la presentación 53
Matriz de factores rotados(a)
Factor
1 2 3
m0 ,964 ,120 ,233
m25 ,645 ,168 ,453
m50 ,428 ,376 ,762
m75 ,078 ,537 ,642
w0 ,970 ,220 ,078
w25 ,763 ,561 ,303
w50 ,535 ,732 ,397
w75 ,156 ,869 ,271
Método de extracción: Máxima verosimilitud.
Método de rotación: Normalización Varimax
con Kaiser.
a La rotación ha convergido en 6 iteraciones.
Varianza total explicada
Suma de las saturaciones al
cuadrado de la rotación
Factor Total
% de la
varianza
%
acumulado
1 3,369 42,107 42,107
2 2,127 26,589 68,696
3 1,580 19,751 88,447
Método de extracción: Máxima
verosimilitud.
Matriz de transformación de los factores
Factor 1 2 3
1 ,956 ,187 ,225
2 -,258 ,902 ,347
3 -,138 -,390 ,910
Método de extracción: Máxima
verosimilitud.
Método de rotación: Normalización Varimax
con Kaiser.
Gracias
3/9/20XX Título de la presentación 54

Más contenido relacionado

Similar a Analisis de Factores - Taller de Investigación.pptx

Clase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptClase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptRonald Damas
 
Clase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptClase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptRonald Damas
 
Presentacion estadistica
Presentacion estadisticaPresentacion estadistica
Presentacion estadisticaSprox Carballo
 
V A L I D E Z F A C T O R I A L
V A L I D E Z  F A C T O R I A LV A L I D E Z  F A C T O R I A L
V A L I D E Z F A C T O R I A Lguested7395
 
Presentacion slidershare 21 01 16 Josuana Bello
Presentacion slidershare 21 01 16 Josuana BelloPresentacion slidershare 21 01 16 Josuana Bello
Presentacion slidershare 21 01 16 Josuana BelloAndrea Bello
 
Social Science From Mexico Unam 126
Social Science From Mexico Unam 126Social Science From Mexico Unam 126
Social Science From Mexico Unam 126guestb23700
 
5 regresion y correlacion
5 regresion y correlacion5 regresion y correlacion
5 regresion y correlacionYuliMita
 
M2_Estadistica Aplicada a la Psicología (1).ppsx
M2_Estadistica Aplicada a la Psicología (1).ppsxM2_Estadistica Aplicada a la Psicología (1).ppsx
M2_Estadistica Aplicada a la Psicología (1).ppsxCedricMonroy2
 
Experimentos con arreglos Ortogonales Unidad II Ing. de la Calidad
Experimentos con arreglos Ortogonales Unidad II Ing. de la CalidadExperimentos con arreglos Ortogonales Unidad II Ing. de la Calidad
Experimentos con arreglos Ortogonales Unidad II Ing. de la CalidadIngrid Burgos
 
diagrama de dispersion.pptx
diagrama de dispersion.pptxdiagrama de dispersion.pptx
diagrama de dispersion.pptxEdgarRasgado1
 
Pruebas de bondad de ajuste
Pruebas de bondad de ajustePruebas de bondad de ajuste
Pruebas de bondad de ajusteCarlos Becerra
 
Paso 4 descripción de la información.
Paso 4 descripción de la información.Paso 4 descripción de la información.
Paso 4 descripción de la información.MarlyTenorio
 
Diagrama de dispersión.pdf
Diagrama de dispersión.pdfDiagrama de dispersión.pdf
Diagrama de dispersión.pdfAwitadePozol
 

Similar a Analisis de Factores - Taller de Investigación.pptx (20)

Clase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptClase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.ppt
 
Clase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptClase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.ppt
 
Presentacion estadistica
Presentacion estadisticaPresentacion estadistica
Presentacion estadistica
 
Statistic for Business
Statistic for BusinessStatistic for Business
Statistic for Business
 
Linear regression correlation coefficient
Linear regression correlation coefficientLinear regression correlation coefficient
Linear regression correlation coefficient
 
V A L I D E Z F A C T O R I A L
V A L I D E Z  F A C T O R I A LV A L I D E Z  F A C T O R I A L
V A L I D E Z F A C T O R I A L
 
Presentacion slidershare 21 01 16 Josuana Bello
Presentacion slidershare 21 01 16 Josuana BelloPresentacion slidershare 21 01 16 Josuana Bello
Presentacion slidershare 21 01 16 Josuana Bello
 
Correlacion de pearson
Correlacion de pearsonCorrelacion de pearson
Correlacion de pearson
 
Social Science From Mexico Unam 126
Social Science From Mexico Unam 126Social Science From Mexico Unam 126
Social Science From Mexico Unam 126
 
5 regresion y correlacion
5 regresion y correlacion5 regresion y correlacion
5 regresion y correlacion
 
M2_Estadistica Aplicada a la Psicología (1).ppsx
M2_Estadistica Aplicada a la Psicología (1).ppsxM2_Estadistica Aplicada a la Psicología (1).ppsx
M2_Estadistica Aplicada a la Psicología (1).ppsx
 
Regresion estadistica
Regresion estadisticaRegresion estadistica
Regresion estadistica
 
Análisis estadístico inferencial
Análisis estadístico inferencialAnálisis estadístico inferencial
Análisis estadístico inferencial
 
Experimentos con arreglos Ortogonales Unidad II Ing. de la Calidad
Experimentos con arreglos Ortogonales Unidad II Ing. de la CalidadExperimentos con arreglos Ortogonales Unidad II Ing. de la Calidad
Experimentos con arreglos Ortogonales Unidad II Ing. de la Calidad
 
diagrama de dispersion.pptx
diagrama de dispersion.pptxdiagrama de dispersion.pptx
diagrama de dispersion.pptx
 
Pruebasdebondaddeajuste 151127221517-lva1-app6891
Pruebasdebondaddeajuste 151127221517-lva1-app6891Pruebasdebondaddeajuste 151127221517-lva1-app6891
Pruebasdebondaddeajuste 151127221517-lva1-app6891
 
Pruebas de bondad de ajuste
Pruebas de bondad de ajustePruebas de bondad de ajuste
Pruebas de bondad de ajuste
 
Paso 4 descripción de la información.
Paso 4 descripción de la información.Paso 4 descripción de la información.
Paso 4 descripción de la información.
 
Diagrama de dispersión.pdf
Diagrama de dispersión.pdfDiagrama de dispersión.pdf
Diagrama de dispersión.pdf
 
Analisis multivariado
Analisis multivariadoAnalisis multivariado
Analisis multivariado
 

Último

Síndrome del Niño Maltratado signos de alerta
Síndrome del Niño Maltratado signos de alertaSíndrome del Niño Maltratado signos de alerta
Síndrome del Niño Maltratado signos de alertaanapauflores2007
 
Virus del dengue perú 2024 diagnostico,manejo,
Virus del dengue perú 2024 diagnostico,manejo,Virus del dengue perú 2024 diagnostico,manejo,
Virus del dengue perú 2024 diagnostico,manejo,KiaraIbaezParedes
 
FISIOPATOLOGIA DEL ASMA TRATAMIENTO CONCEPTOS
FISIOPATOLOGIA DEL ASMA TRATAMIENTO CONCEPTOSFISIOPATOLOGIA DEL ASMA TRATAMIENTO CONCEPTOS
FISIOPATOLOGIA DEL ASMA TRATAMIENTO CONCEPTOSMariadeJessLpezArias
 
CULTURA TIAHUANACO-culturas peruanas.pptx
CULTURA TIAHUANACO-culturas peruanas.pptxCULTURA TIAHUANACO-culturas peruanas.pptx
CULTURA TIAHUANACO-culturas peruanas.pptx2021370019
 
wepik-explorando-el-mundo-atomico-una-guia-visual-a-traves-de-los-modelos-202...
wepik-explorando-el-mundo-atomico-una-guia-visual-a-traves-de-los-modelos-202...wepik-explorando-el-mundo-atomico-una-guia-visual-a-traves-de-los-modelos-202...
wepik-explorando-el-mundo-atomico-una-guia-visual-a-traves-de-los-modelos-202...milops3118
 
¿QUÉ ES UN Eclipse solar? Y TODO LO QUE DEBE DE SABER
¿QUÉ ES UN Eclipse solar? Y TODO LO QUE DEBE DE SABER¿QUÉ ES UN Eclipse solar? Y TODO LO QUE DEBE DE SABER
¿QUÉ ES UN Eclipse solar? Y TODO LO QUE DEBE DE SABERGloriaLucreciaPascac
 
Mapa conceptual de la Cristalografía .pdf
Mapa conceptual de la Cristalografía .pdfMapa conceptual de la Cristalografía .pdf
Mapa conceptual de la Cristalografía .pdfHeidyYamileth
 
Presentación digital Sobre ecosistemas, la selva
Presentación digital Sobre ecosistemas, la selvaPresentación digital Sobre ecosistemas, la selva
Presentación digital Sobre ecosistemas, la selvajesusvelazquez601
 
Mapa-de-la-Republica-Mexicana-con-nombres-para-imprimir.pdf
Mapa-de-la-Republica-Mexicana-con-nombres-para-imprimir.pdfMapa-de-la-Republica-Mexicana-con-nombres-para-imprimir.pdf
Mapa-de-la-Republica-Mexicana-con-nombres-para-imprimir.pdfnicolasdiaz334973
 
Las propiedades fisicas de los minerales .pdf
Las propiedades fisicas de los minerales .pdfLas propiedades fisicas de los minerales .pdf
Las propiedades fisicas de los minerales .pdfyaisdiazca
 
fisilogia y anatomia del oido y el equilibrio
fisilogia y anatomia del oido y el equilibriofisilogia y anatomia del oido y el equilibrio
fisilogia y anatomia del oido y el equilibrioyanezevelyn0
 
Respuesta fisiológica de C3, C4 y plantas CAM en clima cambiante.pptx
Respuesta fisiológica de C3, C4 y plantas CAM en clima cambiante.pptxRespuesta fisiológica de C3, C4 y plantas CAM en clima cambiante.pptx
Respuesta fisiológica de C3, C4 y plantas CAM en clima cambiante.pptxabrilhernandez45
 
Jabón de vainilla: beneficios, usos y propiedades
Jabón de vainilla: beneficios, usos y propiedadesJabón de vainilla: beneficios, usos y propiedades
Jabón de vainilla: beneficios, usos y propiedadesweb jabon
 
Reino Protista: su clasificación y características
Reino Protista: su clasificación y característicasReino Protista: su clasificación y características
Reino Protista: su clasificación y característicasmiguellopez895525
 
propiedades y clasificacion de los materiales metalicos
propiedades y clasificacion de los materiales metalicospropiedades y clasificacion de los materiales metalicos
propiedades y clasificacion de los materiales metalicosOmarazahiSalinasLpez
 
TEMA 5, PIGMENTACION DE LOS TEJIDOS BUCAL Y PERIBUCAL PATOLOGIA BUCAL.pptx
TEMA 5, PIGMENTACION DE LOS TEJIDOS BUCAL Y PERIBUCAL PATOLOGIA BUCAL.pptxTEMA 5, PIGMENTACION DE LOS TEJIDOS BUCAL Y PERIBUCAL PATOLOGIA BUCAL.pptx
TEMA 5, PIGMENTACION DE LOS TEJIDOS BUCAL Y PERIBUCAL PATOLOGIA BUCAL.pptxANGELMENDEZ905047
 
Irrigacion e Inervacion de la articulación mandibular
Irrigacion e Inervacion de la articulación mandibularIrrigacion e Inervacion de la articulación mandibular
Irrigacion e Inervacion de la articulación mandibularAdrinCrdenas9
 
Urgencias y emergencias cardiovasculares.pptx
Urgencias y emergencias cardiovasculares.pptxUrgencias y emergencias cardiovasculares.pptx
Urgencias y emergencias cardiovasculares.pptxCarlosEncarnacin3
 
ANALISIS DIMENSIONAL Y MAGNITUDES CONCEPTO
ANALISIS DIMENSIONAL Y MAGNITUDES CONCEPTOANALISIS DIMENSIONAL Y MAGNITUDES CONCEPTO
ANALISIS DIMENSIONAL Y MAGNITUDES CONCEPTOClaudiaSantosVsquez
 
HONGOS: Generalidades, estructura y clasificación
HONGOS: Generalidades, estructura y clasificaciónHONGOS: Generalidades, estructura y clasificación
HONGOS: Generalidades, estructura y clasificaciónRosarioAlonso9
 

Último (20)

Síndrome del Niño Maltratado signos de alerta
Síndrome del Niño Maltratado signos de alertaSíndrome del Niño Maltratado signos de alerta
Síndrome del Niño Maltratado signos de alerta
 
Virus del dengue perú 2024 diagnostico,manejo,
Virus del dengue perú 2024 diagnostico,manejo,Virus del dengue perú 2024 diagnostico,manejo,
Virus del dengue perú 2024 diagnostico,manejo,
 
FISIOPATOLOGIA DEL ASMA TRATAMIENTO CONCEPTOS
FISIOPATOLOGIA DEL ASMA TRATAMIENTO CONCEPTOSFISIOPATOLOGIA DEL ASMA TRATAMIENTO CONCEPTOS
FISIOPATOLOGIA DEL ASMA TRATAMIENTO CONCEPTOS
 
CULTURA TIAHUANACO-culturas peruanas.pptx
CULTURA TIAHUANACO-culturas peruanas.pptxCULTURA TIAHUANACO-culturas peruanas.pptx
CULTURA TIAHUANACO-culturas peruanas.pptx
 
wepik-explorando-el-mundo-atomico-una-guia-visual-a-traves-de-los-modelos-202...
wepik-explorando-el-mundo-atomico-una-guia-visual-a-traves-de-los-modelos-202...wepik-explorando-el-mundo-atomico-una-guia-visual-a-traves-de-los-modelos-202...
wepik-explorando-el-mundo-atomico-una-guia-visual-a-traves-de-los-modelos-202...
 
¿QUÉ ES UN Eclipse solar? Y TODO LO QUE DEBE DE SABER
¿QUÉ ES UN Eclipse solar? Y TODO LO QUE DEBE DE SABER¿QUÉ ES UN Eclipse solar? Y TODO LO QUE DEBE DE SABER
¿QUÉ ES UN Eclipse solar? Y TODO LO QUE DEBE DE SABER
 
Mapa conceptual de la Cristalografía .pdf
Mapa conceptual de la Cristalografía .pdfMapa conceptual de la Cristalografía .pdf
Mapa conceptual de la Cristalografía .pdf
 
Presentación digital Sobre ecosistemas, la selva
Presentación digital Sobre ecosistemas, la selvaPresentación digital Sobre ecosistemas, la selva
Presentación digital Sobre ecosistemas, la selva
 
Mapa-de-la-Republica-Mexicana-con-nombres-para-imprimir.pdf
Mapa-de-la-Republica-Mexicana-con-nombres-para-imprimir.pdfMapa-de-la-Republica-Mexicana-con-nombres-para-imprimir.pdf
Mapa-de-la-Republica-Mexicana-con-nombres-para-imprimir.pdf
 
Las propiedades fisicas de los minerales .pdf
Las propiedades fisicas de los minerales .pdfLas propiedades fisicas de los minerales .pdf
Las propiedades fisicas de los minerales .pdf
 
fisilogia y anatomia del oido y el equilibrio
fisilogia y anatomia del oido y el equilibriofisilogia y anatomia del oido y el equilibrio
fisilogia y anatomia del oido y el equilibrio
 
Respuesta fisiológica de C3, C4 y plantas CAM en clima cambiante.pptx
Respuesta fisiológica de C3, C4 y plantas CAM en clima cambiante.pptxRespuesta fisiológica de C3, C4 y plantas CAM en clima cambiante.pptx
Respuesta fisiológica de C3, C4 y plantas CAM en clima cambiante.pptx
 
Jabón de vainilla: beneficios, usos y propiedades
Jabón de vainilla: beneficios, usos y propiedadesJabón de vainilla: beneficios, usos y propiedades
Jabón de vainilla: beneficios, usos y propiedades
 
Reino Protista: su clasificación y características
Reino Protista: su clasificación y característicasReino Protista: su clasificación y características
Reino Protista: su clasificación y características
 
propiedades y clasificacion de los materiales metalicos
propiedades y clasificacion de los materiales metalicospropiedades y clasificacion de los materiales metalicos
propiedades y clasificacion de los materiales metalicos
 
TEMA 5, PIGMENTACION DE LOS TEJIDOS BUCAL Y PERIBUCAL PATOLOGIA BUCAL.pptx
TEMA 5, PIGMENTACION DE LOS TEJIDOS BUCAL Y PERIBUCAL PATOLOGIA BUCAL.pptxTEMA 5, PIGMENTACION DE LOS TEJIDOS BUCAL Y PERIBUCAL PATOLOGIA BUCAL.pptx
TEMA 5, PIGMENTACION DE LOS TEJIDOS BUCAL Y PERIBUCAL PATOLOGIA BUCAL.pptx
 
Irrigacion e Inervacion de la articulación mandibular
Irrigacion e Inervacion de la articulación mandibularIrrigacion e Inervacion de la articulación mandibular
Irrigacion e Inervacion de la articulación mandibular
 
Urgencias y emergencias cardiovasculares.pptx
Urgencias y emergencias cardiovasculares.pptxUrgencias y emergencias cardiovasculares.pptx
Urgencias y emergencias cardiovasculares.pptx
 
ANALISIS DIMENSIONAL Y MAGNITUDES CONCEPTO
ANALISIS DIMENSIONAL Y MAGNITUDES CONCEPTOANALISIS DIMENSIONAL Y MAGNITUDES CONCEPTO
ANALISIS DIMENSIONAL Y MAGNITUDES CONCEPTO
 
HONGOS: Generalidades, estructura y clasificación
HONGOS: Generalidades, estructura y clasificaciónHONGOS: Generalidades, estructura y clasificación
HONGOS: Generalidades, estructura y clasificación
 

Analisis de Factores - Taller de Investigación.pptx

  • 1. Universidad Nacional del Altiplano Puno 1 DOCENTE: Ernesto, CALANCHO MAMANI INTEGRANTES: • ALVAREZ VALDEZ Emerson Santy • APAZA APAZA Jhoan Tito • CALCINA LUQUE, Yorgiño Alex • CALISAYA ROJAS Edward Alexander • CALLE CHURA, Yenifer Katerin • CCAPA PAJA Ludwing • CHOQUE RUELAS Jóse Richard • CHURA CHURA, Wilber • ESPILLICO CHAGUA Yony Ivan • HUANCA AMANQUI Jhon Cristian • HURTADO SANCHEZ JOEL WILMER • LIRA POMA, Karem Nataly • MAMANI CHAMBILLA, Joseluis
  • 3. ÍNDICE • Definición de Análisis Factorial • Análisis de la matriz de correlación • Extracción de factores • Rotación de Factores • Puntuaciones Factoriales • Ejemplo 3
  • 5. ¿Qué es el Análisis Factorial? • El análisis factorial es una técnica de reducción de datos que sirve para encontrar grupos homogéneos de variables a partir de un conjunto numeroso de variables. • El Análisis Factorial es, por tanto, una técnica de reducción de la dimensionalidad de los datos. Su propósito consiste en buscar el número mínimo de dimensiones capaces de explicar el máximo de información contenida en los datos. • A diferencia de lo que ocurre en otras técnicas como el análisis de varianza o el de regresión, en el análisis factorial todas las variables del análisis cumplen el mismo papel: todas ellas son independientes en el sentido de que no existe a priori una dependencia conceptual de unas variables sobre otras. Fundamentalmente lo que se pretende con el Análisis Factorial es simplificar la información que nos da una matriz de correlaciones para hacerla más fácilmente interpretable. 3/9/20XX Título de la presentación 5
  • 6. ¿Qué hace el Análisis Factorial? • Se encarga de analizar la varianza común a todas las variables. Partiendo de una matriz de correlaciones, trata de simplificar la información que ofrece. Se opera con las correlaciones elevadas al cuadrado r2 (coeficientes de determinación), que expresan la proporción de varianza común entre las variables. En cada casilla de la matriz de correlaciones se refleja la proporción de varianza común a dos ítems o variables, excepto en la diagonal principal (donde cada ítem coincide consigo mismo) En los 1 de la diagonal principal se refleja la varianza que cada ítem o variable comparte con los demás y también los que no comparten. Si se desea analizar exclusivamente la varianza compartida habrá que eliminar los unos de la matriz de correlaciones y poner en su lugar la proporción de varianza que cada ítem tiene en común con todos los demás. 3/9/20XX Título de la presentación 6
  • 7. En el Análisis Factorial, por tanto, caben dos enfoques: I. Analizar TODA la varianza (común y no común). En este caso utilizamos los unos de la matriz de correlaciones. El método más usual es el de Análisis de Componentes Principales. II. Analizar SOLO la varianza común. En este caso, se substituyen los unos de la diagonal por estimaciones de la varianza que cada ítem tiene en común con los demás (y que se denominan Comunalidades). Para la estimación de las comunalidades no hay un cálculo único, existen diversos procedimientos (correlaciones múltiples de cada ítem con todos los demás, coeficientes de fiabilidad si cada variable es un test). El procedimiento por el que se sustituyen los unos por las comunalidades se denomina Análisis de Factores Comunes. Los dos enfoques caben bajo la denominación genérica de Análisis Factorial, aunque es el Análisis de Factores Comunes al que con más propiedad se le aplica la denominación de Análisis Factorial. Ambos enfoques dan resultados similares y se interpretan de manera casi idéntica 3/9/20XX Título de la presentación 7
  • 8. ¿Qué es un FACTOR? En realidad los factores no existen, lo que existe de cada sujeto es una suma de sus respuestas a una serie de ítems o preguntas, una combinación lineal de variables (ítem a + ítem b + ítem c + … ).
  • 9. • Si encontramos, por ejemplo, tres factores, esto quiere decir que podemos descomponer el instrumento original en tres instrumentos; cada uno está compuesto por todos los ítems, pero en cada instrumento los ítems tienen un peso específico distinto según sea su relación con cada factor:
  • 10. • El análisis factorial se reduce a la búsqueda de estos pesos para localizar medidas distintas a partir de las variables originales, y de manera que, a poder ser, entre todas las nuevas medidas agoten o expliquen toda la varianza presente en las variables originales. 3/9/20XX Título de la presentación 10
  • 11. ESQUEMA DE UN ANÁLISIS FACTORIAL: 3/9/20XX Título de la presentación 11
  • 12. MODELO DEL ANÁLISIS FACTORIAL Sean (X1, X2,…, Xp) las p variables objeto de análisis que supondremos en todo lo que sigue, que están tipificadas. El investigador mide estas variables sobre n individuos, obteniéndose la siguiente matriz de datos: Donde: • (F1, F2, …, Fk) (k<p) son los Factores Comunes. • (u1, u2, …, up) los Factores únicos o • Específicos. • y los Coeficientes (aij) {i = 1, …, p; j=1, ... ,k} las Cargas factoriales. • además, los Factores Comunes están incorrelados [Cov(Fi, Fj) = 0 si i≠j; j, i=1,…,k] estamos ante un modelo con factores ortogonales. • En caso contrario el modelo se dice que es de factores oblicuos.
  • 13. EXPRESADO EN FORMA MATRICIAL: Utilizando las hipótesis anteriores, se tiene: La varianza de cada una de las variables analizadas se puede descomponer en dos partes: La Comunalidad: que representa la varianza explicada por los factores comunes Especificidad: que representa la parte de la varianza específica de cada variable. 𝒉𝒊 𝟐 = Comunalidad Ψ= Especificidad • por lo que son los factores comunes los que explican las relaciones existentes entre las variables. • Por este motivo, los factores comunes tienen interés y son susceptibles de interpretación • Experimental.
  • 14. Análisis de la matriz de correlación
  • 15. 3/9/20XX Título de la presentación 15 ¿Qué es una matriz de correlación? Es una matriz de coeficientes de correlación entre varias variables que son cuantitativas. La correlación trata de establecer la relación o dependencia que existe entre las dos variables que intervienen en una distribución bidimensional. La correlación entre dos variables mide el grado de ajuste de la nube de puntos a la función matemática asignada. Variables X Y Z X 𝑟𝑥𝑥 𝑟𝑥𝑦 𝑟𝑥𝑧 Y 𝑟𝑦𝑥 𝑟𝑦𝑦 𝑟𝑦𝑧 Z 𝑟𝑧𝑥 𝑟𝑧𝑦 𝑟𝑧𝑧 Es decir, determinar si los cambios en una de las variables influyen en los cambios de la otra.
  • 16. 16 ¿Qué es coeficiente de correlación? Es una medida del grado de asociación lineal entre dos variables cuantitativas. 𝒓𝒙𝒚 = [−𝟏, 𝟏] ∓𝟎. 𝟎𝟎 ∓𝟎. 𝟎𝟗 Correlación nula ∓𝟎. 𝟏𝟎 ∓𝟎. 𝟏𝟗 Correlación muy débil ∓𝟎. 𝟐𝟎 ∓𝟎. 𝟒𝟗 Correlación débil ∓𝟎. 𝟓𝟎 ∓𝟎. 𝟔𝟗 Correlación moderada ∓𝟎. 𝟕𝟎 ∓𝟎. 𝟖𝟒 Correlación significativa ∓𝟎. 𝟖𝟓 ∓𝟎. 𝟗𝟓 Correlación fuerte ∓𝟎. 𝟗𝟔 ∓𝟏. 𝟎 Correlación perfecta
  • 17. Correlación igual a cero (r=0): Cuando la correlación es igual a cero significa que no es posible determinar algún sentido de covariación. Sin embargo, no significa que no exista una relación no lineal entre las variables. 1 Correlación mayor a cero (r > 0): Si la correlación es igual a +1 significa que es positiva perfecta. En este caso significa que la correlación es positiva, es decir, que las variables se correlacionan directamente. 2 Correlación menor a cero (r < 0): Si la correlación es menor a cero, significa que es negativa, es decir, que las variables se relacionan inversamente. 3
  • 18. 18 EJEMPLO: Una empresa realiza una encuesta y se plantea a sus trabajadores algunas cuestiones como la siguientes. A B C D Años de antigüedad laboral. 1 4 7 8 Estudio de actualización en el último año. 2 2 8 4 Ingreso semanal que perciben. 1 13 1 5 SOLUCION:  x = Años de antigüedad laboral.  y = Estudio de actualización en el último año.  z = Ingreso semanal que perciben.
  • 19. 19 X Y Z 1 2 1 4 2 13 7 8 1 8 4 5 Calculo con funciones simples de Excel X Y Z X 1 0.670820 39 0 Y 0.670820 39 1 -0.5 Z 0 -0.5 1 Interpretación Los valores que quedan en la diagonal todos adquieren el valor 1 esto debe a que la variable se esta relacionando consigo mismo es decir x con x. Lo que nos interesa es la relación entre las distintas variables. Tomamos por ejemplo las variables X la relacionamos con la variable Y, la relación que hay se mide por el valor de coeficiente en este caso es 0.67082039 por lo tanto hay una correlación moderada entre esas variables.
  • 20. 20 La finalidad de analizar la matriz de las correlaciones muestrales es la correlación muestral observada entre las variables, es comprobar si sus características son las adecuadas para realizar un Análisis Factorial. Uno de los requisitos que deben cumplirse es que las variables se encuentran altamente intercorrelacionadas. También se espera que las variables que tengan correlación muy alta entre sí la tengan con el mismo factor o factores. En consecuencia, si las correlaciones entre todas las variables son bajas, tal vez no sea apropiado el Análisis Factorial.
  • 21. Kaiser- Meyer-Olkin (KMO) Indica la adecuación de los datos a un modelo de AF. Permite valorar el grado en que cada una de las variables es predecible a partir de las demás. Valores KMO por debajo de 0.5 no serán aceptables, considerándose inadecuados los datos a un modelo de AF. Mientras más cercanos a 1 los valores de KMO mejor es la adecuación de los datos a un AF
  • 22. Esfericidad de Bartlett Corroborar que el modelo factorial es adecuado para explicar los datos de la muestra, indicando que existen relaciones significativas entre las variables. Pone a prueba la hipótesis nula de que las variables analizadas no están correlacionadas en la muestra o que la matriz de correlación es la identidad (las intercorrelaciones entre las variables son cero) Tiene que ser significativo el valor de Chi- cuadrado (p< 0.05)
  • 23. Ejemplo 3/9/20XX Título de la presentación 23 Tabla 3. Prueba de adecuación de Kaiser-Meyer-Olkin y esfericidad de Bartlett Medida Kaiser-Meyer-Olkin de adecuación de muestreo ,813 Prueba de esfericidad de Bartlett Aprox. Chi-cuadrado 2414,969 gl 45 Sig. ,000 Fuente: Salida resultados SPSS.
  • 25. 3/9/20XX Título de la presentación 25 MÉTODO DESCRIPCIÓN MÉTODO DE LAS COMPONENTES PRINCIPALES Utilizada para formar combinaciones lineales no correlacionadas de las variables observadas. El primer componente tiene la varianza máxima. Las componentes sucesivas explican progresivamente proporciones menores de la varianza y no están correlacionadas unas con otras. El análisis principal de las componentes se utiliza para obtener la solución factorial inicial. No se puede utilizar cuando una matriz de correlaciones es singular. MÉTODO DE LOS EJES PRINCIPALES Parte de la matriz de correlaciones original con los cuadrados de los coeficientes de correlación múltiple insertados en la diagonal principal como estimaciones iniciales de las comunalidades. Las cargas factoriales resultantes se utilizan para estimar de nuevo las comunalidades que reemplazan a las estimaciones previas de comunalidad en la diagonal. Las iteraciones continúan hasta que el cambio en las comunalidades, de una iteración a la siguiente, satisfaga el criterio de convergencia para la extracción. MÉTODO DE LA MÁXIMA VEROSIMILITUD Proporciona las estimaciones de los parámetros que con mayor probabilidad ha producido la matriz de correlaciones observada, si la muestra procede de una distribución normal multivariada. Las correlaciones se ponderan por el inverso de la exclusividad de las variables, y se emplea un algoritmo iterativo.
  • 26. MÉTODO DESCRIPCIÓN Método Mínimos cuadrados no ponderados Minimiza la suma de los cuadrados de las diferencias entre las matrices de correlación observada y reproducida, ignorando las diagonales. Método Mínimos cuadrados generalizados Minimiza la suma de los cuadrados de las diferencias entre las matrices de correlación observada y reproducida. Las correlaciones se ponderan por el inverso de su exclusividad, de manera que las variables que tengan un valor alto de exclusividad reciban una ponderación menor que aquéllas que tengan un valor bajo de exclusividad. Factorización de imágenes Desarrollado por Guttman y basado en la teoría de las imágenes. La parte común de una variable, llamada la imagen parcial, se define como su regresión lineal sobre las restantes variables, en lugar de ser una función de los factores hipotéticos. Factorización Alfa Método de extracción factorial que considera a las variables incluidas en el análisis como una muestra del universo de las variables posibles. Este método maximiza el Alfa de Cronbach para los factores. 3/9/20XX Título de la presentación 26
  • 27. DETERMINAR EL NÚMERO DE FACTORES: Se trata de cumplir el principio de parsimonia, entonces se debe de determinar el número de factores que conviene conservar para lo cual existen diversas reglas y criterios 3/9/20XX Título de la presentación 27
  • 28. CRITERIO PROS CONTRAS Determinación “a priori” Es el criterio más fiable si los datos y las variables están bien elegidos y el investigador conoce la situación. Lo ideal es plantear el Análisis Factorial con una idea previa de cuántos factores hay y cuáles son. . Regla de Kaiser Calcula los valores propios de la matriz de correlaciones y toma como número de factores el número de valores propios superiores a la unidad. Tiende a infraestimar el número de factores por lo que se recomienda su uso para establecer un límite inferior. Criterio del porcentaje de la varianza Tiende a infraestimar el número de factores por lo que se recomienda su uso para establecer un límite inferior. No tiene ninguna justificación teórica o práctica. Criterio de Sedimentación Se trata de la representación gráfica donde los factores están en el eje de abscisas y los valores propios en el de ordenadas. Los factores con varianzas altas suelen diferenciarse de los factores con varianzas bajas. Se pueden conservar los factores situados antes de este punto de inflexión. Tiene el inconveniente de que depende del ‘ojo’.
  • 29. CRITERIO PROS CONTRAS Criterio de división a la mitad La muestra se divide en dos partes iguales tomadas al azar y se realiza el Análisis Factorial en cada una de ellas. Solo se conservan los factores que tienen alta correspondencia de cargas de factores en las dos muestras. Antes de aplicarlo, conviene comprobar que no existen diferencias significativas entre las dos muestras en lo que se refiere a las variables estudiadas.. Pruebas de significación En la mayor parte de los casos exploratorios “k” no puede ser especificado por adelantado y, en consecuencia, se utilizan procedimientos secuenciales para determinar “k”. Los parámetros en el modelo factorial son estimados utilizando el método de máxima verosimilitud. Se comienza usualmente un valor pequeño: k=1 Si el estadístico del test no es significativo, se acepta el modelo con este número de factores, en caso contrario, se aumenta k=2 y se repite el proceso hasta alcanzar una solución aceptable. El principal inconveniente de este método es que está basado en resultados asintóticos y que, si el tamaño de la muestra es grande, se corre el riesgo de tomar el valor “k” excesivamente grande puesto que el test detecta cualquier factor por pequeño que sea su poder explicativo.
  • 30. INTERPRETACIÓN DE LOS FACTORES: La interpretación de los factores se basa en las correlaciones estimadas de los mismos con las variables originales. 3/9/20XX Título de la presentación 30
  • 31. • Juega un papel preponderante el conocimiento del investigador. • Proceso de interpretación: • Identificar las variables cuyas correlaciones con el factor son las más elevadas en valor absoluto. • Intentar dar nombre a los factores: El nombre se asigna de acuerdo con la estructura de las correlaciones. Cuando es positiva la relación entre el factor y dicha variable, es directa, caso contrario es inversa. • Ordenar la matriz factorial de forma que las variables con cargas altas para el mismo factor aparezcan juntas. • Eliminar las cargas factoriales bajas y de este modo suprimir información redundante. El investigador decide a partir de qué valor deben eliminarse las cargas factoriales. De cara a una mayor facilidad interpretativa, el investigador puede ordenar la matriz factorial y eliminar las cargas factoriales bajas. Generalmente, se toma como significativas las cargas superiores a 0,5 en valor absoluto. Aunque, si el factor es más tardío o el número de variables es grande, se eleva el valor mínimo de la carga factorial significativa. 31
  • 33. • La Rotación de Factores a partir de la solución inicial buscan factores cuya matriz de cargas factoriales los hagan más fácilmente interpretables. • Estos métodos intentan aproximar la solución obtenida al Principio de Estructura Simple Louis Leon Thurstone 1935, y debe reunir las siguientes características: • Cada factor debe tener pocos pesos altos y los otros próximos a 0. • Cada variable no debe estar saturada más que en un factor. • No deben existir factores con la misma distribución, es decir, los factores distintos deben presentar distribuciones de cargas altas y bajas distintas. Existen dos formas básicas de realizar la Rotación de Factores: • Rotación ortogonal. • Rotación oblicua. 3/9/20XX Título de la presentación 33
  • 34. ROTACION ORTOGONAL: Los métodos empleados en la rotación ortogonal de factores son: Varimax, Quartimax, Equamax. • Rotación de Criterio Varimax (Ortogonal) • Método de rotación ortogonal que minimiza el número de variables que tienen cargas altas en cada factor. Simplifica la interpretación de los factores. • Rotación de Criterio de Quartimax • El objetivo es que cada variable tenga correlaciones elevadas con un pequeño número de factores. Para ello Maximiza la varianza de las cargas factoriales al cuadrado de cada variable en los factores, es decir, se trata de maximizar la función: • Método Equamax. • Método de rotación que es combinación del método varimax, que simplifica los factores, y el método quartimax, que simplifica las variables. Se minimiza tanto el número de variables que saturan alto en un factor como el número de factores necesarios para explicar una variable. 3/9/20XX Título de la presentación 34
  • 35. ROTACION OBLICUA • La matriz factorial no rotada se convierte en dos matrices diferentes: la matriz de ponderaciones (que es la que se utiliza en la interpretación) y la matriz de correlaciones entre factores y variables. También obtendremos otra matriz de correlaciones entre factores. • La rotación oblicua puede utilizarse cuando es probable que los factores en la población tengan una correlación muy fuerte. 3/9/20XX Título de la presentación 35
  • 37. CÁLCULO DE PUNTUACION ES FACTORIALE S Son variadas las posibilidades de analizar las puntuaciones factoriales de los sujetos: • Conocer qué sujetos son los más raros o extremos. • Conocer dónde se ubican ciertos grupos o sub colectivos de la muestra. • Conocer en qué factor sobresalen unos sujetos y n qué factor no. Es necesario conocer los valores que toman los factores en cada observación, pues en ocasiones, el Análisis Factorial es un paso previo a otros análisis: Regresión Múltiple o Análisis Cluster, en los que sustituye el conjunto de variables originales por los factores obtenidos. 3/9/20XX Título de la presentación 37
  • 38. Métodos del Cálculo de las Puntuaciones. Existen diversos métodos de estimación de la matriz F, las propiedades deseables que verificarán los factores estimados son: Cada factor estimado presente una correlación alta con el verdadero factor. Cada factor estimado tenga correlación nula con los demás factores verdaderos. Los factores estimados son incorrelados dos a dos (mutuamente ortogonales si son ortogonales). Los factores estimados son estimadores insesgados de los verdaderos factores. 3/9/20XX Título de la presentación 38 Los métodos de estimación más utilizados: Regresión, Barlett, Anderson‐Rubin.
  • 39. Método de Regresión: Estima F por el método de los mínimos cuadrados: El Método de Regresión da lugar a puntuaciones con máxima correlación con las puntuaciones teóricas.:
  • 40. Método de Barlett: Utiliza el método de los mínimos cuadrados generalizados estimando las puntuaciones factoriales mediante:: El Método de Barlett da lugar a puntuaciones correladas con las puntuaciones teóricas, insesgadas y unívocas.
  • 41. Método de Anderson‐Rubin: Estima F mediante el método de los mínimos cuadrados generalizados, imponiendo la condición F'F=1 : El Método de Anderson‐Rubin da lugar a puntuaciones ortogonales que están correladas con las puntuaciones teóricas
  • 42. SELECCIÓ N DE VARIABLE S. El investigador en ocasiones desea seleccionar las variables más representativas de los factores, en lugar de calcular sus puntuaciones. 3/9/20XX Título de la presentación 42
  • 43. VALIDACIÓ N DEL MODELO El último paso en el Análisis Factorial es estudiar la validez del modelo. El proceso debe realizarse en dos direcciones: Analizando la bondad de ajuste y la Generalidad de los resultados. 3/9/20XX Título de la presentación 43
  • 44. Bondad de Ajuste • Una suposición básica subyacente al Análisis Factorial es que la correlación observada entre las variables puede atribuirse a factores comunes. Generalidad de los resultados • Es conveniente refrendar los resultados del primer análisis factorial realizando nuevos análisis factoriales sobre nuevas muestras extraídas de la población objeto de estudio y, en caso de no ser posible, sobre submuestras de la muestra original. 3/9/20XX Título de la presentación 44
  • 45. Otro de los procedimientos metodológicos y estadísticos que complementan y profundizan las interpretaciones que se deducen del análisis factorial consiste en la realización de otros análisis factoriales en base, no al conjunto total de la muestra o población, sino referido a subcolectivos o grupos que están presentes en la muestra y que pueden formarse utilizando las categorías de las variables primarias 3/9/20XX 45
  • 46. Lo que se desprende de los trabajos e investigaciones que han utilizado este procedimiento es que generalmente la interpretación que se da y que es válida para el conjunto total de sujetos debe modificarse, en algunos casos sustancialmente, cuando se refiere a esos sub colectivos • Las variables se comportan en el Análisis Factorial de distinta forma según de qué muestra se trate. • No existe el sujeto ‘tipo’ sino que existen diferentes ‘tipos’ de sujetos en la muestra global. 3/9/20XX Título de la presentación 46
  • 47. ANÁLISIS FACTORIA L Siendo una técnica estadística multivariante cuya finalidad es analizar las relaciones de interdependencia existentes entre un conjunto de variables, calculando un conjunto de variables latentes, denominadas factores, que explican con un número menor de dimensiones, dichas relaciones. Por este motivo, el Análisis Factorial es una técnica de reducción de datos con un número menor de variables sin distorsionar dicha información, lo que aumenta el grado de manejo e interpretación de la misma.
  • 49. Se considera una muestra de los años de vida esperados por país, edad y sexo procedentes de Keyfitz y Flieger (1971). 3/9/20XX Título de la presentación 49 m0 m25 m50 m75 w0 w25 w50 w75 Algeria 63 51 30 13 67 54 34 15 Cameroon 34 29 13 5 38 32 17 6 Madagascar 38 30 17 7 38 34 20 7 Mauritius 59 42 20 6 64 46 25 8 Reunion 56 38 18 7 62 46 25 10 Seychelles 62 44 24 7 69 50 28 14 South Africa(C) 50 39 20 7 55 43 23 8 South Africa(W) 65 44 22 7 72 50 27 9 Tunisia 56 46 24 11 63 54 33 19 Canada 69 47 24 8 75 53 29 10 Costa Rica 65 48 26 9 68 50 27 10 Dominican Rep 64 50 28 11 66 51 29 11 El Salvador 56 44 25 10 61 48 27 12 Greenland 60 44 22 6 65 45 25 9 Grenada 61 45 22 8 65 49 27 10 Guatemala 49 40 22 9 51 41 23 8 Honduras 59 42 22 6 61 43 22 7 Jamaica 63 44 23 8 67 48 26 9 Mexico 59 44 24 8 63 46 25 8 Nicaragua 65 48 28 14 68 51 29 13 Panama 65 48 26 9 67 49 27 10 Trinidad(62) 64 63 21 7 68 47 25 9 Trinidad (67) 64 43 21 6 68 47 24 8 United States (66) 67 45 23 8 74 51 28 10 United States (NW66) 61 40 21 10 67 46 25 11 United States (W66) 68 46 23 8 75 52 29 10 United States (67) 67 45 23 8 74 51 28 10 Argentina 65 46 24 9 71 51 28 10 Chile 59 43 23 10 66 49 27 12 Columbia 58 44 24 9 62 47 25 10
  • 50. 3/9/20XX Título de la presentación 50 Estadísticos descriptivos Media Desviación típica N del análisis m0 59,613 79,191 31 m25 44,129 59,033 31 m50 22,935 34,052 31 m75 8,387 20,278 31 w0 64,194 88,220 31 w25 47,516 49,858 31 w50 26,290 33,386 31 w75 10,129 25,787 31 Matriz de correlaciones(a) m0 m25 m50 m75 w0 w25 w50 w75 Correlación m0 1,000 ,748 ,636 ,290 ,980 ,874 ,697 ,318 m25 ,748 1,000 ,667 ,391 ,693 ,725 ,647 ,393 m50 ,636 ,667 1,000 ,752 ,557 ,772 ,802 ,593 m75 ,290 ,391 ,752 1,000 ,247 ,547 ,687 ,710 w0 ,980 ,693 ,557 ,247 1,000 ,887 ,710 ,365 w25 ,874 ,725 ,772 ,547 ,887 1,000 ,940 ,684 w50 ,697 ,647 ,802 ,687 ,710 ,940 1,000 ,828 w75 ,318 ,393 ,593 ,710 ,365 ,684 ,828 1,000 Sig. (Unilateral) m0 ,000 ,000 ,057 ,000 ,000 ,000 ,041 m25 ,000 ,000 ,015 ,000 ,000 ,000 ,014 m50 ,000 ,000 ,000 ,001 ,000 ,000 ,000 m75 ,057 ,015 ,000 ,090 ,001 ,000 ,000 w0 ,000 ,000 ,001 ,090 ,000 ,000 ,022 w25 ,000 ,000 ,000 ,001 ,000 ,000 ,000 w50 ,000 ,000 ,000 ,000 ,000 ,000 ,000 w75 ,041 ,014 ,000 ,000 ,022 ,000 ,000 a Determinante = 7,91E-007
  • 51. 3/9/20XX Título de la presentación 51 KMO y prueba de Bartlett Medida de adecuación muestral de Kaiser-Meyer-Olkin. ,794 Prueba de esfericidad de Bartlett Chi-cuadrado aproximado 372,323 gl 28 Sig. ,000 Comunalidades(a) Método de extracción: Máxima verosimilitud. Matriz factorial(a) a 3 factores extraídos. Requeridas 7 iteraciones. Prueba de la bondad de ajuste Chi- cuadrado gl Sig. 6,275 7 ,508
  • 52. 3/9/20XX Título de la presentación 52 Correlaciones reproducidas m0 m25 m50 m75 w0 w25 w50 w75 Correlación reproducida m0 ,999(b) ,748 ,636 ,290 ,980 ,874 ,696 ,318 m25 ,748 ,649(b) ,684 ,431 ,697 ,723 ,647 ,369 m50 ,636 ,684 ,905(b) ,725 ,557 ,769 ,807 ,600 m75 ,290 ,431 ,725 ,707(b) ,244 ,556 ,690 ,653 w0 ,980 ,697 ,557 ,244 ,996(b) ,887 ,711 ,363 w25 ,874 ,723 ,769 ,556 ,887 ,989(b) ,939 ,688 w50 ,696 ,647 ,807 ,690 ,711 ,939 ,980(b) ,827 w75 ,318 ,369 ,600 ,653 ,363 ,688 ,827 ,852(b) Residual(a) m0 ,001 ,000 -7,91E-5 1,04E-5 -7,65E-5 ,000 ,000 m25 ,001 -,017 -,040 -,004 ,002 ,000 ,024 m50 ,000 -,017 ,027 ,000 ,003 -,004 -,006 m75 -7,91E-5 -,040 ,027 ,003 -,009 -,003 ,058 w0 1,04E-5 -,004 ,000 ,003 ,000 -,001 ,002 w25 -7,65E-5 ,002 ,003 -,009 ,000 ,001 -,004 w50 ,000 ,000 -,004 -,003 -,001 ,001 ,001 w75 ,000 ,024 -,006 ,058 ,002 -,004 ,001 Método de extracción: Máxima verosimilitud. a Los residuos se calculan entre las correlaciones observadas y reproducidas. Hay 1 (3,0%) residuales no redundantes con valores absolutos mayores que 0,05. b Comunalidades reproducidas
  • 53. 3/9/20XX Título de la presentación 53 Matriz de factores rotados(a) Factor 1 2 3 m0 ,964 ,120 ,233 m25 ,645 ,168 ,453 m50 ,428 ,376 ,762 m75 ,078 ,537 ,642 w0 ,970 ,220 ,078 w25 ,763 ,561 ,303 w50 ,535 ,732 ,397 w75 ,156 ,869 ,271 Método de extracción: Máxima verosimilitud. Método de rotación: Normalización Varimax con Kaiser. a La rotación ha convergido en 6 iteraciones. Varianza total explicada Suma de las saturaciones al cuadrado de la rotación Factor Total % de la varianza % acumulado 1 3,369 42,107 42,107 2 2,127 26,589 68,696 3 1,580 19,751 88,447 Método de extracción: Máxima verosimilitud. Matriz de transformación de los factores Factor 1 2 3 1 ,956 ,187 ,225 2 -,258 ,902 ,347 3 -,138 -,390 ,910 Método de extracción: Máxima verosimilitud. Método de rotación: Normalización Varimax con Kaiser.
  • 54. Gracias 3/9/20XX Título de la presentación 54