SlideShare una empresa de Scribd logo
UNIVERSIDAD DE ORIENTE<br />NÚCLEO  NUEVA  ESPARTA<br />ESCUELA DE HOTELERÍA Y TURISMO<br />LICENCIATURA EN ESTADÍSTICA<br />CÁTEDRA: ANÁLISIS MULTIVARIANTE II<br />                           <br />                                                                                                        Bachilleres:<br />                                                                                                <br />                                             Br. Velásquez, Anyely C.I: 17.848.310<br />Br. Quijada, Marianny C.I: 18.940.660<br />Guatamare, Marzo del 2011<br />INTRODUCCIÓN<br />El Análisis Factorial según García, Gil y Rodríguez, (2000) “Es una técnica estadística multivariante cuyo principal propósito es sintetizar las interrelaciones observadas entre un conjunto de variables en una forma concisa y segura como una ayuda a la construcción de nuevos conceptos y teorías”. Para ello utiliza un conjunto de variables aleatorias inobservables llamados factores comunes, de forma que todas las covarianzas o correlaciones son explicadas por dichos factores y cualquier porción de la varianza inexplicada por los factores comunes se asigna a términos de error residuales llamados factores únicos o específicos. <br />Este análisis busca  el estudio de la estructura de las interrelaciones entre un gran número de variables no exigiendo ninguna distinción entre variables dependientes e independientes. Utilizando esta información, calcula un conjunto de dimensiones latentes, conocidas como factores, que buscan explicar dichas interrelaciones. En esta técnica de reducción de datos si se cumplen sus hipótesis, la información contenida en la matriz de datos puede expresarse, sin mucha distorsión, en un número menor de dimensiones representadas por dichos factores. <br />PLANTEAMIENTO DEL PROBLEMA<br />De cierta industria productora de café, se tomaron 90 datos relacionados con tres condiciones del mismo (óptimo, punto fermento y fermentado), con el fin de llevar un estudio que permita conocer la relación existente de un conjunto de variables físico-químicas: Soluble e Insoluble, Acidez, Humedad y Ph observadas en los tipos del café. Además  saber el comportamiento global de estas variables y el efecto que éstas producen en los tipos de café. Para lograr esto se realizará un análisis factorial para posteriormente emitir conclusiones válidas con respecto a la situación de estudio.<br />VARIABLES EN ESTUDIO PARA EL ANÁLISIS FACTORIAL:<br />Variables Físico-QuímicasSolublesInsolublesAcidezHumedadPH<br />OBJETIVOS<br />Aplicar un Análisis Factorial para agrupar variables físico-químicas que estén relacionadas para la condición del café.<br />MARCO TEORICO<br />Análisis factorial <br />El Análisis Factorial es una técnica estadística multivalente cuyo principal propósito es sintetizar las interrelaciones observadas entre un conjunto de variables en una forma concisa y segura como una ayuda a la construcción de nuevos conceptos y teorías. Para ello utiliza un conjunto de variables aleatorias inobservables, que llamaremos factores comunes, de forma que todas las covarianzas o correlaciones son explicadas por dichos factores y cualquier porción de la varianza inexplicada por los factores comunes se asigna a términos de error residuales que llamaremos factores únicos o específicos. El Análisis Factorial puede ser exploratorio o confirmatorio. El análisis exploratorio se caracteriza porque no se conocen a priori el número de factores y es en la aplicación empírica donde se determina este número. Por el contrario, en el análisis de tipo confirmatorio los factores están fijados a priori, utilizándose contrastes de hipótesis para su corroboración.<br />    El modelo matemático del Análisis Factorial es parecido al de la regresión múltiple. Cada variable se expresa como una combinación lineal de factores no directamente observables. <br />Xij = F1i ai1 + F2i ai2+....+Fki aik + Vi<br />    Siendo:<br />    Xij la puntuación del individuo i en la variable j .<br />    Fij son los coeficientes factoriales.<br />    aij son las puntuaciones factoriales.<br />    Vi es el factor único de cada variable.<br />Un análisis factorial resultará adecuado cuando existan altas correlaciones entre las variables, que es cuando podemos suponer que se explican por factores comunes. El análisis de la matriz de correlaciones será pues el primer paso a dar. Analíticamente, podemos comprobar el grado de correlación con las siguientes pruebas o test:<br />Test de esfericidad de Bartlett.<br />Es necesario suponer la normalidad de las variables. Contrasta la H0 de que la matriz de correlaciones es una matriz identidad (incorrelación lineal entre las variables). Si, como resultado del contraste, no pudiésemos rechazar esta H0, y el tamaño de la muestra fuese razonablemente grande, deberíamos reconsiderar la realización de un AF, ya que las variables no están correlacionadas.<br />El estadístico de contraste del test de Bartlett es:<br />B=-(n-1-(2p+5)/6)ln|R* |bajo la hipótesis nula resulta  X 2(p2 - p)/2<br />donde:<br />p es el número de variables y<br />| R* | es el determinante de la matriz de correlaciones muestrales.<br />Índice KMO de Kaiser, Meyer y Olkin<br /> El KMO es un índice útil para comparar los valores de los coeficientes de correlación observados con los coeficientes de correlación parcial, de tal forma que valores pequeños indican que el análisis de componentes principales no es aconsejable. George y Mallery (1995) recomiendan como límite de aceptación de este índice KMO valores superiores al 0,5.<br />Índice KMO de Kaiser-Meyer-Olkin: <br />Fórmula   KMO= i≠jj≠irij2i≠jj≠irij2+i≠jj≠iaij2<br />donde... <br />         rij= correlación simple.    <br />         aij= correlación parcial.<br />Para mayor exactitud Kaiser (1974), propone la siguiente interpretación para los valores KMO: 0,90 maravilloso o muy bueno; 0,80 meritorio; 0,70 medio o normal; 0,60 mediocre; 0,50despreciable o bajo; y un valor menor que 0,50 totalmente inaceptable.<br />Fases del Análisis Factorial<br />Extracción de los factores comunes.<br />Rotación de los factores con objeto de facilitar su interpretación.<br />Puntuaciones factoriales.<br />Extracción de Factores Comunes<br />Existen distintos métodos de estimación de los coeficientes de la matriz factorial: los más comunes (para un AF exploratorio) son el método de las Componentes Principales y el método de Ejes Factoriales.<br />Método 1: AF de Componentes Principales (ACP)<br />El método de componentes principales se basa en suponer que los factores comunes explican el comportamiento de las variables originales en su totalidad.<br />Las comunalidades iniciales de cada variable son igual a 1, porque el 100% de la variabilidad de las p variable se explicará por los p factores. Evidentemente, carecería de interés sustituir las p variables originales por p factores que, en ocasiones, son de difícil interpretación. No obstante, si las correlaciones entre las p variables fuesen muy altas, sería de esperar que unos pocos factores explicasen gran parte de la variabilidad total. Supongamos que decidimos seleccionar r factores. La comunalidad final de cada variable indicará la proporción de variabilidad total que explican los r factores finalmente seleccionados. La estimación de los coeficientes l j se obtiene diagonalizando la matriz de correlaciones.<br />Método 2: AF de Ejes Factoriales (PAF)<br />En este método partimos de la base de que sólo una parte de la variabilidad total de cada variable depende de factores comunes y, por tanto, la comunalidad inicial no será 1. Estima dichas comunalidades mediante los coeficientes de determinación múltiple de cada variable con el resto. Se sustituyen estos valores en la diagonal principal de la matriz R* y se procede a efectuar un ACP. Una vez obtenido el resultado, se estiman de nuevo las comunalidades, se vuelven a sustituir en la diagonal principal de la matriz R* y el proceso se retroalimenta hasta alcanzar un criterio de parada (por ejemplo cuando la diferencia entre lasa comunalidades de dos iteraciones sucesivas sea menor que una cantidad prefijada).<br />La elección de uno u otro método (ACP o PAF) depende de los objetivos del AF. Así el ACP es adecuado cuando el objetivo es resumir la mayoría de la información original (varianza total) con una cantidad mínima de factores con propósitos de predicción. El AFC resulta adecuado para identificar los factores subyacentes o las dimensiones que reflejan qué tienen en común las variables. El inconveniente del método PAF es que el cálculo de las comunalidades requiere mucho tiempo y muchos recursos informáticos y, además, no siempre se pueden estimar o, incluso, pueden ser no válidas (comunalidades menores que 0 o mayores que 1).<br />ANALISIS DE RESULTADOS<br />Para llevar a cabo un análisis factorial se debe verificar la adecuación del modelo y esto se mide a través del indicador  KMO.<br />Según el KMO (Tabla Nº 1) se puede aplicar adecuadamente el análisis factorial ya que este se encuentra en el rango de buenos resultados y además el estadístico Ji-Cuadrado es significativo (p<0.05).<br />TABLA Nº 1: Medida de Adecuación de Kaiser-Meyer-Olkin (KMO)<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Todas las variables tienen una correlación anti-imagen mayor a 0,5 (Tabla Nº2), es decir, que todas ellas deben permanecer en el análisis. Estas correlaciones se observan en la diagonal  de la matriz.  <br />-287655531495TABLA Nº 2: Matriz Anti-Imagen<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />En cuanto a las comunalidades se puede decir que la proporción de varianza explicada por los factores comunes es alta (Tabla Nº 3), con valores que varían entre 0,611 y 0,806.  <br />TABLA Nº 3: Comunalidades<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Para seleccionar el numero de factores no hay un criterio único, solo hay unos criterios subjetivos. Algunos autores recomiendan como primer  paso  tomar  un  conjunto inicial  de  factores de  acuerdo a  los criterios de selección de componentes principales. El criterio más usado es que las componentes principales expliquen al menos un 70% de la variabilidad de los datos.<br />De acuerdo a este criterio se toma un factor ya que este explica más del 70%  (72,92%), de la varianza inicial de las variables originales. (Tabla Nº 4).<br />TABLA Nº 4: Varianza inicial de las variables originales<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Sin embargo a al momento de seleccionar el número de componentes principales se debe tomar en cuenta otros criterios como el de revisar el número de residuales que en valor absoluto sea mayor a 0,05, y establecen que esta cantidad no debe superar al 20%. <br />Debido al porcentaje de residuales no redundantes (Tabla  Nº 5), este único factor explicado por el 72, 92% de varianza no es adecuado ya que el porcentaje de estos residuales es mayor (70% > 20%) y hay  residuales mayores a 0,05. Por lo tanto se debe incluir otro factor para verificar el comportamiento de estos residuales. <br />TABLA Nº 5: Residuales no Redundantes<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Al incluir un segundo factor se observa que el porcentaje de varianza, (Tabla Nº 6) aumentó a 85,96%. <br />TABLA Nº 6: Varianza inicial de las variables originales al incluir un segundo factor<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />El porcentaje de residuales no redundantes disminuyó a 30% y solo hay 3 residuales mayor a 0,05, lo que indica que sigue superando al 20%. (Tabla Nº 7). Por lo tanto no se puede incluir un tercer factor ya que esto ocasionaría carga alta en una sola variable (> 0,5) y los factores serian triviales. Sin embargo, Dalas Johnson establece otro criterio donde sugiere que no debe haber muchos residuales en valores absolutos mayores a 0,25 o unos cuantos mayores a 0,40. Este criterio si se cumple en estos residuales (hay 18 residuales menores a 0,25), es decir, que es conveniente seleccionar solo dos factores. (Tabla Nº 7).<br />TABLA Nº 7: Residuales no Redundantes al incluir un segundo factor<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Al incluirse este segundo factor la proporción de varianza explicada por los factores comunes aumentó con respecto a la primera (Tabla Nº 8), con valores que varían entre 0,821 y 0,901. Es decir, que esta varianza explicada por los factores comunes es alta. <br />TABLA Nº 8: Comunalidades al incluir un segundo factor<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Nota: El KMO no aumentó ni disminuyó al incluirse un segundo factor.<br />Para este análisis no existen factores triviales, es decir, carga alta (> 0,5) en una sola variable (Tabla Nº 9). El factor 1 está relacionado con las variables Humedad, Acidez y Ph, con cargas factoriales 0,863; 0,858 y -0,853 respectivamente, donde la variable Humedad y Acidez se contraponen (signos opuestos en las cargas factoriales) con la variable Ph. Este factor indica las propiedades químicas del café.<br />El factor 2 se relaciona con las variables Solubles e insolubles con cargas factoriales altas 0,810 y -0,909 respectivamente, donde la variable soluble se contrapone con la variable insoluble. Este factor indica las propiedades físicas del café. <br />TABLA Nº 9: Matriz de componentes rotados<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />CONCLUSIÓN<br /> <br />Las variables físico-químicas: Soluble e Insoluble, Acidez, Humedad y Ph resultaron agrupadas en dos (2) factores. Donde el factor 1 representa las propiedades químicas del café (Humedad, Acidez y Ph), mientras que el factor 2 las propiedades físicas.<br />BIBLIOGRAFÍA <br />GARCIA JIMÉNEZ, E.; GIL FLORES, J. y RODRIGUEZ GOMEZ, G. (2000). Análisis Factorial. Cuadernos de Estadística. Editorial La Muralla.   WWW.tgrajales.net/estfactorial.pdf<br />JHONSON, D. (1998). “Métodos Multivariados Aplicados al Análisis de Datos”. Internacional Thomson Publishing. Primera Edición.<br />JOHN  POULSEN.  (2001)  “Análisis  Multivariante  de  La Varianza” http://userwww.sfsu.edu/~efc/classes/biol710/manova/manovanew.<br />htm.<br />
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial
Trabajo de factorial

Más contenido relacionado

La actualidad más candente

5 Semana Analisis Multivariante Parte II
5 Semana Analisis Multivariante Parte II5 Semana Analisis Multivariante Parte II
5 Semana Analisis Multivariante Parte II
jpgv84
 
Experimentos de dos factores
Experimentos de dos factoresExperimentos de dos factores
Experimentos de dos factores
Leonardo Meza
 
AF Master Educacion
AF Master EducacionAF Master Educacion
AF Master Educacion
Moises Betancort
 
Tamaño de muestra revisado
Tamaño de muestra revisadoTamaño de muestra revisado
Tamaño de muestra revisado
Escuela Militar de Ingeniería (EMI)
 
Estadistica no parametrica
Estadistica no parametricaEstadistica no parametrica
Estadistica no parametrica
fretar26
 
Anova Factorial
Anova FactorialAnova Factorial
Anova Factorial
Jairo Hidalgo
 
5 Semana Analisis Multivariante Parte I
5 Semana Analisis Multivariante Parte I5 Semana Analisis Multivariante Parte I
5 Semana Analisis Multivariante Parte I
jpgv84
 
Clase multivaariado 01
Clase multivaariado 01Clase multivaariado 01
Clase multivaariado 01
Jhoel Calderon
 
Manual de Formulas Estadísticas Biológicas para Biólogos
Manual de Formulas Estadísticas Biológicas para BiólogosManual de Formulas Estadísticas Biológicas para Biólogos
Manual de Formulas Estadísticas Biológicas para Biólogos
JORGE PABLO CADENA A.
 
Prueba de Hipótesis y Relaciones Estadisticas
Prueba de Hipótesis y Relaciones EstadisticasPrueba de Hipótesis y Relaciones Estadisticas
Prueba de Hipótesis y Relaciones Estadisticas
Juan Timana
 
2001 estadística en qa
2001 estadística en qa2001 estadística en qa
2001 estadística en qa
CtdmEusebioAyala
 
Estadistica
EstadisticaEstadistica
Estadistica
antoniocarpinto
 
Trabajo de spss
Trabajo de spssTrabajo de spss
Trabajo de spss
maryvallejo
 
6 Semana Analisis Multivariante Parte I
6 Semana Analisis Multivariante Parte I6 Semana Analisis Multivariante Parte I
6 Semana Analisis Multivariante Parte I
jpgv84
 
1 Semana Analisis Multivariante
1  Semana Analisis Multivariante1  Semana Analisis Multivariante
1 Semana Analisis Multivariante
jpgv84
 
Resumen de unidad v de felix castro garcia
Resumen de unidad v de felix castro garciaResumen de unidad v de felix castro garcia
Resumen de unidad v de felix castro garcia
FELIX Castro Garcia
 
diagnosis de la regresion
diagnosis de la regresiondiagnosis de la regresion
diagnosis de la regresion
carlosjardon
 
Análisis anova
Análisis anovaAnálisis anova
Análisis anova
Nombre Apellidos
 
Social Science From Mexico Unam 126
Social Science From Mexico Unam 126Social Science From Mexico Unam 126
Social Science From Mexico Unam 126
guestb23700
 
Econometria Vanessa Santiago
Econometria Vanessa SantiagoEconometria Vanessa Santiago
Econometria Vanessa Santiago
Vanessa Santiago
 

La actualidad más candente (20)

5 Semana Analisis Multivariante Parte II
5 Semana Analisis Multivariante Parte II5 Semana Analisis Multivariante Parte II
5 Semana Analisis Multivariante Parte II
 
Experimentos de dos factores
Experimentos de dos factoresExperimentos de dos factores
Experimentos de dos factores
 
AF Master Educacion
AF Master EducacionAF Master Educacion
AF Master Educacion
 
Tamaño de muestra revisado
Tamaño de muestra revisadoTamaño de muestra revisado
Tamaño de muestra revisado
 
Estadistica no parametrica
Estadistica no parametricaEstadistica no parametrica
Estadistica no parametrica
 
Anova Factorial
Anova FactorialAnova Factorial
Anova Factorial
 
5 Semana Analisis Multivariante Parte I
5 Semana Analisis Multivariante Parte I5 Semana Analisis Multivariante Parte I
5 Semana Analisis Multivariante Parte I
 
Clase multivaariado 01
Clase multivaariado 01Clase multivaariado 01
Clase multivaariado 01
 
Manual de Formulas Estadísticas Biológicas para Biólogos
Manual de Formulas Estadísticas Biológicas para BiólogosManual de Formulas Estadísticas Biológicas para Biólogos
Manual de Formulas Estadísticas Biológicas para Biólogos
 
Prueba de Hipótesis y Relaciones Estadisticas
Prueba de Hipótesis y Relaciones EstadisticasPrueba de Hipótesis y Relaciones Estadisticas
Prueba de Hipótesis y Relaciones Estadisticas
 
2001 estadística en qa
2001 estadística en qa2001 estadística en qa
2001 estadística en qa
 
Estadistica
EstadisticaEstadistica
Estadistica
 
Trabajo de spss
Trabajo de spssTrabajo de spss
Trabajo de spss
 
6 Semana Analisis Multivariante Parte I
6 Semana Analisis Multivariante Parte I6 Semana Analisis Multivariante Parte I
6 Semana Analisis Multivariante Parte I
 
1 Semana Analisis Multivariante
1  Semana Analisis Multivariante1  Semana Analisis Multivariante
1 Semana Analisis Multivariante
 
Resumen de unidad v de felix castro garcia
Resumen de unidad v de felix castro garciaResumen de unidad v de felix castro garcia
Resumen de unidad v de felix castro garcia
 
diagnosis de la regresion
diagnosis de la regresiondiagnosis de la regresion
diagnosis de la regresion
 
Análisis anova
Análisis anovaAnálisis anova
Análisis anova
 
Social Science From Mexico Unam 126
Social Science From Mexico Unam 126Social Science From Mexico Unam 126
Social Science From Mexico Unam 126
 
Econometria Vanessa Santiago
Econometria Vanessa SantiagoEconometria Vanessa Santiago
Econometria Vanessa Santiago
 

Destacado

Permutaciones y combinaciones
Permutaciones y combinacionesPermutaciones y combinaciones
Permutaciones y combinaciones
UTPL UTPL
 
Combinatoria
CombinatoriaCombinatoria
Combinatoria
jmuceda
 
Funcion Factorial
Funcion FactorialFuncion Factorial
Funcion Factorial
Sergio Giraldo
 
Combinaciones y permutaciones
Combinaciones y permutacionesCombinaciones y permutaciones
Combinaciones y permutaciones
Julio Sandez
 
Combinaciones y perturbaciones
Combinaciones y perturbacionesCombinaciones y perturbaciones
Combinaciones y perturbaciones
Eddras Coutiño Cruz
 
Factorial de un número 2º
Factorial de un número   2ºFactorial de un número   2º
Factorial de un número 2º
brisagaela29
 
Factorial
FactorialFactorial
Factorial
Ana Robles
 
Tema 4 combinatoria
Tema 4 combinatoriaTema 4 combinatoria
Tema 4 combinatoria
Angela Rivera
 
Diferencia Entre Combinaciones Y Permutaciones
Diferencia Entre Combinaciones Y PermutacionesDiferencia Entre Combinaciones Y Permutaciones
Diferencia Entre Combinaciones Y Permutaciones
liev7000
 
ANÁLISIS COMBINATORIO
ANÁLISIS COMBINATORIOANÁLISIS COMBINATORIO
ANÁLISIS COMBINATORIO
CESAR V
 
Permutaciones y combinaciones
Permutaciones y combinacionesPermutaciones y combinaciones
Permutaciones y combinaciones
mariagcortez14
 
Combinaciones y permutaciones
Combinaciones y permutacionesCombinaciones y permutaciones
Combinaciones y permutaciones
Sandra
 
7 permutaciones combinaciones
7 permutaciones combinaciones7 permutaciones combinaciones
7 permutaciones combinaciones
Arbey Gutierrez
 
Formulas para permutaciones
Formulas para permutacionesFormulas para permutaciones
Formulas para permutaciones
Ixma Tribal
 
Análisis combinatorio 2014
Análisis combinatorio  2014Análisis combinatorio  2014
Análisis combinatorio 2014
sigherrera
 
Conteo y combinatoria
Conteo y combinatoriaConteo y combinatoria
Conteo y combinatoria
Claudio Mendieta
 
Ejercicios resueltos
Ejercicios resueltosEjercicios resueltos
Ejercicios resueltos
Edgar Mata
 

Destacado (17)

Permutaciones y combinaciones
Permutaciones y combinacionesPermutaciones y combinaciones
Permutaciones y combinaciones
 
Combinatoria
CombinatoriaCombinatoria
Combinatoria
 
Funcion Factorial
Funcion FactorialFuncion Factorial
Funcion Factorial
 
Combinaciones y permutaciones
Combinaciones y permutacionesCombinaciones y permutaciones
Combinaciones y permutaciones
 
Combinaciones y perturbaciones
Combinaciones y perturbacionesCombinaciones y perturbaciones
Combinaciones y perturbaciones
 
Factorial de un número 2º
Factorial de un número   2ºFactorial de un número   2º
Factorial de un número 2º
 
Factorial
FactorialFactorial
Factorial
 
Tema 4 combinatoria
Tema 4 combinatoriaTema 4 combinatoria
Tema 4 combinatoria
 
Diferencia Entre Combinaciones Y Permutaciones
Diferencia Entre Combinaciones Y PermutacionesDiferencia Entre Combinaciones Y Permutaciones
Diferencia Entre Combinaciones Y Permutaciones
 
ANÁLISIS COMBINATORIO
ANÁLISIS COMBINATORIOANÁLISIS COMBINATORIO
ANÁLISIS COMBINATORIO
 
Permutaciones y combinaciones
Permutaciones y combinacionesPermutaciones y combinaciones
Permutaciones y combinaciones
 
Combinaciones y permutaciones
Combinaciones y permutacionesCombinaciones y permutaciones
Combinaciones y permutaciones
 
7 permutaciones combinaciones
7 permutaciones combinaciones7 permutaciones combinaciones
7 permutaciones combinaciones
 
Formulas para permutaciones
Formulas para permutacionesFormulas para permutaciones
Formulas para permutaciones
 
Análisis combinatorio 2014
Análisis combinatorio  2014Análisis combinatorio  2014
Análisis combinatorio 2014
 
Conteo y combinatoria
Conteo y combinatoriaConteo y combinatoria
Conteo y combinatoria
 
Ejercicios resueltos
Ejercicios resueltosEjercicios resueltos
Ejercicios resueltos
 

Similar a Trabajo de factorial

REPASO MODELOS ECONOMETRICOS.pdf
REPASO MODELOS ECONOMETRICOS.pdfREPASO MODELOS ECONOMETRICOS.pdf
REPASO MODELOS ECONOMETRICOS.pdf
LADYYADIRAGUERREROMO
 
REPASO MODELOS ECONOMETRICOS.pdf
REPASO MODELOS ECONOMETRICOS.pdfREPASO MODELOS ECONOMETRICOS.pdf
REPASO MODELOS ECONOMETRICOS.pdf
LADYYADIRAGUERREROMO
 
Clase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptClase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.ppt
Ronald Damas
 
Clase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptClase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.ppt
Ronald Damas
 
Bueno de regresion lineal[1]
Bueno de regresion lineal[1]Bueno de regresion lineal[1]
Bueno de regresion lineal[1]
EQUIPO7
 
Regresion Multiple2
Regresion Multiple2Regresion Multiple2
Regresion Multiple2
juancasa2791
 
Alexandra_Mendoza_spss. de todo tipo de angulos
Alexandra_Mendoza_spss.  de todo tipo  de angulosAlexandra_Mendoza_spss.  de todo tipo  de angulos
Alexandra_Mendoza_spss. de todo tipo de angulos
klebersky23
 
Presentacion analisis de regresion
Presentacion analisis de regresionPresentacion analisis de regresion
Presentacion analisis de regresion
0KA
 
INFORME FINAL_ESTADISTICA APLICADA AL SECTOR SALUD.docx
INFORME FINAL_ESTADISTICA APLICADA AL SECTOR SALUD.docxINFORME FINAL_ESTADISTICA APLICADA AL SECTOR SALUD.docx
INFORME FINAL_ESTADISTICA APLICADA AL SECTOR SALUD.docx
AnalexisHidalgo
 
Tema IV Tecnicas de Pronostico Grupo 6.pptx
Tema IV Tecnicas de Pronostico Grupo 6.pptxTema IV Tecnicas de Pronostico Grupo 6.pptx
Tema IV Tecnicas de Pronostico Grupo 6.pptx
osdalysmar
 
Regresion simple 1 estadistica
Regresion simple 1   estadisticaRegresion simple 1   estadistica
Regresion simple 1 estadistica
Jhon Fredy Tchc
 
Paso 4 descripción de la información.
Paso 4 descripción de la información.Paso 4 descripción de la información.
Paso 4 descripción de la información.
MarlyTenorio
 
Presentación regreción lineal
Presentación regreción linealPresentación regreción lineal
Presentación regreción lineal
Contraloria Municipal de Palavecino
 
Análisis factorial aplicado en la elaboración de una tesis
Análisis factorial aplicado en la elaboración de una tesisAnálisis factorial aplicado en la elaboración de una tesis
Análisis factorial aplicado en la elaboración de una tesis
juanchojuancho
 
Regresion estadistica
Regresion estadisticaRegresion estadistica
Regresion estadistica
maria de sousa
 
Articulo 3 manuel_andres_martinez
Articulo 3 manuel_andres_martinezArticulo 3 manuel_andres_martinez
Articulo 3 manuel_andres_martinez
Manuel Andres Martinez Patino
 
V A L I D E Z F A C T O R I A L
V A L I D E Z  F A C T O R I A LV A L I D E Z  F A C T O R I A L
V A L I D E Z F A C T O R I A L
guested7395
 
Glosario de estadistica
Glosario de estadisticaGlosario de estadistica
Glosario de estadistica
neoferney
 
GUÍA DE TÉRMINOS ESTADÍSTICO
GUÍA DE TÉRMINOS ESTADÍSTICO GUÍA DE TÉRMINOS ESTADÍSTICO
GUÍA DE TÉRMINOS ESTADÍSTICO
Juan José Mendoza Castillo
 
Glosario estadistico
Glosario estadisticoGlosario estadistico
Glosario estadistico
Ricardo Manrique Abril
 

Similar a Trabajo de factorial (20)

REPASO MODELOS ECONOMETRICOS.pdf
REPASO MODELOS ECONOMETRICOS.pdfREPASO MODELOS ECONOMETRICOS.pdf
REPASO MODELOS ECONOMETRICOS.pdf
 
REPASO MODELOS ECONOMETRICOS.pdf
REPASO MODELOS ECONOMETRICOS.pdfREPASO MODELOS ECONOMETRICOS.pdf
REPASO MODELOS ECONOMETRICOS.pdf
 
Clase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptClase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.ppt
 
Clase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.pptClase_3_-_Analisis_Factorial.ppt
Clase_3_-_Analisis_Factorial.ppt
 
Bueno de regresion lineal[1]
Bueno de regresion lineal[1]Bueno de regresion lineal[1]
Bueno de regresion lineal[1]
 
Regresion Multiple2
Regresion Multiple2Regresion Multiple2
Regresion Multiple2
 
Alexandra_Mendoza_spss. de todo tipo de angulos
Alexandra_Mendoza_spss.  de todo tipo  de angulosAlexandra_Mendoza_spss.  de todo tipo  de angulos
Alexandra_Mendoza_spss. de todo tipo de angulos
 
Presentacion analisis de regresion
Presentacion analisis de regresionPresentacion analisis de regresion
Presentacion analisis de regresion
 
INFORME FINAL_ESTADISTICA APLICADA AL SECTOR SALUD.docx
INFORME FINAL_ESTADISTICA APLICADA AL SECTOR SALUD.docxINFORME FINAL_ESTADISTICA APLICADA AL SECTOR SALUD.docx
INFORME FINAL_ESTADISTICA APLICADA AL SECTOR SALUD.docx
 
Tema IV Tecnicas de Pronostico Grupo 6.pptx
Tema IV Tecnicas de Pronostico Grupo 6.pptxTema IV Tecnicas de Pronostico Grupo 6.pptx
Tema IV Tecnicas de Pronostico Grupo 6.pptx
 
Regresion simple 1 estadistica
Regresion simple 1   estadisticaRegresion simple 1   estadistica
Regresion simple 1 estadistica
 
Paso 4 descripción de la información.
Paso 4 descripción de la información.Paso 4 descripción de la información.
Paso 4 descripción de la información.
 
Presentación regreción lineal
Presentación regreción linealPresentación regreción lineal
Presentación regreción lineal
 
Análisis factorial aplicado en la elaboración de una tesis
Análisis factorial aplicado en la elaboración de una tesisAnálisis factorial aplicado en la elaboración de una tesis
Análisis factorial aplicado en la elaboración de una tesis
 
Regresion estadistica
Regresion estadisticaRegresion estadistica
Regresion estadistica
 
Articulo 3 manuel_andres_martinez
Articulo 3 manuel_andres_martinezArticulo 3 manuel_andres_martinez
Articulo 3 manuel_andres_martinez
 
V A L I D E Z F A C T O R I A L
V A L I D E Z  F A C T O R I A LV A L I D E Z  F A C T O R I A L
V A L I D E Z F A C T O R I A L
 
Glosario de estadistica
Glosario de estadisticaGlosario de estadistica
Glosario de estadistica
 
GUÍA DE TÉRMINOS ESTADÍSTICO
GUÍA DE TÉRMINOS ESTADÍSTICO GUÍA DE TÉRMINOS ESTADÍSTICO
GUÍA DE TÉRMINOS ESTADÍSTICO
 
Glosario estadistico
Glosario estadisticoGlosario estadistico
Glosario estadistico
 

Trabajo de factorial

  • 1. UNIVERSIDAD DE ORIENTE<br />NÚCLEO NUEVA ESPARTA<br />ESCUELA DE HOTELERÍA Y TURISMO<br />LICENCIATURA EN ESTADÍSTICA<br />CÁTEDRA: ANÁLISIS MULTIVARIANTE II<br /> <br /> Bachilleres:<br /> <br /> Br. Velásquez, Anyely C.I: 17.848.310<br />Br. Quijada, Marianny C.I: 18.940.660<br />Guatamare, Marzo del 2011<br />INTRODUCCIÓN<br />El Análisis Factorial según García, Gil y Rodríguez, (2000) “Es una técnica estadística multivariante cuyo principal propósito es sintetizar las interrelaciones observadas entre un conjunto de variables en una forma concisa y segura como una ayuda a la construcción de nuevos conceptos y teorías”. Para ello utiliza un conjunto de variables aleatorias inobservables llamados factores comunes, de forma que todas las covarianzas o correlaciones son explicadas por dichos factores y cualquier porción de la varianza inexplicada por los factores comunes se asigna a términos de error residuales llamados factores únicos o específicos. <br />Este análisis busca el estudio de la estructura de las interrelaciones entre un gran número de variables no exigiendo ninguna distinción entre variables dependientes e independientes. Utilizando esta información, calcula un conjunto de dimensiones latentes, conocidas como factores, que buscan explicar dichas interrelaciones. En esta técnica de reducción de datos si se cumplen sus hipótesis, la información contenida en la matriz de datos puede expresarse, sin mucha distorsión, en un número menor de dimensiones representadas por dichos factores. <br />PLANTEAMIENTO DEL PROBLEMA<br />De cierta industria productora de café, se tomaron 90 datos relacionados con tres condiciones del mismo (óptimo, punto fermento y fermentado), con el fin de llevar un estudio que permita conocer la relación existente de un conjunto de variables físico-químicas: Soluble e Insoluble, Acidez, Humedad y Ph observadas en los tipos del café. Además saber el comportamiento global de estas variables y el efecto que éstas producen en los tipos de café. Para lograr esto se realizará un análisis factorial para posteriormente emitir conclusiones válidas con respecto a la situación de estudio.<br />VARIABLES EN ESTUDIO PARA EL ANÁLISIS FACTORIAL:<br />Variables Físico-QuímicasSolublesInsolublesAcidezHumedadPH<br />OBJETIVOS<br />Aplicar un Análisis Factorial para agrupar variables físico-químicas que estén relacionadas para la condición del café.<br />MARCO TEORICO<br />Análisis factorial <br />El Análisis Factorial es una técnica estadística multivalente cuyo principal propósito es sintetizar las interrelaciones observadas entre un conjunto de variables en una forma concisa y segura como una ayuda a la construcción de nuevos conceptos y teorías. Para ello utiliza un conjunto de variables aleatorias inobservables, que llamaremos factores comunes, de forma que todas las covarianzas o correlaciones son explicadas por dichos factores y cualquier porción de la varianza inexplicada por los factores comunes se asigna a términos de error residuales que llamaremos factores únicos o específicos. El Análisis Factorial puede ser exploratorio o confirmatorio. El análisis exploratorio se caracteriza porque no se conocen a priori el número de factores y es en la aplicación empírica donde se determina este número. Por el contrario, en el análisis de tipo confirmatorio los factores están fijados a priori, utilizándose contrastes de hipótesis para su corroboración.<br /> El modelo matemático del Análisis Factorial es parecido al de la regresión múltiple. Cada variable se expresa como una combinación lineal de factores no directamente observables. <br />Xij = F1i ai1 + F2i ai2+....+Fki aik + Vi<br /> Siendo:<br /> Xij la puntuación del individuo i en la variable j .<br /> Fij son los coeficientes factoriales.<br /> aij son las puntuaciones factoriales.<br /> Vi es el factor único de cada variable.<br />Un análisis factorial resultará adecuado cuando existan altas correlaciones entre las variables, que es cuando podemos suponer que se explican por factores comunes. El análisis de la matriz de correlaciones será pues el primer paso a dar. Analíticamente, podemos comprobar el grado de correlación con las siguientes pruebas o test:<br />Test de esfericidad de Bartlett.<br />Es necesario suponer la normalidad de las variables. Contrasta la H0 de que la matriz de correlaciones es una matriz identidad (incorrelación lineal entre las variables). Si, como resultado del contraste, no pudiésemos rechazar esta H0, y el tamaño de la muestra fuese razonablemente grande, deberíamos reconsiderar la realización de un AF, ya que las variables no están correlacionadas.<br />El estadístico de contraste del test de Bartlett es:<br />B=-(n-1-(2p+5)/6)ln|R* |bajo la hipótesis nula resulta  X 2(p2 - p)/2<br />donde:<br />p es el número de variables y<br />| R* | es el determinante de la matriz de correlaciones muestrales.<br />Índice KMO de Kaiser, Meyer y Olkin<br /> El KMO es un índice útil para comparar los valores de los coeficientes de correlación observados con los coeficientes de correlación parcial, de tal forma que valores pequeños indican que el análisis de componentes principales no es aconsejable. George y Mallery (1995) recomiendan como límite de aceptación de este índice KMO valores superiores al 0,5.<br />Índice KMO de Kaiser-Meyer-Olkin: <br />Fórmula KMO= i≠jj≠irij2i≠jj≠irij2+i≠jj≠iaij2<br />donde... <br /> rij= correlación simple. <br /> aij= correlación parcial.<br />Para mayor exactitud Kaiser (1974), propone la siguiente interpretación para los valores KMO: 0,90 maravilloso o muy bueno; 0,80 meritorio; 0,70 medio o normal; 0,60 mediocre; 0,50despreciable o bajo; y un valor menor que 0,50 totalmente inaceptable.<br />Fases del Análisis Factorial<br />Extracción de los factores comunes.<br />Rotación de los factores con objeto de facilitar su interpretación.<br />Puntuaciones factoriales.<br />Extracción de Factores Comunes<br />Existen distintos métodos de estimación de los coeficientes de la matriz factorial: los más comunes (para un AF exploratorio) son el método de las Componentes Principales y el método de Ejes Factoriales.<br />Método 1: AF de Componentes Principales (ACP)<br />El método de componentes principales se basa en suponer que los factores comunes explican el comportamiento de las variables originales en su totalidad.<br />Las comunalidades iniciales de cada variable son igual a 1, porque el 100% de la variabilidad de las p variable se explicará por los p factores. Evidentemente, carecería de interés sustituir las p variables originales por p factores que, en ocasiones, son de difícil interpretación. No obstante, si las correlaciones entre las p variables fuesen muy altas, sería de esperar que unos pocos factores explicasen gran parte de la variabilidad total. Supongamos que decidimos seleccionar r factores. La comunalidad final de cada variable indicará la proporción de variabilidad total que explican los r factores finalmente seleccionados. La estimación de los coeficientes l j se obtiene diagonalizando la matriz de correlaciones.<br />Método 2: AF de Ejes Factoriales (PAF)<br />En este método partimos de la base de que sólo una parte de la variabilidad total de cada variable depende de factores comunes y, por tanto, la comunalidad inicial no será 1. Estima dichas comunalidades mediante los coeficientes de determinación múltiple de cada variable con el resto. Se sustituyen estos valores en la diagonal principal de la matriz R* y se procede a efectuar un ACP. Una vez obtenido el resultado, se estiman de nuevo las comunalidades, se vuelven a sustituir en la diagonal principal de la matriz R* y el proceso se retroalimenta hasta alcanzar un criterio de parada (por ejemplo cuando la diferencia entre lasa comunalidades de dos iteraciones sucesivas sea menor que una cantidad prefijada).<br />La elección de uno u otro método (ACP o PAF) depende de los objetivos del AF. Así el ACP es adecuado cuando el objetivo es resumir la mayoría de la información original (varianza total) con una cantidad mínima de factores con propósitos de predicción. El AFC resulta adecuado para identificar los factores subyacentes o las dimensiones que reflejan qué tienen en común las variables. El inconveniente del método PAF es que el cálculo de las comunalidades requiere mucho tiempo y muchos recursos informáticos y, además, no siempre se pueden estimar o, incluso, pueden ser no válidas (comunalidades menores que 0 o mayores que 1).<br />ANALISIS DE RESULTADOS<br />Para llevar a cabo un análisis factorial se debe verificar la adecuación del modelo y esto se mide a través del indicador KMO.<br />Según el KMO (Tabla Nº 1) se puede aplicar adecuadamente el análisis factorial ya que este se encuentra en el rango de buenos resultados y además el estadístico Ji-Cuadrado es significativo (p<0.05).<br />TABLA Nº 1: Medida de Adecuación de Kaiser-Meyer-Olkin (KMO)<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Todas las variables tienen una correlación anti-imagen mayor a 0,5 (Tabla Nº2), es decir, que todas ellas deben permanecer en el análisis. Estas correlaciones se observan en la diagonal de la matriz. <br />-287655531495TABLA Nº 2: Matriz Anti-Imagen<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />En cuanto a las comunalidades se puede decir que la proporción de varianza explicada por los factores comunes es alta (Tabla Nº 3), con valores que varían entre 0,611 y 0,806. <br />TABLA Nº 3: Comunalidades<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Para seleccionar el numero de factores no hay un criterio único, solo hay unos criterios subjetivos. Algunos autores recomiendan como primer paso tomar un conjunto inicial de factores de acuerdo a los criterios de selección de componentes principales. El criterio más usado es que las componentes principales expliquen al menos un 70% de la variabilidad de los datos.<br />De acuerdo a este criterio se toma un factor ya que este explica más del 70% (72,92%), de la varianza inicial de las variables originales. (Tabla Nº 4).<br />TABLA Nº 4: Varianza inicial de las variables originales<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Sin embargo a al momento de seleccionar el número de componentes principales se debe tomar en cuenta otros criterios como el de revisar el número de residuales que en valor absoluto sea mayor a 0,05, y establecen que esta cantidad no debe superar al 20%. <br />Debido al porcentaje de residuales no redundantes (Tabla Nº 5), este único factor explicado por el 72, 92% de varianza no es adecuado ya que el porcentaje de estos residuales es mayor (70% > 20%) y hay residuales mayores a 0,05. Por lo tanto se debe incluir otro factor para verificar el comportamiento de estos residuales. <br />TABLA Nº 5: Residuales no Redundantes<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Al incluir un segundo factor se observa que el porcentaje de varianza, (Tabla Nº 6) aumentó a 85,96%. <br />TABLA Nº 6: Varianza inicial de las variables originales al incluir un segundo factor<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />El porcentaje de residuales no redundantes disminuyó a 30% y solo hay 3 residuales mayor a 0,05, lo que indica que sigue superando al 20%. (Tabla Nº 7). Por lo tanto no se puede incluir un tercer factor ya que esto ocasionaría carga alta en una sola variable (> 0,5) y los factores serian triviales. Sin embargo, Dalas Johnson establece otro criterio donde sugiere que no debe haber muchos residuales en valores absolutos mayores a 0,25 o unos cuantos mayores a 0,40. Este criterio si se cumple en estos residuales (hay 18 residuales menores a 0,25), es decir, que es conveniente seleccionar solo dos factores. (Tabla Nº 7).<br />TABLA Nº 7: Residuales no Redundantes al incluir un segundo factor<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Al incluirse este segundo factor la proporción de varianza explicada por los factores comunes aumentó con respecto a la primera (Tabla Nº 8), con valores que varían entre 0,821 y 0,901. Es decir, que esta varianza explicada por los factores comunes es alta. <br />TABLA Nº 8: Comunalidades al incluir un segundo factor<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />Nota: El KMO no aumentó ni disminuyó al incluirse un segundo factor.<br />Para este análisis no existen factores triviales, es decir, carga alta (> 0,5) en una sola variable (Tabla Nº 9). El factor 1 está relacionado con las variables Humedad, Acidez y Ph, con cargas factoriales 0,863; 0,858 y -0,853 respectivamente, donde la variable Humedad y Acidez se contraponen (signos opuestos en las cargas factoriales) con la variable Ph. Este factor indica las propiedades químicas del café.<br />El factor 2 se relaciona con las variables Solubles e insolubles con cargas factoriales altas 0,810 y -0,909 respectivamente, donde la variable soluble se contrapone con la variable insoluble. Este factor indica las propiedades físicas del café. <br />TABLA Nº 9: Matriz de componentes rotados<br />Fuente: Salida generada por el paquete de Computo SPSS. Versión 15.0<br />CONCLUSIÓN<br /> <br />Las variables físico-químicas: Soluble e Insoluble, Acidez, Humedad y Ph resultaron agrupadas en dos (2) factores. Donde el factor 1 representa las propiedades químicas del café (Humedad, Acidez y Ph), mientras que el factor 2 las propiedades físicas.<br />BIBLIOGRAFÍA <br />GARCIA JIMÉNEZ, E.; GIL FLORES, J. y RODRIGUEZ GOMEZ, G. (2000). Análisis Factorial. Cuadernos de Estadística. Editorial La Muralla. WWW.tgrajales.net/estfactorial.pdf<br />JHONSON, D. (1998). “Métodos Multivariados Aplicados al Análisis de Datos”. Internacional Thomson Publishing. Primera Edición.<br />JOHN POULSEN. (2001) “Análisis Multivariante de La Varianza” http://userwww.sfsu.edu/~efc/classes/biol710/manova/manovanew.<br />htm.<br />