Actividad integradora 6 CREAR UN RECURSO MULTIMEDIA
Trabajo unidad iv estadistica ii
1. INSTITUTO TECNOLÓGICO DE PACHUCA
EVALUACIÓN DE DISEÑO FACTORIAL CON DOS
FACTORES Y DISEÑO FACTORIAL CON TRES
FACTORES
PRESENTAN:
HERNÁNDEZ NAVA ABRAHAM
MEZA LUZ DAVID
NOVIEMBRE,2009
INSTITUTO TECNOLÓGICO DE PACHUCA
2. [Escribir texto]
EVALUACIÓN DE DISEÑO FACTORIAL CON DOS
FACTORES Y DISEÑO FACTORIAL CON TRES
FACTORES
PRESENTAN:
ESCALANTE CHÁVEZ MARÍA GUADALUPE
HERNÁNDEZ NAVA ABRAHAM
MEZA LUZ DAVID
VALENCIA HERNÁNDEZ EMMANUEL
VÁZQUEZ MONROY IRMA IRENE
ING. Me. URIBE RIOS GLORIA
EVALUADOR
PACHUCA DE SOTO, HIDALGO, NOVIEMBRE,2009
AGRADECIMIENTOS
3. [Escribir texto]
A por su dedicación, entrega y empeño en la labor de recopilar información teórica, que es
la base para el entendimiento del desarrollo de diseño factorial y que además respecta al
Capítulo I.
A David por su afán de investigador al desarrollar teórica y prácticamente el diseño con dos
factores incluidos en el Capítulo II.
A Abraham por su importante y valiosa aportación en el diseño de tres factores apoyándose
para un mejor entendimiento en un ejemplo de la vida real observado en el Capítulo III.
A por la ardua labor de recapitular la información en conjunto y desarrollarla a manera de
entregarla como un buen trabajo de investigación.
4. [Escribir texto]
INTRODUCCION
Los experimentos factoriales se usan en casi todos los campos de investigación. Son de
gran valor en el trabajo exploratorio (Niveles óptimos o combinación óptima de los
factores).
Un diseño factoriales aquel en el que el conjunto de tratamientos esta conformado por todas
las posibles combinaciones de los distintos niveles de los factores involucrados.
En estadística, un experimento factorial completo es un experimento cuyo diseño consta de
dos o más factores, cada uno de los cuales con distintos valores o "niveles", y cuyas
unidades experimentales cubren todas las posibles combinaciones de esos niveles en todo
los factores. Este tipo de experimentos permiten el estudio del efecto de cada factor sobre la
variable respuesta, así como el efecto de las interacciones entre factores sobre la dicha
variable.
Por ejemplo, con dos factores y dos niveles en cada factor, un experimento factorial tendría
en total cuatro combinaciones de tratamiento, y se le denominaría diseño factorial de 2×2.
6. [Escribir texto]
El objetivo de un diseño factorial es estudiar el efecto de varios factores sobre una o varias
respuestas o características de calidad, es decir, lo que se busca es estudiar la relación entre
los factores y la respuesta, con la finalidad de conocer mejor como es esta relación y
generar conocimiento que permita tomar acciones y decisiones que mejoren el desempeño
del proceso. Por ejemplo uno de los objetivos particulares más importantes que en general
tiene un diseño factorial es encontrar nuevas condiciones de operación del proceso que
eliminen o disminuyen cierto problema de calidad en la variable de salida.
Los factores pueden ser de tipo cualitativo (máquinas, tipos de material, operador, la
presencia o ausencia de una operación previa, etc.), o de tipo cuantitativo (temperatura,
humedad, velocidad, presión, etc.). Para poder estudiar la manera en que influye cada factor
sobre la variable de respuesta, es necesario elegir al menos dos niveles de pruebas para cada
uno de ellos (tres máquinas, dos operadores, tres velocidades, dos temperaturas). Con el
diseño factorial completo se corren aleatoriamente en el proceso todas las posibles
combinaciones que pueden formarse con los niveles seleccionados.
DEFINICIONES:
Diseño factorial: Diseño experimental que sirve para estudiar el efecto individual y de
interacción de varios factores sobre una o varias respuestas.
Factor cualitativo: Sus niveles toman valores discretos o de tipo nominal que no pueden
ser fracciones. Ejemplos: máquinas, lotes, marcas, etc.
Factor cuantitativo: Sus niveles de prueba pueden tomar cualquier valor dentro de cierto
intervalo. La escala es continua, como por ejemplo temperatura, velocidad, presión, etc.
Arreglo factorial: Conjunto de puntos experimentales o tratamientos que pueden formarse
al considerar todas las posibilidades de combinación de los niveles de los factores.
Efecto de un factor: Es el cambio observado en la variable de respuesta debido a un cambio
de nivel en el factor.
Efecto principal: Es igual a la respuesta promedio observada en el nivel alto de un factor
menos la respuesta promedio en el nivel bajo.
Efecto de interacción: Dos factores interactúan significativamente sobre la variable de
respuesta cuando el efecto de uno depende del nivel en que está el otro.
VENTAJAS DE LOS DISEÑOS FACTORIALES:
1. Son diseños que se pueden aumentar para formar diseños compuestos en caso de
que se requiera una exploración más completa.
7. [Escribir texto]
2. Se pueden corres fracciones de diseños factoriales, las cuales son de gran utilidad en
las primeras etapas de una investigación que involucra a muchos factores, cuando
interesa descartar de manera económica los que no son importantes, antes de hacer
un estudio más detallado con los factores que sí son importantes
3. Pueden utilizarse en combinación con diseños de bloques en situaciones en las que
no puede correrse todo el diseño factorial completo bajo las mismas condiciones o
circunstancias.
4. La interpretación y cálculo de los efectos en los experimentos factoriales se puede
hacer con aritmética elemental, en particular cuando cada factor se prueba en dos
niveles.
1.1.1 DISEÑO FACTORIAL GENERAL
Considere f factores A, B, C,…, K con niveles a, b, c,…, k respectivamente, donde la
letra K denota al f-ésimo o último factor del conjunto a estudiar, no necesariamente al
décimoprimero que es lugar de esta letra en el alfabeto. Con estos niveles y factores se
puede construir el diseño factorial general a x b x … x k, que consiste de a x b x … x k
tratamientos o puntos de prueba. Con este diseño se pueden estudiar f efectos
principales, f(f-1)/2 interacciones dobles, f(f-1)(f-2)/(3 x 2) interacciones triples, y así
sucesivamente hasta la única interacción de los f factores (ABC…K). el cálculo del
número de interacciones de cierta cantidad m de factores se hace mediante la operación
“combinaciones de f en m“ que cuenta el número de
maneras diferentes de seleccionar m factores de los f, donde f! = f x (f-1) x … x 2 x 1.
En resumen con el factorial general descrito se pueden estudiar los siguientes 2f
– 1
efectos.
1.1.2 PASOS PARA EL ANÁLISIS FACTORIAL
8. [Escribir texto]
Primer paso: Objetivos del análisis factorial
El punto de comienzo en el análisis factorial es el problema objeto de investigación. El
propósito general de las técnicas analíticas de factores es encontrar una manera de resumir
la información contenida en una serie de variables originales en una serie mas pequeña de
dimensiones compuestas o factores nuevos con una mínima perdida de datos.
Las técnicas del análisis factorial pueden satisfacer cualquiera de estos 2 objetivos:
1. La identificación de estructura mediante el resumen de datos
2. La reducción de datos
1. La identificación de estructura mediante resumen de datos
El análisis factorial puede identificar la estructura de las relaciones entre las variables
mediante la investigación de las correlaciones entre las variables. Por ejemplo supongamos
que tenemos 100 encuestados basados en 10 características. Si el objetivo de la
investigación fuera el resumen de las características, se aplicara el análisis factorial a una
matriz de correlación de las variables. A este tipo de análisis factorial se le conoce como
análisis factorial R. Éste analiza una serie de variables para identificar las dimensiones que
son latentes (que no son fáciles de observar). También se puede aplicar el análisis factorial
a la matriz de correlación de los encuestados individuales basada en sus características. A
éste tipo se le denomina análisis factorial Q, siendo un método para combinar grandes
grupos de personas en grupos claramente diferentes dentro de una población mayor. Pero
generalmente para analizar este tipo de cuestiones se utiliza el tipo de análisis cluster.
2. Reducción de datos
El análisis factorial también puede: identificar las variables suplentes de una serie de
variables más grande para su utilización en análisis de multivariantes posteriores o crear
una serie de valores completamente nueva, mucho más pequeña en número, para
9. [Escribir texto]
reemplazar parcial o completamente la serie original de variables para su inclusión en
técnicas posteriores. En ambos casos el propósito es retener la naturaleza y el carácter de
las variables originales, pero reducir su número.
El resumen de datos hace que la identificación de los factores sean fines de por sí; las
estimaciones de los factores y las contribuciones de cada variable a los factores constituyen
todo lo que se necesita para el análisis.
Segundo paso: El diseño de un análisis factorial
El diseño de un análisis factorial implica tres decisiones básicas:
1. Cálculo de datos de entrada
2. El diseño de estudio en termino de numero de variables, las propiedades de
medición y los tipos permisibles
3. El tamaño de muestra
1. Las correlaciones entre las variables
La primera decisión en el diseño se concentra en la aproximación que se usa para calcular
la matriz de correlación tanto para el análisis de tipo R como para el del tipo Q. el
investigador puede ocupar la matriz de datos de entrada a partir del cálculo de las
correlaciones entre las variables, empleando el análisis del tipo R. el investigador también
pude elegir la matriz de correlación de las correlaciones entre los encuestados individuales.
En este tipo de análisis, el resultado será una matriz factorial que identifica sujetos
similares.
2. La selección de variables y cuestiones de medición
Ahora es necesario abordar 2 preguntas: ¿Cómo se miden las variables? Y ¿Cuántas
variables deberían ser? Se supone que las variables a incluir en el análisis tienen escala
métrica. En algunos casos, se pueden utilizar variables ficticias (codificadas 0-1), aunque se
consideran como no métricas.
Además, el investigador debe intentar minimizar el número de variables que se incluyen;
no obstante, debe mantener un numero razonable de variables por factor. Si se está
diseñando un estudio para valorar una estructura propuesta, el investigador deberá incluir
varias variables (cinco o más) que deban representar cada factor propuesto.
3. Tamaño muestral
10. [Escribir texto]
Generalmente el investigador no usara el análisis factorial para una muestra inferior a 50
observaciones, y preferiblemente el tamaño muestral debería ser 100 o más grande. Como
regla general, el mínimo es tener por lo menos un número de observaciones cinco veces
mayor que el número de variables a ser analizadas.
Tercer paso: Supuestos en el análisis factorial
Los supuestos básicos subyacentes del análisis factorial son más de tipo conceptual que
estadístico. Desde un punto de vista estadístico, se pueden obviar supuestos de normalidad,
homocedasticidad y linealidad siendo consientes de que su incumplimiento produce una
disminución en las correlaciones observadas. En realidad, solo es necesaria la normalidad
cuando se aplica una prueba estadística a la significación de los factores; sin embargo,
raramente se utilizan estas pruebas. De hecho es deseable que haya cierto grado de
multicolinealidad, dado que el objetivo es identificar series de variables interrelacionadas.
Adicionalmente a las bases estadísticas para las correlaciones de la matriz de datos, el
investigador tiene que asegurarse también de que la matriz tiene suficientes correlaciones
para justificar la aplicación de dicho análisis. Si la inspección visual revela que no hay
número sustancial de correlaciones mayores a 0.30, entonces el análisis es inapropiado.
Otra manera de determinar la conveniencia del análisis es examinar la matriz de correlación
entera. El contraste de esfericidad de Bartlett, una prueba estadística para la presencia de
correlaciones entre variables, es una de estas herramientas. Proporciona la probabilidad
estadística de que la matriz de correlación de las variables sea una matriz identidad.
Otra medida para cuantificar el grado de intercorrelaciones entre las variables y la
conveniencia del análisis es la medida de suficiencia de muestreo (MSA). Este índice se
extiende de 0 a 1, llegando a 1 cuando cada variable es perfectamente predicha sin error por
las otras variables.
Los supuestos conceptuales que subyacen en el análisis factorial se relacionan con la serie
de variables seleccionadas y la muestra elegida. Un supuesto básico del análisis factorial es
que existe una estructura subyacente en la serie de variables seleccionadas. Es
responsabilidad del investigador asegurarse de que las pautas observadas sean validas y
conceptualmente apropiadas para utilizar el análisis factorial.
Cuarto paso: La estimación de los factores y la valoración del ajuste general
Una vez que se especifican las variables y se separa la matriz de correlación, ya se está
preparado para aplicar el análisis factorial que identifique la estructura subyacente de las
relaciones. Para realizar esta operación, es necesario tomar decisiones con respecto a: el
método de extracción de los factores; y el número de factores seleccionados para
11. [Escribir texto]
representar la estructura subyacente de los datos. La selección del método depende del
objetivo del investigador. Se utiliza el análisis de componentes principales cuando el
objetivo es resumir la mayoría de la información original (varianza) en una cantidad
mínima de factores con propósitos de predicción. Por el contrario, se utiliza el análisis
factorial común para identificar los factores subyacentes o las dimensiones que reflejan qué
es lo que las variables comparten en común.
El análisis factorial común frente a análisis de componentes
El investigador puede usar dos modelos básicos para obtener soluciones factoriales. Estos
se conocen como análisis factorial común y análisis de componentes principales. Con el fin
de seleccionar el modelo apropiado, en primer lugar el investigador tiene que comprender
las diferencias entre los tipos de varianzas. Para los propósitos del análisis factorial, existen
tres tipos de varianza total:
1. Común
2. Especifica (única)
3. Error
Se define la varianza común como aquella que se comparte con todas las otras variables en
el análisis. La varianza específica es aquella asociada solamente con una variable
específica. La varianza de error es aquella que se debe a la poca fiabilidad en el proceso de
recolección de datos, error de medición o componente aleatorio en el fenómeno medido.
El análisis de componentes principales considera la varianza total y estima los factores que
contienen proporciones bajas de la varianza única, y en algunos casos, de la de error.
En el análisis factorial común se incorporan las varianzas compartidas en la diagonal.
La selección de un modelo u otro se basa en 2 criterios:
1. Los objetivos del análisis factorial
2. El grado de conocimiento anterior acerca de las varianzas
El análisis de componentes principales es apropiado cuando el interés principal se centra
en la predicción o el mínimo numero de factores necesarios para justificar la porción
máxima de la varianza representada en la serie de variables original, y cuándo el
conocimiento previo sugiere que la varianza especifica y de error representan una porción
relativamente pequeña de la varianza total. Por el contrario cuando el objetivo es identificar
las dimensiones latentes o las construcciones representadas en las variables originales y el
investigador tiene poco conocimiento acerca de la varianza especifica y de error, lo mas
apropiado es usar el modelo factorial común.
12. [Escribir texto]
Criterios para el cálculo del número de factores a ser extraídos
En general se utilizan los siguientes criterios para la extracción del número de factores:
Criterio de raíz latente. Es la técnica más utilizada por su sencillez. La racionalidad que
se usa es que cualquier factor individual debería justificar la varianza de por lo menos una
única variable. Cada variable contribuye con un valor de 1 para el autovalor total. Por tanto,
sólo se consideran los factores que tienen raíces latentes; explican al menos una variable, se
considera que todos los factores con raíces latentes menores que 1 no son significativas y
por tanto, se desestiman a la hora de incorporarlos a la interpretación.
Criterio a priori. El criterio a priori es un criterio simple y a la vez razonable bajo ciertas
circunstancias. Con su aplicación, el investigador ya sabe cuántos factores hay que extraer
antes de iniciar el análisis factorial. El investigador simplemente instruye al computador
para parar el análisis cuando se haya extraído el número de factores deseado.
Criterio de porcentaje de la varianza. El criterio de porcentaje de varianza es una
aproximación que se basa en obtener un porcentaje acumulado especificado de la varianza
total extraída. El propósito es asegurar una significación práctica de los factores derivados,
asegurando que explican por lo menos una cantidad especificada de la varianza. En las
ciencias naturales, el procedimiento de factores normalmente no debería ser detenido hasta
que los factores extraídos cuenten con por lo menos un 95% de la varianza o hasta que el
factor justifique solamente una pequeña porción (menos del 5%). Por contraste, en las
ciencias sociales, donde la información muchas veces es menos precisa, es normal
considerar una solución que represente un 60% de la varianza total como satisfactoria.
Criterio de contraste de caída. El contraste de caída se utiliza para identificar el número
óptimo de factores que pueden ser extraídos antes de que la cantidad de la varianza única
empiece a dominar en la varianza común. Se estima el contraste de caída con el trazo de
raíces latentes en función del número de factores en su orden de extracción, y se utiliza la
forma de la curva consiguiente para evaluar el punto de corte.
Heterogeneidad de la muestra. La existencia de varianza compartida entre las variables es
el núcleo tanto de los modelos de factores comunes como de los de componentes. Un
supuesto subyacente es que la varianza compartida se extiende a lo largo de toda la
muestra. Si la muestra es heterogénea al menos con respecto a un subconjunto de variables,
los primeros factores representaran aquellas variables que son más homogéneas a lo largo
de toda la muestra. Las variables con mayor capacidad de discriminar entre subconjuntos
muestrales cargaran sobre los últimos factores.
13. [Escribir texto]
Quinto paso: Interpretación de los factores
Para interpretar los factores y seleccionar la solución factorial definitiva se deben seguir
tres pasos.
En primer lugar, se calcula la matriz inicial de factores no rotados para que nos dé una
indicación preliminar acerca del número de factores a extraer. La matriz de factores
contiene las cargas factoriales para cada variable sobre cada factor. Al calcular la matriz de
factores no rotada, el investigador simplemente está interesado en la mejor combinación
lineal de variables, es decir, en encontrar aquella combinación particular de las variables
originales que cuenta con el mayor porcentaje de varianza de los datos. En consecuencia, el
primer factor puede contemplarse como el mejor resumen de las relaciones lineales que los
datos manifiestan.
El segundo factor se define como la segunda mejor combinación lineal de las variables,
sujeta a la restricción de que sea ortogonal al primer factor. Para ser ortogonal al primer
factor el segundo factor debe derivarse de la varianza restante tras la extracción del primer
factor. Así, el segundo factor puede definirse como la combinación lineal de las variables
que da cuenta del mayor porcentaje de la varianza residual una vez se ha eliminado de los
datos el efecto del primer factor. Los factores subsiguientes se definen de forma análoga
hasta haber agotado la varianza de los datos.
Las soluciones factoriales no rotadas alcanzan el objetivo de reducción de los datos, pero el
investigador debe preguntarse si la solución factorial no rotada facilita una información que
ofrezca la interpretación más adecuada de las variables examinadas. La mayor de las veces
no resulta así. La carga factorial es el medio para interpretar la función que cada variable
desempeña al definir cada factor. Las cargas factoriales son la correlación entre cada
variable y el factor. Las cargas indican el grado de correspondencia entre cada variable y el
factor, haciendo una variable con mayor carga representativa del factor. La solución
factorial no rotada puede no dar un patrón significativo de cargas de las variables. Si se
espera que los factores no rotados sean significativos, el usuario puede especificar que la
rotación no se lleve a cabo. Generalmente la rotación es deseable porque simplifica la
estructura de los factores, y habitualmente es difícil determinar si los factores no rotados
serán significativos. Por tanto, el segundo paso hace un uso de un método de rotación para
lograr soluciones factoriales más simples y teóricamente más significativas. En muchos
casos la rotación de los factores mejora la interpretación disminuyendo alguna de las
ambigüedades que a menudo acompañan a las soluciones factoriales inicialmente no
rotadas.
En una tercera etapa, el investigador valora la necesidad de especificar de nuevo el modelo
de factores debido a:
1. La eliminación de variables en el análisis
14. [Escribir texto]
2. El deseo de emplear un método de rotación diferente para la interpretación
3. La necesidad de extraer un numero diferente de factores
4. El deseo de cambiar de un método de extracción a otro
La especificación nueva del modelo factorial viene acompañada de la vuelta a la etapa de
extracción, rotación de factores y de nuevo a su interpretación.
Rotación de factores
Una herramienta importante al interpretar los factores es la rotación de factores. El termino
rotación significa exactamente lo que indica. Concretamente, se giran en el origen los ejes
de referencia de los factores hasta alcanzar una determinada posición. Como se indico
previamente, las soluciones factoriales no rotadas extraen factores según su orden de
importancia. El primer factor tiende a ser un factor general por el que casi toda variable se
ve afectada significativamente dando cuenta del mayor porcentaje de varianza. El segundo
y siguientes factores se basan en la varianza residual. Cada uno explica porcentajes de
varianza cada vez menores. El efecto último de rotar la matriz de factores es redistribuir la
varianza de los primeros factores a los últimos para lograr un patrón de factores más simple
y teóricamente más significativo.
1.1.3 EXTRACCIÓN DE MATRIZ FACTORIAL
ANOVA para el diseño factorial general a x b x … x k
Fuente de Variación Suma de Cuadrados Grados de libertad
Error
SCA
SCK
SCAB
SC(K-1)K
SCABC
SC(K-2)(K-1)K
SCAB…K
SCE
a-1
k-1
(a-1)(b-1)
(l-1)(k-1)
(a-1)(b-1)(c-1)
(m-1)(l-1)(k-1)
(a-1)(b-1)…(k-1)
abc…k(n-1)
15. [Escribir texto]
Total SCT (abc…kn)-1
La suma de cuadrados totales está dada por
Donde N = abc … kn es el total de observaciones en el experimento; los subíndices k y m
representan al tercero y último factor, respectivamente.
Las sumas de cuadrados de efectos son:
16. [Escribir texto]
Finalmente, la suma de cuadrado del error se calcula por
Sólo en el caso irreal de que todos los posibles efectos en el factorial general estén activos,
es necesario realizar al menso dos réplicas del experimento. En las situaciones reales se
replican al menso dos veces (y no siempre) sólo los diseños factoriales consistentes de 16 o
menos puntos de prueba.
17. [Escribir texto]
CAPITULO II
DISEÑO FACTORIAL CON DOS FACTORES
CAPITULO II
DISEÑO FACTORIAL CON DOS FACTORES
2.1 PRESENTACIÓN DEL MODELO
El modelo de diseño de experimentos con dos factores tratamiento con interacción se
conoce como modelo completo de dos vías o modelo de análisis de la varianza de dos
vías.
Para presentar las formulas generales para el análisis de varianza de un experimento de dos
factores que utiliza observaciones repetidas en un diseño por completo aleatorio, debe
18. [Escribir texto]
considerarse el caso de n repeticiones de las combinaciones del tratamiento, determinadas
por α niveles del factor A y b niveles del factor B. las observaciones pueden clasificarse
usando un arreglo rectangular, donde los renglones representan los niveles del factor A; y
las columnas, los factor B. Cada combinación de tratamiento define una celda del arreglo.
Así, se tienen ab celdas, cada una de las cuales contiene n observaciones. Se denota con
la k-èsima observación en el i-èsimo nivel del factor A y el j-èsimo nivel del factor B.
Modelo matemático.
El modelo matemático asociado al diseño de dos factores-tratamiento con interacción y
replicado es el siguiente:
Para cada
i = 1,2,...,a; j = 1,2,...,b; k = 1,2,...,n,
Con restricciones
Donde:
: Es la media general.
: Es el efecto (positivo o negativo) debido al i-ésimo nivel del factor A.
: Es el efecto (positivo o negativo) del j-ésimo nivel del factor B.
: Representa al efecto de interacción en la combinación ij.
: Es el error aleatorio que supone sigue una distribución con media cero
y varianza constante y son independientes entre si.
2.1.2 ESTIMACIÓN DE PARAMETROS
19. [Escribir texto]
Los parámetros del modelo se obtienen por mínimos cuadrados, técnica que se basa en
minimizar la suma de los cuadrados de los residuos.
Simbólicamente la identidad de cuadrados se escribe así:
SST = SSA + SSB +SS(AB) + SSE
Donde SSA y SSB denominan la suma de cuadrados para los efectos principales A y B,
respectivamente, SS(AB) recibe el nombre de suma de cuadrados de la interacción para A y
B, y SSE es la suma de errores al cuadrado. La participación de los grados de libertad se
efectúa de acuerdo con la identidad
*Suma de todas las observaciones
*Media global
*Total en el nivel i del factor A
*Media en el nivel i del factor A
*Total en el nivel j del factor B
20. [Escribir texto]
*Media en el nivel i del factor B
2.2.3 C
TABLA ANOVA PARAMETROS
Fuente Suma de cuadrados Suma de
cuadrados M.
Efecto
A
a – 1
Efecto
B
b – 1
Efecto
AB
(a-1)(b-
1)
Error ab(n-1)
Total abn-1
Manejo de pruebas de hipótesis
*Hipótesis para el efecto A
21. [Escribir texto]
La hipótesis nula se rechaza al nivel e significancia cuando
*Hipótesis para el efecto B
La hipótesis se rechaza al nivel e significancia cuando
*Hipótesis para el efecto AB
La hipótesis se rechaza al nivel e significancia
cuando
2.2.4 Ejemplo:
“En la tabla adjunta se presentan los tiempos, en minutos, de conexión con una
dirección de internet desde cuatro puntos geográficos de una región y en tres horas
determinadas. El experimento se repetía cuatro veces y era diseñado para estudiar la
influencia del factor “hora de conexión” y el factor “lugar de la conexión” en la variable
de interés “tiempo de conexión”.
Analizar estos datos y estudiar la influencia de los dos factores.”
Lugar A Lugar B Lugar C Lugar D
Hora 1 0'
31 0'
45
0'
46 0'
43
0'
82 1'
10
0'
88 0'
72
0'
43 0'
45
0'
63 0'
76
0'
45 0'
71
0'
66 0'
62
25. [Escribir texto]
CAPÍTULO III
DISEÑO FACTORIAL CON TRES FACTORES
3.1.2 ESTIMACION DE LOS PARAMETROS DEL MODELO DE EFECTOS FIJOS
Cuando se tiene tres factores (A B y C) y el numero de niveles de prueba en cada uno de
ellos son a, b y c, se puede construir el arreglo factorial a*b*c, que consiste de a*b*c
tratamientos o puntos experimentales. Entre los arreglos de este tipo que se utilizan con
frecuencia entre aplicaciones diversas se encuentra. El factorial 23
, el factorial 33
y los
factoriales mixtos con no más de cuatro niveles en dos de los factores, por ejemplo, el
factorial 4*3*2 y el factorial 4*4*2 por mencionar dos de ellos.
El estudio factorial de tres factores (A, B y C) permitir investigar los efectos: A, B, C, AB,
AC, BC y ABC, donde el nivel de desglose o detalle con el que pueden estudiarse depende
el número de niveles utilizado en cada factor. Por ejemplo, si un factor se prueba en dos
niveles todo su efecto marginal (individual) es lineal, o sea que su efecto individual no se
pueda descomponer; pero si tuviera tres niveles, su efecto marginal se puede descomponer
en una parte lineal y otra cuadrática pura.
3.2.3 CUADRO DE ANALISIS DE VARIANZA
Tabla ANOVA Para el diseño factorial a*b*c
FV SC GL CM F0 Valor-p
Efecto A SCA a-1 CMA CMA/CME P(F> F0
A
)
Efecto B SCB b-1 CMB CMB/CME P(F> F0
B
)
Efecto C SCC c-1 CMC CMC/CME P(F> F0
C
)
Efecto AB SCAB (a-1)(b-1) CMAB CMAB/CME P(F> F0
AB
)
Efecto AC SCAC (a-1)(c-1) CMAC CMAC/CME P(F> F0
AC
)
Efecto BC SCBC (b-1)(c-1) CMBC CMBC/CME P(F> F0
BC
)
26. [Escribir texto]
Efecto ABC SCABC (a-1)(b-1)(c-1) CMABC CMABC/CME P(F> F0
ABC
)
Error SCE abc(n-1) CME
Total SCT abcn-1
donde:
FV: Fuente de Variación.
SC: Suma de Cuadrados.
GL: Grados de Libertad.
CM: Cuadrado Medio.
FO: f Fisher calculado.
Al efecto cuyo valor-p sea menor al valor especificado para ∞, se declara estadísticamente
significativo o se dice que está activo. El ANOVA de tres factores dado en la tabla anterior
tiene cuatro renglones adicionales, por los nuevos cuatro efectos que pueden estudiarse. Las
sumas de cuadrados son muy similares a las obtenidas para dos factores.
FORMULAS
Suma de Cuadrados
Las sumas de cuadrados son muy similares a las obtenidas para dos factores; habrá que
considerar un subíndice adicional para el tercer factor, comenzando otra vez por la suma de
cuadrados total, éstas resultan ser:
∑∑∑∑= = = =
−=
a
i
b
j
c
k
n
l
ijkT
N
SC
1 1 1 1
2
...2
,
γ
γ
donde:
N = abcn es el total de observaciones en el experimento; el subíndice k representa ahora el
tercer factor y l las repeticiones. Las sumas de cuadrados de efectos son:
27. [Escribir texto]
Restando éstas del total, la suma de cuadrados del error resulta ser:
ABCBCACABCBATE SCSCSCSCSCSCSCSCSC −−−−−−−=
Cuyos respectivos grados de libertad se dan en la tabla ANOVA anterior. Una vez hecho el
ANOVA, se procede a interpretar los efectos activos, y luego (aunque no necesariamente
después) a diagnosticar la calidad del modelo.
28. [Escribir texto]
Cuadrado Medio
Donde:
CM = Cuadrado Medio del efecto
SC = Suma de cuadrado del efecto
GL = Grados de libertad del efecto
Modelo estadístico
En un diseño factorial a*b*c se supone que el comportamiento de la respuesta Y puede
describirse mediante el modelo de efectos dado por:
Yijkl = μ +ai + βj + γk + (αβ)ij + (αγ)ik + (βγ)jk + (αβγ)ijk + εijkl;
I=1,2,…,a; j=1,2,…,b; k=1,2,…,c; l=1,2,…,n
Donde:
μ = media general
αi = efecto del nivel i-ésimo del factor A
βj = efecto del nivel j del factor B
γk = efecto del nivel k en el factor C
(αβ)ij, (αγ)ik, (βγ)jk = efectos de interacciones dobles (de dos factores) en los niveles ij, ik, jk,
respectivamente.
(αβγ)ijk : efecto de interacción triple en la combinación o punto ijk
εijkl : error aleatorio en la combinación ijkl
l : repeticiones o replicas del experimento
Todos los efectos cumplen la restricción de sumar cero, es decir, son desviaciones respecto
a la medida general μ.
29. [Escribir texto]
3.2.4 MANEJO DE HIPÓTESIS Y SUS CONDICIONES
El estudio factorial de tres factores (A,B,C) permite investigar los efectos
A,B,C,AB,AC,BC y ABC donde el nivel de desglose o detalle con el que puede estudiarse
depende del número de niveles utilizado en cada factor. Por ejemplo si un factor se prueba
en dos niveles, todo su efecto marginal es lineal, o sea que su efecto individual no se puede
descomponer; pero si tuviera tres niveles, su efecto marginal se puede descomponer en una
parte lineal y otra cuadrática pura.
Hipótesis nula Valor del estadístico de prueba Región de rechazo
H 0A: todas las = 0
H 0AB: todas las
H0ABC: todas las
En resumen se tienen siete efectos de interés sin considerar el desglose y con ellos se
pueden plantear las siete hipótesis nulas:
1. H0: Efecto A = 0
2. H0: Efecto B = 0
3. H0: Efecto C = 0
4. H0: Efecto AB = 0
5. H0: Efecto AC = 0
6. H0: Efecto BC = 0
7. H0: Efecto ABC = 0
3.2.5 EJEMPLO EXPLICADO
Se desea investigar el efecto del tipo de suspensión (A), abertura de malla (B) y temperatura
de ciclaje (C) en el volumen de sedimentación Y(%) de una suspensión. Para ello se decide
correr un experimento factorial 3*2*2 con seis réplicas, y las observaciones obtenidas en
las 72 corridas experimentales se muestran en la siguiente tabla:
A1 A2 A3
B1 B1 B1 B1 B1 B1
C1 60 75 75 67 73 73 62 68 65 71 80 80 76 71 75 75 75 75
86 70 70 67 68 68 76 65 65 72 80 80 70 68 73 75 75 77
C2 55 53 53 52 52 57 44 44 45 60 60 60 52 51 50 56 55 57
55 55 55 52 54 54 48 48 45 67 67 65 52 48 54 59 50 55
a = 3
b = 2
c = 2
30. [Escribir texto]
n = 6
1. H0: Efecto A es considerablemente influyente en los resultados.
2. H0: Efecto B es considerablemente influyente en los resultados.
3. H0: Efecto C es considerablemente influyente en los resultados.
4. H0: Efecto AB es considerablemente igual en conjunto.
5. H0: Efecto AC es considerablemente igual en conjunto.
6. H0: Efecto BC es considerablemente igual en conjunto.
7. H0: Efecto ABC es considerablemente igual en conjunto.
Suma de Cuadrados (SC)
34. [Escribir texto]
Tabla ANOVA
FV SC GL CM FO FTABLAS Conclusión
A: Tipo 13.86 2 6.93 0.49 3.15 ACEPTA
B: Abertura 480.5 1 480.5 34.25 4 RECHAZA
C: Temperatura 6086.72 1 6086.72 433.90 4 RECHAZA
AB 788.25 2 394.12 28.10 3.15 RECHAZA
AC 40.86 2 20.43 1.46 3.15 ACEPTA
BC 56.89 1 56.89 4.06 4 RECHAZA
ABC 31.03 2 15.51 1.11 3.15 ACEPTA
Error 841.66 60 14.03
Total 8339.78 71
Conclusiones
1. Ho se rechaza, la temperatura de ciclaje si influye.
2. Ho se rechaza, la abertura de la malla si influya.
3. Ho se acepta, el tipo de suspensión no influye.
4. Ho se rechaza la temperatura de ciclaje no es igual a la abertura de la malla en
conjunto.
5. Ho se acepta, la temperatura de ciclaje es igual al tipo de suspensión en conjunto.
6. Ho se rechaza, la abertura de la malla no es igual al tipo de suspensión en conjunto.
7. Ho se acepta, los tres factores en conjunto se comportan en forma similar.
35. [Escribir texto]
CONCLUSION
Un diseño factoriales aquel en el que el conjunto de tratamientos esta conformado por todas
las posibles combinaciones de los distintos niveles de los factores involucrados
Los mayores beneficios de los diseños factoriales completos se obtienen cuando se deben
estudiar pocas variables. El motivo es que el número de experimentos crece
exponencialmente con el número de factores.
Los diseños factoriales completos son la estrategia experimental óptima para estudiar
simultáneamente el efecto de varios factores sobre la respuesta y sus interacciones. Por su
potencia y sencillez, su campo de aplicación es muy amplio:
- Identificar qué variables influyen en una reacción, para luego poder optimizarlas hasta
alcanzar el rendimiento deseado, o para disminuir el tiempo de reacción.
-Decidir qué se debe ajustar en el nuevo proceso de fabricación para que no se produzcan
tantos productos fuera de especificaciones.
- Estudiar en qué condiciones el proceso es más robusto a pequeñas variaciones de
temperatura, humedad, etc.