SlideShare una empresa de Scribd logo
1 de 3
Descargar para leer sin conexión
ANOVA simple


Contraste de ANOVA

El ANOVA simple trata de analizar si dos variables Y (continua, llamada
variable respuesta) y F (categ´rica, llamada factor), son independientes
                                  o
o no (es decir, si hay relaci´n entre ellas, si hay diferencias significativas en
                             o
el valor de la primera seg´n el valor que tome la segunda, si el factor influye
                          u
en la variable respuesta, etc.). Por ejemplo, podemos pensar en la variable
Y como el tiempo que tarda en curar un paciente, y en el factor F como
el medicamento que se le administra. Si consideramos que el factor tiene k
valores posibles, que representamos por F1 , . . . , Fk , y que llamamos niveles
del factor (por ejemplo, en el ejemplo anterior podemos pensar que hay k
medicamentos posibles), entonces la hip´tesis que se contrasta es:
                                          o

                           H 0 : µ1 = µ2 = · · · = µk
                          H1 : alguna µi es distinta

donde µ1 , . . . , µk representan las medias correspondientes a cada nivel del
factor (si Y es el tiempo de curaci´n y F el tipo de medicamento, entonces
                                      o
µ1 ser´ el tiempo medio que tardan en curar los pacientes a los que se les ad-
      ıa
ministr´ el medicamento F1 , etc). Observemos que, si aceptamos H0 , estamos
        o
diciendo que en todos los casos la media de Y es la misma independientemente
del valor del factor, y por tanto que Y y F son independientes (por ejemplo,
que el tiempo medio de curaci´n es el mismo siempre, y por lo tanto que el
                                   o
tipo de medicamento no influye especialmente en el tiempo de cura). La media
conjunta de todos los datos se llama media global, µ. En caso de aceptar
H0 , estaremos aceptando no s´lo la igualdad entre las µi , sino tambi´n que
                                  o                                    e
todas las µi son iguales a la media global, µ.

Para contrastar H0 , utilizaremos la noci´n de variabilidad, que esencialmente
                                         o
coincide con la de dispersi´n. Para medir la variabilidad de los datos Yij (el
                             o
primer sub´ındice, i, indica el nivel de factor al que pertenece el dato, y el
segundo, j, el orden que ocupa el dato dentro de los recogidos en ese nivel)
utilizaremos la suma de cuadrados totales (SCT), y la descompondremos
en suma de dos: suma de cuadrados residual o intra-grupos (SCR),
que tiene que ver con la variabilidad dentro de cada nivel de factor, y la
suma de cuadrados explicada o entre-grupos (SCR), que tiene que
ver con las diferencias entre la media de cada factor, y la media global. M´s
                                                                            a
concretamente, se cumple:


                                       1
(Yij − µ)2 =     (Yij − µi )2 +   (µi − µ)2
                      SCT              SCR             SCE


Claramente, si H0 es cierta, entonces SCE ser´ peque˜a frente a SCT. De
                                                 a       n
hecho, se llama porcentaje de variabilidad explicada a (SCE/SCT )·100.
En general, podemos decir que H0 ser´ aceptada si el porcentaje anterior no
                                       a
es demasiado alto. Si es suficientemente alto, entenderemos que el factor que
hemos introducido est´ realmente explicando las diferencias que observamos
                        a
entre los valores de la variable Y , y por tanto que efectivamente hay cierta
relaci´n entre Y y F , con lo cu´l H0 es falsa. Observemos tambi´n que si
      o                            a                                  e
H0 se rechaza, ello no implica que todas las µi sean distintas entre s´ sino
                                                                         ı,
simplemente que alguna(s) de ellas es diferente a las dem´s. De hecho, pueden
                                                          a
localizarse los diferentes grupos que aparecen entre los niveles del factor (i.e.
las medias que se consideran similares entre s´ mediante la opci´n Contraste
                                              ı)                  o
m´ltiple de rango, de Statgraphics.
  u

Las diferencias que aparecen entre los datos, y que no son explicadas por el fac-
tor introducido, se consideran debidas al azar. Se llama error experimental
a la parte de la variabilidad de los datos debida al azar. Puede estimarse como
la ra´ cuadrada de la suma de cuadrados medios intra-grupos, que aparece
     ız
en la tabla de ANOVA (esta tabla la proporciona Statgraphics).

Modelo de ANOVA

En el modelo de ANOVA se supone que cada observaci´n Yij puede expresarse
                                                         o
como
                            Yij = µi + ij = µ + αi + ij
A los valores ij se les llama residuos, y se corresponden con las desviaciones
de cada dato respecto a la media del nivel del factor al que pertenecen (µi ); se
consideran debidos al azar. Los valores αi se llaman efectos de cada nivel (αi
es el efecto del nivel i, etc.) y se consideran una medida de la “tendencia” que
tienen los datos a desviarse de la media global, seg´n el nivel del factor al que
                                                     u
pertenezcan (por ejemplo, en el caso del tiempo de curaci´n, el efecto de cada
                                                            o
medicamento ser´ una medida del “adelanto” o “retraso” en cuanto al tiempo
                  ıa
medio de curaci´n que supone la administraci´n de uno u otro medicamento).
                 o                                o
Los efectos se calculan como

                                   αi = µi − µ

Adem´s, en t´rminos de los efectos, las hip´tesis nula y alternativa que se
      a      e                             o
contrastan en el ANOVA, pueden enunciarse como

                         H0 : α1 = α2 = · · · = αk = 0
                               H1 : alg´n αi = 0
                                       u


                                       2
Hip´tesis del modelo: Para que lo anterior “funcione”, es necesario que las
      o
  variables y los datos cumplan ciertos requisitos:

  (i) Y es normal en cada nivel de factor.
 (ii) La varianza es la misma en cada nivel de factor (homocedasticidad).
(iii) Independencia de las observaciones. Tiene que ver con que no haya ning´n    u
      factor que altere el proceso de recogida de datos (por ejemplo, la pereza del
      observador, la posibilidad de que algunos encuestados “pasen informaci´n”  o
      a otros posibles encuestados y se altere de ese modo el resultado, etc.). En
      la pr´ctica, se comprueba contrastando si los residuos son aleatorios (lo cu´l
            a                                                                      a
      requiere guardarlos primero, utilizando la opci´n apropiada de Statgraph-
                                                      o
      ics).

  Las condiciones anteriores implican que los residuos siguen una distribuci´n
                                                                            o
  normal de media 0 y desviaci´n t´
                                o ıpica igual a la observada en cada nivel de
  factor, y son independientes unos de otros (i.e. son aleatorios).

  Si alguna de las hip´tesis de arriba falla, las conclusiones del ANOVA son
                      o
  dudosas.

  Contraste de Kruskal-Wallis: Este es un contraste no-param´trico, que
                                                                    e
  unicamente requiere que la variable Y sea continua. Se trata de un contraste
  ´
  sobre la igualdad de las medianas. Por lo tanto, la hip´tesis nula es, en este
                                                         o
  caso,
                             H0 : M1 = M2 = · · · = Mk
                             H1 : alguna Mi es distinta
  Este contraste utiliza, como otros contrastes no-param´tricos, la noci´n de
                                                          e              o
  rango. La idea es ordenar de menor a mayor todos los datos (mezclando niveles
  de factor distintos), asignar rangos, y comparar despu´s los rangos medios
                                                          e
  correspondientes a los distintos niveles del factor.

  Si las hip´tesis de ANOVA (que hemos descrito arriba) se verifican, este
            o
  contraste proporciona otro m´todo para comprobar esencialmente la misma
                                e
  condici´n. Si alguna de las hip´tesis de arriba falla, este test permite realizar
         o                       o
  con fiabilidad el contraste pedido.




                                          3

Más contenido relacionado

La actualidad más candente

diagnosis de la regresion
diagnosis de la regresiondiagnosis de la regresion
diagnosis de la regresioncarlosjardon
 
Teoría de la decisión
Teoría de la decisiónTeoría de la decisión
Teoría de la decisiónJose Cedeño
 
Distribucion de probabilidades. anibaldiaz
Distribucion de probabilidades. anibaldiazDistribucion de probabilidades. anibaldiaz
Distribucion de probabilidades. anibaldiazanibaldiaz22
 
Trabajo de estadistica
Trabajo de estadistica Trabajo de estadistica
Trabajo de estadistica luce0218
 
trabajo de estadistica
 trabajo de estadistica trabajo de estadistica
trabajo de estadisticaluce0218
 
Anova. presentacion. lennys.
Anova. presentacion. lennys.Anova. presentacion. lennys.
Anova. presentacion. lennys.LennysNJ
 
Inferencia estadistica
Inferencia estadisticaInferencia estadistica
Inferencia estadisticaNico Stroili
 
Distribuciones de Probabilidad
Distribuciones de ProbabilidadDistribuciones de Probabilidad
Distribuciones de ProbabilidadViri_TPerales
 
Bueno de regresion lineal[1]
Bueno de regresion lineal[1]Bueno de regresion lineal[1]
Bueno de regresion lineal[1]EQUIPO7
 
Universidad tecnológica de Torreón Distribuciones
Universidad tecnológica de Torreón DistribucionesUniversidad tecnológica de Torreón Distribuciones
Universidad tecnológica de Torreón DistribucionesCarlos Garcia Godoy
 
Estadistica prueba slideshare
Estadistica prueba slideshareEstadistica prueba slideshare
Estadistica prueba slideshareTecnicoINSST
 
2 prueba z,prueba t student y prueba chi-cuadrado
2 prueba z,prueba t student y prueba chi-cuadrado2 prueba z,prueba t student y prueba chi-cuadrado
2 prueba z,prueba t student y prueba chi-cuadradoRomina Gallegos Ormeño
 
ANALISIS DE VARIANZAS
ANALISIS DE VARIANZASANALISIS DE VARIANZAS
ANALISIS DE VARIANZASWilliam Leon
 
F:\planteamiento de hipótesis en mas de dos poblaciones
F:\planteamiento de hipótesis en mas de dos poblacionesF:\planteamiento de hipótesis en mas de dos poblaciones
F:\planteamiento de hipótesis en mas de dos poblacionesLizeth
 

La actualidad más candente (20)

Analisis de la varianza Est ind clase04
Analisis de la varianza Est ind clase04Analisis de la varianza Est ind clase04
Analisis de la varianza Est ind clase04
 
Segunda unidad de estadistica
Segunda unidad de estadisticaSegunda unidad de estadistica
Segunda unidad de estadistica
 
diagnosis de la regresion
diagnosis de la regresiondiagnosis de la regresion
diagnosis de la regresion
 
Estadística aplicada a la educación superior
Estadística aplicada a la educación superiorEstadística aplicada a la educación superior
Estadística aplicada a la educación superior
 
Teoría de la decisión
Teoría de la decisiónTeoría de la decisión
Teoría de la decisión
 
Distribucion de probabilidades. anibaldiaz
Distribucion de probabilidades. anibaldiazDistribucion de probabilidades. anibaldiaz
Distribucion de probabilidades. anibaldiaz
 
Trabajo de estadistica
Trabajo de estadistica Trabajo de estadistica
Trabajo de estadistica
 
trabajo de estadistica
 trabajo de estadistica trabajo de estadistica
trabajo de estadistica
 
Anova. presentacion. lennys.
Anova. presentacion. lennys.Anova. presentacion. lennys.
Anova. presentacion. lennys.
 
Inferencia estadistica
Inferencia estadisticaInferencia estadistica
Inferencia estadistica
 
Distribuciones de Probabilidad
Distribuciones de ProbabilidadDistribuciones de Probabilidad
Distribuciones de Probabilidad
 
Variable aleatoria
Variable aleatoriaVariable aleatoria
Variable aleatoria
 
Bueno de regresion lineal[1]
Bueno de regresion lineal[1]Bueno de regresion lineal[1]
Bueno de regresion lineal[1]
 
Distribuciones
DistribucionesDistribuciones
Distribuciones
 
Elementos de inferencia
Elementos de inferenciaElementos de inferencia
Elementos de inferencia
 
Universidad tecnológica de Torreón Distribuciones
Universidad tecnológica de Torreón DistribucionesUniversidad tecnológica de Torreón Distribuciones
Universidad tecnológica de Torreón Distribuciones
 
Estadistica prueba slideshare
Estadistica prueba slideshareEstadistica prueba slideshare
Estadistica prueba slideshare
 
2 prueba z,prueba t student y prueba chi-cuadrado
2 prueba z,prueba t student y prueba chi-cuadrado2 prueba z,prueba t student y prueba chi-cuadrado
2 prueba z,prueba t student y prueba chi-cuadrado
 
ANALISIS DE VARIANZAS
ANALISIS DE VARIANZASANALISIS DE VARIANZAS
ANALISIS DE VARIANZAS
 
F:\planteamiento de hipótesis en mas de dos poblaciones
F:\planteamiento de hipótesis en mas de dos poblacionesF:\planteamiento de hipótesis en mas de dos poblaciones
F:\planteamiento de hipótesis en mas de dos poblaciones
 

Destacado (15)

Tema 11 ejercicio para colgar en el blog
Tema 11   ejercicio para colgar en el blogTema 11   ejercicio para colgar en el blog
Tema 11 ejercicio para colgar en el blog
 
Manual cto 6ed epidemiología y estadística
Manual cto 6ed   epidemiología y estadísticaManual cto 6ed   epidemiología y estadística
Manual cto 6ed epidemiología y estadística
 
Tutorial anova
Tutorial anovaTutorial anova
Tutorial anova
 
Análisis de-varianza-de-un-factor
Análisis de-varianza-de-un-factorAnálisis de-varianza-de-un-factor
Análisis de-varianza-de-un-factor
 
Anova2
Anova2Anova2
Anova2
 
Analisis de varianza de un factor con Excel – tutorial
Analisis de varianza de un factor con Excel – tutorialAnalisis de varianza de un factor con Excel – tutorial
Analisis de varianza de un factor con Excel – tutorial
 
T student2
T student2T student2
T student2
 
7. Análisis de Varianza (ANOVA)
7. Análisis de Varianza (ANOVA) 7. Análisis de Varianza (ANOVA)
7. Análisis de Varianza (ANOVA)
 
Análisis de la varianza (ANOVA)
Análisis de la varianza (ANOVA)Análisis de la varianza (ANOVA)
Análisis de la varianza (ANOVA)
 
Diapositivas sobre las variables e hipótesis en la investigación
Diapositivas sobre las variables e hipótesis en la investigaciónDiapositivas sobre las variables e hipótesis en la investigación
Diapositivas sobre las variables e hipótesis en la investigación
 
Análisis de Varianza (ANOVA)
Análisis de Varianza (ANOVA)Análisis de Varianza (ANOVA)
Análisis de Varianza (ANOVA)
 
Análisis de Varianza
Análisis de VarianzaAnálisis de Varianza
Análisis de Varianza
 
Bioestadística para enfermeros, generalidades
Bioestadística para enfermeros, generalidadesBioestadística para enfermeros, generalidades
Bioestadística para enfermeros, generalidades
 
Las hipotesis y las variables
Las hipotesis y las variablesLas hipotesis y las variables
Las hipotesis y las variables
 
Variables dependientes e independientes en el método científico
Variables dependientes e independientes en el método científicoVariables dependientes e independientes en el método científico
Variables dependientes e independientes en el método científico
 

Similar a Anova Simple

Anova multifactorial (1)
Anova multifactorial (1)Anova multifactorial (1)
Anova multifactorial (1)nicoohi
 
Prueba de Hipótesis y Relaciones Estadisticas
Prueba de Hipótesis y Relaciones EstadisticasPrueba de Hipótesis y Relaciones Estadisticas
Prueba de Hipótesis y Relaciones EstadisticasJuan Timana
 
SERIES BIDIMENSIONALES Y CRONOLÓGICAS
SERIES BIDIMENSIONALES Y CRONOLÓGICASSERIES BIDIMENSIONALES Y CRONOLÓGICAS
SERIES BIDIMENSIONALES Y CRONOLÓGICASZP Zp
 
Intro. a la Probabilidad_IV parte
Intro. a la Probabilidad_IV parteIntro. a la Probabilidad_IV parte
Intro. a la Probabilidad_IV partePaolo Castillo
 
Estadistica unidad 4
Estadistica unidad 4Estadistica unidad 4
Estadistica unidad 4UBA
 
AnáLisis De Varianza (Anova)
AnáLisis De Varianza (Anova)AnáLisis De Varianza (Anova)
AnáLisis De Varianza (Anova)Diego
 
Planteamiento de hipótesis en más de dos poblaciones
Planteamiento de hipótesis en más de dos poblacionesPlanteamiento de hipótesis en más de dos poblaciones
Planteamiento de hipótesis en más de dos poblacionesguest91e7e85
 
Planteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisherPlanteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisherlaura ochoa
 
Planteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisherPlanteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisherlaura ochoa
 
Planteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisherPlanteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisherlaura ochoa
 
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...Ekthor Daniel R G
 
Unidad III: GENERACION DE NUMEROS ALEATORIOS (SIMULACIÓN)
Unidad III: GENERACION DE NUMEROS ALEATORIOS (SIMULACIÓN)Unidad III: GENERACION DE NUMEROS ALEATORIOS (SIMULACIÓN)
Unidad III: GENERACION DE NUMEROS ALEATORIOS (SIMULACIÓN)Cristina Zavala Palacios
 

Similar a Anova Simple (20)

Anova multifactorial (1)
Anova multifactorial (1)Anova multifactorial (1)
Anova multifactorial (1)
 
Prueba de Hipótesis y Relaciones Estadisticas
Prueba de Hipótesis y Relaciones EstadisticasPrueba de Hipótesis y Relaciones Estadisticas
Prueba de Hipótesis y Relaciones Estadisticas
 
SERIES BIDIMENSIONALES Y CRONOLÓGICAS
SERIES BIDIMENSIONALES Y CRONOLÓGICASSERIES BIDIMENSIONALES Y CRONOLÓGICAS
SERIES BIDIMENSIONALES Y CRONOLÓGICAS
 
Intro. a la Probabilidad_IV parte
Intro. a la Probabilidad_IV parteIntro. a la Probabilidad_IV parte
Intro. a la Probabilidad_IV parte
 
Estadistica unidad 4
Estadistica unidad 4Estadistica unidad 4
Estadistica unidad 4
 
Spss 0702b estadistico
Spss 0702b estadisticoSpss 0702b estadistico
Spss 0702b estadistico
 
Anova
AnovaAnova
Anova
 
AnáLisis De Varianza (Anova)
AnáLisis De Varianza (Anova)AnáLisis De Varianza (Anova)
AnáLisis De Varianza (Anova)
 
Planteamiento de hipótesis en más de dos poblaciones
Planteamiento de hipótesis en más de dos poblacionesPlanteamiento de hipótesis en más de dos poblaciones
Planteamiento de hipótesis en más de dos poblaciones
 
Anova de un factor
Anova de un factorAnova de un factor
Anova de un factor
 
Planteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisherPlanteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisher
 
Planteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisherPlanteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisher
 
Planteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisherPlanteamiento de hipotesis -f fisher
Planteamiento de hipotesis -f fisher
 
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
82253086 unidad-iv-pruebas-de-hipotesis-con-dos-muestras-y-varias-muestras-de...
 
Tema10 prueba t
Tema10 prueba tTema10 prueba t
Tema10 prueba t
 
Estadística II (II Bimestre)
Estadística II (II Bimestre)Estadística II (II Bimestre)
Estadística II (II Bimestre)
 
Statistic for Business
Statistic for BusinessStatistic for Business
Statistic for Business
 
Linear regression correlation coefficient
Linear regression correlation coefficientLinear regression correlation coefficient
Linear regression correlation coefficient
 
Unidad III: GENERACION DE NUMEROS ALEATORIOS (SIMULACIÓN)
Unidad III: GENERACION DE NUMEROS ALEATORIOS (SIMULACIÓN)Unidad III: GENERACION DE NUMEROS ALEATORIOS (SIMULACIÓN)
Unidad III: GENERACION DE NUMEROS ALEATORIOS (SIMULACIÓN)
 
Resumen de estadistica ii
Resumen de  estadistica iiResumen de  estadistica ii
Resumen de estadistica ii
 

Más de Instituto Tecnologico De Pachuca

Más de Instituto Tecnologico De Pachuca (20)

Estudio del trabajo ii valuacion de puestos 2
Estudio del trabajo ii valuacion de puestos 2Estudio del trabajo ii valuacion de puestos 2
Estudio del trabajo ii valuacion de puestos 2
 
Estudio del trabajo ii valuacion de puestos 1
Estudio del trabajo ii valuacion de puestos 1Estudio del trabajo ii valuacion de puestos 1
Estudio del trabajo ii valuacion de puestos 1
 
Estudio del trabajo ii folletos
Estudio del trabajo ii folletosEstudio del trabajo ii folletos
Estudio del trabajo ii folletos
 
Estudio del trabajo ii distribucion de planta
Estudio del trabajo ii distribucion de plantaEstudio del trabajo ii distribucion de planta
Estudio del trabajo ii distribucion de planta
 
Estudio del trabajo ii datos estándar
Estudio del trabajo ii datos estándarEstudio del trabajo ii datos estándar
Estudio del trabajo ii datos estándar
 
Unidad v estudio del trabajo ii
Unidad v estudio del trabajo iiUnidad v estudio del trabajo ii
Unidad v estudio del trabajo ii
 
Eliminar virus de carpetas con accesos directos
Eliminar virus de carpetas con accesos directosEliminar virus de carpetas con accesos directos
Eliminar virus de carpetas con accesos directos
 
Ergonomia ambiental
Ergonomia ambientalErgonomia ambiental
Ergonomia ambiental
 
6.4 diseño de asientos
6.4 diseño de asientos6.4 diseño de asientos
6.4 diseño de asientos
 
6.3 superficie de trabajo
6.3 superficie de trabajo6.3 superficie de trabajo
6.3 superficie de trabajo
 
4.2 temperatura exposicion de ergonomia
4.2 temperatura exposicion de ergonomia4.2 temperatura exposicion de ergonomia
4.2 temperatura exposicion de ergonomia
 
Sociedad de ergonomia & factores humanos
Sociedad de ergonomia & factores humanosSociedad de ergonomia & factores humanos
Sociedad de ergonomia & factores humanos
 
Ergonomía aplicaciones & sistema hombre máquina
Ergonomía aplicaciones & sistema hombre máquina Ergonomía aplicaciones & sistema hombre máquina
Ergonomía aplicaciones & sistema hombre máquina
 
Seguridad & ergonomia en el diseño de maquinas
Seguridad & ergonomia en el diseño de maquinasSeguridad & ergonomia en el diseño de maquinas
Seguridad & ergonomia en el diseño de maquinas
 
Seguridad & ergonomia en el diseño de maquinas
Seguridad & ergonomia en el diseño de maquinasSeguridad & ergonomia en el diseño de maquinas
Seguridad & ergonomia en el diseño de maquinas
 
Ergonomía aplicaciones & sistema hombre máquina
Ergonomía aplicaciones & sistema hombre máquina Ergonomía aplicaciones & sistema hombre máquina
Ergonomía aplicaciones & sistema hombre máquina
 
Manual de normas tecnicas para el diseño ergonomico
Manual de normas tecnicas para el diseño ergonomicoManual de normas tecnicas para el diseño ergonomico
Manual de normas tecnicas para el diseño ergonomico
 
Ergonomia herramientas & enfoques
Ergonomia herramientas & enfoquesErgonomia herramientas & enfoques
Ergonomia herramientas & enfoques
 
Ergonomia & comunicacion
Ergonomia & comunicacionErgonomia & comunicacion
Ergonomia & comunicacion
 
Clasificacion de la ergonomia
Clasificacion de la ergonomiaClasificacion de la ergonomia
Clasificacion de la ergonomia
 

Anova Simple

  • 1. ANOVA simple Contraste de ANOVA El ANOVA simple trata de analizar si dos variables Y (continua, llamada variable respuesta) y F (categ´rica, llamada factor), son independientes o o no (es decir, si hay relaci´n entre ellas, si hay diferencias significativas en o el valor de la primera seg´n el valor que tome la segunda, si el factor influye u en la variable respuesta, etc.). Por ejemplo, podemos pensar en la variable Y como el tiempo que tarda en curar un paciente, y en el factor F como el medicamento que se le administra. Si consideramos que el factor tiene k valores posibles, que representamos por F1 , . . . , Fk , y que llamamos niveles del factor (por ejemplo, en el ejemplo anterior podemos pensar que hay k medicamentos posibles), entonces la hip´tesis que se contrasta es: o H 0 : µ1 = µ2 = · · · = µk H1 : alguna µi es distinta donde µ1 , . . . , µk representan las medias correspondientes a cada nivel del factor (si Y es el tiempo de curaci´n y F el tipo de medicamento, entonces o µ1 ser´ el tiempo medio que tardan en curar los pacientes a los que se les ad- ıa ministr´ el medicamento F1 , etc). Observemos que, si aceptamos H0 , estamos o diciendo que en todos los casos la media de Y es la misma independientemente del valor del factor, y por tanto que Y y F son independientes (por ejemplo, que el tiempo medio de curaci´n es el mismo siempre, y por lo tanto que el o tipo de medicamento no influye especialmente en el tiempo de cura). La media conjunta de todos los datos se llama media global, µ. En caso de aceptar H0 , estaremos aceptando no s´lo la igualdad entre las µi , sino tambi´n que o e todas las µi son iguales a la media global, µ. Para contrastar H0 , utilizaremos la noci´n de variabilidad, que esencialmente o coincide con la de dispersi´n. Para medir la variabilidad de los datos Yij (el o primer sub´ındice, i, indica el nivel de factor al que pertenece el dato, y el segundo, j, el orden que ocupa el dato dentro de los recogidos en ese nivel) utilizaremos la suma de cuadrados totales (SCT), y la descompondremos en suma de dos: suma de cuadrados residual o intra-grupos (SCR), que tiene que ver con la variabilidad dentro de cada nivel de factor, y la suma de cuadrados explicada o entre-grupos (SCR), que tiene que ver con las diferencias entre la media de cada factor, y la media global. M´s a concretamente, se cumple: 1
  • 2. (Yij − µ)2 = (Yij − µi )2 + (µi − µ)2 SCT SCR SCE Claramente, si H0 es cierta, entonces SCE ser´ peque˜a frente a SCT. De a n hecho, se llama porcentaje de variabilidad explicada a (SCE/SCT )·100. En general, podemos decir que H0 ser´ aceptada si el porcentaje anterior no a es demasiado alto. Si es suficientemente alto, entenderemos que el factor que hemos introducido est´ realmente explicando las diferencias que observamos a entre los valores de la variable Y , y por tanto que efectivamente hay cierta relaci´n entre Y y F , con lo cu´l H0 es falsa. Observemos tambi´n que si o a e H0 se rechaza, ello no implica que todas las µi sean distintas entre s´ sino ı, simplemente que alguna(s) de ellas es diferente a las dem´s. De hecho, pueden a localizarse los diferentes grupos que aparecen entre los niveles del factor (i.e. las medias que se consideran similares entre s´ mediante la opci´n Contraste ı) o m´ltiple de rango, de Statgraphics. u Las diferencias que aparecen entre los datos, y que no son explicadas por el fac- tor introducido, se consideran debidas al azar. Se llama error experimental a la parte de la variabilidad de los datos debida al azar. Puede estimarse como la ra´ cuadrada de la suma de cuadrados medios intra-grupos, que aparece ız en la tabla de ANOVA (esta tabla la proporciona Statgraphics). Modelo de ANOVA En el modelo de ANOVA se supone que cada observaci´n Yij puede expresarse o como Yij = µi + ij = µ + αi + ij A los valores ij se les llama residuos, y se corresponden con las desviaciones de cada dato respecto a la media del nivel del factor al que pertenecen (µi ); se consideran debidos al azar. Los valores αi se llaman efectos de cada nivel (αi es el efecto del nivel i, etc.) y se consideran una medida de la “tendencia” que tienen los datos a desviarse de la media global, seg´n el nivel del factor al que u pertenezcan (por ejemplo, en el caso del tiempo de curaci´n, el efecto de cada o medicamento ser´ una medida del “adelanto” o “retraso” en cuanto al tiempo ıa medio de curaci´n que supone la administraci´n de uno u otro medicamento). o o Los efectos se calculan como αi = µi − µ Adem´s, en t´rminos de los efectos, las hip´tesis nula y alternativa que se a e o contrastan en el ANOVA, pueden enunciarse como H0 : α1 = α2 = · · · = αk = 0 H1 : alg´n αi = 0 u 2
  • 3. Hip´tesis del modelo: Para que lo anterior “funcione”, es necesario que las o variables y los datos cumplan ciertos requisitos: (i) Y es normal en cada nivel de factor. (ii) La varianza es la misma en cada nivel de factor (homocedasticidad). (iii) Independencia de las observaciones. Tiene que ver con que no haya ning´n u factor que altere el proceso de recogida de datos (por ejemplo, la pereza del observador, la posibilidad de que algunos encuestados “pasen informaci´n” o a otros posibles encuestados y se altere de ese modo el resultado, etc.). En la pr´ctica, se comprueba contrastando si los residuos son aleatorios (lo cu´l a a requiere guardarlos primero, utilizando la opci´n apropiada de Statgraph- o ics). Las condiciones anteriores implican que los residuos siguen una distribuci´n o normal de media 0 y desviaci´n t´ o ıpica igual a la observada en cada nivel de factor, y son independientes unos de otros (i.e. son aleatorios). Si alguna de las hip´tesis de arriba falla, las conclusiones del ANOVA son o dudosas. Contraste de Kruskal-Wallis: Este es un contraste no-param´trico, que e unicamente requiere que la variable Y sea continua. Se trata de un contraste ´ sobre la igualdad de las medianas. Por lo tanto, la hip´tesis nula es, en este o caso, H0 : M1 = M2 = · · · = Mk H1 : alguna Mi es distinta Este contraste utiliza, como otros contrastes no-param´tricos, la noci´n de e o rango. La idea es ordenar de menor a mayor todos los datos (mezclando niveles de factor distintos), asignar rangos, y comparar despu´s los rangos medios e correspondientes a los distintos niveles del factor. Si las hip´tesis de ANOVA (que hemos descrito arriba) se verifican, este o contraste proporciona otro m´todo para comprobar esencialmente la misma e condici´n. Si alguna de las hip´tesis de arriba falla, este test permite realizar o o con fiabilidad el contraste pedido. 3