Este documento discute las distribuciones de muestreo aproximadas para estimadores lineales y razones-F. Explica que si los errores debidos al azar cumplen con ciertas condiciones como tener media cero, igual varianza y ser independientes e independientemente distribuidos normalmente, entonces la distancia estándar estimada tendrá una distribución t y la razón-F tendrá una distribución F. Esto justifica el uso de estas distribuciones para realizar pruebas estadísticas.
Este documento trata sobre coeficientes estadísticos como la desviación estándar y la correlación lineal. Explica la definición, etimología y tipos de coeficientes estadísticos, así como su aplicación en el área de recursos humanos, especialmente en la asignación salarial. El objetivo es conocer la utilidad de estas fórmulas estadísticas para una mejor interpretación de la variabilidad y relación entre variables como los sueldos.
Este documento describe diferentes medidas de posición como la media aritmética, la mediana y la moda. Explica que las medidas de posición sirven para resumir grandes conjuntos de datos en un solo valor representativo. También define conceptos como desviaciones, sumatorias y propiedades de la media aritmética como forma de medir la posición central de una distribución de frecuencias.
Este documento describe conceptos estadísticos como medidas de dispersión, varianza, desviación típica y coeficiente de variación. Explica que las medidas de dispersión muestran cuán alejados están los valores de una variable de su media, y que la varianza y desviación típica miden esta dispersión de manera cuadrática y como raíz cuadrada respectivamente. También define el coeficiente de variación como la desviación típica expresada como porcentaje de la media, permitiendo comparar la variabilidad entre distribuciones.
En este documento podra encontrar las defisiones estadisticas que se plantean en analisis multivariable. Espero que sea de su agrado ya que este curso requiere de mucho interes y tiempo.
Un experimento aleatorio puede usarse para tomar decisiones. Una variable aleatoria representa los posibles resultados del experimento y su distribución de probabilidad especifica la probabilidad de cada resultado posible. Las variables aleatorias pueden ser discretas, tomando valores separados, o continuas, tomando cualquier valor en un rango. La función de distribución acumulada describe la probabilidad de que una variable tome un valor menor o igual a un número dado.
El documento explica la distribución normal y cómo los parámetros de media y desviación estándar afectan la forma de la curva de Gauss. Propone ejercicios para que los estudiantes analicen y comparen las distribuciones del consumo de combustible de tres empresas textiles con diferentes medias y desviaciones estándar, y calculen probabilidades relacionadas a dichas distribuciones.
Distribución normal o de gauss por angel curielangelcuriel208
La distribución normal describe fenómenos naturales y fue reconocida por primera vez por Abraham de Moivre y desarrollada por Carl Friedrich Gauss. Tiene una campana simétrica con una moda, media y mediana iguales en el centro. La distribución normal estándar tiene media 0 y desviación típica 1 y se usa con tablas para calcular probabilidades de valores de una variable normal.
Este documento presenta los conceptos y métodos básicos de estadística. Explica términos como intervalos, tabulación, frecuencia absoluta, frecuencia acumulada, frecuencia relativa, y cómo calcular el límite inferior, límite superior y punto medio de un intervalo.
Este documento trata sobre coeficientes estadísticos como la desviación estándar y la correlación lineal. Explica la definición, etimología y tipos de coeficientes estadísticos, así como su aplicación en el área de recursos humanos, especialmente en la asignación salarial. El objetivo es conocer la utilidad de estas fórmulas estadísticas para una mejor interpretación de la variabilidad y relación entre variables como los sueldos.
Este documento describe diferentes medidas de posición como la media aritmética, la mediana y la moda. Explica que las medidas de posición sirven para resumir grandes conjuntos de datos en un solo valor representativo. También define conceptos como desviaciones, sumatorias y propiedades de la media aritmética como forma de medir la posición central de una distribución de frecuencias.
Este documento describe conceptos estadísticos como medidas de dispersión, varianza, desviación típica y coeficiente de variación. Explica que las medidas de dispersión muestran cuán alejados están los valores de una variable de su media, y que la varianza y desviación típica miden esta dispersión de manera cuadrática y como raíz cuadrada respectivamente. También define el coeficiente de variación como la desviación típica expresada como porcentaje de la media, permitiendo comparar la variabilidad entre distribuciones.
En este documento podra encontrar las defisiones estadisticas que se plantean en analisis multivariable. Espero que sea de su agrado ya que este curso requiere de mucho interes y tiempo.
Un experimento aleatorio puede usarse para tomar decisiones. Una variable aleatoria representa los posibles resultados del experimento y su distribución de probabilidad especifica la probabilidad de cada resultado posible. Las variables aleatorias pueden ser discretas, tomando valores separados, o continuas, tomando cualquier valor en un rango. La función de distribución acumulada describe la probabilidad de que una variable tome un valor menor o igual a un número dado.
El documento explica la distribución normal y cómo los parámetros de media y desviación estándar afectan la forma de la curva de Gauss. Propone ejercicios para que los estudiantes analicen y comparen las distribuciones del consumo de combustible de tres empresas textiles con diferentes medias y desviaciones estándar, y calculen probabilidades relacionadas a dichas distribuciones.
Distribución normal o de gauss por angel curielangelcuriel208
La distribución normal describe fenómenos naturales y fue reconocida por primera vez por Abraham de Moivre y desarrollada por Carl Friedrich Gauss. Tiene una campana simétrica con una moda, media y mediana iguales en el centro. La distribución normal estándar tiene media 0 y desviación típica 1 y se usa con tablas para calcular probabilidades de valores de una variable normal.
Este documento presenta los conceptos y métodos básicos de estadística. Explica términos como intervalos, tabulación, frecuencia absoluta, frecuencia acumulada, frecuencia relativa, y cómo calcular el límite inferior, límite superior y punto medio de un intervalo.
La distribución normal describe cómo se distribuyen muchas variables en la naturaleza. Tiene forma de campana y depende de los parámetros media (μ) y desviación estándar (σ). La distribución normal estándar tiene μ=0 y σ=1 y se usa para transformar otras distribuciones normales. El documento explica cómo calcular probabilidades usando áreas bajo la curva normal y da ejemplos.
Este documento describe las distribuciones de probabilidad discretas y la distribución normal. Explica que una distribución de probabilidad asigna probabilidades a los posibles valores de una variable aleatoria, y que la función de distribución acumula estas probabilidades. Luego detalla cómo calcular la media, varianza y otros parámetros de una distribución discreta. Finalmente, introduce la distribución normal, su forma de campana y cómo depende de la media y desviación estándar. Incluye ejemplos sobre el cálculo de probabilidades usando estas distribuciones.
Este documento describe varias distribuciones de probabilidad continuas. Brevemente, introduce las distribuciones normal, exponencial, chi cuadrado, t de Student, F de Fisher-Snedecor y beta, definiendo sus funciones de densidad y otros conceptos clave como la esperanza y varianza.
Este documento describe un estudio realizado por investigadores de la Universidad Estatal de Florida sobre el modelado por computadora. El estudio compara los métodos de Box-Muller e inversa para transformar secuencias de baja discrepancia de una distribución uniforme a una normal. Los investigadores concluyen que el método de Box-Muller se puede usar con secuencias de baja discrepancia y en algunos casos puede ser ventajoso sobre el método inverso. Presentan resultados numéricos que comparan ambos métodos.
La correlación mide la relación entre dos variables. Se expresa numéricamente a través del coeficiente de correlación, el cual puede variar de -1 a 1. Un valor cercano a 1 indica una fuerte relación positiva o negativa, mientras que un valor cercano a 0 indica una débil o nula relación. El documento provee detalles sobre cómo calcular el coeficiente de correlación de Pearson para datos agrupados y no agrupados.
Este documento trata sobre estadística no paramétrica. Explica los diferentes niveles de medición como escala nominal, ordinal, de intervalos e intervalos iguales. Luego, introduce varias pruebas estadísticas no paramétricas como la prueba de corridas, prueba de signos, prueba de Wilcoxon para una muestra, prueba de Mann-Whitney para dos muestras independientes y la prueba de signos para observaciones pareadas. Finalmente, proporciona detalles sobre cómo aplicar cada una de estas pruebas est
El documento presenta información sobre diferentes temas matemáticos como determinar puntos de corte de ecuaciones, resolver sistemas de ecuaciones, hallar pendientes y puntos de corte de rectas, definir conceptos de error, convergencia y divergencia de series, y redondeo de números. También incluye secciones sobre exposiciones de conceptos como error, convergencia y divergencia de series matemáticas, y redondeo de números decimales y enteros.
Diagrama de dispersión y regresion cuadraticadarlenisv
Este documento describe los diagramas de dispersión, la correlación entre variables y la regresión cuadrática. Explica que los diagramas de dispersión muestran la relación entre dos variables cuantitativas mediante puntos en un plano cartesiano. La correlación puede ser positiva, negativa o nula dependiendo de si la línea de tendencia es creciente, decreciente o no hay patrón. La regresión cuadrática encuentra la ecuación de una parábola que se ajusta mejor a los datos cuando el modelo lineal no es adecuado.
Este documento describe diferentes medidas de dispersión como el rango, la desviación típica, la varianza y el coeficiente de variación. Explica que estas medidas cuantifican la variabilidad de una distribución y cómo se calculan, incluyendo fórmulas. También discute las características y usos de cada medida de dispersión.
El documento describe dos pruebas estadísticas para evaluar si un conjunto de números sigue una distribución uniforme: la prueba chi-cuadrada y la prueba de Kolmogorov-Smirnov. La prueba chi-cuadrada divide el intervalo en subintervalos y compara las frecuencias observadas con las esperadas, mientras que la prueba de Kolmogorov-Smirnov calcula los valores máximos positivo y negativo de la diferencia entre la distribución empírica y la teórica uniforme. El documento presenta ejemplos numéric
Este documento describe la distribución normal o gaussiana, la distribución de probabilidad continua más importante debido a su frecuencia y aplicaciones. Fue descubierta por primera vez por De Moivre en 1733 y luego estudiada de forma independiente por Laplace y Gauss en relación con la teoría de errores. Caracteriza variables aleatorias continuas a través de sus parámetros de media y desviación típica.
Este documento describe diferentes medidas para describir la variabilidad y dispersión de datos estadísticos, incluyendo el rango, desviación estándar, varianza y coeficiente de variación. Explica que el desvió estándar es la medida más ampliamente usada al depender de todos los valores de la distribución, mientras que también presenta otras medidas como la asimetría y curtosis para describir la forma de distribuciones. Finalmente, propone un ejercicio para calcular estas medidas a partir de datos de estudiantes.
Este documento describe varias distribuciones de probabilidad continuas importantes, incluidas la distribución normal, la distribución exponencial y la distribución de Weibull. Explica las propiedades y parámetros clave de cada distribución, y proporciona ejemplos numéricos para ilustrar cómo calcular probabilidades usando estas distribuciones.
Este documento presenta los conceptos básicos de la regresión lineal simple y múltiple. Explica qué es la regresión lineal, cómo se determina la ecuación de regresión usando el método de mínimos cuadrados, y define conceptos como el error estándar de estimación, el coeficiente de determinación y el coeficiente de correlación. Además, incluye dos ejercicios numéricos sobre regresión lineal múltiple y cuadrática aplicados a la ingeniería y otras ciencias.
El documento describe las características principales de la distribución normal de probabilidad. La distribución normal es simétrica con respecto a su media, y la curva decrece uniformemente en ambas direcciones desde el valor central. Es una de las distribuciones continuas más importantes debido a que muchas variables asociadas a fenómenos naturales siguen este patrón.
Este documento presenta una introducción a la correlación y los coeficientes de correlación como herramientas estadísticas para medir la relación entre dos variables. Define la correlación y explica los coeficientes de Pearson, Spearman y Phi para variables de diferentes niveles de medición. Proporciona ejemplos del cálculo e interpretación de cada coeficiente y su uso en el análisis de relaciones entre variables.
La distribucion normal y su uso en la inferencia estadisticaeraperez
Este documento describe la distribución normal y su uso en la inferencia estadística. Explica que la distribución normal surge de la agregación de muchos procesos aleatorios y se aproxima a muchos fenómenos naturales. También cubre conceptos como estimación, pruebas de hipótesis, calificación Z, y propiedades útiles de la distribución normal como aproximación en análisis de datos. Finalmente, incluye un ejemplo práctico sobre inspección de lotes de lápices.
Este documento presenta información sobre diferentes tipos de distribuciones de probabilidad como la distribución de Poisson, binomial, geométrica, t-student y exponencial. Explica conceptos clave como media, varianza y desviación estándar. También proporciona detalles históricos sobre creadores de distribuciones como Jakob Bernoulli y Simeón Poisson. El objetivo es dar a conocer estas distribuciones y cómo aplicarlas.
Este documento resume los conceptos clave de estadística, incluyendo la curva normal, puntajes z, correlación, regresión lineal y múltiple. Explica cómo estas técnicas se pueden usar para establecer relaciones entre variables, predecir valores y determinar la magnitud y dirección de las relaciones.
La distribución normal describe una curva en forma de campana que es simétrica respecto a su media. Fue presentada por primera vez por Abraham de Moivre en 1733 y se usa comúnmente para modelar fenómenos reales donde muchos factores pequeños influyen en un resultado. Aunque los datos no siempre siguen una distribución normal, estadísticos calculados sobre muestras a menudo sí.
El documento presenta una introducción a los métodos de regresión lineal y correlación. Explica que estos métodos permiten estudiar la relación funcional entre variables y predecir valores de una variable en base a otra. Además, describe el modelo de regresión lineal simple y cómo se puede usar para estimar la línea de mejor ajuste a los datos y medir la correlación entre variables. Finalmente, analiza un ejemplo de regresión entre la estatura de padres e hijos.
El documento presenta una introducción a los métodos de regresión lineal y correlación. Explica que estos métodos permiten estudiar la relación funcional entre variables y predecir valores de una variable en base a otra. Proporciona ejemplos de cómo calcular la línea de regresión y pendiente a partir de datos sobre la estatura de padres e hijos. Analiza las sumas de cuadrados total, de regresión y del error para explicar las diferentes fuentes de variación en los datos.
La distribución normal describe cómo se distribuyen muchas variables en la naturaleza. Tiene forma de campana y depende de los parámetros media (μ) y desviación estándar (σ). La distribución normal estándar tiene μ=0 y σ=1 y se usa para transformar otras distribuciones normales. El documento explica cómo calcular probabilidades usando áreas bajo la curva normal y da ejemplos.
Este documento describe las distribuciones de probabilidad discretas y la distribución normal. Explica que una distribución de probabilidad asigna probabilidades a los posibles valores de una variable aleatoria, y que la función de distribución acumula estas probabilidades. Luego detalla cómo calcular la media, varianza y otros parámetros de una distribución discreta. Finalmente, introduce la distribución normal, su forma de campana y cómo depende de la media y desviación estándar. Incluye ejemplos sobre el cálculo de probabilidades usando estas distribuciones.
Este documento describe varias distribuciones de probabilidad continuas. Brevemente, introduce las distribuciones normal, exponencial, chi cuadrado, t de Student, F de Fisher-Snedecor y beta, definiendo sus funciones de densidad y otros conceptos clave como la esperanza y varianza.
Este documento describe un estudio realizado por investigadores de la Universidad Estatal de Florida sobre el modelado por computadora. El estudio compara los métodos de Box-Muller e inversa para transformar secuencias de baja discrepancia de una distribución uniforme a una normal. Los investigadores concluyen que el método de Box-Muller se puede usar con secuencias de baja discrepancia y en algunos casos puede ser ventajoso sobre el método inverso. Presentan resultados numéricos que comparan ambos métodos.
La correlación mide la relación entre dos variables. Se expresa numéricamente a través del coeficiente de correlación, el cual puede variar de -1 a 1. Un valor cercano a 1 indica una fuerte relación positiva o negativa, mientras que un valor cercano a 0 indica una débil o nula relación. El documento provee detalles sobre cómo calcular el coeficiente de correlación de Pearson para datos agrupados y no agrupados.
Este documento trata sobre estadística no paramétrica. Explica los diferentes niveles de medición como escala nominal, ordinal, de intervalos e intervalos iguales. Luego, introduce varias pruebas estadísticas no paramétricas como la prueba de corridas, prueba de signos, prueba de Wilcoxon para una muestra, prueba de Mann-Whitney para dos muestras independientes y la prueba de signos para observaciones pareadas. Finalmente, proporciona detalles sobre cómo aplicar cada una de estas pruebas est
El documento presenta información sobre diferentes temas matemáticos como determinar puntos de corte de ecuaciones, resolver sistemas de ecuaciones, hallar pendientes y puntos de corte de rectas, definir conceptos de error, convergencia y divergencia de series, y redondeo de números. También incluye secciones sobre exposiciones de conceptos como error, convergencia y divergencia de series matemáticas, y redondeo de números decimales y enteros.
Diagrama de dispersión y regresion cuadraticadarlenisv
Este documento describe los diagramas de dispersión, la correlación entre variables y la regresión cuadrática. Explica que los diagramas de dispersión muestran la relación entre dos variables cuantitativas mediante puntos en un plano cartesiano. La correlación puede ser positiva, negativa o nula dependiendo de si la línea de tendencia es creciente, decreciente o no hay patrón. La regresión cuadrática encuentra la ecuación de una parábola que se ajusta mejor a los datos cuando el modelo lineal no es adecuado.
Este documento describe diferentes medidas de dispersión como el rango, la desviación típica, la varianza y el coeficiente de variación. Explica que estas medidas cuantifican la variabilidad de una distribución y cómo se calculan, incluyendo fórmulas. También discute las características y usos de cada medida de dispersión.
El documento describe dos pruebas estadísticas para evaluar si un conjunto de números sigue una distribución uniforme: la prueba chi-cuadrada y la prueba de Kolmogorov-Smirnov. La prueba chi-cuadrada divide el intervalo en subintervalos y compara las frecuencias observadas con las esperadas, mientras que la prueba de Kolmogorov-Smirnov calcula los valores máximos positivo y negativo de la diferencia entre la distribución empírica y la teórica uniforme. El documento presenta ejemplos numéric
Este documento describe la distribución normal o gaussiana, la distribución de probabilidad continua más importante debido a su frecuencia y aplicaciones. Fue descubierta por primera vez por De Moivre en 1733 y luego estudiada de forma independiente por Laplace y Gauss en relación con la teoría de errores. Caracteriza variables aleatorias continuas a través de sus parámetros de media y desviación típica.
Este documento describe diferentes medidas para describir la variabilidad y dispersión de datos estadísticos, incluyendo el rango, desviación estándar, varianza y coeficiente de variación. Explica que el desvió estándar es la medida más ampliamente usada al depender de todos los valores de la distribución, mientras que también presenta otras medidas como la asimetría y curtosis para describir la forma de distribuciones. Finalmente, propone un ejercicio para calcular estas medidas a partir de datos de estudiantes.
Este documento describe varias distribuciones de probabilidad continuas importantes, incluidas la distribución normal, la distribución exponencial y la distribución de Weibull. Explica las propiedades y parámetros clave de cada distribución, y proporciona ejemplos numéricos para ilustrar cómo calcular probabilidades usando estas distribuciones.
Este documento presenta los conceptos básicos de la regresión lineal simple y múltiple. Explica qué es la regresión lineal, cómo se determina la ecuación de regresión usando el método de mínimos cuadrados, y define conceptos como el error estándar de estimación, el coeficiente de determinación y el coeficiente de correlación. Además, incluye dos ejercicios numéricos sobre regresión lineal múltiple y cuadrática aplicados a la ingeniería y otras ciencias.
El documento describe las características principales de la distribución normal de probabilidad. La distribución normal es simétrica con respecto a su media, y la curva decrece uniformemente en ambas direcciones desde el valor central. Es una de las distribuciones continuas más importantes debido a que muchas variables asociadas a fenómenos naturales siguen este patrón.
Este documento presenta una introducción a la correlación y los coeficientes de correlación como herramientas estadísticas para medir la relación entre dos variables. Define la correlación y explica los coeficientes de Pearson, Spearman y Phi para variables de diferentes niveles de medición. Proporciona ejemplos del cálculo e interpretación de cada coeficiente y su uso en el análisis de relaciones entre variables.
La distribucion normal y su uso en la inferencia estadisticaeraperez
Este documento describe la distribución normal y su uso en la inferencia estadística. Explica que la distribución normal surge de la agregación de muchos procesos aleatorios y se aproxima a muchos fenómenos naturales. También cubre conceptos como estimación, pruebas de hipótesis, calificación Z, y propiedades útiles de la distribución normal como aproximación en análisis de datos. Finalmente, incluye un ejemplo práctico sobre inspección de lotes de lápices.
Este documento presenta información sobre diferentes tipos de distribuciones de probabilidad como la distribución de Poisson, binomial, geométrica, t-student y exponencial. Explica conceptos clave como media, varianza y desviación estándar. También proporciona detalles históricos sobre creadores de distribuciones como Jakob Bernoulli y Simeón Poisson. El objetivo es dar a conocer estas distribuciones y cómo aplicarlas.
Este documento resume los conceptos clave de estadística, incluyendo la curva normal, puntajes z, correlación, regresión lineal y múltiple. Explica cómo estas técnicas se pueden usar para establecer relaciones entre variables, predecir valores y determinar la magnitud y dirección de las relaciones.
La distribución normal describe una curva en forma de campana que es simétrica respecto a su media. Fue presentada por primera vez por Abraham de Moivre en 1733 y se usa comúnmente para modelar fenómenos reales donde muchos factores pequeños influyen en un resultado. Aunque los datos no siempre siguen una distribución normal, estadísticos calculados sobre muestras a menudo sí.
El documento presenta una introducción a los métodos de regresión lineal y correlación. Explica que estos métodos permiten estudiar la relación funcional entre variables y predecir valores de una variable en base a otra. Además, describe el modelo de regresión lineal simple y cómo se puede usar para estimar la línea de mejor ajuste a los datos y medir la correlación entre variables. Finalmente, analiza un ejemplo de regresión entre la estatura de padres e hijos.
El documento presenta una introducción a los métodos de regresión lineal y correlación. Explica que estos métodos permiten estudiar la relación funcional entre variables y predecir valores de una variable en base a otra. Proporciona ejemplos de cómo calcular la línea de regresión y pendiente a partir de datos sobre la estatura de padres e hijos. Analiza las sumas de cuadrados total, de regresión y del error para explicar las diferentes fuentes de variación en los datos.
El documento presenta una introducción a los métodos de regresión lineal y correlación. Explica que estos métodos permiten estudiar la relación funcional entre variables y predecir valores de una variable en base a otra. Proporciona ejemplos de cómo calcular la línea de regresión y pendiente a partir de datos sobre la estatura de padres e hijos. Analiza las sumas de cuadrados total, de regresión y del error para explicar las diferentes fuentes de variación en los datos.
El documento resume los conceptos clave de la regresión lineal y la correlación. Explica que estos métodos estadísticos se usan para estudiar la relación funcional entre variables y predecir valores. Usa un ejemplo de datos de estaturas de padres e hijos para ilustrar cómo calcular la línea de regresión, la pendiente y realizar pruebas estadísticas sobre las hipótesis. Concluye explicando que el análisis de varianza descompone la variación total en componentes para analizar la influencia de factores.
Este documento introduce los contrastes no paramétricos y explica la diferencia entre estadística paramétrica y no paramétrica. Define la estadística no paramétrica como aquella que no asume una distribución de probabilidad específica para los datos, a diferencia de la estadística paramétrica que depende de parámetros de distribuciones. Presenta cinco contrastes no paramétricos para una, dos y más muestras, incluyendo los tests de Wilcoxon y Kruskal-Wallis.
Este documento resume las 5 suposiciones de Fisher para el análisis de varianza (ANOVA) y métodos para verificarlas: 1) desviaciones estándar iguales, 2) errores independientes, 3) normalidad, 4) efectos aditivos y constantes, y 5) efectos constantes de los factores. Explica cómo usar diagramas de dispersión, histograma y gráficas para verificar las suposiciones y qué hacer si fallan.
Este documento explica el coeficiente de correlación de Spearman y Pearson. El coeficiente de Spearman mide la asociación entre dos variables continuas mediante el orden de los datos, mientras que el coeficiente de Pearson mide la relación lineal entre dos variables cuantitativas. Ambos coeficientes oscilan entre -1 y 1 para indicar correlaciones negativas o positivas. El documento también discute cómo determinar la significación estadística de los coeficientes y ofrece un ejemplo numérico para calcular el coeficiente de Spearman.
El documento explica el coeficiente de correlación de Spearman y Pearson. El coeficiente de Spearman mide la asociación entre dos variables continuas mediante el cálculo de la diferencia entre los rangos de cada variable. El coeficiente de Pearson mide la relación lineal entre dos variables cuantitativas a través del cálculo de la covarianza relativa a las desviaciones típicas de cada variable. Ambos coeficientes oscilan entre -1 y 1, indicando correlación negativa o positiva.
El documento explica que la desviación estándar es una medida estadística que indica cuánto se desvían los valores de una variable de su promedio. Cuanto mayor es la desviación estándar, más dispersos están los valores. El documento también presenta fórmulas para calcular la desviación estándar poblacional y muestral y ofrece ejemplos de cómo interpretarla.
El documento explica que la desviación estándar es una medida estadística que indica cuánto se desvían los valores de una variable de su promedio. Cuanto mayor es la desviación estándar, más dispersos están los valores. El documento también presenta fórmulas para calcular la desviación estándar poblacional y muestral y ofrece ejemplos de cómo interpretarla.
El documento explica las variables aleatorias continuas, que asumen valores en un espacio muestral infinito no numerable. Describe la función de densidad de probabilidad para estas variables, que es una curva continua cuyo área total es 1. También explica cómo calcular probabilidades mediante la función de distribución, que representa el área bajo la curva de densidad. Finalmente, señala que la distribución normal es muy importante en estadística y psicología.
El documento explica el coeficiente de correlación de Pearson, que mide la relación lineal entre dos variables. Los valores van de -1 a 1, indicando una relación lineal perfecta positiva o negativa. El coeficiente se calcula normalmente con programas estadísticos y su interpretación depende del contexto. También se explica cómo calcular e interpretar el coeficiente de correlación de Spearman, que utiliza rangos de datos en lugar de valores.
Este documento describe diferentes tipos de variables aleatorias y sus distribuciones de probabilidad. Explica que las variables pueden ser discretas o continuas, e ilustra cada tipo con ejemplos. También define conceptos clave como variable aleatoria, valor esperado, distribuciones binomial, de Poisson, normal y funciones de densidad de probabilidad. Finalmente, incluye ejemplos para ilustrar cómo calcular la probabilidad de diferentes sucesos aleatorios según cada tipo de distribución.
Este documento trata sobre varios temas de análisis numérico como tipos de errores, sistemas de numeración, teoremas matemáticos y métodos para resolver ecuaciones no lineales. Explica brevemente los errores de truncamiento y redondeo, el sistema decimal, y métodos para estimar errores absolutos y relativos. También resume varios teoremas importantes como el teorema del valor medio, de Taylor y el fundamental del álgebra, así como métodos para resolver ecuaciones no lineales.
Este documento trata sobre pruebas de bondad de ajuste y pruebas no paramétricas. Explica la prueba Ji cuadrada para analizar la bondad de ajuste de un modelo estadístico, así como su uso para pruebas de independencia y tablas de contingencia. También cubre el uso de software estadístico como R y SPSS para realizar estas pruebas.
Este documento describe diferentes pruebas estadísticas no paramétricas como la prueba Ji cuadrada y la prueba de independencia. Explica cómo usar tablas de contingencia y software estadístico para realizar análisis estadísticos. También cubre conceptos como bondad de ajuste, distribuciones Ji cuadrada y usos comunes de paquetes estadísticos.
COEFICIENTES DE CORRELACIÓN DE PEARSON Y DE SPERMANJuleidy Castro
El documento describe los coeficientes de correlación de Pearson y Spearman. Explica cómo calcular el coeficiente de correlación de Pearson utilizando la covarianza y desviación estándar de dos variables. También cubre las propiedades del coeficiente de correlación de Pearson, como que es independiente de la escala de medición y requiere que ambas variables sean cuantitativas y tengan distribuciones similares a la normal.
El documento describe el coeficiente de correlación de Spearman, un método estadístico para medir la correlación entre dos variables cuando los datos son ordinales. Se calcula ordenando los datos y midiendo la diferencia entre los rangos, lo que permite evaluar la fuerza y dirección de la relación sin suposiciones sobre la distribución de probabilidad. El coeficiente puede variar de -1 a 1, donde valores cercanos a los extremos indican una correlación fuerte y valores cercanos a cero una correlación débil.
El documento describe varias distribuciones de probabilidad importantes como la distribución de Bernoulli, binomial, Poisson, normal, gamma y t de Student. Para cada distribución, se proporciona una breve definición y ejemplos ilustrativos. El documento parece ser apuntes de una clase sobre distribuciones de probabilidad.
Similar a Presentación Distribuciones de Muestreo para Estimadores Lineales (20)
Soluciones Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinar...Juan Martín Martín
Criterios de corrección y soluciones al examen de Geografía de Selectividad (EvAU) Junio de 2024 en Castilla La Mancha.
Soluciones al examen.
Convocatoria Ordinaria.
Examen resuelto de Geografía
conocer el examen de geografía de julio 2024 en:
https://blogdegeografiadejuan.blogspot.com/2024/06/soluciones-examen-de-selectividad.html
http://blogdegeografiadejuan.blogspot.com/
3. Cada intervalo de confiabilidad que se construye es Acertado (un “Hit”) o Errado (“Miss”). Si se considera un modelo ideal de ANOVA como una especie de mecanismo de “chance” para crear conjuntos de datos, donde los posibles resultados sean Acertado o Errado, entonces para un intervalo propiamente construido, un 95% de confiablidad significa que hay un chance del 95% de que el resultado sea Acertado.
4. Recordemos que en la realidad esto significa que si utilizáramos el mismo modelo y suposiciones para crear muchos conjuntos de datos e intervalos, entonces “a largo plazo”, el 95% de los intervalos sería Acertado.
5. O sea Mecanismo: Modelo ANOVA Summary: Acertado o Errado, para un intervalo con un 95% de confiabilidad Distribución: “Chance” de que sea Acertado = 95%; “Chance” de que sea Errado = 5%
6. Todo esto se refiere en cierta medida a una proposición mucho más básica. Mecanismo: Modelo ANOVA Summary: (Estimador Lineal – Verdadero Valor)/SE Distribución: familia t (Estimador Lineal se abreviará por Est)
7. Este SummaryOutcome se parece al Estandarizado visto en la sección 3: (Outcome – EV)/SD* donde Verdadero Valor sería el EV y SE el SD*.
8. Hay diferencias pues el SD* es un verdadero valor del modelo, mientras que el SE es un estimado SE = SD(SSWeights)1/2 donde SD = (MSRes)1/2 (este último se calcula a partir de la data)
9. Nota: Llamaremos Distancia Estándar Estimada a la expresión (Estimador Lineal – Verdadero Valor)/SE Diremos por esto que el estimador lineal se ha convertido a Unidades Estándares Estimadas.
10. O sea: Las Unidades Estándares Estimadas indican la distancia del EV, medida en SE’s. Distancia = Valor – EV Distancia Estándar = Distancia/Verdadero SE* Distancia Estándar Estimada = Distancia/SE Estimado
11. Si usamos este lenguaje entonces se puede decir que: Para cualquier estimador lineal de un modelo ideal ANOVA, la Distancia Estándar Estimada tiene una distribución t.
12. Entonces, si observamos lo que significa “apuntarse” un “Hit” (acertar), se tiene que: Para cualquier número positivo t: El intervalo Est ± SE·t cubre el verdadero valor si y solo si |(Est – Verdadero Valor)/SE| < t
13. Esto quiere decir que el “chance acertar es igual al chance de que |(Est – Verdadero Valor)/SE| < t. Entonces, si (Est – Verdadero Valor)/SE tiene una distribución t, se puede determinar el número t que hace que el “chance” de un “Hit” sea igual a 95%. ¿Cómo? Solo hay que tomar t igual al percentil 97.5ésimo de la distribución t.
14.
15. En resumen: Si (Est – Verdadero Valor)/SE tiene una distribución t, entonces hay un chance del 95% de que un intervalo de la forma Est ± SE·(elpercentil 97.5ésimo de la distribución t)contenga el verdadero valor.
17. Siempre que comparamos una razón-F de “mean squares” con una tabla de valores para así examinar una hipótesis nula, se está asumiendo que la razón de “mean squares” posee una distribución de muestreo que pertenece a la familia F. ¿Bajo qué condiciones es razonable asumir esto?
18. En breve se puede decir que: Si un modelo es correcto de manera exacta (i.e., la estructura de factores y las suposiciones de Fisher describen el experimento exactamente) y la hipótesis nula es verdadera, entonces la razón-F tiene una distribución F. Sin embargo, para que esto ocurra hay dos requisitos:
19. “Mean Squares” Esperados El primer requisito es que las dos “mean squares” en la razón deben tener los mismos valores esperados. El valor esperado de cualquier “mean square” se puede escribir como una suma de partes, donde cada parte es un número que mide la variabilidad asociada con alguno de los factores en el diseño que ha preparado el investigador. Si la razón de dos “mean squares” debe tener una distribución F entonces ambos “mean squares” deben tener exactamente las mismas partes en sus valores esperados.
20. Si la hipótesis nula es falsa, los Valores Esperados no serán iguales, y la razón de los “mean squares” no seguirá una distribución F. Luego, la prueba F se reduce a determinar si una razón observada proviene o no de una distribución F. Si se entiende que no, se rechaza la hipótesis nula.
21. El rol del modelo El segundo requisito se refiere al modelo en sí. Las razones-F que se calculan para una prueba ANOVA siempre son distintas, pues provienen de la descomposición lineal, y no de resultados independientes que son estándares y normales.
22. Sin embargo, es posible demostrar que Si el modelo es correcto de manera exacta (i.e., la estructura de factores y las suposiciones de Fisher están de acuerdo con la data), si además se posee el denominador MS correcto y si la hipótesis nula es verdadera, entonces la razón-F tiene una distribución F.
23. El problema es que no hay modelos que sean exactamente correctos. Por tanto, para llegar de un experimento de la vida real a una distribución F, hay que superar dos obstáculos, primero del experimento al modelo ideal ANOVA, y segundo del modelo ANOVA a la distribución F. Nos ocuparemos del segundo obstáculo, a modo de “sketch” de una demostración, pues lo concerniente al otro se explicó ya con anterioridad.
24. El mecanismo ideal crea valores observados como tiradas independientes de una “caja” de error normal estándar. Hay 4 cosas importantes para desarrollar esta prueba. La misma debe mostrar que los “mean squares” que se calculen en una ANOVA se comportan como si se hubieran construidos a partir de términos que posean esas 4 propiedades.
25. 1. EV = 0 En un diseño balanceado, los efectos estimados para cada factor aparte de la media siempre suman a cero. Entonces, la manera en que la descomposición lineal se lleva a cabo hace que al cuadrar los números, estos se comporten como si EV = 0.
26. 2. Dispersión: SD* = 1 En la práctica la SD* de un conjunto de datos es desconocido y lo más seguro que no es 1. Ahora, si los errores debidos al chance se comportan como si SD* fuera constante, entonces no hace falta que esa constante sea 1. Esto se debe a que podemos calcular una razón de “mean squares” para así conseguir la F-estadística (o estadístico-F). Ya que el verdadero SD* aparece tanto en el numerador como el denominador y por tanto se cancela, podemos prescindir de saber su verdadero valor.
27. 3. Forma: La Normal En la realidad la forma no es la normal, pero se acerca lo suficiente. Inclusive si los residuales individuales no se aproximan a un patrón normal, mientras más observaciones se tengan, menos hace falta preocuparse por que los errores debidos al chance sean normales.
28. 4. Relación: Independencia Por definición, las “tiradas” deberían ser independientes. Sin embargo, en general los números de una descomposición que se cuadran y suman para conseguir una suma de cuadrados suelen no ser independientes, pero están correlacionados. Esta correlación refleja una especie de superposición en la información que está contenida de por sí en los números que se cuadran y suman. Al dividir la suma de cuadrados por los grados de libertad df, en vez de por la cantidad de números que se cuadran, permite hacer el ajuste necesario para la superposición.
29. Además, en la definición, debido a que las “tiradas” son independientes, así también los dos “mean squares”. Ahora, en la práctica, si el diseño es balanceado entonces los “mean squares” que se calculen serán independientes el uno del otro, tal como se requiere.
30. Relación con las Suposiciones de Fisher: Utilizaremos las 4 propiedades antes descritas para establecer la relación entre las suposiciones de Fisher y la forma de la prueba-F.
31. [Z]: Si los errores debidos al chance no cumplen EV = 0, entonces los efectos estimados que se obtienen al descomponer la data estarán sesgados. Esto hará el correspondiente “mean square” mayor de lo que debería ser. De esta forma se corre el riesgo de concluir como “real” un efecto que en realidad es parte del sesgo.
32. [S]: Si los errores debidos al chance no poseen la misma SD*, la cancelación de las SD*’s que se necesita al determinar la razón-F no ocurrirá, y por consiguiente la razón no se comportará como si SD* = 1.
33. [I]: Si los errores debidos al chance no son independientes, entonces los “mean squares” no alcanzarán los valores esperados correctos. Inclusive, podría darse que el numerador y denominador no sean independientes, lo cual es requerido por la definición. Por tanto, los valores críticos de una tabla F no serán los correctos para el conjunto de datos.
34. [N]: Si los residuales no tienen una forma que se asemeje a la normal, los números que cuadremos para obtener las SS’s (sumas de cuadrados) no tendrán la forma de la curva normal. Además, si los por cientos de residuales grandes son mayores que los provistos por la regla basada en la curva normal, los cuadrados de estos residuales tendrán un efecto grandísimo en el comportamiento de los “mean squares” y así la distribución de la razón no será lo suficientemente cercana a una distribución-F real como para hacer confiables los valores críticos.
35. [A & C]: Si los efectos verdaderos no son constantes o aditivos, la descomposición que se lleve a cabo para determinar los “mean squares” no repartirá las observaciones en las partes correctas. Así, las tablas en la descomposición tendrán contribuciones de factores que no se supone contribuyan. En particular, los residuales quedarán contaminados por dichos factores, proveyendo estimados pobres para los errores que se deben al chance.
36. ¿Por Qué (Y Cuándo) Son Razonables Los Modelos?
37. Ahora veremos algunos ejemplos de tres de las justificaciones para los modelos de cajas y las suposiciones de Fisher: Muestreo de una población Medidas de error Aleatorización
38. Muestreo de una población (“Samplingfrom a population”) Primero recordemos que: Población es todo el grupo de individuos que son de interés en el experimento. Muestra es el grupo de individuos que son observados en realidad. Para una muestra simple aleatoria, cada individuo en la población tiene el mismo chance de ser seleccionado. Todas las posibles muestras son igualmente probables.
39. El ejemplo más idóneo de un muestreo simple aleatorio es el modelo de cajas. La población es una caja de boletos enumerados. La muestra es el conjunto de tiradas (aquí nos referimos por tiradas al proceso de sacar el boleto de la caja). Si se saca un boleto al azar, devolviéndolo de nuevo a la caja luego de observar qué número salió (reemplazo), y mezclando (barajeando) los boletos antes de cada tirada, se obtiene una muestra simple aleatoria.
40. Cuando un diseño exige que los individuos sean seleccionados, entonces mientras más se pueda lograr que el proceso de selección se comporte como el proceso antes descrito, mejor concordarán el modelo estándar y las suposiciones con la data obtenida.
41. Nota: Supóngase que se desean seleccionar 100 estudiantes de esta universidad para que formen parte de un experimento. Sería fácil buscar 100 estudiantes entre los que uno conoce y los que amigos de estos. También podríamos publicar un anuncio invitando al experimento y escoger los primeros 100 voluntarios, etc. Sin embargo, estos métodos de selección no son como el modelo de cajas, y no suponen necesariamente una buena selección.
42. En realidad haría falta (para que sea una muestra simple aleatoria) tener la lista de todos los estudiantes de la universidad, enumerarlos, y entonces usar una tabla de números aleatorios para escoger los 100 estudiantes que participarán del estudio.
43. Este último ejemplo envolvía solo una población. ¿Cómo el muestreo simple aleatorio (al azar) conduce al modelo y a las suposiciones estándar?
44. Ejemplo: Supongamos que se tienen dos poblaciones, cada una con 4 individuos. Asumamos también que no hay aleatorización o ambigüedad en el proceso de medición (para el modelo de muestreo ideal, toda aleatoriedad provine del proceso de seleccionar individuos de las poblaciones).
45. El factor de interés tiene dos niveles, A y B, correspondiendo a las dos poblaciones. La población A tiene 4 individuos cuyos valores de respuesta son 3, 4, 4 y 5. La población B tiene 4 individuos también, con valores 5, 6, 6 y 7.
46.
47. En la figura se ve una ANOVA de una dirección (muestreo simple aleatorio de dos poblaciones). Si las observaciones se escogen (al azar y CON REEMPLAZO)de las poblaciones A y B, entonces la data concuerda con el modelo ANOVA estándar que se ve a la derecha en la figura, el cual satisface las suposiciones de EV = 0, de iguales SD*’s, independencia, aditividad y efectos que son constantes. Si la distribución de valores de respuesta en cada población es normal, entonces las seis suposiciones son satisfechas.
48. Observaciones importantes: En la mayoría de las ocasiones no ocurre que las poblaciones tengan el mismo tamaño. Sin embargo, en la mayoría de los casos estas son muy grandes, lo que hace que su tamaño real sea sin importancia en lo que concierne al modelo estándar.
49. ¿Por qué se insiste en el muestreo con reemplazo? ¿No se corre el riesgo de seleccionar más de una vez el mismo individuo?
50. Si las poblaciones son bien grandes, como ocurre en la mayoría de los estudios, no hace gran diferencia si se realiza el muestreo con o sin reemplazo. Claro, si se lleva a cabo el muestreo sin reemplazo, el chance de escoger el mismo individuo más de una vez es cero. Sin embargo, cuando las poblaciones son grandes, el chance de seleccionar el mismo individuo más de una vez estará tan cerca de cero, que llevar a cabo el muestreo con reemplazo hará poca diferencia.
51. ¿Qué se gana entonces utilizando la técnica de reemplazo? Permite hacer sencilla la teoría.
52. Ya que en la práctica no se pueden realizar las mediciones a cada individuo en la población, no es posible conocer cómo están distribuidos los valores de esta. Hay un problema: una de las suposiciones de Fisher es precisamente que los errores debidos al chance deben seguir una distribución normal.¿Cómo resolvemos esto?
53. En primer lugar si se escoge la escala correcta para la respuesta, la distribución en la población será aproximadamente la de la normal. En segundo lugar, aún si la distribución no sigue una curva normal, las suposiciones estándar llevan por lo general a aproximaciones de los valores críticos que son razonables (para conjuntos de datos no pequeños).
54. Es importante notar que en el ejemplo antes visto, las desviaciones de la media son iguales. Por lo general esto no ocurre. Lo importantes es que las SD’s sean aproximadamente iguales.
55. Población y Marco Muestral Ahora, cuando las poblaciones son tan grandes, ¿hace sentido realizar el muestreo con la población misma? El problema no es solo el tamaño de las poblaciones, sino que a veces estas son difíciles de determinar.
56. Por ejemplo, supongamos que se desea preparar una prueba para seleccionar donantes de sangre y se quiere determinar aquellos que tengan hepatitis (y por tanto no puedan donar sangre). Resulta que aquellos que padecen la enfermedad tienden a tener una alta concentración de una enzima, la Transaminasa SeroGlutamínicaPirúvica (SGTP por sus siglas en inglés).
57. Si estamos en particular interesados en aquellas personas por encima de 18 años que sean portadores de la enfermedad en Puerto Rico, ¿quién tiene la lista completa de estas personas? Si tal lista existiera, entonces no haría falta siquiera medir los niveles de SGPT.
58. Incluso si la lista existiera, y se decidiera pasar el trabajo de usar números aleatorios (“randomnumbers”) para seleccionar personas al azar, sería posible rastrear cada uno de ellos.
59. Ejemplos similares abundan: ¿quién tiene la lista de todos los usuarios de crack en Ponce, o la lista de todas los coquíes en San Sebastián, etc?
60. En resumen veamos los problemas que conlleva el modelo ideal de llevar a cabo un muestreo simple aleatorio partiendo directamente de la población (estos están más allá de lo que es posible en la práctica).
61. El Marco no es igual a la Población (en términos representativos): Aquí el problema son los posibles sesgos. El grupo de individuos que es más fácil de listar y de dónde es más sencillo seleccionar puede ser atípico del grupo del que en realidad se quiere conocer.
62. Las Muestras no son aleatorias: Por ejemplo, los estudios en Psicología utilizan muchas veces voluntarios. Estudios de laboratorios que envuelven animales muchas veces los toman de suplidoras de animales y por lo tanto no se seleccionan al azar.
63. Los estudios de campo también presentan problemas, pues dependen de aquellos animales que está lo suficientemente hambrientos o que han sido poco cuidadosos y por eso han caído en la trampa, etc.
64. Problemas más técnicos: SD’s no iguales y distribuciones no normales. Aquí hay solución, pues en muchas ocasiones es suficiente llevarlo todo a otra escala.
65. Poblaciones pequeñas: Hemos enfatizado mucho sobre como las poblaciones grandes nos permiten acercarnos al modelo ideal teórico. Ahora, cuando las poblaciones son pequeñas, en realidad lo que tenemos es una ventaja (visto desde un cierto punto de vista). La razón es que entonces podemos llevar a cabo un muestreo que no envuelva reemplazo y se pueden utilizar muestras pequeñas.
66. Claro, habría que hacer ajustes a la teoría, los cuales no se discutirán, pero que cualquier libro que trate de muestreo puede facilitar.
67. Estos problemas nos muestran la importancia de distinguir entre Población y Marco Muestral. Población: Grupo completo de individuos sobre los que se desea conocer. Marco Muestral: Lista de todos los individuos de donde en realidad se hará la selección.
68. En fin, si se usa un Marco Muestral para llevar a cabo un muestreo aleatorio, los métodos de estadística formal proveen una base lógica para hacer una generalización de la muestra al marco muestral.
69. Ahora, no hay métodos formales para realizar tal generalización del marco a la población como tal. Para esto solo queda utilizar el juicio personal del investigador acerca de qué tan bien el marco representa a la población.
71. En la práctica son pocas las medidas que no conllevan cierta incertidumbre. En muchos caso el proceso de llevar acabo medidas se comporta como el de realizar el muestreo con la población. Para la versión pura del modelo basado en medidas de error, pensaremos a los individuos como ya escogidos de antemano, y en ese sentido son fijos.
72. La aleatoriedad proviene del proceso de medir y no de la selección de individuos. O sea, visto de modo abstracto, los modelos para el muestreo y el proceso de mediciones son el mismo.
73. En ambos casos: los objetos de interés son colecciones fijas de números el proceso de obtener la información tiene que ver con escoger al azar de esas colecciones Para este modelo, que se basa en las medidas de error, la colección fija de números será el conjunto hipotético de todos los posibles valores para el proceso de medición.
74. Hay dos versiones extremas de este modelo el conjunto de valores proviene de cambios impredecibles en el individuo los valores provienen de cambios impredecibles en el proceso mismo de llevar a cabo las medidas
75. Ejemplos: Si se está estudiando la presión sanguínea, los cambios en las medidas provienen del individuo, pues la presión cambia todo el tiempo. Si se consideran las Olimpiadas, los cambios proceden de los instrumentos que llevan a cabo las medidas, en este caso los jueces.
77. Para la tercera justificación, la cual se basa solo en la aleatorización, consideraremos como dados (y por tanto fijos) tanto a los individuos como a los errores de medida. El chance provendrá del uso de un diseño o mecanismo de chance para asignar los individuos a los niveles del factor de interés.
78. Las suposiciones que aseguran esta justificación son distintas de las suposiciones usuales de Fisher. Aún así hay suficiente evidencia de que los valores críticos de una tabla F proveen por lo general buenas aproximaciones para los valores críticos basados solo en la aleatorización.
79. Ejemplo: Imaginemos un experimento donde lo que nos interesa son los niveles de bacterias en el piso de una sala. Hay dos posibilidades, el piso tiene alfombra o no tiene. Supongamos que se tiene 4 cuartos solamente y que mediante un mecanismo de chance se seleccionan dos cuartos a los que ponerle alfombra mientras que los otros se quedan sin ella. Vamos a asumir que se miden los niveles de bacteria y que obtenemos lo siguiente:
80.
81. Si se asume la estructura de factores usual y se descompone la data para luego calcular las razones F, se obtiene lo que sigue:
82.
83. Nuestra hipótesis nula es que los verdaderos efectos para “Con Alfombra” y “Sin Alfombra” son ambos cero. Si esto es así, cada valor observado iguala sigue la regla de Benchmark + Error.
84. Además la cubierta del piso no afecta los valores observados. Supongamos que se ignora el proceso que crea los errores y que debido a que las alfombras no tienen efectos, el Cuarto 201 produce un cero (independientemente de lo que se le haga al piso. Similarmente el Cuarto 202 produce un 0, el 203 un 2 y el 204 un 8.
85. Entonces, aún asumiendo que la hipótesis nula es verdadera, los valores que se obtienen para las razones F estarán completamente determinados por el mecanismo de chance que se use para signar los cuartos a los dos grupos (con Alfombra, sin Alfombra).
86. De acuerdo a todo esto, el chance no proviene de los errores mismos, sino del proceso de aleatorización. Hay seis distintas maneras de sortear los 4 cuartos mediante un mecanismo de chance. Recuerde que así cada una de las 6 es igualmente probable.
87.
88. Este simple ejemplo ilustra dos propiedades muy importantes acerca de este tipo de muestreo que se basa puramente en la aleatorización: 1) SSCond + SSRes es constante (en el ejemplo ambas sumas son iguales a 68) 2) EMSCond = EMSRes (en este ejemplo ambos son 22.67)
89. En fin tenemos una distribución de muestreo para la razón-F sin asumir nada acerca de cómo los errores se producen. Solo utilizamos la hipótesis nula y el proceso de asignar los cuartos mediante el chance.
90. RESUMEN Hemos visto tres justificaciones para los modelos estándares de cajas. En la primera, la aleatorización se asume proviene del proceso de selección de individuos a ser medidos. En la segunda, la aleatorización se debe del proceso de medir los individuos (de las mediciones) sin importar cómo se escogen estos. En la tercera la aleatorización nos llega del proceso de asignar individuos a las condiciones (lo que vimos con las cuarto con alfombras o sin ellas) sin preocuparnos de cómo los individuos fuero escogidos o como se realizaron las medidas.
91. Bibliografía: George W. Cobb (1998) Introduction to Design and Analysis of Experiments; Secciones 15.4-15.6; Springer