Este documento trata sobre técnicas estadísticas para estimar proporciones y compararlas, incluyendo el cálculo de intervalos de confianza y pruebas de hipótesis. Explica cómo estimar una proporción puntualmente usando la fórmula p=X/n, y cómo determinar el tamaño de la muestra necesario para estimaciones. También cubre la comparación de dos proporciones mediante la estimación de su diferencia y pruebas estadísticas para probar hipótesis nulas sobre si dos proporciones son
Este documento trata sobre técnicas estadísticas para hacer inferencias sobre proporciones poblacionales a partir de muestras. Explica cómo estimar proporciones puntuales y construir intervalos de confianza para p, así como determinar el tamaño de muestra necesario. También cubre pruebas de hipótesis sobre una o dos proporciones, comparando valores nulos p0 con estimaciones puntuales o agrupadas. Finalmente, concluye que el estimador puntual de una proporción p es una media muestral, y cómo determin
Este documento explica el análisis de varianza de un factor (ANOVA), incluyendo sus suposiciones, la partición de la variabilidad total en componentes, y cómo se usa la razón F para probar la igualdad de las medias. También cubre comparaciones múltiples entre tratamientos y el uso de pruebas t o intervalos de confianza para realizar estas comparaciones.
Este documento describe varias pruebas estadísticas no paramétricas como la prueba de signos, la prueba de rangos con signos y la prueba H de Kruskal-Wallis. Explica cómo calcular estadísticos de prueba y valores p para estas pruebas no paramétricas y cómo decidir si rechazar o no la hipótesis nula basado en los resultados. También presenta un ejemplo numérico de cómo aplicar la prueba H de Kruskal-Wallis.
1. El documento describe varias distribuciones de probabilidad discretas y continuas. Incluye la distribución de Bernoullí, binomial, geométrica, hipergeométrica, Poisson y distribuciones continuas como la uniforme y exponencial. Cada distribución se define por su función de probabilidad y parámetros asociados como la media y varianza. También incluye ejemplos ilustrativos de cada distribución.
Este documento describe dos métodos para encontrar raíces de ecuaciones: el método del punto fijo y el método de la secante. El método del punto fijo involucra transformar la ecuación en una forma iterativa donde x está de un lado. El método de la secante usa una diferencia dividida en lugar de una derivada para estimar la pendiente y encontrar la siguiente aproximación.
Este documento presenta información sobre experimentos factoriales de dos factores, incluyendo el modelo matemático cuando hay interacción entre los factores, el análisis de varianza de dos factores, la representación gráfica de la interacción, y experimentos con efectos aleatorios, fijos o mixtos. Explica cómo calcular las sumas de cuadrados esperadas y realizar pruebas F para probar hipótesis sobre los efectos de los factores y su interacción.
Este documento describe varias distribuciones de probabilidad comúnmente usadas en estadística. Introduce la distribución de Bernoulli, binomial, Poisson, normal, gamma y t de Student. Explica cómo cada una se define, sus parámetros y cómo calcular la media y varianza. También proporciona ejemplos para ilustrar el uso de estas distribuciones.
Este documento presenta diferentes pruebas de hipótesis para dos muestras, incluyendo pruebas sobre dos medias y dos proporciones. Explica cómo calcular los estadísticos de prueba y establecer las regiones críticas para hipótesis bilaterales y unilaterales cuando las varianzas poblacionales son conocidas o desconocidas. También incluye ejemplos ilustrativos para cada tipo de prueba.
Este documento trata sobre técnicas estadísticas para hacer inferencias sobre proporciones poblacionales a partir de muestras. Explica cómo estimar proporciones puntuales y construir intervalos de confianza para p, así como determinar el tamaño de muestra necesario. También cubre pruebas de hipótesis sobre una o dos proporciones, comparando valores nulos p0 con estimaciones puntuales o agrupadas. Finalmente, concluye que el estimador puntual de una proporción p es una media muestral, y cómo determin
Este documento explica el análisis de varianza de un factor (ANOVA), incluyendo sus suposiciones, la partición de la variabilidad total en componentes, y cómo se usa la razón F para probar la igualdad de las medias. También cubre comparaciones múltiples entre tratamientos y el uso de pruebas t o intervalos de confianza para realizar estas comparaciones.
Este documento describe varias pruebas estadísticas no paramétricas como la prueba de signos, la prueba de rangos con signos y la prueba H de Kruskal-Wallis. Explica cómo calcular estadísticos de prueba y valores p para estas pruebas no paramétricas y cómo decidir si rechazar o no la hipótesis nula basado en los resultados. También presenta un ejemplo numérico de cómo aplicar la prueba H de Kruskal-Wallis.
1. El documento describe varias distribuciones de probabilidad discretas y continuas. Incluye la distribución de Bernoullí, binomial, geométrica, hipergeométrica, Poisson y distribuciones continuas como la uniforme y exponencial. Cada distribución se define por su función de probabilidad y parámetros asociados como la media y varianza. También incluye ejemplos ilustrativos de cada distribución.
Este documento describe dos métodos para encontrar raíces de ecuaciones: el método del punto fijo y el método de la secante. El método del punto fijo involucra transformar la ecuación en una forma iterativa donde x está de un lado. El método de la secante usa una diferencia dividida en lugar de una derivada para estimar la pendiente y encontrar la siguiente aproximación.
Este documento presenta información sobre experimentos factoriales de dos factores, incluyendo el modelo matemático cuando hay interacción entre los factores, el análisis de varianza de dos factores, la representación gráfica de la interacción, y experimentos con efectos aleatorios, fijos o mixtos. Explica cómo calcular las sumas de cuadrados esperadas y realizar pruebas F para probar hipótesis sobre los efectos de los factores y su interacción.
Este documento describe varias distribuciones de probabilidad comúnmente usadas en estadística. Introduce la distribución de Bernoulli, binomial, Poisson, normal, gamma y t de Student. Explica cómo cada una se define, sus parámetros y cómo calcular la media y varianza. También proporciona ejemplos para ilustrar el uso de estas distribuciones.
Este documento presenta diferentes pruebas de hipótesis para dos muestras, incluyendo pruebas sobre dos medias y dos proporciones. Explica cómo calcular los estadísticos de prueba y establecer las regiones críticas para hipótesis bilaterales y unilaterales cuando las varianzas poblacionales son conocidas o desconocidas. También incluye ejemplos ilustrativos para cada tipo de prueba.
Este documento describe los procedimientos para probar hipótesis estadísticas para una muestra, incluyendo pruebas para una media, proporción y varianza poblacional. Explica conceptos como hipótesis nula, hipótesis alternativa, errores tipo I y II, y cómo usar estadísticos de prueba como z, t y chi cuadrado para decidir si se rechaza o no la hipótesis nula. También incluye ejemplos ilustrativos de cómo aplicar estas pruebas de hipótesis.
Este documento describe diferentes modelos de probabilidad para variables aleatorias discretas y continuas. Para variables discretas, describe las distribuciones uniforme discreta, de Bernouilli y binomial. Para variables continuas, describe las distribuciones uniforme continua, normal, normal tipificada y chi-cuadrado de Pearson. Explica las funciones de probabilidad, esperanza y varianza de cada distribución.
Este documento presenta varias distribuciones de probabilidad comunes, incluyendo la binomial, Poisson, hipergeométrica, geométrica, normal, Ji-cuadrado, T de Student, F de Snedecor y uniforme. Para cada distribución, se describen su función de probabilidad, espacio paramétrico, valor esperado, varianza y función generadora de momentos. También se discuten aproximaciones normales para algunas distribuciones.
Este documento explica los conceptos fundamentales de las pruebas de hipótesis. Describe los cuatro componentes clave de una prueba de hipótesis: la hipótesis nula, la hipótesis alternativa, la estadística de prueba y la región de rechazo. También explica los tipos de errores que pueden ocurrir y cómo se calculan las probabilidades de cometer errores. Además, proporciona ejemplos detallados de cómo realizar pruebas de hipótesis para diferentes tipos de parámetros pob
Variables aleatorias discretas y continuascolcaxsiempre
Este documento describe las variables aleatorias discretas y continuas. Explica que una variable aleatoria es una función cuyos valores son los resultados numéricos posibles de un experimento estadístico. Las variables discretas toman valores en conjuntos numerables, mientras que las continuas toman valores en intervalos de números reales. También define las funciones de probabilidad, densidad y distribución para ambos tipos de variables, las cuales describen la asignación de probabilidades a los valores de la variable.
El documento define el valor esperado como un promedio ponderado que toma en cuenta la probabilidad de cada resultado posible de una variable aleatoria. Explica que los momentos son valores esperados de funciones de la variable y caracterizan su distribución de probabilidad. El segundo momento con respecto a la media se conoce como varianza, y su raíz cuadrada es la desviación estándar. Además, enumera propiedades del valor esperado como operador lineal.
Este documento describe conceptos básicos de variables aleatorias y distribuciones de probabilidad. Explica variables aleatorias discretas y continuas, y cómo se describen mediante funciones de masa de probabilidad, densidad de probabilidad y distribución acumulada. También cubre características como el valor esperado y la varianza, y proporciona ejemplos prácticos.
Este documento resume conceptos clave de probabilidad estadística como probabilidad, experimento, evento, espacio muestral, sucesos simples y compuestos, técnicas de conteo, permutaciones, combinaciones, probabilidades conjuntas, marginales y condicionales, eventos mutuamente excluyentes e incluyentes, y las leyes de multiplicación, aditividad y Bayes. Explica cada concepto con ejemplos para ilustrar su aplicación.
Este documento define las nociones básicas de esperanza y varianza para variables aleatorias discretas y continuas. La esperanza es el valor promedio esperado de una variable, mientras que la varianza mide la dispersión de sus valores alrededor de la esperanza. El documento explica cómo calcular la esperanza y varianza en cada caso, así como algunas propiedades importantes como la aditividad y que un factor constante puede sacarse del símbolo de la esperanza o varianza.
Variables aleatorias discretas y continuasScarlet Íglez
Una variable aleatoria es una variable estadística cuyos valores se obtienen de mediciones en algún tipo de experimento aleatorio. Formalmente, una variable aleatoria es una función, que asigna eventos. Por ejemplo, lanzar un dado o una moneda.
Este documento introduce el concepto de variable aleatoria. Define una variable aleatoria como una función que asigna valores numéricos a los sucesos elementales de un espacio de probabilidad de tal forma que para cada valor real x, el suceso {ω: X(ω) ≤ x} pertenece a la σ-álgebra. Explica que la función de distribución de una variable aleatoria X es la probabilidad de que X sea menor o igual que x. Proporciona ejemplos de variables aleatorias como el número de caras en el lanzamiento de una moneda o la suma de los puntos en
1) El documento habla sobre variables aleatorias continuas y discretas, definiendo funciones de probabilidad, distribución, esperanza y varianza para ambos tipos.
2) Se describen algunas distribuciones comunes como la uniforme, exponencial y normal, incluyendo sus parámetros y cómo calcular esperanza y varianza.
3) La distribución normal es importante porque puede aproximar la suma de muchas variables aleatorias gracias al Teorema Central del Límite.
1) Las relaciones de recurrencia definen una sucesión mediante una expresión que relaciona cada término con uno o más términos precedentes.
2) Las relaciones de recurrencia lineales son aquellas donde los coeficientes son constantes.
3) Resolver una relación de recurrencia implica encontrar una función explícita que satisfaga la relación para cualquier término.
El documento trata sobre variables aleatorias discretas. Explica conceptos como variable aleatoria, función de probabilidad, función de distribución y características como la esperanza matemática y la varianza. También describe distribuciones discretas notables como la uniforme discreta, binomial, de Bernouilli y hipergeométrica.
Variables Aleatorias y Distribuciones de ProbabilidadJuliho Castillo
Este documento trata sobre probabilidad y estadística, específicamente sobre variables aleatorias y distribuciones de probabilidad. Introduce conceptos como variables aleatorias discretas y continuas, funciones de probabilidad y distribución, y distribuciones conjuntas de probabilidad. Explica cómo asignar números aleatorios a puntos de un espacio muestral para definir una variable aleatoria, y cómo representar gráficamente funciones de distribución.
El documento explica conceptos básicos sobre variables aleatorias discretas, incluyendo su definición, funciones de probabilidad y distribución acumulada. Presenta ejemplos como el número de soles obtenidos al lanzar una moneda tres veces y el género del próximo recién nacido. Explica cómo calcular las probabilidades de eventos usando estas funciones y cómo los parámetros de una distribución definen una familia de distribuciones.
El documento define conceptos básicos relacionados con variables aleatorias, incluyendo la diferencia entre variables aleatorias discretas y continuas. Explica cómo calcular la función de probabilidad, función de distribución, esperanza matemática, varianza y desviación típica para variables aleatorias discretas y cómo definir la función de densidad de probabilidad para variables continuas. También presenta ejemplos comunes de distribuciones de probabilidad como la uniforme, normal y exponencial.
El documento describe conceptos básicos sobre distribuciones de probabilidad discretas y variables aleatorias. Explica que una variable aleatoria representa los posibles resultados de un experimento aleatorio y que su distribución de probabilidad especifica los valores que puede tomar y sus probabilidades asociadas. También introduce las distribuciones binomial y de Poisson como ejemplos de distribuciones discretas comúnmente usadas.
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFBLola FFB
Este documento introduce conceptos básicos sobre variables aleatorias y distribuciones de probabilidad. Explica que una variable aleatoria asigna números a los resultados de un experimento aleatorio y puede ser discreta o continua. Luego describe distribuciones discretas como la binomial y de Poisson, así como distribuciones continuas como la normal. Finalmente, presenta parámetros comunes como la media y varianza para definir distribuciones de probabilidad.
DISTRIBUCIÓN BERNOULLI Y DISTRIBUCIÓN BINOMIALSonyé Lockheart
Este documento describe las distribuciones de Bernoulli y binomial. La distribución de Bernoulli modela experimentos con dos resultados posibles (éxito o fracaso) con probabilidades p y q. La distribución binomial modela el número de éxitos en n ensayos independientes con probabilidad constante p de éxito en cada uno. Proporciona fórmulas para calcular las probabilidades de resultados específicos y explica cómo usar tablas binomiales para tales cálculos.
Este documento trata sobre inferencia estadística. Explica que la inferencia estadística implica estimar parámetros de una población con base en muestras, y que entre más grande sea la muestra, más exacta será la estimación. También describe diferentes tipos de pruebas estadísticas como pruebas paramétricas que requieren supuestos de normalidad, y pruebas no paramétricas que no requieren dichos supuestos. Finalmente, explica cómo se utilizan pruebas estadísticas como la prueba t de Student y
Estimación de medias, proporciones y diferenciasjuditalsina95
Este documento resume cuatro tipos de estimaciones estadísticas comunes: 1) la media de una variable cuantitativa, 2) la proporción de una variable categórica binaria, 3) la diferencia de medias entre una variable cuantitativa y categórica binaria, y 4) la diferencia de proporciones entre dos variables categóricas binarias. Para cada estimación, explica cómo calcular la media o proporción, el intervalo de confianza, y las hipótesis nula y alternativa.
Este documento describe los procedimientos para probar hipótesis estadísticas para una muestra, incluyendo pruebas para una media, proporción y varianza poblacional. Explica conceptos como hipótesis nula, hipótesis alternativa, errores tipo I y II, y cómo usar estadísticos de prueba como z, t y chi cuadrado para decidir si se rechaza o no la hipótesis nula. También incluye ejemplos ilustrativos de cómo aplicar estas pruebas de hipótesis.
Este documento describe diferentes modelos de probabilidad para variables aleatorias discretas y continuas. Para variables discretas, describe las distribuciones uniforme discreta, de Bernouilli y binomial. Para variables continuas, describe las distribuciones uniforme continua, normal, normal tipificada y chi-cuadrado de Pearson. Explica las funciones de probabilidad, esperanza y varianza de cada distribución.
Este documento presenta varias distribuciones de probabilidad comunes, incluyendo la binomial, Poisson, hipergeométrica, geométrica, normal, Ji-cuadrado, T de Student, F de Snedecor y uniforme. Para cada distribución, se describen su función de probabilidad, espacio paramétrico, valor esperado, varianza y función generadora de momentos. También se discuten aproximaciones normales para algunas distribuciones.
Este documento explica los conceptos fundamentales de las pruebas de hipótesis. Describe los cuatro componentes clave de una prueba de hipótesis: la hipótesis nula, la hipótesis alternativa, la estadística de prueba y la región de rechazo. También explica los tipos de errores que pueden ocurrir y cómo se calculan las probabilidades de cometer errores. Además, proporciona ejemplos detallados de cómo realizar pruebas de hipótesis para diferentes tipos de parámetros pob
Variables aleatorias discretas y continuascolcaxsiempre
Este documento describe las variables aleatorias discretas y continuas. Explica que una variable aleatoria es una función cuyos valores son los resultados numéricos posibles de un experimento estadístico. Las variables discretas toman valores en conjuntos numerables, mientras que las continuas toman valores en intervalos de números reales. También define las funciones de probabilidad, densidad y distribución para ambos tipos de variables, las cuales describen la asignación de probabilidades a los valores de la variable.
El documento define el valor esperado como un promedio ponderado que toma en cuenta la probabilidad de cada resultado posible de una variable aleatoria. Explica que los momentos son valores esperados de funciones de la variable y caracterizan su distribución de probabilidad. El segundo momento con respecto a la media se conoce como varianza, y su raíz cuadrada es la desviación estándar. Además, enumera propiedades del valor esperado como operador lineal.
Este documento describe conceptos básicos de variables aleatorias y distribuciones de probabilidad. Explica variables aleatorias discretas y continuas, y cómo se describen mediante funciones de masa de probabilidad, densidad de probabilidad y distribución acumulada. También cubre características como el valor esperado y la varianza, y proporciona ejemplos prácticos.
Este documento resume conceptos clave de probabilidad estadística como probabilidad, experimento, evento, espacio muestral, sucesos simples y compuestos, técnicas de conteo, permutaciones, combinaciones, probabilidades conjuntas, marginales y condicionales, eventos mutuamente excluyentes e incluyentes, y las leyes de multiplicación, aditividad y Bayes. Explica cada concepto con ejemplos para ilustrar su aplicación.
Este documento define las nociones básicas de esperanza y varianza para variables aleatorias discretas y continuas. La esperanza es el valor promedio esperado de una variable, mientras que la varianza mide la dispersión de sus valores alrededor de la esperanza. El documento explica cómo calcular la esperanza y varianza en cada caso, así como algunas propiedades importantes como la aditividad y que un factor constante puede sacarse del símbolo de la esperanza o varianza.
Variables aleatorias discretas y continuasScarlet Íglez
Una variable aleatoria es una variable estadística cuyos valores se obtienen de mediciones en algún tipo de experimento aleatorio. Formalmente, una variable aleatoria es una función, que asigna eventos. Por ejemplo, lanzar un dado o una moneda.
Este documento introduce el concepto de variable aleatoria. Define una variable aleatoria como una función que asigna valores numéricos a los sucesos elementales de un espacio de probabilidad de tal forma que para cada valor real x, el suceso {ω: X(ω) ≤ x} pertenece a la σ-álgebra. Explica que la función de distribución de una variable aleatoria X es la probabilidad de que X sea menor o igual que x. Proporciona ejemplos de variables aleatorias como el número de caras en el lanzamiento de una moneda o la suma de los puntos en
1) El documento habla sobre variables aleatorias continuas y discretas, definiendo funciones de probabilidad, distribución, esperanza y varianza para ambos tipos.
2) Se describen algunas distribuciones comunes como la uniforme, exponencial y normal, incluyendo sus parámetros y cómo calcular esperanza y varianza.
3) La distribución normal es importante porque puede aproximar la suma de muchas variables aleatorias gracias al Teorema Central del Límite.
1) Las relaciones de recurrencia definen una sucesión mediante una expresión que relaciona cada término con uno o más términos precedentes.
2) Las relaciones de recurrencia lineales son aquellas donde los coeficientes son constantes.
3) Resolver una relación de recurrencia implica encontrar una función explícita que satisfaga la relación para cualquier término.
El documento trata sobre variables aleatorias discretas. Explica conceptos como variable aleatoria, función de probabilidad, función de distribución y características como la esperanza matemática y la varianza. También describe distribuciones discretas notables como la uniforme discreta, binomial, de Bernouilli y hipergeométrica.
Variables Aleatorias y Distribuciones de ProbabilidadJuliho Castillo
Este documento trata sobre probabilidad y estadística, específicamente sobre variables aleatorias y distribuciones de probabilidad. Introduce conceptos como variables aleatorias discretas y continuas, funciones de probabilidad y distribución, y distribuciones conjuntas de probabilidad. Explica cómo asignar números aleatorios a puntos de un espacio muestral para definir una variable aleatoria, y cómo representar gráficamente funciones de distribución.
El documento explica conceptos básicos sobre variables aleatorias discretas, incluyendo su definición, funciones de probabilidad y distribución acumulada. Presenta ejemplos como el número de soles obtenidos al lanzar una moneda tres veces y el género del próximo recién nacido. Explica cómo calcular las probabilidades de eventos usando estas funciones y cómo los parámetros de una distribución definen una familia de distribuciones.
El documento define conceptos básicos relacionados con variables aleatorias, incluyendo la diferencia entre variables aleatorias discretas y continuas. Explica cómo calcular la función de probabilidad, función de distribución, esperanza matemática, varianza y desviación típica para variables aleatorias discretas y cómo definir la función de densidad de probabilidad para variables continuas. También presenta ejemplos comunes de distribuciones de probabilidad como la uniforme, normal y exponencial.
El documento describe conceptos básicos sobre distribuciones de probabilidad discretas y variables aleatorias. Explica que una variable aleatoria representa los posibles resultados de un experimento aleatorio y que su distribución de probabilidad especifica los valores que puede tomar y sus probabilidades asociadas. También introduce las distribuciones binomial y de Poisson como ejemplos de distribuciones discretas comúnmente usadas.
VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD. Bioestadística. LolaFFBLola FFB
Este documento introduce conceptos básicos sobre variables aleatorias y distribuciones de probabilidad. Explica que una variable aleatoria asigna números a los resultados de un experimento aleatorio y puede ser discreta o continua. Luego describe distribuciones discretas como la binomial y de Poisson, así como distribuciones continuas como la normal. Finalmente, presenta parámetros comunes como la media y varianza para definir distribuciones de probabilidad.
DISTRIBUCIÓN BERNOULLI Y DISTRIBUCIÓN BINOMIALSonyé Lockheart
Este documento describe las distribuciones de Bernoulli y binomial. La distribución de Bernoulli modela experimentos con dos resultados posibles (éxito o fracaso) con probabilidades p y q. La distribución binomial modela el número de éxitos en n ensayos independientes con probabilidad constante p de éxito en cada uno. Proporciona fórmulas para calcular las probabilidades de resultados específicos y explica cómo usar tablas binomiales para tales cálculos.
Este documento trata sobre inferencia estadística. Explica que la inferencia estadística implica estimar parámetros de una población con base en muestras, y que entre más grande sea la muestra, más exacta será la estimación. También describe diferentes tipos de pruebas estadísticas como pruebas paramétricas que requieren supuestos de normalidad, y pruebas no paramétricas que no requieren dichos supuestos. Finalmente, explica cómo se utilizan pruebas estadísticas como la prueba t de Student y
Estimación de medias, proporciones y diferenciasjuditalsina95
Este documento resume cuatro tipos de estimaciones estadísticas comunes: 1) la media de una variable cuantitativa, 2) la proporción de una variable categórica binaria, 3) la diferencia de medias entre una variable cuantitativa y categórica binaria, y 4) la diferencia de proporciones entre dos variables categóricas binarias. Para cada estimación, explica cómo calcular la media o proporción, el intervalo de confianza, y las hipótesis nula y alternativa.
Este documento describe diferentes pruebas estadísticas para comparar grupos, incluyendo diagrama de cajas, prueba t de Student, análisis de varianza de un factor y prueba t para muestras relacionadas. Explica cómo estas pruebas permiten contrastar hipótesis sobre las diferencias entre medias de grupos y los supuestos de normalidad y homocedasticidad requeridos. También menciona cómo SPSS puede usarse para realizar estas pruebas y evaluar los supuestos.
Unidad 11 Prueba de normalidad. Comparación de medias t de Student con SPSSRicardo Ruiz de Adana
Este documento describe diferentes pruebas estadísticas para evaluar la normalidad de los datos y comparar medias, incluyendo la prueba de Kolmogorov-Smirnov, gráficos Q-Q, t de Student y U de Mann-Whitney. Presenta ejemplos del uso de t de Student para comparar las medias de dos grupos independientes y apareados, concluyendo si las diferencias encontradas pueden o no ser explicadas por el azar.
Este documento presenta varias páginas web interesantes sobre las matemáticas, incluyendo enciclopedias, calculadoras, biografías de matemáticos, juegos, problemas y más. Algunos sitios recomendados son Enciclopedia Matemática, Sectormatemática.cl, Tareas-ya.com y Matemalia.tk, los cuales ofrecen recursos educativos sobre diversos temas matemáticos de manera divertida e interactiva. El autor invita al lector a visitar estas páginas para explorar y apre
Este documento explica los conceptos fundamentales de las pruebas de hipótesis. Describe los cuatro componentes clave de una prueba de hipótesis: la hipótesis nula, la hipótesis alternativa, la estadística de prueba y la región de rechazo. También explica los tipos de errores que pueden ocurrir y cómo se calculan las probabilidades de cometer errores. Además, proporciona ejemplos detallados de cómo realizar pruebas de hipótesis para diferentes tipos de parámetros y situ
Este documento describe los intervalos de confianza y cómo se construyen. Explica que un intervalo de confianza es un rango de valores que probablemente incluya el verdadero parámetro poblacional, basado en una muestra. Luego detalla cómo construir intervalos de confianza para la media, proporción y otros parámetros dependiendo de si la varianza es conocida o no y el tamaño de la muestra. Finalmente, explica cómo usar los intervalos de confianza para verificar hipótesis sobre parámetros poblacionales.
Este documento describe los intervalos de confianza y cómo se construyen. Explica que un intervalo de confianza es un rango de valores que probablemente incluya el verdadero parámetro poblacional, basado en una muestra. Luego detalla cómo construir intervalos de confianza para la media, proporciones y otros parámetros cuando la varianza es conocida o desconocida.
Este documento describe los componentes clave de las pruebas de hipótesis, incluyendo la hipótesis nula y alternativa, la estadística de prueba, y la región de rechazo. Explica cómo se determinan estos componentes dependiendo del parámetro estadístico en cuestión (como la media o la varianza poblacional) y la forma de la hipótesis alternativa. También discute los posibles errores y cómo controlar el nivel de significancia en una prueba de hipótesis.
Este documento describe conceptos fundamentales relacionados con la curvatura de superficies, incluyendo la aplicación de Gauss, el operador de Weingarten, la curvatura de Gauss, la curvatura media, y las curvaturas principales. Introduce las definiciones matemáticas formales de estas ideas y proporciona ejemplos ilustrativos como esferas, cilindros y planos.
El documento presenta información sobre intervalos de confianza. Explica que un intervalo de confianza estima un valor desconocido con una probabilidad determinada. Menciona que el nivel de confianza y el tamaño del intervalo están relacionados, siendo intervalos más amplios los que tienen mayores probabilidades de incluir el valor real. También presenta fórmulas para calcular intervalos de confianza para la media poblacional, la proporción poblacional y la desviación estándar poblacional basados en una muestra.
El documento presenta información sobre intervalos de confianza. Explica que un intervalo de confianza estima un valor desconocido con una probabilidad determinada. Detalla cómo se construyen intervalos de confianza para la media de una población y para una proporción, usando fórmulas que involucran la desviación estándar, el tamaño de la muestra y valores críticos de la distribución normal. También proporciona fórmulas para estimar intervalos de confianza para la media, desviación estándar y proporción con diferentes n
Este documento trata sobre los intervalos de confianza. Explica que un intervalo de confianza denota un rango de valores dentro del cual se espera encontrar el parámetro poblacional real basado en una muestra, y con un cierto nivel de confianza. Describe cómo calcular los límites inferior y superior del intervalo de confianza usando la media muestral, el error estándar y un valor Z correspondiente al nivel de confianza deseado. También presenta fórmulas para estimar intervalos de confianza para medias, proporciones y tama
Este documento describe la distribución muestral de proporciones. Explica cómo calcular la media y desviación estándar de la distribución muestral de proporciones a partir de una población, así como cómo usar la aproximación normal para calcular probabilidades relacionadas a la proporción muestral. También incluye ejemplos numéricos para ilustrar los conceptos.
Este documento trata sobre la estimación estadística inferencial. Explica que la estimación consiste en usar los resultados de una muestra para obtener conocimiento sobre los parámetros de la población, ya que generalmente los parámetros son desconocidos. Define conceptos clave como estimador puntual, propiedades de los estimadores como insesgado y eficiente, y métodos de estimación como la estimación por intervalos para proporcionar un rango de valores con una determinada probabilidad de incluir el parámetro.
Un electrón está confinado dentro de un núcleo de 5.0 x 10-15 m de diámetro. Usa el principio de incertidumbre para determinar si es relativista o no. Los protones y neutrones dentro del núcleo no son necesariamente relativistas. Un electrón en una caja unidimensional de 0.200 nm emite fotones al desexcitarse cuyas longitudes de onda van de 8.8 a 43.9 nm.
Este documento explica los componentes clave de las pruebas de hipótesis, incluyendo la hipótesis nula, la hipótesis alternativa, la estadística de prueba y la región de rechazo. También describe los tipos de errores que pueden ocurrir y cómo calcular la probabilidad de cometer errores. Finalmente, proporciona ejemplos de cómo realizar pruebas de hipótesis para la media, la proporción, la diferencia de medias y la varianza.
El documento presenta los conceptos básicos de planteamiento de hipótesis para la proporción en 1 y 2 poblaciones. Explica los contrastes bilaterales y unilaterales, así como las fórmulas y reglas de decisión utilizadas. Proporciona ejemplos numéricos para ilustrar cómo aplicar los métodos estadísticos inferenciales a datos reales sobre encuestas de opinión y calidad de productos.
El documento explica cómo calcular el tamaño de la muestra necesario para estimar una media poblacional o una proporción poblacional con un cierto nivel de confianza y error máximo de estimación. Presenta fórmulas para calcular el tamaño de la muestra para estimaciones de medias y proporciones en poblaciones finitas y infinitas, y resuelve ejemplos numéricos para ilustrar cómo aplicar las fórmulas.
Este documento presenta conceptos básicos sobre distribuciones de probabilidad, incluyendo distribuciones binomial, normal y tablas Z. Explica las características y propiedades de estas distribuciones, así como cómo calcular probabilidades y valores críticos utilizando tablas o funciones en Excel.
Este documento presenta información sobre la distribución binomial y Poisson. Explica las propiedades y parámetros de la distribución binomial, como el número de pruebas, la probabilidad de éxito y la función matemática. También cubre ejemplos y cómo usar tablas binomiales. Por último, discute cómo aproximar la distribución binomial a una distribución normal cuando el número de pruebas es grande.
Este documento describe los procedimientos para probar hipótesis estadísticas para una muestra. Explica conceptos como hipótesis nula y alternativa, errores tipo I y II, y valores p. Luego detalla los procedimientos para probar hipótesis sobre una media, proporción y varianza poblacional utilizando estadísticos como z, t y chi cuadrado e incluye ejemplos ilustrativos.
Este documento presenta los pasos y fórmulas para realizar diferentes tipos de pruebas de hipótesis, incluyendo pruebas para la media, proporción, diferencia de medias y proporciones, datos apareados y chi cuadrado. Explica cómo definir las hipótesis nula y alternativa, calcular estadísticos de prueba y valores p para determinar si se rechaza la hipótesis nula en favor de la alternativa.
Este documento describe métodos para estimar parámetros desconocidos de una población estadística a partir de una muestra. Explica el método de máxima verosimilitud, que determina el estimador que maximiza la probabilidad conjunta de los datos muestrales. También cubre estimación puntual, intervalos de confianza para la media y proporción, y ejemplos como estimar la probabilidad de éxito en una distribución binomial.
Este documento introduce el método matemático de inducción. Explica que la inducción matemática se usa para probar que una proposición es verdadera para todos los números naturales basándose en que es cierta para algunos casos iniciales y que si es cierta para un número k, también lo es para k+1. Presenta ejemplos como sumas y productos de números para ilustrar cómo funciona la inducción.
Este documento trata sobre tres tipos de estimadores puntuales: estimadores insesgados, estimadores obtenidos con el método de momentos y estimadores obtenidos con el método de máxima verosimilitud. También discute la estimación por intervalos y el teorema del límite central.
Este documento presenta un estudio sobre la necesidad de semáforos inteligentes en la ciudad de Loja, Ecuador. Recopila datos sobre el número de autos que pasan por un semáforo en 1 minuto y los analiza usando una distribución de Poisson. Calcula las probabilidades de que 1-6 autos se queden en un semáforo normal (40s rojo/40s verde) vs. uno inteligente (15s rojo/40s verde). Concluye que un semáforo inteligente reduce notablemente la congestión al ajustar los tiempos según la demanda
Este documento trata sobre estadística descriptiva y presenta las técnicas analíticas y gráficas utilizadas para describir un conjunto de datos, incluyendo diagramas de tallo y hoja, histograma y gráfica de caja. También cubre la representación de datos en histogramas y ojivas. Además, introduce conceptos como muestreo aleatorio y las características de un problema estadístico.
Este capítulo estudia las variables aleatorias bidimensionales y la densidad conjunta que se usa para calcular probabilidades relacionadas con dos variables aleatorias como (X, Y). También cubre cómo obtener las densidades marginales de X e Y a partir de la densidad conjunta y cómo medir la correlación lineal entre X y Y usando el coeficiente de correlación ρ. Además, explica cómo definir las densidades condicionales que se usan para determinar las ecuaciones de las curvas de regresión de Y sobre X y de X sobre Y.
Este documento presenta un capítulo sobre distribuciones continuas en estadística y probabilidad. Discutirá las propiedades de variables aleatorias continuas, que asumen valores en intervalos de números reales en lugar de puntos aislados. Analizará la función de densidad para calcular probabilidades como áreas. También definirá el valor esperado y función generadora de momentos mediante integración en lugar de suma, y estudiará la distribución normal.
Este capítulo trata sobre distribuciones discretas de variables aleatorias. Explica que las variables aleatorias pueden ser discretas u continuas, dependiendo del azar. Luego presenta distribuciones discretas especiales comúnmente usadas como la geométrica, hipergeométrica, binomial negativa, binomial, de Bernoulli y uniforme.
Este documento presenta el capítulo 2 de un curso de probabilidad y estadística. Cubre algunas leyes de probabilidad como los axiomas de probabilidad, probabilidad condicional, independencia y la regla de multiplicación, y el teorema de Bayes. El capítulo introduce estas leyes fundamentales de probabilidad que gobiernan el comportamiento de las probabilidades y se derivan de tres axiomas principales.
Think-E Estafa -En un mundo donde la educación en línea crece rápidamente, es natural que surjan preguntas sobre la confiabilidad de ciertas plataformas y sistemas.
Think-E Opiniones México ha sido objeto de rumores que insinúan que podría ser una estafa. Sin embargo, es importante separar la verdad de la ficción.
Think-E México no es una estafa. Es un sistema educativo comprometida con el desarrollo del inglés mediante cursos diseñados por expertos en el idioma.
Mi Carnaval, sistema utilizará algoritmos de ML para optimizar la distribució...micarnavaltupatrimon
El sistema utilizará algoritmos de ML para optimizar la distribución de recursos, como el transporte, el alojamiento y la seguridad, en función de la afluencia prevista de turistas. La plataforma ofrecerá una amplia oferta de productos, servicios, tiquetería e información relevante para incentivar el uso de está y generarle valor al usuario, además, realiza un levantamiento de datos de los espectadores que se registran y genera la estadística demográfica, ayudando a reducir la congestión, las largas filas y otros problemas, así como a identificar áreas de alto riesgo de delincuencia y otros problemas de seguridad.
Mario Mendoza Marichal -Uno de los aspectos más destacados de La Perennia es la amplia gama de actividades al aire libre que ofrece a sus residentes.
Este enfoque en el bienestar y la vida activa no solo mejora la calidad de vida, sino que también promueve un estilo de vida saludable y en armonía con la naturaleza.
MENTORÍA ENTRENANDO AL ENTRENADOR Oxford Group FULL.pdfOxford Group
La mentoría "Entrenando al Entrenador" se enfoca en desarrollar habilidades esenciales en los facilitadores internos para que puedan capacitar a otros miembros de la organización, impulsando el crecimiento y el éxito en el trabajo y en la vida. Esta mentoría se ofrece en dos modalidades: híbrida, presencial y en línea, para adaptarse a las necesidades y preferencias de los participantes. La evaluación es un proceso continuo y integral, con retroalimentación inmediata y continua para asegurar que los participantes estén en el camino correcto.
La mentoría se organiza en varias fases, cada una con objetivos específicos. La Fase 1 se centra en la presentación y demostración práctica de los conceptos clave, con retroalimentación inmediata y acceso a recursos adicionales. La Fase 2 se enfoca en la aplicación de técnicas aprendidas en situaciones reales, con oportunidades para que los participantes puedan aplicar las habilidades en su trabajo diario. La Fase 3 se centra en la autoevaluación y planificación, ayudando a los participantes a establecer objetivos y metas claras para su desarrollo personal.
La mentoría "Entrenando al Entrenador" busca certificar a los facilitadores internos para que puedan enseñar y apoyar el trabajo y el desarrollo continuo de habilidades de los demás. Al capacitar a estos facilitadores, se busca reducir costos y mejorar la eficiencia, incrementar la adopción de nuevas habilidades y comportamientos en la organización y desarrollar habilidades energéticas esenciales. La mentoría se basa en una metodología que combina presentaciones audiovisuales, demostraciones prácticas, retroalimentación inmediata y acceso a recursos adicionales para asegurar que los participantes puedan aprender y aplicar los conceptos aprendidos de manera efectiva.
MENTORÍA ENTRENANDO AL ENTRENADOR Oxford Group FULL.pdf
ENSAYO 10
1. ELECTRÓNICA Y TELECOMUNICACIONES
ESTADÍSTICA Y PROBABILIDAD
CAPÍTULO 10
Comparación de dos medias y dos varianzas
PROFESIONAL EN FORMACIÓN:
Wilson Arturo Torres Ayala
DOCENTE:
Ing. Luis Patricio Puchaicela Huaca
PARALELO:
C
LOJA-ECUADOR
2007-2008
2. RESUMEN
En este capítulo se estudian técnicas de gran importancia para hacer inferencias acerca
de una sola proporción con muestras bastante grandes. Además se estudia la forma de
determinar el tamaño de la muestra cuando se tiene una estimación previa de p, y
también cunado no la hay.
Hablaremos acerca de los intervalos de confianza, y de la comparación de hipótesis.
MARCO TEÓRICO
ESTIMACIÓN DE PROPORCIONES
Si se quiere estimar una proporción de una población de interés, se identifica un rasgo
específico y luego se clasifica a cada elemento de la población según posea dicho rasgo
o carezca de él.
Estimador puntual de p
X
p=
ˆ
n
X = número en la muestra que tiene el rasgo
n = tamaño de la muestra
Si podemos darnos cuenta esta fórmula no es otra cosa que una media muestral.
ˆ
Un estimador puntual p tiene distribución aproximadamente normal y posee las
siguientes características, es insesgado respecto de p y tiene varianza pequeña para
muestras grandes.
Intervalos de confianza para p
Al referirnos a intervalos de confianza estamos hablando de establecer límites los cuales
deben ser estadísticas, es decir tienen que ser variables aleatorias de tal manera que
puedan extraerse de una muestra.
Para poder obtener los límites de confianza nos valemos del teorema de límite central,
siempre y cuando la muestra sea lo suficientemente grande para que haya una mínima
diferencia entre dos puntos, z y t.
Los límites de confianza se los expresa de acuerdo a la siguiente fórmula:
p ± z α / 2 p(1 − p ) / n
ˆ ˆ ˆ
Tamaño de una muestra para estimar p
Anteriormente se dijo que la muestra debe ser bastante grande para que los resultados
no varíen mucho. Pero como saber para determinar el tamaño de la muestra.
Existen dos formas para establecer el tamaño de la muestra. La primera cuando se
cuenta con la estimación de p basada en experimentos previos.
2
p(1 − p )
ˆ
n = zα / 2 2
d
3. El segundo procedimiento para determinar el tamaño de la muestra es cuando no se
tiene una estimación previa de p. Para esto hay que remplazando ¼ por p(1 − p ) en la
ˆ ˆ
fórmula anterior, concluyendo en lo siguiente:
2
n = zα / 2
4d2
PRUEBA DE HIPÓTESIS SOBRE UNA PROPORCIÓN
Las hipótesis sometidas a prueba pueden asumir cualquiera de las tres formas usuales
que describiremos a continuación. Si p0 es el valor nulo de p .Esas formas son las
siguientes:
I H 0 : p = p0
H 1 : p > p0
Prueba de cola derecha
Al evaluar una cola derecha se rechaza H 0 y se acepta H 1 si el valor es un número
positivo grande.
II H 0 : p = p0
H 1 : p < p0
Prueba de cola izquierda
En una prueba de cola izquierda los números negativos grandes llevan al rechazo.
III H 0 : p = p0
H 1 : p ≠ p0
Prueba de dos colas
Mientras que en una prueba de dos colas H 0 se rechaza cuando los valores de prueba
son excesivamente grandes ya sean positivos o negativos.
La estadística usada es X, y tiene distribución binomial con parámetros n y p0 cuando
la hipótesis nula es verdadera.
Estadística de prueba para verificar H 0 : p = p0
( p − p 0 ) / p 0 (1 − p0 ) / n
ˆ
ˆ
Esto es una opción lógica cuando se compara el estimador puntual insesgado de p con
el valor nulo p0 .
COMPARACIÓN DE DOS PROPORCIONES: ESTIMACIÓN
Usualmente se compara dos proporciones en ingeniería, cuando existen dos poblaciones
de interés y es factible clasificar a cada elemento de la población como poseedor de un
4. rasgo o carente de este. Estas muestras son independientes, de tal modo que los objetos
obtenidos de una no determinan cuales objetos se deben extraer de la otra.
Para estimar la diferencia puntual de dos proporciones se resta una estimación puntual
de la otra, de esta forma:
p1 − p 2 = p1 − p 2 = X 1 / n1 − X 2 / n2
ˆ ˆ
Intervalo de confianza de p1 − p 2
La distribución de probabilidad de un estimador puntual p1 − p 2 se expresa en es te
ˆ ˆ
teorema:
En el caso de muestras grandes, el estimador p1 − p 2 es aproximadamente normal, con
ˆ ˆ
media p1 − p 2 y varianza p1 (1 − p1) / n1 + p 2 (1 − p 2 ) / n2
Al igual que en el caso de una muestra, el problema se resuelve al sustituir las
ˆ ˆ
proporciones poblacionales con sus estimadores puntuales p1 y p 2 . Esto nos da como
resultado la siguiente fórmula:
( p1 − p 2 ) ± z α / 2 p1 (1 − p1 ) / n1 + p 2 (1 − p 2 ) / n2
ˆ ˆ ˆ ˆ ˆ ˆ
Entonces si queremos relacionar dos proporciones con gran exactitud las muestras que
se seleccionen deben ser de igual tamaño en cada población.
COMPARACIÓN DE DOS PROPORCIONES: PRUEBA DE HIPÓTESIS
Suele ocurrir que en algunos problemas antes del experimento, una proporción o
porcentaje difieren de otro en una cantidad específica. Dado que ( p1 − p 2 ) 0 representa
el valor nulo de la diferencia entre las proporciones tenemos:
H 0 : p1 − p 2 = ( p1 − p 2 ) 0 H 0 : p1 − p 2 = ( p1 − p 2 ) 0 H 0 : p1 − p 2 = ( p1 − p 2 ) 0
I II III
H 1 : p1 − p 2 > ( p1 − p 2 ) 0 H 1 : p1 − p 2 < ( p1 − p 2 ) 0 H 1 : p1 − p 2 < ( p1 − p 2 ) 0
Prueba de cola derecha Prueba de cola izquierda Prueba de dos colas
La siguiente fórmula es una opción lógica de estadística de prueba ya que en ella se
compara la diferencia estimada de las proporciones p1 − p 2 con su diferencia hipotética
ˆ ˆ
( p1 − p 2 ) 0 . Si el valor hipotético es correcto las diferencias deben tener valores muy
cercanos entre si. Entonces el numerador debe ser cercano a cero, para que la estadística
.de prueba tenga un valor bajo
( p1 − p 2 ) − ( p1 − p 2 ) 0
ˆ ˆ
p1 (1 − p1 ) / n1 + p 2 (1 − p 2 ) / n2
ˆ ˆ ˆ ˆ
5. Proporciones agrupadas
Si la diferencia hipotética ( p1 − p 2 ) 0 puede tener cualquier valor, el propuesto mas
comúnmente es cero.
H 0 : p1 = p 2 H 0 : p1 = p 2 H 0 : p1 = p 2
I II III
H 1 : p1 > p 2 H 1 : p1 < p 2 H 1 : p1 ≠ p 2
Prueba de cola derecha Prueba de cola izquierda Prueba de dos colas
ˆ
Para poder analizar estas hipótesis existe otro procedimiento que aprovecha que p1 y
ˆ
p 2 son estimadores de una misma proporción, que se denota con p, si H 0 es verdadera.
ˆ ˆ
Puesto que p1 y p 2 son estimadores insesgados de p, tiene sentido que se los combine.
Para poder agrupar se multiplica cada estimador por su tamaño muestral para obtener el
estimador agrupado de p:
n1 p1 + n2 p 2
ˆ ˆ
p=
ˆ
n1 + n2
ˆ
Sustituyendo p con p se tiene:
p1 − p 2
ˆ ˆ
p(1 − p )(1 / n1 + 1 / n2 )
ˆ ˆ
La fórmula anterior es una estadística para comparar dos proporciones. Esta
combinación es inapropiada para probar H 0 : p1 − p 2 = ( p1 − p 2 ) 0 , donde ( p1 = p 2 ) ≠ 0 ,
ˆ ˆ
en virtud de que p1 y p 2 se estiman proporciones distintas.
CONCLUSIONES
-El estimador puntual es una media muestral muy especial. Es decir p = X .
ˆ
-Para poder determinar el tamaño de la muestra cuando no se tienen una estimación
2
p(1 − p )
ˆ ˆ
previa se remplaza ¼ por p(1 − p ) en la fórmula n = z α / 2 2
ˆ ˆ quedando la nueva
d
2
expresión de la siguiente manera n = z α / 2 .
4d2
-Si queremos obtener el estimador agrupado de p cuando p1 = p 2 , se multiplica cada
estimador por su tamaño muestral.
6. RESUMEN
En este capítulo se aprenderá técnicas para comparar medias, varianzas y medianas de
dos poblaciones. Estas técnicas se aplican a problemas en los que se extraen muestras
independientes es decir que una muestra no afecta directamente los resultados de la otra
muestra, y también en otros problemas en los que se relacionan por pares de datos.
MARCO TEÓRICO
ESTIMACIÓN PUNTUAL: MUESTRAS INDEPENDIENTES
El estimador puntual de la diferencia entre dos medias poblacionales es la diferencia
entre las medias muestrales.
µ1 − µ2 = µ1 − µ 2 = X 1 − X 2
ˆ ˆ ˆ ˆ
La distribución de la variable aleatoria X 1 − X 2 es necesaria para determinar los
ˆ ˆ
intervalos de confianza para µ1 − µ2 o poner a prueba una hipótesis. El siguiente
teorema muestra que el estimador X 1 − X 2 es un estimador insesgado de µ1 − µ2 .
ˆ ˆ
ˆ ˆ
Sean X 1 y X 2 las medias muestrales basadas en muestras aleatorias independientes de
tamaños n1 y n2 obtenidas de distribuciones normales con medias µ1 y µ2 , y varianzas
σ1 y σ2 , respectivamente. Entonces, X 1 − X 2 es normal, con media µ1 − µ2 y varianza
2 2
ˆ ˆ
σ1 / n1 + σ2 / n2 .
2 2
COMPARACIÓN DE VARIANZAS: LA DISTRIBUCIÓN F
Hay dos formas de comparar las medias de dos poblaciones normales:
- Cuando σ1 y σ2 son desconocidas e iguales.
2
2
- Cuando σ1 y σ2 son desconocidas y distintas.
2
2
Una técnica para comparar las varianzas de dos poblaciones normales es realizando una
prueba de hipótesis, que consiste en lo siguiente.
I H 0 : σ1 = σ2
2
2 II H 0 : σ1 = σ2
2
2
H1 : σ1 > σ2
2
2 H1 : σ1 ≠ σ2
2
2
Prueba de cola derecha Prueba de dos colas
En el caso de hacer una prueba de hipótesis con el método de cola derecha se parte del
supuesto que la hipótesis nula es verdadera. Para ello se debe conocer la distribución
cuando se piensa que las varianzas poblacionales son iguales.
Para que las varianzas poblacionales sean iguales, la proporción entre S 1 / S 2 debe ser
2
2
2 2
cercana a uno. Y las varianzas poblacionales son diferentes si S 1 / S 2 es mucho mayor
que la unidad (1).
Si las varianzas poblacionales son iguales, entonces tienen lo que se llama distribución
F. esta proporción se define en base a la distribución ji cuadrada. A continuación se
define la distribución F.
7. Sean X 2 y X 2 variables aleatorias ji cuadrada independientes con γ1 y γ 2 grados de
γ1 γ2
libertad, respectivamente. La variable aleatoria:
X γ / γ1
2
1
X γ / γ2
2
2
Tiene lo que se llama distribución F, con γ1 y γ 2 grados de libertad.
A continuación las propiedades de las variables aleatorias F:
- Hay un número infinito de variables aleatorias F, cada una identificada por dos
parámetros, γ1 y γ 2 , llamados grados de libertad. Estos parámetros siempre son enteros
positivos: γ1 se relaciona con la variable aleatoria ji cuadrada del numerador, y γ 2 con
la variable aleatoria ji cuadrada de su denominador.
- Cada variable aleatoria F es continua.
- La gráfica de la densidad de cada variable aleatoria F es una curva asimétrica.
- Las variables aleatorias F no pueden tener valor negativo.
El siguiente teorema nos sirve para probar que H 0 : σ1 = σ2 tiene distribución F cuando
2
2
H0 es verdadera.
Sean S 1 y S 2 varianzas muestrales basadas en las muestras aleatorias independientes
2
2
de tamaños n1 y n2 extraídas de poblaciones normales con medias µ1 y µ2 , y varianza
σ1 y σ2 , respectivamente. Si σ1 = σ2 , entonces la estadística S 1 / S 2 tiene distribución
2 2 2 2 2 2
F con n1 − 1 y n2 − 1 grados de libertad.
Supuestos de la prueba F con varianzas iguales
- Se supone que la normalidad y la prueba debe omitirse cuando la base en el diagrama
de tallo y hoja o el histograma, de cualquiera de las dos poblaciones no tiene forma de
campana.
- La prueba de igualdad de las varianzas funciona correctamente cuando los tamaños
muestrales son iguales. La prueba no debe usarse en caso de que exista gran diferencia y
duda de la normalidad de las poblaciones muestreadas.
- La hipótesis nula de que σ1 = σ2 , no se rechaza con la frecuencia necesaria, cuando las
2
2
varianzas son diferentes.
COMPARACIÓN DE MEDIAS: VARIANZAS IGUALES (PRUEBA
AGRUPADA)
Cuando las varianzas poblacionales son desiguales, se usa la prueba T agrupada
independiente o no correlacionada para comparar µ1 contra µ2 .
Intervalo de confianza para µ1 − µ2 : agrupada
8. Sean S 1 y S 2 las varianzas muestrales basadas en muestras independientes de tamaños
2
2
n1 y n2 , respectivamente. La varianza agrupada que se denota con S 2 , está dada por:
p
( n1 − 1) S 1 + ( n2 − 1) S 2
2 2
Sp =
2
n1 + n2 − 2
La obtención de una variable aleatoria para poder calcular un intervalo de confianza de
100(1-α)% para µ1 − µ2 se logra al remplazar la varianza poblacional desconocida σ2
en la variable aleatoria Z:
( X 1 − X 2 ) − (µ1 − µ2 )
ˆ ˆ
σ (1 / n1 + 1 / n2 )
2
Luego se remplaza el estimador agrupado S 2 en σ2 para tener la variable aleatoria:
p
( X 1 − X 2 ) − (µ1 − µ2 )
ˆ ˆ
S p (1 / n1 + 1 / n2 )
2
Al sustituir la varianza poblacional con su estimador si tiene efecto en la distribución.
La primera variable aleatoria es de tipo Z, y la segunda tiene distribución T, con
n1 + n2 − 2 grados de libertad. La estructura algebraica de esa variable aleatoria es la
siguiente:
Estimador − Parámetro
D
Los límites del intervalo de confianza de µ1 − µ2 están dados en este teorema:
ˆ ˆ
Sea X 1 y X 2 medias muestrales basadas en muestras aleatorias independientes,
obtenidas de distribuciones normales con medias µ1 y µ2 , respectivamente, y varianza
común σ2 . Sea S 2 la varianza muestral agrupada. Los límites de un intervalo de
p
confianza 100(1-α)% para µ1 − µ2 son:
( X 1 − X 2 ) ± t α / 2 S 2 (1 / n1 + 1 / n2 )
p
Donde se encuentra el punto t α / 2 en relación con la distribución T n + n − 2 .
1 2
Prueba T agrupada
La variable aleatoria que se usa para determinar los límites de confianza de un
parámetro también sirve como estadística de prueba de hipótesis correspondiente al
parámetro. La siguiente fórmula es útil como estadística de prueba de hipótesis usuales,
donde ( µ1 − µ2 ) 0 muestra la diferencia hipotética de las medias poblacionales:
( X 1 − X 2 ) − (µ1 − µ 2 ) 0
ˆ ˆ
= T n +n −2
S p (1 / n1 + 1 / n 2 )
2 1 2
9. La diferencia hipotética puede ser cualquier valor, pero lo más común es que sea igual a
cero. Para poder determinar si las medias poblacionales difieren las hipótesis pueden
tener las siguientes formas:
I H 0 : µ1 = µ2 II H 0 : µ1 = µ2 III H 0 : µ1 = µ2
H 1 : µ1 > µ2 H 1 : µ1 < µ2 H 1 : µ1 ≠ µ2
Prueba de cola derecha Prueba de cola izquierda Prueba de dos colas
COMPARACIÓN DE MEDIAS VARIANZAS: DESIGUALES
La estimación es incorrecta cuando se nota una diferencia en la comparación de las
varianzas poblacionales. La estadística necesaria se identifica al modificar la variable
aleatoria Z:
( X 1 − X 2 ) − (µ1 − µ2 )
ˆ ˆ
S 1 / n1 + S 2 / n2
2 2
Este cambio produce una distribución Z a la T aproximada. Para determinar el número
de grados de libertad se utiliza la técnica de Smith-Satterthwaite:
[ S 1 / n1 + S 2 / n2] 2
2
γ= 2 2
21
[ S 1 / n1] [ 2 / ]2
+ S 2 n2
n1 − 1 n21 − 1
El valoro de gamma γ no tiene que ser necesariamente un entero. Si no obtenemos un
entero se redondea al entero inmediato inferior, que tiene como fin ser conservador. A
medida que aumenta el número de grados de libertad relacionados con variables
aleatorias T, las curvas en forma de campana se vuelven más compactas.
El método de Smith-Satterthwaite se lo usa para encontrar los límites de confianza de
µ1 − µ2 cuando las varianzas poblacionales son desiguales.
COMPARACIÓN DE MEDIAS: DATOS POR PARES
Una relación por pares ocurre cuando dos muestras aleatorias no son independientes, es
decir que una muestra tiene relación de manera natural con la otra.
Con datos relacionados por pares es posible definir una nueva variable aleatoria D=X-Y,
de donde es extrae una muestra aleatoria de tamaño n de la población de diferencias. De
acuerdo con las reglas de la esperanza se tiene:
µ X − µY = E[ X ] − E[Y ] = E[ X − Y ] = E [ D] = µ D
El problema se redujo de dos muestras originalmente a otro de una muestra, consistente
en determinar una inferencia acerca de la media de la población de diferencias. La
fórmula siguiente se la utiliza para determinar los límites de confianza para µ X − µY .
D ± tα / 2 S d / n
Donde D y S d son la media muestral y la desviación estándar muestral; y t α / 2 es el
punto apropiado relativo a la distribución T n −1 .
Prueba T por pares
La hipótesis nula µ X = µY es igual a la hipótesis µ D = 0 . La estadística para probar la
hipótesis es la siguiente:
10. D −0
Sd / n
Además tiene distribución T con n-1 grados de libertad si H 0 es verdadera.
MÉTODOS NO PARMÁETRICOS ALTERNOS
Una de las técnicas alternativas para demostrar la igualdad de la localización de dos
poblaciones es la suma de rangos de Wilcoxon.
Prueba de suma de rangos de Wilcoxon
Si existen dos poblaciones X y Y, la hipótesis nula que se pondrá a prueba es que las
poblaciones X y Y son idénticas. La hipótesis nula suele expresarse con base en
medianas poblacionales iguales. A continuación se presenta las tres formas de hipótesis:
H0 : M X = MY H0 : M X = MY H0 : M X = MY
H1 : M X > M Y H1 : M X < M Y H1 : M X ≠ M Y
Prueba de cola derecha Prueba de cola izquierda Prueba de dos colas
Al realizar la prueba las observaciones m+n se agrupan para formar una sola muestra.
Después las observaciones se ordenan de menor a mayor y se clasifican de 1 a N = m+n.
En caso de empates, cada uno recibe el rango promedio del grupo. La estadística de
prueba, que se denota con W m , es la suma de los rangos que guardan relación con las
observaciones que inicialmente eran componentes de la muestra más pequeña.
Prueba de rango con signo de Wilcoxon para observaciones por pares
Sean X y Y variables aleatorias continuas, con distribuciones simétricas, se pretende
probar la hipótesis de que las medianas de estas dos distribuciones son iguales. D esta
manera las hipótesis tienen la siguiente forma:
H0 : M X = MY H0 : M X = MY H0 : M X = MY
H1 : M X > M Y H1 : M X < M Y H1 : M X ≠ M Y
Prueba de cola derecha Prueba de cola izquierda Prueba de dos colas
Para realizar la prueba de hipótesis se obtiene una muestra aleatoria de observaciones
por pares de X y Y. En primer término se forman las diferencias X 1 − Y 1 , X 2 − Y 2 K ,
X n − Y n . Si la hipótesis nula es verdadera, la población de diferencias es en torno a
cero. Para probar H 0 : M X = M Y , se somete a prueba H 0 : M X −Y = 0
Las pruebas de cola derecha se realizan mediante |W_|, y las de cola izquierda, con W +
como estadística de prueba. En cada caso, se rechaza H 0 con valores demasiado
pequeños para haber ocurrido al azar.
CONCLUSIONES
-Para comparar varianzas de muestras independientes se aplica un tipo de distribución,
que se la denomina distribución F.
-Si estamos analizando datos estadísticos de una distribución F, y las varianzas
poblacionales son desiguales, se utiliza el procedimiento T de Smith-Satterthwaite para
comparar las medias.
-La estadística de Wilcoxon es útil con datos muy grandes, para ello se lo debe clasificar
en rangos.