TAMBIÉN ESTOY EN: Youtube: https://bit.ly/2TCUoiR y Facebook: https://bit.ly/2QYxWPf
Como "Bioestadística con JL Soto"
Variables continuas, campana de gauss, pruebas de normalidad, pruebas paramétricas y no paramétricas
2. Distribución Normal
Introducción
Distribución normal, distribución de Gauss o distribución
gaussiana, es la distribución de probabilidad para variables
continuas que aparece con más frecuencia en los fenómenos
naturales.
A la distribución normal también se la denomina con el
nombre de campana de Gauss, pues al representar su función
de probabilidad, ésta tiene forma de campana.
0
0,02
0,04
0,06
0,08
0,1
0,12
0,14
-6 -3,6 -1,2 1,2 3,6 6 8,4 10,8 13,2 15,6 18
Densidaddeprobabilidad
Distribución Normal (Gauss)
3. Distribución Normal
Introducción
● Modelos de probabilidad
Facilitan el cálculo de probabilidades
● Modelo de tipo continuo
Las variables aleatorias que siguen este modelo son de tipo
continuo ya que pueden asumir un número infinito de valores
dentro de un determinado rango.
Ej. el peso de una persona podría ser 80.5, 80.52, 80.525,...
dependiendo de la precisión de la balanza.
Ej. Peso, Altura, presión arterial, pruebas de exámenes,
pruebas de coeficiente intelectual, estadísticas deportivas
(promedio de bateo, tiempo en una competencia de
natación, resultados de salto de altura en una competencia
de atletismo.
4. Distribución Normal
Introducción
Ejemplo de variables aleatorias de tipo continua que siguen
una distribución normal:
● Características físicas: Peso, Talla, presión arterial, temperatura,
diámetros, perímetros..
● Estadísticas deportivas: Promedio de bateo, tiempo en una
competencia de natación, resultados de salto de altura en una
competencia de atletismo..
● Caracteres fisiológicas: por ejemplo: efecto de una misma dosis
de un fármaco, o de una misma cantidad de abono.
● Caracteres sociológicos: por ejemplo: consumo de cierto
producto por un mismo grupo de individuos, puntuaciones
estandarizadas de pruebas de exámenes.
● Caracteres psicológicos; por ejemplo: cociente intelectual,
grado de adaptación a un medio,...
● Errores cometidos al medir ciertas magnitudes.
● Valores estadísticos muéstrales: por ejemplo: la media.
5. Distribución Normal
Introducción
Estas variables aleatorias de tipo continua se pueden observar
gráficamente a través de una tabla de Histograma de
frecuencia y es más fácil de observar a través de una curva
suavizada.
curva suavizada
6. Distribución Normal
Características
Unimodal
Presenta un solo pico
en el centro exacto de
la distribución
Forma de campana
Simétrica
Media = Mediana = Moda
Media = μ Desviación estándar = σ
Asintótica
La curva se acerca cada
vez más al eje x, pero en
realidad nunca llega a
tocarlo.
Asintótica
16. Distribución Normal
Propiedades
𝒁 =
𝑿 − μ
σ
Ejemplo:
El peso en Kg. De los habitantes de una determinada
población sigue una distribución normal de media 75 Kg y
desviación típica 5 Kg. Calcular la probabilidad de que un
individuo de la población pese menos de 85 Kg.
X: Peso (Kg) de los habitantes de una población → X ~ N(75,5)
𝒁 =
𝟖𝟓 − 𝟕𝟓
5
= 2
𝑻𝒂𝒃𝒍𝒂 𝑵(𝟎, 𝟏)
18. Distribución Normal
Propiedades
𝒁 =
𝑿 − μ
σ
Ejemplo:
El peso en Kg. De los habitantes de una determinada
población sigue una distribución normal de media 75 Kg y
desviación típica 5 Kg. Calcular la probabilidad de que un
individuo de la población pese menos de 85 Kg.
X: Peso (Kg) de los habitantes de una población → X ~ N(75,5)
𝒁 =
𝟖𝟓 − 𝟕𝟓
5
= 2
𝑻𝒂𝒃𝒍𝒂 𝑵(𝟎, 𝟏)
= 0,97725
Respuesta: La probabilidad de que un individuo de la
población pese menos de 85Kg es del 97,725%.
19. Prueba de Normalidad
● Determina si los datos de la variable aleatoria continua se
ajusta a una distribución normal o no (paramétrica o no
paramétrica).
● Esto determina el tipo de pruebas estadísticas a desarrollar,
para establecer correlaciones o contrastar hipótesis que
establezcan la existencia de una relación causa efecto.
Test de Shapiro-Wilk
Prueba de Kolmogórov-
Smirnov Lilliefors
Prueba de Kolmogórov-
Smirnov
Pruebas para
determinar normalidad
20. ● Se utiliza cuando el
tamaño de la muestra
es menor de 50.
● SPSS (Analizar/
Estadísticos descriptivos/
Explorar/ Lista de
dependientes: colocar
la variable de estudio/
Gráficos marcamos la
cuadrícula “Gráficos
con pruebas de
normalidad”). (variables
cuantitativas).
Test de Shapiro-Wilk
Prueba de Kolmogórov-
Smirnov Lilliefors
Prueba de Kolmogórov-
Smirnov
Pruebas para
determinar normalidad
● Se utiliza cuando el
tamaño de la muestra
es mayor de 50.
● SPSS (Analizar/ Pruebas
no paramétricas/ K-S de
1 muestra/ Lista
contrastar variable: se
coloca la variable
cuantitativa de estudio).
● Corrige la prueba de K-S
con el límite máximo de
significancia de 0,2, esto
se da cuando se trabaja
con muestras menores
de 50; K-S le da
distribución normal a
todos los datos aún
cuando esto no es real.
● SPSS (Analizar/
Estadísticos descriptivos/
Explorar/ Lista de
dependientes: colocar
la variable de estudio/
Gráficos marcamos la
cuadrícula “Gráficos
con pruebas de
normalidad”). (variables
cuantitativas).
21. Prueba de Normalidad
Contraste de hipótesis
● Propósito: Demostrar distribución normal
Ho: La distribución de la variable aleatoria no es distinta a la distribución
normal (Significancia p > 0,05) (Se ajusta a la normal)
H1: La distribución de la variable aleatoria es distinta a la distribución
normal (Significancia p < 0,05) (No se ajusta a la normal)
La prueba de hipótesis se realiza con el estadístico: Kolmogorov-Smirnov
22. Prueba de Normalidad
Ho: Significancia p > 0,05 Se ajusta a la normal
Interpretación:
La distribución de la variable aleatoria es igual a la distribución normal.
SPSS (Analizar/ Pruebas no paramétricas/ K-S de 1 muestra)
23. Prueba de Normalidad
Ho: Significancia p > 0,05 Se ajusta a la normal
Interpretación:
La distribución de la variable aleatoria es igual a la distribución normal.
SPSS (Analizar/ Estadísticos descriptivos/ Explorar/ Lista de
dependientes: Variable cuantitativa)
25. Planteamiento: Se ha evaluado el peso del recién nacido en dos localidades y se desea
aplicar procedimientos paramétricos. ¿Es la distribución de la variable aleatoria diferente a
la distribución normal?
1
Plantear Hipótesis
Ho: La distribución de la variable aleatoria no es diferente a la distribución normal
H1: La distribución de la variable aleatoria diferente a la distribución normal
2 Establecer un nivel de significancia
Nivel de Significancia (alfa) α = ___5% = 0,05_________
3
Seleccionar estadístico de prueba (Resaltarla con amarillo)
a) Kolmogorov-Smirnov
b) Kolmogorov-Smirnov Lilliefors
c) Shapiro–Wilk
d) Anderson-Darling
4
Valor de P=____ 0,200 _______= 20,0% __________________________
Lectura del p-valor
Con una probabilidad de error del 20,0% la distribución de la variable aleatoria es diferente a la
distribución normal.
5 Toma de decisiones (dar como respuesta una de las Hipótesis)
La distribución de la variable aleatoria no es diferente a la distribución normal
Interpretación
La distribución de la variable aleatoria es igual a la distribución normal.
26. C.D Daniel Espinoza Espinoza
Pruebas Paramétricas
Pruebas No
paramétricas
PRUEBAS ESTADISTICAS
27. Pruebas estadísticas
PARAMÉTRICAS
Es una rama de la estadística inferencial que comprende los
procedimientos estadísticos y de decisión que están basados en las
distribuciones (distribución normal) de los datos reales.
Cuando desconocemos totalmente qué distribución siguen nuestros
datos entonces deberemos aplicar primero un test no paramétrico, que
nos ayude a conocer primero la distribución.
La mayoría de procedimientos paramétricos requiere conocer la forma
de distribución para las mediciones resultantes de la población
estudiada. Para la inferencia paramétrica es requerida como mínimo
una escala de intervalo, esto quiere decir que nuestros datos deben
tener un orden y una numeración del intervalo.
28. Pruebas estadísticas
NO PARAMÉTRICAS
La estadística no paramétrica es una rama de la estadística que
estudia las pruebas y modelos estadísticos cuya distribución subyacente
(distribución normal) no se ajusta a los llamados criterios paramétricos.
Su distribución no puede ser definida a priori, pues son los datos
observados los que la determinan.
La utilización de estos métodos se hace recomendable cuando no se
puede asumir que los datos se ajusten a una distribución conocida
(distribución normal), cuando el nivel de medida empleado no sea,
como mínimo, de intervalo.
29. Pruebas estadísticas
Paramétricas y No Paramétricas
Hay dos clases de pruebas estadísticas: Las paramétricas y las no
paramétricas. Las pruebas paramétricas tienen mayor capacidad para
detectar una relación real o verdadera entre dos variables, si es que la
misma existe. Por ello, exigen que los datos a los que se aplican,
cumplan tres requisitos:
1. Variable numérica: Que las variable de estudio (dependiente) esté medida en una
escala que sea por lo menos de intervalo.
2. Normalidad: Que los valores de la variable dependiente sigan una distribución
normal; por lo menos, en la población a la que pertenece la muestra.
Prueba estadística: Kolmogorov Smirnov
3. Homocedasticidad: Que las varianzas de la variable dependiente en los grupos que
se comparan sean aproximadamente iguales (homogeneidad de las varianzas).
Prueba estadística: Test de Levene.
30. Pruebas estadísticas
Paramétricas y No Paramétricas
Distribución Homocedástica
Qué las varianzas de la variable dependiente en los grupos que se comparan sean
aproximadamente iguales (homogeneidad de las varianzas).
31. Pruebas estadísticas
Paramétricas y No Paramétricas
Cuando los datos cumplen con los requisitos indicados, las pruebas
estadísticas paramétricas exhiben su máximo poder.
Cuando estas pruebas estadísticas se aplican a datos que no
cumplen al menos uno de los requisitos señalados, pierden parte de
su poder.
Si se puede utilizar una prueba paramétrica y se usa una no
paramétrica hay una pérdida de información.
Las pruebas estadísticas no paramétricas, no hacen a los datos
ninguna de las exigencias que les hacen las pruebas estadísticas
paramétricas; por eso se les denomina "pruebas estadísticas libres de
distribución".
32. Pruebas estadísticas
Paramétricas y No Paramétricas
PRUEBAS ESTADÍSTICAS DE ACUERDO AL TIPO DE VARIABLES
Pruebas
paramétricas
NOMINAL NOMINAL
DICOTOMICA POLITÓMICA
Estudio Binomial
Transversal X2
Bondad de Ajuste
Muestras X2
de Homogeneidad
Independientes Corrección de Yates
Test exacto de Fisher
Más de dos grupos
ANOVA con un factor
INTERsujetos
H Kruskal-Wallis X2
de Homogeneidad X2
de Homogeneidad
Medidas
Repetidas
Mas de dos medidas
ANOVA para medidas
repetidas o
ANOVA con un factor
INTRAsujetos
Friedman Q de Cochran Q de Cochran
Estudio
Longitudinal
Dos medidas McNemar Q de Cochran
T de Student para muestras
relacionadas
ORDINAL
X2
Bondad de Ajuste
U Mann-Withney
Wilcoxon
Un grupo X2
Bondad de Ajuste
T de Student para una
muestra
Dos grupos X2
de Homogeneidad
T de Student para muestras
independientes
Variable aleatoria
NUMÉRICA
Variable fija
Pruebas no paramétricas
OBJETIVO COMPARATIVO
33. Pruebas estadísticas
Paramétricas y No Paramétricas
PRUEBAS ESTADÍSTICAS SEGÚN EL NIVEL DE INVESTIGACIÓN
Pruebas paramétricas
Nivel de
Investigación
Objetivo Estadístico Numéricos Ordinales
Nominal
Dicotómica
Nominal
Politómica
DESCRIPTIVO
Contraste para un grupo
Describir: Medidas de tendencia central
y de dispersión
Estimar: Estimación puntual e intervalos
de confianza
Comparar:
t de Student para una muestra
Comparar:
X2
Bondad de Ajuste
Comparar:
Bondad de Ajuste de X2
Binomial
Comparar:
Bondad de Ajuste de X2
Comparar dos grupos
t de Student para muestras
independientes
U Mann-Whitney
X2
de Homogeneidad
Corrección de Yates
Test exacto de Fisher X2
de Homogeneidad
Comparar dos medidas
t de Student para muestras
relacionadas
Prueba de Wilcoxon
X2
de McNemar Q de Cochran
Asociar o Correlacionar Correlación de Pearson Correlación de Spearman X2
de Independencia X2
de Independencia
Medida de Asociación/ Correlación
Coeficiente de correlación R
Pearson
Taub de Kendall
Índice Kappa de Cohen Índice Kappa de Cohen
Más de dos grupos
Análisis de la varianza (ANOVA con
un factor INTERsujetos) y pruebas
Post Hoc
ANOVA de Kruskal-Wallis
X2
de Homogeneidad X2
de Homogeneidad
Más de dos medidas
ANOVA para medidas repetidas o
ANOVA con un factor INTRAsujetos Friedman Q de Cochran Q de Cochran
PREDICTIVO
Estimación probabilistica
Regresión Lineal:
Regresión Lineal Simple
Regresión Lineal Multiple
Regresiones Logísticas:
Regresión Logística
Ordinal
Regresiones Logísticas:
Regresión Logística Binaria
Regresiones Logísticas:
Regresión Logistica
Multinomial
RELACIONAL
Pruebas no paramétricas
35. Planteamiento: Se ha evaluado el peso del recién nacido en dos localidades y se desea
aplicar procedimientos paramétricos. ¿La varianza de los grupos a comparar son
diferentes?
Interpretación
Las varianzas de los grupos a comparar son iguales.
1
Plantear Hipótesis
Ho: La varianza de los grupos a comparar no son diferentes
H1: La varianza de los grupos a comparar son diferentes
2 Establecer un nivel de significancia
Nivel de Significancia (alfa) α = ______5% = 0,05_________
3
Seleccionar estadístico de prueba (Resaltarla con amarillo)
a) Kolmogorov-Smirnov
b) Kolmogorov-Smirnov Lilliefors
c) Shapiro–Wilk
d) Test de Levene
4
Valor de P=______ 0,723805 = 72,38% _____________________________________
Lectura del p-valor
Con una probabilidad de error del 72,38% la varianza de los grupos a comparar son diferentes
5 Toma de decisiones (dar como respuesta una de las Hipótesis)
La varianza de los grupos a comparar no son diferentes