Este documento presenta diferentes tipos de pruebas estadísticas paramétricas y no paramétricas. Explica las ventajas de las pruebas paramétricas como tener más poder de contraste y eficiencia. Describe pruebas específicas como la prueba t, ANOVA y correlación de Spearman. También cubre medidas de distribución como asimetría y curtosis para describir cómo se agrupan los datos.
2. Tipos de pruebas
Pruebas Paramétricas
Se llaman así porque su cálculo implica una
estimación de los parámetros de la
población
con
base
en
muestras
estadísticas. Mientras más grande sea la
muestra más exacta será la estimación,
mientras más pequeña, más distorsionada
será la media de las muestras por los
valores raros extremos.
3. Tipos de pruebas
Ventajas de las Pruebas Paramétricas
Tienen mas poder de contraste
Más poder de eficiencia.
Más sensibles a los rasgos de los datos
recolectados.
Menos posibilidad de errores.
Completas (dan estimaciones probabilísticas
bastante exactas).
4. Tipos de pruebas
Prueba
t (student) : Es una prueba
parametrica que es utilizada para
comparar las medias de dos grupos
independientes. Nos permite establecer
diferencias estadísticamente significativas
entre las medias de dos grupos.
Para esto se ve el valor de p o de
significancia estadística debe ser
mayor que 0.05.
5. Tipos de pruebas
¿Que es el nivel de significancia?
La probabilidad de que un evento ocurra
oscila entre 0 y 1, donde:
0= significa la imposibilidad de ocurrencia
1=la certeza de que ocurra el fenómeno
6. Tipos de pruebas
Anova:
Es una prueba estadística para
analizar si dos o mas grupos difieren
significativamente entre si, en cuanto a
sus medias y varianzas.Se utiliza para la
comparación de medias de 2 o mas
grupos.
7. Tipos de pruebas
Pruebas
no
parametricas :
Se
denominan pruebas no paramétricas
aquellas que no presuponen una
distribución de probabilidad para los
datos, por ello se conocen también como
de distribución libre (distribution free).
Las
pruebas no parametricas mas
utilizadas
8. Tipos de pruebas
Prueba de Wilcoxon para contrastar datos pareados.
Prueba de Mann-Whitney para muestras independientes
Prueba de Kruskal-Wallis para comparar K muestras
Prueba de Friedman para comparar K muestras
pareadas (bloques)
Coeficiente de correlación de Spearman para rangos
Prueba de rachas de Wald-Wolfowitz
9. Pregunta de investigación
Asociación de 2 variables (dep,
indep)
Tipos de variable
Prueba
Dependiente independiente
categórica
categórica
chi-cuadrado
categórica
cuantitativa
Regresión logística
Cuantitativa
categórica
Prueba T
ANOVA
Cuantitativa
Cuantitativa
Correlación Spearman
Regresión lineal
10. Comparacion de variables
(diferencias)
Variable
Número de variables independientes
2 grupos datos pareados >2grupos
Kruskal
Prueba t pareada
Cuantitativa Prueba t
wallis
MannOrdinal
Wilcoxon
Whitney
Categórica
chicuadrada*
11. Medidas de Distribución
Las medidas de distribución nos permiten
identificar la forma en que se separan o
aglomeran los valores de acuerdo a su
representación gráfica. Estas medidas describen
la manera como los datos tienden a reunirse de
acuerdo con la frecuencia con que se hallen
dentro de la información
Sus principales medidas son la Asimetría y la
Curtosis
12. Medidas de Distribución
ASIMETRÍA
Esta medida nos permite identificar si los
datos se distribuyen de forma uniforme
alrededor del punto central (Media
aritmética). La asimetría presenta tres
estados diferentes, cada uno de los cuales
define de forma concisa como están
distribuidos los datos respecto al eje de
asimetría.
13. Medidas de Distribución
Se dice que la asimetría es positiva cuando
la mayoría de los datos se encuentran hacia el
lado izquierdo de la curva (por debajo de la
media aritmética).
La curva es Simétrica cuando se distribuyen
aproximadamente la misma cantidad de valores
en ambos lados de la media
15. El Coeficiente de asimetría, se representa mediante la
ecuación matemática,
Donde (g1) representa el coeficiente de
asimetría de Fisher, (Xi) cada uno de los
valores, (
X ) la media de la
muestra y (ni) la frecuencia de cada
valor. Los resultados de esta ecuación se
interpretan:
(g1 = 0): Se acepta que la distribución es
Simétrica,
es
decir,
existe
aproximadamente la misma cantidad de
valores a los dos lados de la media. Este
valor es difícil de conseguir por lo que se
tiende a tomar los valores que son
cercanos ya sean positivos o negativos
(± 0.5).
16. Medidas de Distribución
(g1 > 0): La curva es asimétricamente positiva por
lo que los valores se tienden a reunir más en la
parte izquierda que en la derecha de la media.
(g1 < 0): La curva es asimétricamente negativa
por lo que los valores se tienden a reunir más
en la parte derecha de la media.
18. Medidas de Distribución
Distribución leptocúrtica:
presenta un elevado
grado de concentración
alrededor de los valores
centrales de la variable.
.
19. Medidas de Distribución
Distribución mesocúrtica:
presenta un grado de
concentración
medio
alrededor de los valores
centrales de la variable (el
mismo que presenta una
distribución normal).
20. Medidas de Distribución
Distribución platicúrtica:
presenta un reducido
grado de concentración
alrededor de los valores
centrales de la variable.