4. 1. Plantear la hipótesis en términos
estadísticos
H0: La hipótesis nula: Es una afirmación de que no
hay diferencia entre las variables: no están
relacionadas. A menudo, esto puede considerarse
el statu quo y, como resultado, si no se puede
aceptar lo nulo, se requiere alguna acción.
Ha: La hipótesis alternativa: Es una afirmación sobre la
población que es contradictoria con H0 y lo que
concluimos cuando rechazamos H0. Esto es normalmente
lo que el investigador está tratando de probar.
4
5. Ejemplo 2: Se realiza un ensayo médico para comprobar si un nuevo medicamento reduce
el colesterol en un 25 %. Indique las hipótesis nula y alternativa.
Ejemplo 1: Queremos comprobar si los estudiantes universitarios tardan menos de cinco
años en graduarse, en promedio. Las hipótesis nula y alternativa son:
H0: μ ≥ 5
Ha: μ < 5
H0: μ = 25%
Ha= μ < 25%
5
6. 2. Elegir un nivel de significación
• El nivel de significación es la
probabilidad de que la diferencia
observada se deba al azar.
• Interesa que esta probabilidad sea
pequeña, por eso, en la práctica se
utilizan valores iguales o inferiores a
0,05.
• El valor más usado es 0,05 pero
también puede ser 0,04; 0,02; 0,01;
etc.
• Al nivel de significación se le
identifica con la letra griega alfa (α).
• Al elegir un valor de alfa concreto,
estamos dejando la mitad de alfa en
cada extremo de la distribución de
probabilidades (α/2).
6
7. PRUEBAS DE
SIGNIFICANCIA
ESTADÍSTICA Son
procedimientos que
facilitan decidir si una
Hipótesis nula se rechaza
o no se rechaza.
La aplicación de estas
pruebas parte del
supuesto de que se ha
utilizado un diseño de
muestreo probabilístico
(al azar, sistemático,
estratificado o
conglomerados) para
obtener la información
muestral que permita
tomar decisions
estadísticas
7
9. 3. Calcular el estadístico de prueba a base de los datos
muestrales
• El estadístico que se utilice para la
prueba de la hipótesis dependerá de los
elementos que participan en él.
• La prueba z se utiliza cuando el tamaño
de la muestra es grande (n > 30),
mientras que la prueba t es apropiada
cuando el tamaño de la muestra es
pequeño (n < 30).
9
10. 4. Buscar en
la tabla
correspondie
nte:
Será necesario buscar a continuación:
• La probabilidad de obtener un valor igual o
mayor al estadístico calculado, cuando éste sea
positivo, o la probabilidad de obtener un valor
menor o igual, cuando el estadístico sea
negativo.
• En resumen: P(z > z0) cuando z0 sea positivo
o P(z < z0) cuando z0 sea negativo.
•
10
12. 5. Comparar la probabilidad obtenida en la tabla con el nivel de
significación elegido en el punto 2 y tomar una decisión
respecto de las hipótesis planteadas.
Parece evidente que para tomar
buena decisión es conveniente
disponer de criterios. Debemos
decidir si la hipótesis nula es
verdadera o falsa. Entonces, de
acuerdo a la evidencia aportada
los datos de la muestra
o rechazaremos la hipótesis nula
según el siguiente criterio:
Se rechazará la hipótesis
nula si la probabilidad
en la tabla es inferior a la mitad
del nivel de significación(α/2).
12
14. 6. Elaborar una conclusión derivada de la
decisión
Una vez tomada la decisión sobre las hipótesis
debemos exponer lo que esto significa en el contexto
de nuestro problema particular.
7. Apoyar todo el proceso de análisis con
un gráfico del problema
A la hora de tomar la decisión es muy útil y orientador un
buen gráfico donde se consigne el nivel de significación, el
valor del estadístico y la probabilidad asociada a él.
14
16. ALGUNOS CONCEPTOS ASOCIADOS A LA PRUEBA DE
HIPOTESIS
Rechazar una Hipótesis nula (Ho) siendo esta verdadera. Tiene asociada una probabilidad α
Error tipo I
Aceptar una Hipótesis nula (Ho) siendo esta falsa. Tiene asociada una probabilidad β.
Error tipo II
Es aceptar una Hipótesis nula (Ho) siendo esta verdadera por lo tanto es una decisión acertada; tiene
asociada una probabilidad de 1 – α. Los niveles de confianza más usados son el 0,99 (99%) y el 0,95 (95%)
Nivel de confianza
Rechazar una Hipótesis nula (Ho) siendo esta falsa (Acierto). Tiene asociado una probabilidad que es 1 – β
(Es la probabilidad de estar en potencia de prueba). Es un complemento al error tipo II.
Potencia de Prueba
16
19. Generalmente se considera un nivel de
significancia igual o menor a 5%
(= 0.05, =0.01, etc.).
Error Tipo I (). Consiste en rechazar una Hipótesis
nula verdadera.
Este error se conoce como nivel de significancia
estadística a partir del cual se toma la decisión de
rechazar o no rechazar la Hipótesis nula.
Error Tipo II (). Consiste en no rechazar una
Hipótesis nula falsa.
25. ESCALAS DE MEDICIÓN Y PRUEBAS ESTADÍSTICAS
ESCALAS
TIPO DE
RELACION
ESTADISTICOS PERMITIDOS
PRUEBAS ESTADISTICAS
PERMITIDAS
NOMINAL IGUALDAD
Moda
No paramétricas
(cualitativos)
Distribución de Frecuencias.
Chi Cuadrada
ORDINAL MAYOR QUE
Cuartiles, Deciles y Percentiles
Mediana
Coeficiente de Spearman y Brow
Coeficiente de Kendall
Chi Cuadrada
INTERVALOS
IGUALDAD DE
INTERVALOS
Media Aritmética
Paramétricas
(cuantitativos)
Varianza/Desviación Típica o Estándar
Coeficiente de Pearson
t de Student y/o Prueba Z
Análisis de Varianza
Análisis de Covarianza
Análisis Multivariado de Varianza
Análisis Lineal de Patrones
Análisis Discriminante
Asimetría y la Kurtosis 25
28. AREAS DE LA INFERENCIA ESTADISTICA
INFERENCIA
ESTADISTICA
ESTIMACIÓN DE
PARÁMETROS
PRUEBA DE HIPÓTESIS
Estimación
puntual
Intervalosde
confianza
28
29. 29
Estimación puntual
El objetivo de la estimación puntual es
aproximar el valor del parámetro
desconocido (tiempo medio de ejecución
de un algoritmo, altura media de las
mujeres de una población, diferencia del
resultado medio entre dos tratamientos
médicos, proporción de gente que mejora
con un tratamiento médico…)
30.
31.
32. PODER ESTADÍSTICO DE UN ESTUDIO (POTENCIA)
Capacidad que tiene el estudio para
rechazar una Hipótesis nula falsa.
Capacidad que tiene el estudio de
detectar diferencias cuando
realmente las hay.
Probabilidad de que los resultados del
estudio sean verdaderos.
Usualmente en el diseño de una muestra, se
establecen apriori valores de poder iguales o
mayores a 80%.
Los errores y son inversamente
proporcionales y su punto de equilibrio sucede
cuando = 0.05 (confianza del 95%) y = 0.20
(poder del 80%).
32
33. PRUEBA DE HIPOTESIS: PASOS
• Establecer la Hipótesis nula (Ho.) y alterna
(Ha.)
1. HIPÓTESIS:
• Definir el nivel de significancia (usualmente
del 5%).
2. NIVEL DE SIGNIFICANCIA:
• Definir y aplicar la estadística de prueba para
obtener el valor de probabilidad (valor-p).
3. ESTADÍSTICO DE PRUEBA:
• Si valor-p menor o igual que entonces
rechazar la Ho.
• Si valor-p mayor que entonces No rechazar la
Ho
4. COMPARAR EL VALOR-P CON
EL NIVEL DE SIGNIFICANCIA:
https://es.khanacademy.org/math/ap-statistics/tests-significance-ap/error-probabilities-power/a/consequences-errors-
significance
33
34. (…) PASOS PARA LA PRUEBA DE HIPOTESIS
1)Formular la Hipótesis de Investigación
2)Plantear las correspondientes hipótesis estadísticas
- Hipótesis nula (Ho): Es la que se somete a prueba (Es la
que contrastamos o verificamos). Es la única que pasa por la
igualdad, por lo tanto las relaciones que plantea un hipótesis nula
son las siguientes: =, ≥, ≤.
- Hipótesis alterna (Ha): Platea diferencia y generalmente
coincide con la hipótesis de investigación o del investigador, a menos
que la hipótesis del investigación sea formulada en términos de
igualdad, por lo que de ser así está coincide con la nula.
34
35. (…) PASOS PARA LA PRUEBA DE HIPOTESIS
3) Determinar un nivel de significación (α), la cual es la probabilidad de
cometer el error tipo I (Rechazar una hipótesis siendo esta verdadera).
- α más usados: 0,01 (1%) y 0,05 (5%).
- Un nivel de error que técnicamente se denomina p value o valor p (nivel de
significación mínima o α mínimo para poder rechazar la Ho.
- si p ≤ 0,01: se rechaza la Ho con un p < 0,01 (1% de significación)
- si p > 0,01 y ≤ 0,05: se rechaza Ho con un p < 0,05
- si p > 0,05: se acepta Ho con un p > 0,05 (95% de confianza)
4) Adoptar una decisión estadística (D.E.) Se acepta o se rechaza la Ho.
5) Concluir: confirmando o desconfirmando la Hipótesis de Investigación
35
36. CORRELACIONES
Procedimiento estadístico que intenta probar el grado de asociación que
hay entre dos o más variables
Correlaciones
Bivariadas
Correlaciones
Mulivariadas
Es un número que nos dice hasta donde los cambios o variaciones que presenta una
variable se explican por las variaciones o cambios que presenta otra variables («Juego de
varianzas»)
La correlación no implica causalidad, la única vez que yo puedo atribuir
causalidad es cuando la correlación es perfecta (-1 o +1).
Características
de las
correlaciones
monto
dirección
Tiene que ver con la fuerza de la correlación, las
que pueden ser: fuertes (0,66 a 1), moderada
(0,35 a 0,65) y débiles (0 – 0,34)
Tiene que ver con el signo de la correlación.
Pueden ser positivas (directa) o negativas
(inversa). No todos los coeficientes asumen
valores positivos y negativos
36
37. COEFICIENTES DE CORRELACIÓN
PEARSON (RXY)
1
- Dos variables cuantitativas continuas con un nivel de medición a lo mínimo
intervalar
- La relación de las variables debe ser de naturaleza lineal
- Asume valores que van del -1 a +1, pasando por el 0 que significa ausencia
de correlación.
SPEARMAN (RS)
2
- Dos variables cuantitativas con un nivel de medición a lo mínimo ordinal
- La relación de las variables debe ser de naturaleza lineal
- Asume valores que van del -1 a +1, pasando por el 0 que significa ausencia
de correlación.
- Spearman es un derivado de Pearson, Kendall no lo es.
- Kendall se utiliza para determinar una correlación parcial (control de
variables intervinientes)
- Spearman es aproximadamente 1,5 veces más grandes que Kendall en el
mismo conjunto de datos.
KENDALL (Τ)
3
PUNTO BISERIAL (RPB)
4
- Es un derivado de Pearson
- Correlación entre una variables dicotómica real o genuina (nominal) con otra
variable que es cuantitativa continua medida a lo menos en una escala
intervalar.
- El signo no se interpreta, sino que hay que ver las medias de los grupos
- En SPSS se realiza mediante el coeficiente de correlación de Pearson
BISERIAL (RB)
5
- Es un derivado de Pearson
- Correlación entre una variable es que cuantitativa medida a lo menos en una
escala intervalar con otra variable que es dicotómica aparente o artificial
37
38. Phi (rφ)
6
- Sirve para calcular la correlación entre dos variables dicotómicas reales o una
dicotómica real y una aparente.
- El signo no se interpreta, pues son variables cualitativas. Para interpretar hay
que recurrir a la tabla de contingencia.
- Condición: Si existe una frecuencia esperada menor a 5, se interpreta mediante
el estadístico exacto de Fisher (Chi cuadrado)
CONTINGENCIA (C)
7
- Es un derivado de Pearson
- Tradicionalmente se utiliza para calcular la correlación entre 2 variables
dicotómicas (reales o aparentes), dos policotómicas (reales o aparentes) o una
dicotómicas y una policotómicas..
- Su uso se restringirá a dos variables policotomicas o una policotómica y una
dicotómica
- Toma valores que van entre 0 y 1
- Condición: si más del 20% de las frecuencias esperadas son inferiores a 5, no se
puede calcular.
Tetracorico (rt)
8
- Se utiliza para calcular la correlación entre dos variables dicotómicas
aparentes
- Es derivado de Pearson
- La dicotomía por lo general se realiza en la mediana.
COEFICIENTES DE CORRELACIÓN
38
39. COEFICIENTES DE CORRELACIÓN
Eta (Ϩxy; Ϩyx)
9
Correlación
Múltiple
10
- Se utiliza para calcular la correlación entre una variable (criterio) y 2 o mas variables
(predictoras).
- El coeficiente se denomina coeficiente de correlación múltiple .
- Asume valores que van de -1 a +1 pasando por el 0
- El signo no se interpreta, sólo establece si existe o no correlación.
Correlación Parcial
11
- Se utiliza para calcular la correlacioón entre dos variables cuantitativas continuas
manteniendo controlada los efectos de una tercera variables que se sabe que influye
(correlación previa).
- La correlación parcial obtenida se denomina correlación pura.
- La influencia de la variables controlada puede ser:
- Positiva: cuando esta controlada baja el monto de la correlación
- Negativa: cuando esta controlada aumenta el monto de la correlación 39
40. Supuestos para la
correlación de
PEARSON:
• Las variables son métricas
• Los valores de las variables son pares
(ambas variables tienen un valor para cada
caso.
• 3. La relación entre las variables es
aproximadamente líneal.
• 4. Las variables tienen una distribución
normal.
40
42. SUPUESTOS PARA LA CORRELACIÓN DE
SPEARMAN:
Las variables son ordinales y
métricas
Los valores de las variables
son pares (ambas variables
tienen un valor para cada caso.
3. La relación entre las
variables es monótona
(creciente, decreciente, no
necesariamente lineal).
•rs = Correlación de rango de Spearman
•D = la diferencia entre los rangos de las variables
correspondientes
•n = número de observaciones
42
44. Supuestos para la correlación de Spearman (Rho):
Correlation es un análisis bivariado que mide la fuerza de asociación entre dos variables y la
dirección de la relación.En términos de la fuerza de la relación, el valor del coeficiente de
correlación (rs) varía entre +1 y -1 . A medida que el valor del coeficiente de correlación vaya
hacia 0, la relación entre las dos variables será más débil.
La dirección de la relación
se indica mediante el signo
del coeficiente; un +
sign indica una
relación Direct y un -
sign indica una
relación Inverse .
En general,rs > 0
implica un acuerdo
positivo entre los
rangos
rs < 0 implica acuerdo
negativo (o acuerdo en
la dirección inversa)
rs = 0 implica que
no hay acuerdo
44
48. Probabilidad y Estadística para Ingenieros - Ronald E. Walpole y
Raymond H. Myers Sexta edición. Prentice Hall. 2012
Probabilidad y estadística para Ingenieros y ciencias Walpole 9a Ed.
PEARSON. 2013
LECTURAS RECOMENDADAS
48