Análisis Paramétricas
Las dócimas que hemos mencionado hasta ahora, siempre
presuponen distribuciones particulares de la variable aleatoria, o
bien sus hipótesis especifican parámetros o distribuciones. Por esto
la estadística que se usan con más frecuencia son las estadísticas
paramétricas.
Estas técnicas permiten confirmar resultados o valorar las
inconsistencias de ellos.
¿Cuáles son los supuestos de las estadísticas
paramétricas?
1. La distribución poblacional de la variable dependiente es
normal: el universo tiene una distribución normal.
2. El nivel de la medición de la variable dependiente es por
intervalo o razón
3. Cuando dos o más poblaciones son estudiadas, éstas tienen una
varianza homogénea, es decir:
4. Las poblaciones en cuestión tienen una dispersión similar en sus
distribuciones
Son basados en muestreo de una población con
parámetros específicos, como la media (µ), la
desviación estándar (σ) o la proporción (p).
Estos métodos paramétricos usualmente tienen
que ajustarse a algunas condiciones
completamente estrictas, así como el requisito
de que los datos de la muestra provengan de
una población normalmente distribuidas
¿Cuáles son los métodos o pruebas estadísticas
paramétricas más utilizadas?
Coeficiente de Correlación de Pearson y la regresión lineal
Prueba “ t ”
Prueba de contraste de la diferencia de proporciones
Análisis de varianza unidireccional (ANOVA Oneway)
Análisis de varianza factorial (ANOVA)
Análisis de covarianza (ANCOVA)
¿Qué es el coeficiente de correlación de Pearson?
Definición.-
Es una prueba estadística para analizar la relación entre dos
o más variables medidas en un nivel por intervalos o razón
Se simboliza por “ r “
Hipótesis a probar:
Correlacionalmente, del tipo : “A mayor X, mayor Y”;
”A mayor X, menor Y”, “Altos valores en X están asociados
con altos valores en Y”, “Altos valores en X se asocian con
bajos valores de Y”
¿Qué es la regresión lineal?
Definición.-
Es un modelo matemático para estimar el efecto de una
variable sobre otra. Está asociado con el coeficiente de
Pearson r de Pearson
Hipótesis a probar:
Correlacionales y causales
¿Qué es la prueba “t” ?
Definición:
Es una prueba estadística para evaluar si dos grupos difieren
entre sí de manera significativa respecto a su medias.
Se simboliza por “ t ”
Hipótesis a probar:
De diferencia entre dos grupos. La hipótesis de investigación
propone que los grupos difieren significativamente entre sí y la
hipótesis nula no difiere significativamente
¿Qué es la prueba de diferencia de
proporciones?
Definición:
Es una prueba estadística para analizar si dos proporciones
difieren significativamente entre si.
Hipótesis a probar:
De diferencia de proporciones entre dos grupos
¿Qué es el análisis de varianza
unidireccional ? (oneway)
Definición
Es una prueba estadística para analizar si más de
dos grupos difieren significativamente entre sí en
cuanto a sus medias y varianzas .
La prueba “ t “ es utilizada para dos grupos y el
análisis de varianza unidereccional se usa para tres,
cuatro o más grupos
Hipótesis a probar:
De diferencia entre dos o más grupos, se propone
que los grupos difieren significativamente entre si y
la nula propone que no difieren
¿Qué es el análisis factorial de
varianza?
Definición:
Es una prueba estadística para evaluar el
efecto de dos o más variable
independientes sobre una variable
dependiente
Se conoce como ANOVA ( análisis de
varianza de k-direcciones)
¿Qué es el análisis de covarianza?
Definición:
Es una prueba estadística que analiza la relación entre una
variable dependiente y dos o más independientes, removiendo y
controlando el efecto de al menos una de estas independientes
Se destacan tres perspectivas para el análisis de covarianza
a) Perspectiva experimental
b) Perspectiva de interés por la covariable
c) Perspectiva de regresión
Análisis No Paramétricos
Una alternativa en la solución de problemas son los
métodos no paramétricos o de distribución libre, los cuales no
existen supuestos tan numerosos ni severos y son aplicables a
cualquier variable, en particular a las de tipo nominal u ordinal
así como a distribuciones diversas
Métodos no Paramétricos
Hay situaciones en que, por el escaso número
de observaciones, o por el nivel de medición de
las
variables, no es correcto o no es posible hacer
supuestos sobre las distribuciones muestrales
subyacentes.
En tales casos se usan los métodos “no
paramétricos” o de distribución libre
¿Cuáles son las presuposiciones de la
estadística no paramétrica?
La mayoría de estos análisis no requieren de presupuestos
acerca de la forma de la distribución poblacional. Aceptan
distribuciones no normales
Las variables no necesariamente deben de estar medidas en un
nivel por intervalos o razón , pueden analizarse datos nominales
u ordinales
Sí se quiere análisis no paramétricos a datos por intervalos o
razón, estos deben se resumidos a categoría discretas. Las
variables deben ser categóricas
¿Cuáles son los métodos o pruebas estadísticas no
paramétricas más utilizadas?
La Ji cuadrada o Chi cuadradra
Los coeficientes de correlación e independencia para
tabulaciones cruzadas
Los coeficientes de correlación para rangos
ordenados de Spearman y Kendall
¿Qué es la Ji cuadrada o Chi Cuadrado?
Definición:
Es una prueba estadística para evaluar la hipótesis
acerca de la relación entre dos variables categóricas
Se simboliza por x2
Hipótesis a probar: Correlacionales
Variables Involucradas: Dos
Nivel de medición de las variables :
Nominal u ordinal ( o intervalos o razón reducida a
ordinales)
La Chi cuadrada se calcula a través de una tabla de
contingencia o tabulación cruzada, de dos
dimensiones y cada una representa una variable.
¿Qué son los coeficientes de correlación e
independencia para tabulaciones cruzadas?
Este son otros coeficientes para evaluar si las variables
incluidas en la tabla de contingencia o tabulación cruzada
están correlacionadas; algunos coeficientes son los siguientes:
Phi, Coeficiente de contingencia o C dePearson,V de Gramer,
Lamdba ,Gamma, Tau-b de Kendall(Tau-b) , D de Somers, Eta.
etc.
¿Qué otra utilización tienen las tablas
de contingencia?
Además de servir para el cáculo de la chi cuadrado y otros
coeficientes, son útiles para describir conjuntamente a dos o
más variables .
Esto se efectúa convirtiendo las frecuencias observadas en
frecuencia relativas o porcentaje.
En una tabla cruzada puede haber tres tipos de porcentajes a
cada celda:
Porcentaje en relación al total de frecuencias observadas
(N)
Porcentaje en relación al total marginal de la columna
Porcentaje en relación al total marginal del renglón
¿Qué son los coeficientes de correlación por rangos
ordenados de Spearman y Kendall?
Los coeficientes rhoi de Spearman, simbolizado por rs, y tau de
Kendall, simbolizado como t, son medidas de correlación para
variables en un nivel de medición ordinal, de tal modo que los
individuos u objetos de la muestra pueden ordenarse por rangos o
jerarquías.
Ambos coeficientes varían de -1.0 (correlación negativa perfecta)
a +1,0 ( correlación positiva perfecta)
Estadísticas sumamente perfecta para variables ordinales
ANALISIS MULTIVARIADO
Los métodos de análisis multivariado son aquellos en donde se
analiza la relación entre varias variables independientes y al
menos una dependiente.
Son métodos que requieren del uso de computadoras para
efectuar los cálculos necesarios
La regresión múltilpe es un método que permite analizar el
efecto de dos o más variables independientes sobre una
dependiente. Es una extensión de la regresión lineal sólo que con
un mayor número de variables independientes.