Este documento compara la estadística paramétrica y no paramétrica. La estadística paramétrica se basa en distribuciones conocidas determinadas por parámetros, mientras que la no paramétrica estudia distribuciones cuya forma no se conoce a priori. Algunas pruebas comunes paramétricas son la prueba t y F, mientras que las no paramétricas incluyen la prueba de signos, Mann-Whitney y Kruskal-Wallis. Cada enfoque tiene ventajas y desventajas dependiendo de
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Estadística paramétrica vs no paramétrica
1. República Bolivariana de Venezuela
Universidad Bicentenaria de Aragua
A.C. Estudios Superiores Gerenciales Corporativos Valles del Tuy
CREATEC-CHARALLAVE - Centro Regional de Apoyo de los Valles del Tuy
Escuela de Psicología
Cátedra: Psicoestadística
Profesor:
MSc. Cruz Guerra
Integrante:
Oberto Kleinschmidt, José Ramón Ricardo – CI: 18.329.593
Charallave, Julio 2019
2. ASPECTOS A COMPARAR ESTADÍSTICA PARAMÉTRICA ESTADÍSTICA NO PARAMÉTRICA
DEFINICIÓN
Es una rama de la estadística inferencial que comprende los
procedimientos estadísticos y de decisión que están basados en
distribuciones conocidas. Estas son determinadas usando un
número finito de parámetros.
Es una rama de la estadística que estudia las pruebas y
modelos estadísticos cuya distribución subyacente no se
ajusta a los llamados criterios paramétricos. Su distribución
no puede ser definida a priori, pues son los datos
observados los que la determinan.
CARACTERÍSTICAS
Son determinadas usando un número finito de parámetros.
La variable de estudio ha de ser numérica.
Requiere conocer la forma de distribución para las mediciones
resultantes de la población estudiada.
Sus datos deben tener un orden y una numeración del
intervalo.
Son requeridas como mínimo una escala de intervalo.
Son más fáciles de aplicar.
Son aplicables a los datos jerarquizados.
Se pueden usar cuando dos series de observaciones
provienen de distintas poblaciones.
Son la única alternativa cuando el tamaño de muestra es
pequeño.
Son útiles a un nivel de significancia previamente
especificado.
PRUEBAS
Prueba T de student para datos relacionados (muestras
dependientes)
Prueba T de student para datos NO relacionados (muestras
dependientes)
Prueba del Valor Z de la Distribución Normal
Prueba t para una muestra
Prueba t para dos muestras independientes
Prueba t para dos muestras relacionadas
Prueba F (Análisis de Varianza a ANOVA para más de dos
muestras independientes)
• Prueba χ² de Pearson
• Prueba binomial
• Prueba de Anderson-Darling
• Prueba de Cochran
• Prueba de Cohen kappa
• Prueba de Fisher
• Prueba de Friedman
• Prueba de Kendall
• Prueba de Kolmogórov-Smirnov
• Prueba de Kruskal-Wallis
• Prueba de Kuiper
• Prueba de Mann-Whitney o prueba de Wilcoxon
• Prueba de McNemar
• Prueba de la mediana
• Prueba de Siegel-Tukey
• Prueba de los signos
• Coeficiente de correlación de Spearman
• Tablas de contingencia
• Prueba de Wald-Wolfowitz
• Prueba de los rangos con signo de Wilcoxon
ESCALAS DE MEDICIÓN
Escala de Razón: Los datos de escala de razón se definen como
un tipo de datos cuantitativos que se caracterizan por un
punto de cero absoluto, es la más rica en cuanto a la
información que proporciona. Los números se comparan en
múltiplos uno, la cantidad de sujetos, llamada n en estadística,
tendrá que ser mayor que 30 por grupo, favoreciendo los
resultados del contraste de hipótesis el hecho de que los
grupos estén balanceados.
Distribución Normal: Pongamos que, por ejemplo, queremos
comparar dos grupos. Para comprobar si podemos aplicar las
pruebas paramétricas, primero tendremos que comprobar si la
distribución de los grupos en la variable cuantitativa es
normal. Además, también tendremos que comprobar la
homogeneidad de las varianzas en las poblaciones de las que
proceden los grupos.
Variables Cuantitativas: Las pruebas paramétricas son un tipo
de pruebas de significación estadística que cuantifican la
asociación o independencia entre una variable cuantitativa y
una categórica
Escala Nominal o Clasificatoria: Es la que puede
considerarse la escala de nivel más bajo, y consiste en la
asignación, puramente arbitraria de números o símbolos
a cada una de las diferentes categorías en las cuales
podemos dividir el carácter que observamos, sin que
puedan establecerse relaciones entre dichas categorías,
a no ser el de que cada elemento pueda pertenecer a
una y solo una de estas categorías.
Escala Ordinal o de Rango: Es la que en caso de que
puedan detectarse diversos grados de un atributo o
propiedad de un objeto, la medida ordinal es la indicada,
puesto que entonces puede recurrirse a la propiedad de
"orden" de los números asignándolo a los objetos en
estudio de modo que, si la cifra asignada al objeto A es
mayor que la de B, puede inferirse que A posee un mayor
grado de atributo que B.
Escala de Intervalos Iguales: Son las que están
caracterizadas por una unidad de medida común y
constante que asigna un número igual al número de
unidades equivalentes a la dela magnitud que posea el
elemento observado.
Escala de coeficientes o Razones: Es el nivel de medida
más elevado y se diferencia de las escalas de intervalos
iguales únicamente por poseer un punto cero propio
como origen, es decir, que el valor cero de esta escala
significa ausencia de la magnitud que estamos midiendo.
Si se observa una carencia total de propiedad, se dispone
de una unidad de medida para el efecto.
SUPUESTOS
Independencia de las observaciones a excepción de datos
pareados.
Las observaciones para la variable dependiente se han
obtenido de manera aleatoria de una población con
distribución normal.
La variable dependiente es medida al menos en una escala de
intervalo.
Se recomienda un tamaño de muestra mínimo de 30 sujetos
por grupo (mediciones cuantitativas, actualmente es
opcional).
Los datos son obtenidos de poblaciones que tienen varianzas
iguales (una varianza no debe ser el doble o mayor que la
Cuando la hipótesis a ser probada no se relaciona con
ningún parámetro.
Cuando los datos han sido medidos en una escala más
débil que la requerida para el procedimiento
paramétrico alternativo.
Cuando se han violado una o más suposiciones
necesarias para la aplicación del método paramétrico
apropiado. Un procedimiento no paramétrico es
frecuentemente la única alternativa.
3. otra).
Habitualmente las hipótesis se hacen sobre valores numéricos,
especialmente el promedio de una población (μ), como
ejemplo: Ho: μ1 = μ2 H1: μ1 ≠ μ2.
Otros posibles requisitos: variable independiente nominal o de
intervalo, homocedasticidad (para cada nivel de la variable
independiente hay una variación similar de la variable
dependiente) y casillas de igual tamaño.
Cuando los resultados se necesitan rápidamente y los
cálculos deben hacerse a mano.
VENTAJAS
Más poder de eficiencia.
Más sensible a los rasgos de los datos recolectados.
Menos posibilidad de errores.
Robustas (dan estimaciones probabilidades bastante exactas).
La probabilidad de usar una prueba incorrectamente es
muy pequeña.
Algunos procedimientos los cálculos pueden ser
ejecutados rápida y fácilmente, especialmente si deben
hacerse a mano y los resultados urgen.
Experimentadores con una mínima preparación en
estadística y matemática encontraran los conceptos y
métodos fáciles de entender.
Pueden ser aplicados cuando la escala de medición es
tanto fuerte como débil.
DESVENTAJAS
Más complicadas de calcular.
Limitaciones en los tipos de datos que se pueden evaluar.
A consecuencia de que los cálculos son fáciles y simples
(en su gran mayoría), a veces se utilizan estos
procedimientos cuando los paramétricos serían más
apropiados. Tales errores a menudo desperdician
información.
Aunque estos procedimientos tienen reputación de
requerir cálculos simples, en algunas pruebas su
aritmética es laboriosa y tediosa.
REFERENCIAS
Barreto A. El progreso de la estadística y su utilidad en la
evaluación del desarrollo. Revista Papeles de Población,
México, Universidad Autónoma del Estado de México. 2012;
12p.
Salcedo A, Díaz R. La estadística en la investigación.
Competencia transversal en la formación universitaria”.
Programa de Cooperación Interfacultades, Venezuela,
Universidad Central de Venezuela 2013: 9-21.DOI: 978P.
Gómez M, Danglot C, Vega L. Sinopsis de pruebas estadísticas
no paramétricas. Cuándo usarlas. Revista Mexicana de
Pediatría. México. 2003; 70 (2).
Berlanga V, Rubio M. Clasificación de pruebas no
paramétricas. Cómo aplicarlas en SPSS. REIRE. 2012; 5 (2).
Infante Gil S. 1980. Métodos estadísticos no
paramétricos. Colegio de Postgraduados. 189 p.
Conover, W. J. 1980. Practical Nonparametric statistics.
John Wiley & Sons. 493 p.
Infante Gil, S. y Zárate de Lara, G. P. 1986. Métodos
estadísticos. Un enfoque interdisciplinario. Trillas. 643 p.
Sidney Siegel. 1970. Diseño experimental no paramétrico
aplicado a las ciencias de la conducta. Trillas, S.A. 346 p.