1. Prueba T de Student para datos relacionados
(muestras dependientes)
La prueba estadística t de Student para muestras dependientes es una
extensión de la utilizada para muestras independientes. De esta manera, los
requisitos que deben satisfacerse son los mismos, excepto la independencia de
las muestras; es decir, en esta prueba estadística se exige dependencia entre
ambas, en las que hay dos momentos uno antes y otro después. Con ello se da
a entender que en el primer período, las observaciones servirán de control o
testigo, para conocer los cambios que se susciten después de aplicar una
variable experimental.
Con la prueba t se comparan las medias y las desviaciones estándar de grupo
de datos y se determina si entre esos parámetros las diferencias son
estadísticamente significativas o si sólo son diferencias aleatorias.
Consideraciones para su uso
El nivel de medición, en su uso debe ser de intervalo o posterior.
El diseño debe ser relacionado.
Se deben cumplir las premisas paramétricas.
En cuanto a la homogeneidad de varianzas, es un requisito que también debe
satisfacerse y una manera práctica es demostrarlo mediante la aplicación de la
prueba ji cuadrada de Bartlett. Este procedimiento se define por medio de la
siguiente fórmula:
Donde:
t = valor estadístico del procedimiento.
= Valor promedio o media aritmética de las diferencias entre los
momentos antes y después.
d = desviación estándar de las diferencias entre los momentos antes y
después.
N = tamaño de la muestra.
La media aritmética de las diferencias se obtiene de la manera siguiente:
La desviación estándar de las diferencias se logra como sigue:
2. Pasos:
1. Ordenar los datos en función de los momentos antes y después, y
obtener las diferencias entre ambos.
2. Calcular la media aritmética de las diferencias ( ).
3. Calcular la desviación estándar de las diferencias ( d).
4. Calcular el valor de t por medio de la ecuación.
5. Calcular los grados de libertad (gl) gl = N - 1.
6. Comparar el valor de t calculado con respecto a grados de libertad en la
tabla respectiva, a fin de obtener la probabilidad.
7. Decidir si se acepta o rechaza la hipótesis.
Ejemplo:
Objetivo. Comparar los niveles de ansiedad de jóvenes no asertivos antes y
después de participar en un entrenamiento de habilidades sociales.
Especificaciones. 10 jóvenes no asertivos que asisten a la Clínica
Universitaria de Salud Integral (CUSI) del campus Iztacala. Se evaluó el
número de comportamientos ansiosos que reportaban los jóvenes antes y
después del entrenamiento.
Elección y justificación de la prueba estadística T de Student para grupos
relacionados.
a. Las mediciones son cuantitativas con variables continuas y una escala
de intervalo.
b. Número de observaciones N=10.
c. Una VD numérica: puntajes de 10 jóvenes no asertivos que asisten a la
CUSI.
d. Una VI con 2 niveles: Antes y después del entrenamiento.
e. Dos muestras relacionadas: los mismos sujetos evaluados en dos
momentos diferentes.
Planteamiento de la hipótesis.
Hipótesis alterna (Ha). El nivel de ansiedad de jóvenes no asertivos
disminuye después de participar en un entrenamiento en habilidades
3. sociales, existiendo diferencias significativas entre antes y después. Ha:
X1 < X2.
Hipótesis nula (Ho). Los cambios observados antes y después del
entrenamiento en habilidades sociales se deben al azar, y no hay
diferencias entre ambos períodos. Ho: X1 X2.
Nivel de significación.
Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se
rechaza Ho. = 0.05
Zona de rechazo.
Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza
Ha.
a. Si la to tt se rechaza Ho.
b. Si la p(to) a se rechaza Ho.
Puntaje obtenido de 10 jóvenes no asertivos que asisten a la CUSI.
Cálculo de la prueba estadística.
_ d 161
d = ------ = ---------- = 16.1
N 10
4. = 0.05
gl = 9
to = 5.79
tt = 2.262
El valor calculado o obtenido de t (5.79) se compara con los valores críticos
de la distribución t (tabla), y se observa que a una probabilidad de 0.05 le
corresponde 2.262 de t. Por tanto, el cálculo tiene una probabilidad menor que
0.05.
Decisión.
Como to es de 5.79, con 9 grados de libertad, tiene un valor de probabilidad
menor que 0.05, entonces se acepta Ha y se rechaza Ho.
to > tt se rechaza Ho. Hay una reducción en los niveles de ansiedad en 10
jóvenes no asertivos que asisten a la CUSI después de un entrenamiento.
P(0.05) < = 0.05 se rechaza Ho.
Interpretación.
El nivel de ansiedad de jóvenes no asertivos disminuye después de participar
en un entrenamiento en habilidades sociales, existiendo diferencias
significativas entre antes y después.
Hipótesis y decisiones
Introducción
La difusión de la metodología estadística, así como la amplia disponibilidad de
ordenadores y sofisticados programas de análisis de datos, permiten "producir" un
número creciente de resultados, y sin embargo conviene que en algún momento
nos detengamos a pensar en las características, y por qué no las debilidades, del
método que estamos empleando. En opinión de muchos autores la onmipresencia
de los niveles de significación en la literatura clínica es totalmente desafortunada,
dado que la práctica clínica se basará más en la magnitud de la diferencia
observada que en el nivel de probabilidad, por lo que se aconseja el uso de los
intervalos de confianza.
En este artículo se revisa el concepto de prueba estadística de contraste de
hipótesis, así como los errores asociados, justificando mediante ejemplos la utilidad
de los intervalos de confianza. Asimismo se plantea la problemática de los estudios
en los que se busca confirmar una hipótesis de igualdad y no su rechazo.
Se completa con un intersante enlace a una calculadora on line para predeterminar
tamaños de muestra o calcular la potencia de una prueba.
Pruebas estadísticas de contraste de hipótesis
5. Es habitual que en la investigación científica se utilicen hipótesis simples para
explicar la realidad, debido a que son más fáciles de contrastar de manera empírica
y de esa forma determinar su validez o deficiencia. En un ensayo clínico típico el
objetivo es estudiar la respuesta al tratamiento y compararla con la respuesta a
una terapia alternativa, ya sea ésta el tratamiento habitual o un placebo. La
respuesta al tratamiento se determinará, en cada caso, en base a una medida
numérica, por ejemplo descenso en la presión arterial, o mediante una clasificación
según una variable cualitativa, que en la situación más simple será de tipo
dicotómico: el paciente responde o no al tratamiento. La diferencia observada en la
respuesta (medias para variables cuantitativas, proporciones cuando se trate de
variables cualitativas) entre el grupo de tratamiento y el grupo control constituye
una estimación de la efectividad del tratamiento.
Aunque en realidad la efectividad del nuevo tratamiento y del tratamiento control
fuera la misma, es previsible que la diferencia observada no sea exactamente cero,
aunque sí próxima a cero, siendo más improbables (más raros) los resultados a
medida que se alejen de ese valor.
En el procedimiento clásico de contraste de hipótesis se denomina hipótesis nula a
la que considera que ambos tratamientos son iguales y si, en el supuesto de que
sea cierta, la probabibilidad de que se observe una diferencia tan grande o mayor
que la obtenida en nuestro estudio es muy baja (típicamente 0.05, aunque hay
autores más exigentes que sugieren otros valores como 0.01) se rechaza dicha
hipótesis y se acepta la contraria, denominada hipótesis alternativa, que establece
que ambos tratamientos son diferentes.
A pesar de la amplia aceptación en las publicaciones científicas de esta metodología
desde sus orígenes, existe un gran debate respecto a su validez metodológica y
sobre todo respecto a su aplicación rutinaria, controversia que va calando, aunque
de forma muy lenta, en la comunidad investigadora frente a la inercia de su
aplicación como meras recetas para la toma de decisiones.
Estudios de equivalencia
En primer lugar hay que destacar que la hipótesis nula nunca puede ser
demostrada o establecida, siendo posible sólo, con esta metodología, refutarla
mediante un experimento. Nos encontramos entonces en una situación paradójica,
ya que en algunos estudios lo que se busca es precisamente demostrar una
igualdad. Por ejemplo cuando se pretende demostrar que un tratamiento menos
agresivo que el tradicional es igualemente eficaz. O cuando se pretende demostrar
que un tratamiento que es más eficaz tiene una tasa similar de efectos adversos.
Probabilidad de error en un contraste de hipótesis
Es evidente que en el contraste estadístico de hipótesis se pueden dar dos posibles
errores. El denominado error tipo I o error alfa, que es el que se produce cuando
se rechaza la hipótesis nula y en realidad es cierta. La probabilidad de cometer este
error se fija de antemano por el investigador cuando sitúa el nivel de rechazo,
habitualmente 0.05.
Si no se rechaza la hipótesis nula, cuando el valor de probabilidad es inferior al
nivel fijado, también se corre el riesgo de cometer un error que se denomina error
tipo II o error beta ß. Ahora las cosas no son tan sencillas, la probabilidad de
cometer un error tipo II no es un valor único como la que corresponde al error tipo
6. I. La probabilidad de un error tipo I se calcula suponiendo que la hipótesis nula (no
existen diferencias) es correcta, mientras que la probabilidad de un error tipo II se
tiene que calcular cuando ésta es falsa, es decir cuando existen diferencias entre
los tratamientos. Pero la magnitud D de esa diferencia puede tomar en principio
cualquier valor y la probabilidad de error dependerá de esa magnitud. Hay que fijar
pues la diferencia para la que se desea acotar ese error. Habitualmente se utilizará
un valor a partir del cual se puede considerar como diferencia relevante en
términos del proceso en estudio.
Inconvenientes de las pruebas de contraste de hipótesis
El principal problema de las pruebas estadísticas de contraste de hipótesis radica en
que la decisión de rechazar o no la hipótesis de igualdad descansa en el tamaño de
muestra, ya que una diferencia muy pequeña puede ser estadísticamente
significativa si la muestra es suficientemente grande y por contra, una diferencia de
magnitud relevante puede no llegar a ser estadísticamente significativa si la
muestra es pequeña. Aquí es donde entra en juego el concepto de significación
física (léase fisiológica, clínica, o el término que corresponda en cada campo de
aplicación) frente al de significación estadística, que pone de relieve que lo
importante no es demostar que existen diferencias -algo con lo que ya contábamos
pues estamos estudiando dos pautas terapéuticas que sabemos que son diferentes-
, sino que éstas son de cierta importancia.
Otro problema a subrayar es la evidente arbitrariedad a la hora de fijar el punto de
corte y el planteamiento maximalista del todo o nada.
Veamos un ejemplo. En la siguiente tabla se resumen los datos obtenidos en un
ensayo clínico:
Media Desv. típica Tamaño muestra
Tratamiento 128 9 20
Control 123 8 20
Como vemos la diferencia entre las medias en ambos grupos es de 5. Supongamos
que una diferencia de 4 o más se considera de importancia clínica. Existe pues una
diferencia clínicamente importante entre los dos grupos.
Si se realiza un contraste de hipótesis basado en la t de Student, se obtiene un
valor de probabilidad para una diferencia igual o mayor que la observada de 0.07,
que es inferior al nivel de rechazo universalmente aceptado de 0.05. Por lo que
aplicando la "doctrina" estadística no se rechaza la hipótesis de igualdad de los
tratamientos.
Sin embargo se trata de una diferencia de importancia clínica y es cierto que
también una probabilidad de 7 entre 100 es bastante baja. Es más que probable
que nuestra muestra de 20 pacientes por grupo sea insuficiente, pero en nuestro
ejemplo es muy difícil conseguir más pacientes.
Intervalos de confianza
7. A pesar de la inercia intelectual que nos conduce la aceptación universal del uso de
pruebas de hipótesis como un asunto de todo o nada, hay otras alternativas que no
se quedan en la mera receta: el uso de los intervalos de confianza. Esta alternativa
ha sido defendida vehementemente por diferentes autores y secundada por
diferentes editores de revistas médicas. El intervalo de confianza nos da el margen
de valores en los que es previsible esperar que se encuentre la verdadera diferencia
entre los tratamientos, para una probabilidad dada (habitualmente el 95 %). En
realidad se sustenta sobre la misma teoría, pero el enfoque es mucho más
expresivo, proporcionando información y no sólo documentando una mera decisión,
como es el caso del contraste de hipótesis.
En nuestro ejemplo, el intervalo de confianza va aproximadamente desde -0.5 a
10.5, lo que revela que es insuficiente para descartar el 0 (igualdad de
tratamientos) con toda certidumbre, pero se encuentra muy escorado hacia el lado
positivo llegando a valores de gran importancia clínica, por lo que de acuerdo con
otros datos (por ejemplo de coste, disponibilidad, posología, efectos secundarios,
etc) proporcionan una mayor información a la hora de determinar el interés del
nuevo tratamiento.
Ya se ha comentado que en determinados estudios la hipótesis que de hecho se
pretende verificar es la de igualdad. A estos estudios se les suele denominar
estudios de "equivalencia" o también "negativos". Puesto que lo que se espera
es no rechazar la hipótesis de igualdad, ahora nuestro interés se centra en el error
de tipo II o ß que podemos cometer. Estamos ante la otra cara de la moneda: si la
muestra es suficientemente pequeña, diferencias de importancia clínica pueden no
ser estadísticamente significativas. En estos casos es incluso más importante
indicar el intervalo de confianza para la diferencia ya que nos permitirá comprobar
si incluye valores de trascendencia clínica, lo que justificaría la necesidad de una
muestra mayor para poder aceptar que no existen diferencias entre tratamientos.
El intervalo de confianza nos proporciona no sólo información en cuanto a las
diferencias sino también en cuanto a la sensibilidad de nuestro estudio.
Potencia de un contraste
Es frecuente manejar un concepto relacionado con el error tipo II o ß, el de
potencia de una prueba estadística. Para una diferencia D dada, la probabilidad de
no cometer un error de tipo II, es decir la probabilidad de detectar una diferencia D
en el estudio es
1-ß
Como alternativa al intervalo de confianza, en un ensayo de tipo negativo puede
ser interesante indicar cuál era la potencia de la prueba para detectar una
diferencia clínicamente relevante, siendo importante que ésta no sea pequeña.
Es evidente que el ejemplo anterior no puede ser aceptado como prueba de que no
existen diferencias entre los tratamientos, por el mero hecho de que no se
encontrase diferencias estadísticamente signficativas. Si con un estudio mucho
mayor los resultados hubieran sido
Media Desv. típica Tamaño muestra
Tratamiento 128 9 200
Control 127.5 8 200
8. El intervalo de confianza es ahora (-1.2 , 2.2), que engloba el cero y que no incluye
valores clínicamente relevantes, lo que nos aporta más evidencia para aceptar una
eficacia similar de ambos tratamientos.
Si se calcula la potencia de la prueba en el primer ejemplo con dos muestras de
tamaño 20, desviaciones típicas 9 y 8, para detectar una diferencia de 4, veríamos
que es 0.297, a todas luces insuficiente.
Por el contrario, la potencia de la prueba para los mismos valores anteriores salvo
el tamaño que sería ahora de 200 es de 0.9967.
Y finalmente, para complicar las cosas supongamos que el resultado observado es
el de la siguiente tabla
Media Desv. típica Tamaño muestra
Tratamiento 128 9 200
Control 126 8 200
Se puede comprobar que un contraste mediante la t de Student resulta
estadísticamente significativo con p = 0.019. Sin embargo la magnitud de la
diferencia 2 puede no ser de importancia clínica, dado que comentábamos que se
consideraban relevantes diferencias iguales o superiores a 4. Una vez más el
interválo de confianza puede ser más ilustrativo que el simple valor de p, en este
caso es
0.3 , 3.7
no llegando a incluir el valor considerado relevante, aunque se aproxima.
La importancia, en un sentido o en otro, de estos resultados solo se podrá
considerar a la luz del proceso fisiológico concreto que se analiza y no con meros
números como aquí se ha expuesto, lo que recalca el absurdo de la utilización
cómoda y simplista de las "recetas estadísticas", siendo esta metodología una
herramienta más para ayudar en la investigación y no estando exenta ella misma
de controversia.
Tesis de Investigacion
La metodología de la investigación proporciona tanto al
estudiante como a los profesionales una serie de herramientas
teórico-prácticas para la solución de problemas mediante el
método científico. Estos conocimientos representan una
actividad de racionalización del entorno académico y
9. profesional fomentando el desarrollo intelectual a través de la
investigación sistemática de la realidad.
06/06/11
Medidas de Dispersión - Varianza y Desviación
Así como las medidas de tendencia central nos permiten identificar el punto central
de los datos, las Medidas de dispersión nos permiten reconocer que tanto se
dispersan los datos alrededor del punto central; es decir, nos indican cuanto se
desvían las observaciones alrededor de su promedio aritmético (Media). Este tipo
de medidas son parámetros informativos que nos permiten conocer como los
valores de los datos se reparten a través de eje X, mediante un valor numérico que
representa el promedio de dispersión de los datos. Las medidas de dispersión más
importantes y las más utilizadas son la Varianza y la Desviación estándar (o
Típica).
1. VARIANZA
Esta medida nos permite identificar la diferencia promedio que hay entre cada uno
de los valores respecto a su punto central (Media ). Este promedio es calculado,
elevando cada una de las diferencias al cuadrado (Con el fin de eliminar los signos
negativos), y calculando su promedio o media; es decir, sumado todos los
cuadrados de las diferencias de cada valor respecto a la media y dividiendo este
resultado por el número de observaciones que se tengan. Si la varianza es
calculada a una población (Total de componentes de un conjunto), la ecuación
sería:
Ecuación 5-6
Donde ( ) representa la varianza, (Xi) representa cada uno de los valores, ( )
representa la media poblacional y (N) es el número de observaciones ó tamaño de
la población. En el caso que estemos trabajando con una muestra la ecuación que
se debe emplear es:
Ecuación 5-7
10. Donde (S2) representa la varianza, (Xi) representa cada uno de los valores, ( )
representa la media de la muestra y (n) es el número de observaciones ó tamaño
de la muestra. Si nos fijamos en la ecuación, notaremos que se le resta uno al
tamaño de la muestra; esto se hace con el objetivo de aplicar una pequeña medida
de corrección a la varianza, intentando hacerla más representativa para la
población. Es necesario resaltar que la varianza nos da como resultado el
promedio de la desviación, pero este valor se encuentra elevado al cuadrado.
2. DESVIACIÓN ESTÁNDAR O TÍPICA
Esta medida nos permite determinar el promedio aritmético de fluctuación de los
datos respecto a su punto central o media. La desviación estándar nos da como
resultado un valor numérico que representa el promedio de diferencia que hay
entre los datos y la media. Para calcular la desviación estándar basta con hallar la
raíz cuadrada de la varianza, por lo tanto su ecuación sería:
Ecuación 5-8
Para comprender el concepto de las medidas de distribución vamos a suponer que
el gerente de una empresa de alimentos desea saber que tanto varían los pesos
de los empaques (en gramos), de uno de sus productos; por lo que opta por
seleccionar al azar cinco unidades de ellos para pesarlos. Los productos tienen los
siguientes pesos (490, 500, 510, 515 y 520) gramos respectivamente.
Por lo que su media es:
La varianza sería:
11. Por lo tanto la desviación estándar sería:
Con lo que concluiríamos que el peso promedio de los empaques es de 507
gramos, con una tendencia a variar por debajo o por encima de dicho peso en 12
gramos. Esta información le permite al gerente determinar cuanto es el promedio
de perdidas causado por el exceso de peso en los empaques y le da las bases
para tomar los correctivos necesarios en el proceso de empacado.
La Distribución T de Student
En la generalidad de los casos, no disponemos de la desviación standard de
la población, sino de una estimación calculada a partir de una muestra
extraída de la misma y por lo tanto no podemos calcular Z.
En estos casos calculamos el estadístico
T:
con
donde S es la desviación standard muestral, calculada con n-1 grados de
libertad.
Nótese que utilizamos S, la Desviación Standard de una Muestra, en lugar
de , la Desviación Standard de la Población.
12. El estadístico T tiene una distribución que se denomina distribución T de
Student, que está tabulada para 1, 2, 3, ... etc. grados de libertad de la
muestra con la cual se calculó la desviación standard. La distribución T tiene
en cuenta la incertidumbre en la estimación de la desviación standard de la
población, porque en realidad la tabla de T contiene las distribuciones de
probabilidades para distintos grados de libertad.
La distribución T es mas ancha que la distribución normal tipificada Para un
número de grados de libertad pequeño. Cuando los grados de libertad
tienden a infinito, la distribución T tiende a coincidir con la distribución
normal standard. Es decir, en la medida que aumentemos el número de
observaciones de la muestra, la desviación standard calculada estará mas
próxima a la desviación standard de la población y entonces la distribución
T correspondiente se acerca a la distribución normal standard. El uso de la
distribución T presupone que la población con que estamos trabajando tiene
una distribución normal.
Distribución de Promedios Muestrales
Para comprender que significa distribución de promedios muestrales, vamos
a suponer que realizamos un experimento con bombos como los usados en
la lotería. Colocamos un número muy grande de bolas blancas en un bombo
blanco, en cada una de las cuales figura un dato X. Este bombo representa
la población de observaciones X, y tiene media m y varianza s2.
Supongamos que a continuación hacemos los siguiente:
1) Tomamos una muestra de n=10 bolas blancas. 2) Calculamos la media y
la anotamos en una bola azul. 3) Colocamos la bola azul en un segundo
bombo de color azul. 4) Devolvemos las bolas blancas a su bombo y le
damos vueltas. 5)Repetimos toda la operación muchas veces hasta que el
bombo azul esté lleno de bolas azules.
Entonces, los números del bombo azul forman una población de promedios
muestrales. Esta es una población derivada de la anterior, y tiene la misma
media o promedio que la distribución original, pero su varianza es un
enésimo de la varianza de la distribución original:
13. En el caso del bombo azul, si denominamos a la varianza y m a la
media, tenemos:
La distribución de medias muestrales está situada en el mismo lugar
(alrededor de la misma media) que la distribución original, pero es mucho
mas estrecha, porque su varianza es la décima parte de la varianza original.
La distribución original de observaciones representada por el bombo blanco
se denomina comúnmente distribución madre o base. Al construir la
población de promedios muestrales, realizábamos extracciones de 10 bolas
blancas después de dar vueltas al bombo. Es decir, que estábamos
realizando un muestreo aleatorio de la población madre, porque cada una
de las bolas blancas tenía la misma posibilidad de ser elegida para integrar
la muestra. Aunque la población original no sea de distribución normal, si el
muestreo es aleatorio, la población de promedios muestrales se aproximará
a la normalidad, es decir, será casi de distribución normal. Este efecto se
debe a un teorema de estadística matemática denominado Teorema Central
del Límite. En resumen, si se cumple la hipótesis de muestreo aleatorio,
tenemos:
En general, en los problemas que se presentan habitualmente, existe una
población de observaciones cualesquiera, de la cual tomamos una muestra
aleatoria, por medio de la cual intentamos conocer todo lo que sea posible
acerca de la población de la cual fue extraída. El promedio de la muestra de
n elementos pertenece a la distribución de promedios muestrales de la
población original. Es decir, que el promedio de la muestra que obtuvimos
es uno de los muchos promedios muestrales que se distribuyen alrededor
de m con desviación standard.
14. Por lo tanto, si la muestra es mas grande (n
mayor), estaremos en una distribución de promedios con desviación
standard mas pequeña, por lo cual, el promedio de la muestra estará mas
cerca del promedio del universo. Es por esto que es razonable pensar que
el promedio de la muestra es una estimación del promedio del universo.
Publicado por Tesis de Investigadores en 13:04