SlideShare una empresa de Scribd logo
1 de 85
Descargar para leer sin conexión
1
UNIDAD 4. ENTENDIENDO ESTADÍSTICAS PARA
MEDICINA BASADA EN EVIDENCIAS DE DUDAS
TERAPÉUTICAS
OBJETIVOS DE APRENDIZAJE
Comprender e interpretar indicadores estadísticos en literatura científica para aplicar en la
toma de decisiones.
ACTIVIDAD DE APRENDIZAJE 1
1. Lea el texto que se presenta a continuación utilizando las técnicas de lectura comprensiva,
sistemática y elabore resúmenes o cuadros sinópticos.
2. Identifique los indicadores estadísticos que se adjuntan en los resúmenes y artículos
científicos proporcionados por el tutor.
3. Analice los indicadores de efectividad o eficacia de los artículos proporcionados utilizando
el gráfico de análisis de dirección y fuerza del efecto y la significación estadística de los
mismos.
1. INTRODUCCIÓN AL ANÁLISIS DE DATOS
La compresión de indicadores estadísticos y la interpretación de los resultados de un
artículo científico constituyen un gran reto para el desarrollo de las habilidades de lectura
comprensiva y del análisis crítico. Cada tabla o figura debería ser evaluada
preguntándose ¿Qué pienso que significa realmente? La discreción es la palabra clave:
resultados grandes, excitantes o inesperados son extremadamente raros. En contraste,
estudios defectuosos y hallazgos equivocados son mucho más comunes. Los resultados
deben ser abordados con cuidado para evaluar su significancia o confiabilidad y para
observar posibles peligros en el análisis.
Esta unidad presenta las ideas fundamentales para interpretar resultados y evaluar si los
resultados fueron adecuadamente procesados y analizados.
2. CONCEPTOS BÁSICOS
Variable: Un proceso de la realidad que cambia o varia de sujeto a sujeto.
Es una variación a ser medida.
Valor: Son los elementos concretos de la variable.
Opción: Valor preciso de una variable.
Parámetro: Valores de la población.
Estimador: Valores de la muestra.
Muestra: Parte o subconjunto de la población.
Población: Conjunto de unidades relevantes de la población.
2
3. EVALUACIÓN DEL DISEÑO DE ANÁLISIS ESTADÍSTICO
Y DEL ANÁLISIS DE DATOS
3.1. REVISIÓN DEL DISEÑO DE ANÁLISIS DE DATOS
Antes de revisar las tablas o gráficos se debe primero leer como el autor analizó los datos
en la sección metodología. En el capítulo metodología debe constar el diseño de estudio,
las variables y el diseño del análisis; esta información debe ser contrastada con las
hipótesis u objetivos del estudio y analizar si el análisis corresponde a las mismas.
Si la hipótesis u objetivo es descriptivo, se debe realizar análisis univarial, pero si es
explicativo o de asociación se deberá haber realizado análisis bivarial o multivarial. En
este segundo caso es importante reconocer como se clasificaron las variables de acuerdo
a su ubicación causal, ¿Cuál o cuáles son dependientes (o efecto) y cuáles
independientes (factores de riesgo o exposiciones)? y dentro de estas cuál es la variable
antecedente simple o causal directa, las intervinientes (cofactores y moderadoras o
interacción) y las perturbadoras, etc.
Analice si el diseño planteado coincide con las tablas y gráficos, considerando la
exposición, los efectos y los potenciales variables de confusión o perturbadoras y
variables moderadoras.
Observe como se definieron los subgrupos y categorías de cada una de las variables. Las
forma de estructurar subgrupos se debe basar en: i) los conocimientos que se tiene sobre
el objeto de estudio, ii) las hipótesis biológicas de importancia y iii) de la manera en que
el estudio va a ser (o fue) conducido. Los estudios tienen mayor posibilidad de ser útiles si
el análisis toma en cuenta asociaciones y pruebas de hipótesis, basadas en la biología
más que en la mecánica (o electrónica), comparando toda posible exposición (variable
independiente) con cada daño o efecto posible (variable dependiente).
3.2. EVALUACIÓN DEL ANÁLISIS DE DATOS
3.1.1. REGLAS PARA LEER EL ANÁLISIS DE DATOS
Tres son las reglas más importantes a seguir en la lectura del análisis de datos:
1. El análisis de datos debe ir desde lo simple a lo complejo, las técnicas de análisis
sofisticadas no pueden reparar una información de mala calidad (mala representatividad,
sesgo sistemático, sesgos por falta de respuestas de los encuestados). Por ello es
importante primero analizar la información más simple.
2. Evaluar la consistencia de la información, que implica evaluar la presencia de valores
imposibles o fuera de rango, duplicados, datos extraños y el porcentaje de no respuesta
(datos en blanco).
Tanto las tablas simples como la representación gráfica permiten observar los valores que
difieren ostensiblemente del resto (valores extraños o fuera de rango) y los llamados
valores imposibles.
3
 Los valores extraños y los fuera de rango son aquellos que es posible encontrar
pero que no se esperarían encontrar, por ejemplo valores de hemoglobina
menores de 5 o edad mayor de 80 años.
 Los valores imposibles son aquellos cuya existencia no es factible. Por ejemplo,
cuando se estudia la variable sexo se esperan solo dos códigos: M para masculino
y F para femenino y no otra letra como G o N. La importancia de estos valores
extraños radica en que pueden alterar los resultados estadísticos (asociación,
significación, estimación) pudiendo modificar la interpretación de los resultados.
El evaluar si la información es correcta y limpia de errores es más importante que
proceder a analizar las pruebas estadísticas sofisticadas. Una elevada proporción de
datos en blanco (“missing value”) es una importante fuente de sesgo que con frecuencia
es considerada al evaluar la validez científica o calidad de las investigaciones. Es
necesario primero determinar el porcentaje de no respuestas dentro de cada variable, y
apreciar si esto afecta a los resultados; obviamente con las variables fundamentales de
estudio no se debería aceptar un alto porcentaje de no respuestas (un máximo de 20%).
3. Evaluar el uso adecuado de las técnicas estadísticas. Para cumplir este objetivo a
continuación se presentan los elementos necesarios para poder evaluar si el análisis de
datos se hizo o no adecuadamente.
3.1.2. TIPOS DE ANÁLISIS DE DATOS
El análisis de información se puede clasificar de varias formas, las mismas que no son
excluyentes:
ANÀLISIS DESCRIPTIVO E INFERENCIAL
Análisis Descriptivo
Es el análisis de las características de las variables en la muestra (análisis univarial) y la
explicación de las relaciones entre variables (análisis bivarial o multivariado). El análisis
estadístico se puede hacer en muestras o en el universo. Un ejemplo de estudio en el
universo o población son los censos.
Con mucha frecuencia se diferencia descripción de explicación, pero en Estadística el
análisis descriptivo abarca las dos actividades: la descripción de las características de las
variables y la explicación de sus relaciones.
Análisis Inferencial
Este análisis se refiere a como pasar de los hallazgos de la muestra a sacar conclusiones
en el universo. Incluye la estimación de Intervalos de confianza y la significación
estadística (pruebas de significación estadística).
4
ANÁLISIS UNIVARIAL Y MULTIVARIAL
Análisis univarial se refiere al análisis de una sola variable, puede ser descriptiva o
inferencial. Los objetivos del análisis univarial son resumir y presentar la información de
cada variable individual.
Multivarial se refiere al estudio (descriptivo e inferencial) de dos o más variables. En este
texto se diferencia análisis bivarial (dos variables) de multivarial (más de dos variables),
por las características y técnicas particulares que estas dos modalidades presentan.
ANÁLISIS CAUSAL, FACTORIAL Y CLASIFICATORIO
En los estudios epidemiológicos y clínicos experimentales, cohorte, casos testigo o de
corte transversal se estudia con más frecuencia la relación causa efecto de dos o más
variables. Este tipo de estudios necesitan un análisis causal bivarial o multivarial.
4. EVALUACIÓN DE USO DE LAS TÉCNICAS DE
ANÁLISIS DESCRIPTIVO BIVARIAL
Para efectos de evaluación de la eficacia o efectividad de intervenciones terapéuticas en
esta unidad se enfatiza la comprensión de medidas estadísticas bivariales. Por lo que,
después de haber revisado la distribución de las variables claves de interés (análisis
univarial), revise los cruces de variables. El conocimiento de las distribuciones simples y
de los cruces de variables garantiza la comprobación de hipótesis.
Al igual que en el análisis univarial, la elección del tipo y técnicas de análisis bivarial
depende de los objetivos de la investigación, del tipo de datos que se estudian y de la
audiencia a la que va dirigida la investigación. Además de lo anterior, el uso de técnicas
especificas de análisis bivarial depende de: el tipo de variables que se manejan
(cuantitativas o cualitativas), su lugar en el estudio como variable independiente o
dependiente y el tipo de distribución que tienen (análisis de sesgo y curtosis). En análisis
de sesgo determinar si una distribución es normal o simétrica o si es sesgada o
asimétrica.). En el análisis de curtosis interesa determinar si una distribución es
platicurvica (alargada), normal o leptocurvica (aplanada).
Las técnicas de análisis pueden ser gráficas o matemáticas.
Para el análisis matemático bivarial se debe realizar dos tipos de pruebas estadísticas:
 Medidas de asociación o relación, que son medidas descriptivas
 Medidas de análisis inferencial: de estimación y de significación estadística.
En los estudios epidemiológicos y clínicos, cuando se relacionan dos variables con
frecuencia se buscan relaciones causales. Para poder evaluar el grado de relación que
tienen dos variables entre sí, las medidas más importantes y usuales son las que se
muestran en la siguiente tabla:
5
En la siguiente tabla se presentan las alternativas de relación de variables (análisis
bivarial), como se representan y el análisis estadístico que se realiza:
Tabla 1. Relación entre variables
V.
Independiente
V.
Dependiente
Representación Análisis
estadístico
Medidas estadísticas
Cualitativa Cualitativa Tabla de
contingencia
Coeficientes
de
asociación o
comparación
de
proporciones
Riesgo Relativo (RR)
Razón de Momios (RM)
Reducción del riesgo
relativo (RRR)
Riesgo Atribuible (RA)
Número Necesario a Tratar
(NNT)
Cualitativa
(binaria o de
más de 2
categorías)
Cuantitativa Tabla Comparación
de medias o
diferencia de
medias
Diferencia de medias (DM)
Diferencia de medianas (DMd)
Cuantitativa Cuantitativa Diagrama de
dispersión
Modelo de
regresión
Coeficiente de correlación r
Coeficiente de regresión β
Intersección de Y α
Tomado de: Gómez-Biedma, S; Vivó, M; Soria, E. Temas para residentes: Pruebas de
significación en Bioestadística. Revista de Diagnóstico Biológico. Volumen 50 No 4. Oct-
dic 2001. (Gómez-Biedma, y otros, 2001)
4.1. PROCESAMIENTO Y ANALISIS BIVARIAL DE DOS
VARIABLES CUALITATIVAS
El análisis de la relación de dos variables cualitativas se puede hacer mediante el cálculo
de porcentajes en una tabla o mediante los coeficientes de asociación.
Para el cálculo de porcentajes en una tabla es necesario recordar algunas reglas básicas
para evaluar el análisis bivarial (cruces) entre dos variables cualitativas:
 Identificar cual es la variable dependiente y cual la independiente.
 El cálculo de porcentajes debe ser en el sentido de la variable independiente. El
análisis se hace comparando los resultados en el sentido contrario al calculado.
6
Ejemplo: Asociación Cesárea y Muerte Materna
En el ejemplo anterior el análisis sería:
1. La variable independiente en el ejemplo siguiente es CESAREA (filas) y la
dependiente es Estado al Alta Materna (columnas).
2. En el ejemplo anterior se calcula los porcentajes en el sentido de las filas
(Cesárea).
3. En la tabla anterior se toma el calculó los porcentajes en sentido horizontal es
decir en el sentido de la variable independiente (Cesárea), para el análisis se
compara el porcentaje de muertes entre las mujeres a las que se hizo Cesárea con
parto vaginal. En este ejemplo, se puede decir que las mujeres con cesárea tienen
porcentaje o más riesgo de morir (0,04%) que las de parto vaginal (0%).
4.2. COEFICIENTES DE ASOCIACIÓN
Cuando se trata de tablas de dos por dos se debe calcular Coeficientes de Asociación.
Estos coeficientes se clasifican en dos grupos:
1. Coeficientes de producto cruzado: Riesgo Relativo, Razón de Productos Cruzados,
Diferencia de Riesgo.
2. Coeficientes basados en Chi cuadrado: Pearson, Tschuprow, Cramer’V
En este curso se revisarán solamente los Coeficientes de Producto Cruzado.
4.2.1. MEDICIÓN DEL EFECTO
En el ejemplo anterior el objetivo del estudio era evaluar el riesgo o protección. Cuando se
trata de medir la eficacia de un medicamento lo más común es que los ensayos clínicos
controlados midan la incidencia de algún evento en los grupos de individuos seguidos en
un determinado lapso y que este evento se exprese de manera dicotómica (es decir, la
Tipo de parto
Estado al Alta
Total
Viva Muerta Referida
Vaginal 10508 4 15 10527
Fila % 99,82% 0,04% 0,14% 100,00%
Colum. % 84,34% 100,00% 71,43% 84,32%
Cesárea 1951 0 6 1957
Fila % 99,69% 0,00% 0,31% 100,00%
Colum. % 15,66% 0,00% 28,57% 15,68%
TOTAL 12459 4 21 12484
Fila % 99,80% 0,03% 0,17% 100,00%
Col% 100,00% 100,00% 100,00% 100,00%
7
presencia o no del desenlace: infarto al miocardio, recurrencia de una neoplasia, muerte,
etc.) como la proporción de sujetos que llegan a presentarlo.
Para entender mejor el análisis de efecto a continuación se desarrolla un ejemplo de un
estudio en el que 15 personas del Grupo Intervención o Expuestos enfermaron y de 20
personas en el grupo control que enfermaron.
Para poder calcular estos coeficientes se debe articular adecuadamente una tabla de 2 x
2, el diseño debe ser el que se presenta en el ejemplo siguiente:
Enfermedad/ efecto
+ -
Grupo Intervención o
Expuestos (+)
A 15 B 85 H1 100
Grupo de comparación o no
Expuestos (-)
C 20 D 80 H2 100
V1 35 V2 165 N 200
H1 y V1 representa los totales horizontal y vertical en los cuales la enfermedad o la
exposición están presentes. H2 y V2 son los totales en los cuales la exposición o la
enfermedad están ausentes. N es el gran total producto de la suma de todas las celdas.
Con estos datos se pueden calcular dos tipos de indicadores
1. Tasas de incidencia o proporciones en cada uno de los grupos como se
muestra a continuación:
Incidencia del evento en los pacientes expuestos Ie (grupo experimental)
Ie = A / H1 = 15/100 = 0.15 o 15%
Riesgo del evento en los pacientes no expuestos Ine (grupo control)
Ine = C / H2 = 20/100 = 0.20 o 20%
En este ejemplo el grupo de intervención o experimental tuvo un efecto de 15%
(menos enfermos) que el grupo control o de comparación 20%. Comparando los
dos porcentajes es evidente que el grupo de intervención tuvo menos enfermos.
Enfermedad/ efecto
+ -
Grupo Intervención o
Expuestos (e)
A 15 B 85 H1 100 Ie= 15/100 = 0,15 = 15%
Grupo de comparación o no
Expuestos (ne)
C 20 D 80 H2 100 Ine= 20/100 = 0,2= 20%
V1 35 V2 165 N 200
8
2. Razones de personas con efecto o sin efecto en cada grupo
Razón e = A / B = 15 / 85 = 0,18
Razón ne = C / D = 20 / 80 = 0,25
Enfermedad/ efecto
+ -
Grupo Intervención o
Expuestos (e)
A 15 B 85 H1 100 Re= 15/85 = 0,18
Grupo de comparación o no
Expuestos (ne)
C 20 D 80 H2 100 Rne= 20/80 = 0,25
V1 35 V2 165 N 200
Con estos dos tipos de medidas estadísticas se calculan todos los coeficientes de
asociación que se presentan a continuación.
4.2.2. COEFICIENTES DE PRODUCTO CRUZADO
Existen diferentes parámetros para cuantificar el efecto de un tratamiento cuando el
resultado se determina mediante una variable cualitativa binaria (con dos categorías),
siendo los más utilizados el Riesgo Relativo (RR), la Razón de Momios u Odds Ratio
(OR), el Riesgo Atribuible (RA) o Reducción Absoluta de Riesgo, y el Número de
pacientes que será necesario tratar (NNT). Los dos primeros son medidas relativas y
los dos últimos medidas absolutas. Estas medidas de asociación evalúan la dirección y la
magnitud de la fuerza o poder de la asociación estadística entre la exposición y el efecto o
la enfermedad estudiada.
Estos indicadores se calculan a partir de tasas de incidencia o de razones de expuestos y
no expuestos.
Por ejemplo, se estudió la eficacia de un nuevo medicamento comparado con un placebo.
Se evalúa tasa de curación.
Enfermedad/ efecto
+ -
Exposición (+) A 40 B 170 H1 210 Ie = 40/ 210 = 0.19
Exposición (-) C 10 D 190 H2 200 Ine = 10 / 200 = 0.05
V1 50 V2 360 N 410 Rt = 50 / 410 = 0.12
El primer paso es calcular tasas de ataque de la enfermedad o Tasas de Incidencia para
los expuestos o grupo de intervención (Ie) y para los no expuestos (Ine).
Con estos dos datos se pueden calcular dos coeficientes, el riesgo relativo o razón de
tasas y el riesgo atribuible o diferencia de tasas.
9
a. Riesgo Relativo o Razón de Tasas
En Ingles se denomina Relative Risk (RR) o Hazard Risk (HR).
El cálculo de la razón de tasas es simple, el riesgo en el grupo de expuestos dividido para
el grupo de no expuestos:
Riesgo Relativo (RR) = Ie / Ine = (A/H1) / (C/H2)
RR = 0.19 / 0.05 = 3.8
Al igual que la diferencia de riesgo, la razón de tasas refleja también el exceso de riesgo o
de efecto en el grupo de expuestos o grupo de intervención comparado con el grupo no
expuesto o grupo de comparación, pero expresado como una razón.
Un RR de 3.8 significa que los expuestos tienen 3.8 veces más riesgo o efecto que los no
expuestos que tienen 1 de riesgo. No es 3.8 veces más.
El RR se utiliza en estudios de Cohorte o en experimentales, porque permite calcular las
tasas de incidencia de la enfermedad según la exposición.
Cuando no existen diferencias de riesgo el resultado es 1. Si el valor del RR es mayor a 1
se considera mayor efecto o factor de riesgo, si es menor de 1 es factor de protección o
menor efecto. Mientras más alejado este de 1 el resultado de RR, significa que hay mayor
fuerza o poder de la asociación entre exposición y enfermedad o efecto.
Análisis descriptivo del riesgo relativo
Para la interpretación de la eficacia de un medicamento o la seguridad del mismo se
deben aplicar cuatro criterios:
1. Dirección del efecto
2. Tamaño, fuerza, poder del efecto (eficacia)
3. Significación estadística o confiabilidad
4. Significación clínica o eficacia clinica.
Para los dos primeros criterios se utilizan las medidas de estadística descriptiva y para los
dos últimos medidas de estimación (Intervalos de Confianza) o medidas se significación
estadística. A continuación se analizará la dirección y la fuerza de la asociación.
Para el análisis se puede utilizar el siguiente gráfico denominado en inglés “forest plot” o
Bosque de Líneas. En este gráfico los valores equivalentes a igual efecto están en el
centro (línea vertical).
Menor Efecto Igual Efecto Mayor efecto
10
En el análisis de la Dirección del efecto, un valor igual a 1 significa igual efecto, valores
mayores de 1 significan mayor efecto y menores de uno menor efecto. Sin embargo debe
estar claro que menor efecto no quiere decir menos eficaz ya que esto depende del
indicador de efecto que se evalúe. Si evaluamos días estadía hospitalaria o muerte,
valores menores de 1 significan menor estancia hospitalaria o menos muertes en el grupo
de intervención, lo cual es un resultado beneficioso y por lo tanto se puede interpretar
como más eficaz.
Ejemplos:
Ejemplo 1
Grupo experimental (Ie) 19,0 RR = 19/5 = 3,8 Mayor riesgo o mayor efecto
Grupo Control (Ine) 5,0
Ejemplo 2
Grupo experimental (Ie) 19,0 RR = 19/19 = 1,0 Igual riesgo o igual efecto
Grupo Control (Ine) 19,0
Ejemplo 3
Grupo experimental 5,0 RR = 5/19 = 0,26 Menor riesgo o menor efecto
Grupo Control 19,0
Para el análisis de fuerza o poder del efecto o de la asociación la regla es que mientras,
más lejos este el RR de la línea de igualdad (valor 1) a cualquiera de los dos lados, mayor
es el poder.
Analizar el poder o fuerza en valores mayores de uno es muy fácil, un RR de 5 tiene
mayor fuerza que 2. Pero el análisis de valores menores de 1 suele ser difíciles, porque
no se toma en cuente que el RR y el OR son razones y no números absolutos. En
razones un RR igual a dos para mayor efecto es igual a 0,5 para menor efecto. Por
ejemplo si hay 20 hombres y 10 mujeres en una serie de datos la razón Hombres /Mujeres
es igual a 2, pero si calculo la razón de Mujeres/ Hombres la razón es 0,5.
Para entender la fuerza o poder con valores menores a 1 (uno) cuando se utilizan razones
hay que hacer una comparación en espejo como se presenta en la tabla y en el gráfico a
continuación.
Mayor Efecto Menor Efecto
1,5 0,67
2 0,50
3 0,33
3,5 0,29
4 0,25
5 0,20
6 0,17
10 0,10
11
Menor Efecto Igual Efecto Mayor efecto
0,17 0,20 0,25 0,33 0,5 1 2 3 4 5 6
Para facilitar el análisis de la significación clínica se puede transformar los valores en
categorías ordenales de la siguiente manera.
Categoría Fuerza o poder Mayor Efecto Menor Efecto
Débil 1,1 - 1,4 0,67 -0,99
Moderado 1,5 - 1,9 0,68 - 0,49
Fuerte 2,0 -3,4 0,50 - 0,28
Muy Fuerte 3,5 y mas 0,29 y menos
En el ejemplo anterior el RR fue de 3.8 es decir mayor efecto poder muy fuerte.
No es necesario memorizar las categorías de valores menores a 1. A partir de un valor de
RR menor de 1 se puede calcular el valor mayor de uno dividiendo 1 para el RR. A
continuación de presentan ejemplos:
RR= 0,18 Equivalente para mayor efecto = 1 / 0,18 = 5,6
Ejercicio: Calcule los valores equivalentes para mayor efecto de los siguientes
valores de RR:
Menor Efecto Operación Equivalente mayor
efecto
0,67
0,50
0,33
0,29
0,25
0,20
0,17
0,10
12
b. Razón de Productos Cruzados o Razón de Momios (ODDS RATIO)
Se puede calcular los riesgos de expuestos y no expuestos, no solamente con tasas de
incidencia o proporciones del grupo expuesto y del no expuesto, sino también con
Razones de cada grupo. Con las razones de cada grupo se puede calcular la razón de
razones o razón de riesgos. Para el efecto se calculan razones entre casos con efecto y
casos sin efecto para cada uno de los grupos.
El nombre que se utiliza con más frecuencia para denominar a esta Razón es la de Razón
de Momios, porque momio es sinónimo de razón. La traducción al Inglés es Odds Ratio
(Odds=momios; Ratio= razón).
Es importante enfatizar que esta medida en español puede tener varios nombres:
 Razón de Momios o Razón de Razones. Momio es un sinónimo del término
“razón”
 Razón de Productos Cruzados o Razón de Disparidades.
En inglés solo tiene una denominación Odds Ratio (OR)
Ejemplo:
Utilizando los mismos datos del ejemplo anterior los pasos para calcular la Razón de
Razones es:
Razón de evento y no evento en los pacientes expuestos o con el tratamiento
(grupo de intervención o experimental)
Re = 40 / 170 = 0,235
Razón de evento y no evento en los pacientes no expuestos o sin el tratamiento
(grupo de comparación o control)
Rne = 10 / 190 = 0.056
Efecto
+ -
Exposición Si a 40 b 170 210 Re = 40/ 170 = 0,235
No c 10 d 190 200 Rne = 10 / 190 = 0,056
50 360 410 Rt = 50 / 360 = 0,13
La fórmula para el cálculo de la razón de razones es:
RM = (a / b) / (c / d) = Re / Rne = 0,235 / 0,056 = 4,5
La Razón de Momios se denomina también Razón de Productos Cruzados o Razón de
Disparidades, debido a que la ecuación anterior puede transformarse matemáticamente
13
en una Razón de Productos Cruzados o Razón de Disparidades, como puede verse en
las siguientes ecuaciones:
Razón de Momios = (a / b) / (c / d)
Razón de Productos Cruzados = (a x d) / (c x b)
Aplicando la fórmula de productos cruzados el cálculo sería el siguiente:
OR = (40 x 190) / (10 x 170)= 4,47= 4,5
Como se puede apreciar la Razón de Momios o de Productos Cruzados a más de ser fácil
de calcular, es una medida útil de asociación porque mide también la diferencia de riesgo
o de exposición entre enfermos y no enfermos, lo que le hace útil para estudios de Casos
y Testigos, Corte Transversal y en cohortes de enfermedades raras, en las cuales las
muestras son pequeñas.
Análisis descriptivo de la Razón de Momios
Como se trata de una razón la interpretación de la Razón de Momios es igual a la que se
hace con el Riesgo Relativo. La diferencia de estas dos medidas esta en el cálculo y en e
el uso según diseño de estudio.
El Riesgo Relativo se utiliza para estudios Experimentales (ECA) y cohortes.
La Razón de Momios se utiliza para estudios casos testigos y estudios analíticos de corte
transversal. La RM se puede utilizar también en Cohortes de muestras pequeñas.
c. Reducción del riesgo relativo (RRR) o fracción de prevención
La reducción del riesgo relativo (RRR) es una medida de tamaño de efecto que se
expresa como un porcentaje. La Reducción de Riesgo Relativo (en Inglés Preventive
fraction-PF o Preventable Fraction), se calcula a partir del Riesgo Relativo o de la Razón
de Momios-OR.
Se debe usar cuando una exposición reduce el riesgo y provee el porcentaje de casos
que puede evitarse o prevenirse si una población se expone a una intervención,
comparada con una no expuesta.
La reducción del riesgo relativo (RRR) se expresa como un porcentaje. La fórmula para
calcular esta medida es:
RRR = [(1 – Riesgo Relativo) *100] o [(1-Razón de Momios)*100]
Ejemplo:
Para el ejemplo de Medición de Efecto el resultado es:
RR = Ie / Ine = 0.15 / 0.20 = 0,75
Con este dato se calcula el RRR
RRR= (1 – 0,75) *100= 25%
14
Esta cifra significa que el nuevo tratamiento reduce el riesgo de sufrir el evento (morir o
enfermar) en 25% con relación a lo que ocurre en los pacientes del grupo control;
mientras mayor sea la RRR mayor es la eficacia del tratamiento.
d. Riesgo Atribuible (RA), Diferencia de efectividad, Diferencia de riesgo, o
Reducción del riesgo absoluto (RRA)
Este indicador se denomina Diferencias de Riesgo (DR), Riesgo Atribuible (RA) o
Reducción del Riesgo Absoluto (RRA).
En epidemiología, el riesgo atribuible (RA) en una población expuesta a un factor de
riesgo es la diferencia entre la incidencia de enfermedad en expuestos (Ie) y no
expuestos (Ine) al factor de riesgo o intervención. La diferencia entre ambos valores
proporciona el valor del riesgo o efecto de enfermedad en la cohorte expuesta, que se
debe exclusivamente a la exposición al factor de riesgo.
Representa la cantidad de incidencia que puede ser atribuida al factor de riesgo.
Para obtener este indicador se utilizan las tasas de incidencia o proporción del efecto en
cada uno de los grupos. La diferencia de riesgos o diferencia de eficacia se calcula de una
manera simple, se resta del riesgo o efectividad de expuestos el riesgo o efectividad del
grupo de no expuestos.
Diferencia de riesgos (DR) = Ie -Ine = a/H1 - c/HO
DR o RA = 0.19 - 0.05 = 0.14 = 14 %
La diferencia de riesgos refleja el exceso de asociación de riesgo o efecto de exposición.
Si no existiría diferencia de enfermar entre expuestos y no expuestos el resultado será 0.
Valores con signo positivo significan riesgo o efecto mayor y valores con signo negativo
riesgo o efecto menor.
Esta medida estadística en español se denomina Riesgo Atribuible (RA). En Ingles puede
tener tres denominaciones:
 Atributable Risk (AR)
 Efficacy Difference (ED)
 Risk Diference
Análisis descriptivo del Riesgo Atribuible
Al igual que el Riesgo Relativo, para analizar el Riesgo Atribuible (RA) se deben tomar en
cuenta cuatro criterios: dirección, fuerza o poder, significación estadística y significación
clínica.
Dirección: El riesgo atribuible es una diferencia de tasas o proporciones, para su análisis
el valor 0 es equivalente a igual efecto, cualquier valor con signo positivo es mayor efecto,
cualquier valor con signo negativo es menor efecto.
15
Ejemplo 1
Grupo experimental (Ie) 19,0% RA = 19 - 5 = +14% Mayor riesgo o mayor efecto
Grupo Control (Ine) 5,0%
Ejemplo 2
Grupo experimental (Ie) 19,0% RA = 19 – 19 = 0 Igual riesgo o igual efecto
Grupo Control (Ine) 19,0%
Ejemplo 3
Grupo experimental 5,0% RA = 5 – 19 = - 14% Menor riesgo o menor efecto
Grupo Control 19,0%
Fuerza o poder: Nuevamente mientras más alejado de 0 este el RA a cualquiera de los
dos lados, mayor es el poder o fuerza. Los valores negativos también se analizan en
espejo (ver gráfico).
Los valores del Riesgo Atribuible también se pueden ser clasificados por categorías de
fuerza de la siguiente manera:
Categoría Fuerza o poder Mayor Efecto Menor Efecto
Débil +1 % a + 9% -1 % a – 9%
Moderado +10% a + 19% -10 % a – 19%
Fuerte +20 % a + 39% - 20 % a – 39%
Muy Fuerte + 40% a +100% - 40 % a - 100%
El riesgo atribuible se puede también expresar en proporciones de tal manera que +100
es igual a +1 y menos 100 es igual a -1.
Para analizar el Riesgo Atribuible se utiliza también el gráfico “forest plot”. Como se puede
observar en el gráfico siguiente el valor 0 (cero) está en la línea de igual efecto; los
valores positivos (mayor efecto) a la derecha y los negativos (menor efecto) a la izquierda.
Menor Efecto Igual Efecto Mayor efecto
-50 -40 -30 -20 -10 0 + 10 +20 +30 +40 + 50
16
Relación entre Riesgo Relativo y Riesgo Atribuible
No existe relación estrecha entre Riesgo Relativo y Riesgo Atribuible. El RR es una
medida de fuerza de asociación o impacto, mientras que el RA es una medida
administrativa que indica el beneficio ganado al implementar una intervención o prescribir
un tratamiento en el grupo expuesto.
Para un mismo RR el RA puede ser fuerte, moderado o débil, dependiendo de la
frecuencia o incidencia del efecto en el grupo expuesto y en el no expuesto. En el
ejemplo que se desarrolla en esta sección mientras el RR es muy fuerte (3,8) el RA es
moderado (14%).
e. Proporción de riesgo atribuible o fracción etiológica (%RA o PRA)
La proporción de riesgo atribuible o fracción etiológica es el riesgo atribuible dividido
por la incidencia de enfermedad en los expuestos al factor de riesgo (Attributable Fraction
of Exposed). Es otra forma más de presentar el impacto del factor de riesgo o exposición
entre los expuestos a él. Expresado en términos útiles para la prevención, representa la
proporción de la incidencia de enfermedad que se evitaría entre los expuestos si se
evitara el factor de riesgo o se prescribiera un medicamento o intervención.
Se calcula según las siguientes expresiones matemáticas:
%RA = (RA / Ie) x 100
%RA = ((Ie-Ine) / Ie) x 100
%RA = (1- (1 / RR) *100
Ejemplo
Para el ejemplo que se desarrolla en este curso en el cual el RA es 14% los resultados
serían:
RA% = (RA / Ie) x 100 = (14 / 19) x 100 = 73,7%
RA% = ((Ie-Ine) / Ie) x 100 = ((19 – 5) / 19)) x 100 = 73,7%
RA% = (1- (1 / RR)) x 100 = ((1- (1/3,8)) x 100 = 73,7%
Conclusión: el 73,7% de las personas que recibieron el nuevo tratamiento desarrollan la
enfermedad y este efecto es atribuible al hecho de estar expuestas al tratamiento.
Análisis de la Proporción de Riesgo Atribuible (PRA)
Por ser la PRA un porcentaje sus valores oscilan de 1% a 100% o de -1% a -100% y se
interpreta de manera similar al Riesgo Atribuible.
17
e. Número Necesario a Tratar (NNT) y Numero Necesario para hacer Daño
(NND)
Número Necesario a Tratar (NNT)
El Numero Necesario a Tratar (NNT), “Number Needed to Treat” en Inglés, se denomina
también Índice de intervención. Esta es una medida de probabilidad de la eficacia de un
tratamiento. Es el número de personas que se necesitaría tratar con un tratamiento
específico (ej. aspirina a quienes han sufrido un ataque cardíaco) para producir, o evitar,
una ocurrencia adicional de un evento determinado (ej. prevención de muerte). Por
ejemplo, si una droga tiene un NNT de 5, significa que se debe tratar 5 personas con esta
droga para prevenir un resultado negativo adicional. El NNT es una medida de
probabilidad.
El NNT es una forma sencilla de comprender de los resultados de un estudio,
especialmente de ensayos clínicos y su mayor utilidad reside en que su cálculo es mucho
más fácil de entender que otros índices estadísticos. El NNT es cada vez más utilizado
por los profesionales de la salud para comparar la efectividad de los diferentes
procedimientos terapéuticos disponibles frente a un determinado problema de salud.
El NNT es un indicador específico para cada opción terapéutica y describe la diferencia
que hay entre dicha opción de tratamiento (tratamiento activo) y un control (placebo u otro
tratamiento) conseguir un resultado clínico concreto.
Puede utilizarse para describir cualquier resultado terapéutico siempre que se tenga los
valores de efecto (Ie, Ine) tanto para el tratamiento como para el control. Para que los
NNT sean de utilidad es preciso definir claramente el resultado clínico que se espera
alcanzar.
El NNT es un valor o indicador específico para cada tratamiento y describe la diferencia
entre un tratamiento activo y un control (placebo u otro tratamiento) en lo que se refiere al
logro de un resultado clínico concreto. Un NNT de 1 significa que en cada paciente al que
se le da tratamiento se produce un resultado favorable, a la vez que ningún paciente del
grupo de comparación (tratamiento control o placebo) tiene este resultado.
Las ventajas del NNT son (Patient):
 El NNTs puede ser utilizado tanto para resumir los resultados terapéuticos de un
ensayo o para tomar decisiones clínicas ECA en pacientes individuales.
 El NNT provee una medida clínica de mayor utilidad del beneficio relativo de un
tratamiento activo sobre el control que el uso del Riesgo Relativo, la reduccion del
Riesgo Relativo (RRR) o la Razón de Momios (OR).
 Los NNTs son más sensibles a los factores que cambian el riesgo basal como
(variables intervinientes): los resultados evaluados, las características de los
pacientes, las tendencias seculares (anuales) de la incidencia y la mortalidad y el
entorno clínico.
18
Las desventajas son (Patient):
 Se ha argumentado que el NNT y el NND no son los mejores indicadores para
evaluar los resultados de Estudios Clínico Controlados Aleatorizados y que es
preferible usar el Riesgo Atribuible.
 Aunque los NNTs son fáciles de interpretar, no pueden utilizarse en los
metaanalisis. Los NNTs calculados a partir de un meta-analyses pueden ser
altamente engañosos porque el riesgo basal con frecuencia varia ostensiblemente
entre ensayos.
Cálculo del NNT
El NNT es la inversa del Riesgo Relativo (RR). Por ello para calcular el NNT usted
necesita conocer el Riesgo Atribuible (RA) o la Reducción Absoluta de Riesgo (AAR) o la
Incidencia de Expuestos (Ie) y la Incidencia de No Expuestos (Ine).
La fórmula es:
NNT=1/RA (RA calculado en proporción)
Si se calcula a partir del RA en porcentaje la fórmula es:
NNT = 100 / RA (calculado en porcentaje)
Ejemplo: NNT = 1 / 0,14 = 7,14
NNT = 100 / 14 = 7,14
Análisis descriptivo del NNT
El NNT al igual que todas las medidas estadísticas de análisis bivarial debe evaluarse la
dirección, la fuerza o magnitud del efecto y la significación estadística:
Dirección. El NNT puede tener signos positivos o negativos. La dirección se interpreta
igual que el Riesgo Atribuible, signo positivo es mas efecto y signo negativo menos
efecto. La dirección del efecto no implica mayor o menor eficacia.
Fuerza o magnitud del efecto. Si bien no se han establecido límites para que un NNT
sea reconocido como clínicamente efectivo, se acepta que el NNT es mejor cuanto más
bajo sea su valor. Solo como referencia para facilitar su interpretación de la fuerza o
poder, a continuación se exponen categorías de fuerza o poder como referencia:
1 a 2 = muy fuerte
3 a 4 = fuerte
5 a 10 = moderado
10 y más = débil
En el caso de problemas graves como un Accidente Cerebro Vascular las categorías
expresadas anteriormente no tienen mucha utilidad. Es necesario siempre evaluar la
eficacia (NNT) vs el riesgo de producir efectos adversos (NND), los costos, las
preferencias de los pacientes, de la sociedad y el grado de experiencia del médico con el
19
producto. Para que un NNT esté correctamente especificado, debe hacer constar siempre:
i) el comparador (control), ii) el resultado terapéutico, iii) la duración necesaria del
tratamiento para alcanzar ese resultado y iv) el intervalo de confianza del 95%.
Ejemplo:
Tomando como ejemplo el uso de aspirina como agente trombolítico después de un
infarto de miocardio, es decir para prevención secundaria, se obtiene un NNT de 50. Esto
significa que tendríamos que tratar con terapia trombolítica a 50 personas después de un
ataque cardíaco para evitar que una de ellas muera dentro de las seis semanas después
del percance.
Número Necesario para hacer Daño
Número necesario a dañar o perjudicar (NND) o Number Needed to Harm (NNH), es
una medida de los efectos adversos de un tratamiento, definida de modo similar al NNT,
como el número de personas que hay que tratar para producir un efecto adverso adicional
(ej. aspirinas para producir trastornos gástricos). Dicho de otra manera es indica cuantos
pacientes necesitan exponerse a un factor de riesgo (que puede ser un medicamento)
para causar daño en un paciente quien de otra manera no presentaría.
Se calcula de manera similar al NNT pero en relación a la fuerza o poder un NND de 1 (el
más bajo) sería el peor riesgo y valores de NND mayores de 10 significarían un riesgo
bajo.
Calculo de NNT o NND a partir del RR o del OR
Es posible calcular el NNT y el Numero Necesario a Tratar (NNH) a partir de del Riesgo
Relativo o de la razón RA Momios u Odds Ratio (OR) con las siguientes formulas:
NNT = (1-(TEEP*(1-OR))) / ((1-TEEP)*(TEEP)*(1-OR))
NNH = ((TEEP*(OR-1))+1) / (TEEP*(OR-1)*(1-TEEP))
Donde TEEP es Tasa de Eventos Esperados en Pacientes, en Inglés Patient Event
Expected Rate (PEER), que es el riesgo de tener un evento en la población. Esta tasa es
la incidencia o prevalencia en la población que es la prevalencia en el grupo no expuesto.
Ejemplo:
Enfermedad/ efecto
+ -
Exposición Si a 40 b 170 210 Re = 40/ 170 = 0,235
No c 10 d 190 200 Rne = 10 / 190 = 0,056
50 360 410 Rt = 50 / 360 = 0,13
OR = (a / b) / (c / d) = R1 / R0 = 0,235 / 0,056 = 4,47
20
Aplicando la formula anterior el resultado es:
NNT = (1-(0,05*(1-4,47))) / ((1-0,05)*(0,05)*(1-4,47))
NNT = 7,12, un poco menor al NNT calculado a partir del Riesgo Atribuible que fue de 7,5.
Hay que recordar que el OR presenta siempre valores superiores al RR.
Para calcular el NNT a partir del OR se puede diseñar un programa en Excel. Se adjunta
a este curso un programa para el cálculo del NNT o del NND a partir del OR.
Materiales audiovisuales de apoyo
Para ampliar su comprensión de la interpretación decoeficientes de asociación mire los
siguientes materiales audiovisuales.
¿Qué demonios es un Odds Ratio OR? Medidas de efecto:
https://www.youtube.com/watch?v=so4sV2KtQl0
Interpretación OR, RR y NNT:
https://www.youtube.com/watch?v=VYz81LDo4zg
Ejercicios
Ejercicio 1. Para el siguiente estudio de eficacia de un medicamento vs placebo con la
siguiente información calcule las medidas estadísticas que correspondan:
Autor (año)
Intervención
experimental
N personas Muertes (n) Medidas de asociación
G.
Experim
G.
Control
G.
Experim
G.
Control
RR OR RRR RA NNT
Douglass 82
(USA)
FU+Sem. 71 71 29 40
Schlag 82
(Alemania)
FU+Carm. 49 54 10 17
Diseñe una tabla de 2 x 2 para cada estudio.
Enfermedad/ efecto
+ -
Exposición (+) A B H1
Exposición (-) C D H2
V1 V2 N
Enfermedad/ efecto
+ -
Exposición (+) A B H1
Exposición (-) C D H2
V1 V2 N
21
Escoja uno de los indicadores calculados, analice los resultados y evalué la dirección y
poder cuál de los dos estudios tiene mayor eficacia.
Estudio Medida estadística Dirección Fuerza y
Poder
Douglass 82 (USA)
Schlag 82 (Alemania)
En cuál de los dos estudios la eficacia es mejor: _______________________
Ejercicio 2. Analice la dirección y fuerza (poder) de la efectividad de los siguientes
resultados.
Pregunta 2.1: RR = 1,3
Mayor efecto poder bajo
Mayor efecto poder moderado
Menor efecto poder bajo
Menor efecto poder moderado
Pregunta 2.2. OR = 0,20
Mayor efecto poder fuerte
Mayor efecto poder muy fuerte
Menor efecto poder fuerte
Menor efecto poder muy fuerte
Pregunta 2.3. RA= +40%
Mayor efecto poder fuerte
Mayor efecto poder moderado
Menor efecto poder fuerte
Menor efecto poder moderado
Pregunta 2.4. RA= -5%
Mayor efecto poder débil
Mayor efecto poder moderado
Menor efecto poder débil
Menor efecto poder moderado
Pregunta 2.5. NNT= 11
Mayor efecto poder débil
Mayor efecto poder moderado
Menor efecto poder débil
Menor efecto poder moderado
22
4.3. PROCESAMIENTO Y ANALISIS BIVARIAL DE UNA VARIABLE
CUALITATIVA CON UNA CUANTITATIVA
Cuando se analiza la relación entre una variable cualitativa con un cuantitativa se debe
realizar Análisis de Desenlaces Continuos (Cumpston, 2015) . Los desenlaces o efectos
continuos se caracterizan por:
• Pueden tomar cualquier valor dentro de un rango especificado
• Los intervalos entre valores son equidistantes. Por ejemplo es peso la distancia
entre y a 2 kg. es la misma que entre 79 a 80 kg.
Hay escalas ordenales que son evaluadas frecuentemente como continuas, como por
ejemplo: calidad de vida, escala de dolor, depresión, etc.
Para realizar este análisis se pueden utilizar dos medidas o indicadores estadísticos:
• Diferencia de medias (DM)
• Diferencia de medias estandarizada (DME o SMD) (tamaño del efecto)
• Diferencia de medianas
Para cualquiera de las dos medidas se debe analizar la dirección del efecto, la magnitud o
fuerza del efecto y la significación o precisión (deben presentarse con un intervalo de
confianza).
4.3.1. DIFERENCIA DE MEDIAS O MEDIANAS
Procesamiento
Cuando se busca la relación entre una variable independiente cualitativa con una variable
dependiente cuantitativa se puede calcular diferencias de promedios o medias o
diferencia de medianas. El análisis descriptivo bivarial de diferencia de medias o
promedios y de diferencia de mediana es muy simple, se trata de cuantificar la diferencia
entre las medias o medianas muestrales restando del promedio del grupo expuesto el
promedio del grupo NO expuesto.
La diferencia de promedios o medias se utiliza cuando las distribuciones de los dos
grupos son simétricas o normales. La diferencia de mediana se utiliza cuando las
distribuciones de los dos grupos en comparación son asimétricas o sesgadas o también
cuando un grupo tiene una distribución normal y el otro grupo asimétrica.
Análisis descriptivo de Diferencia de Promedios o medianas
Al igual que con los coeficientes de asociación para evaluar la diferencia de medias o
medianas se utilizan dos criterios: dirección y fuerza o magnitud.
Dirección: El riesgo atribuible es una diferencia de tasas o proporciones. Como se
muestra en los ejemplos a continuación, para su análisis el valor 0 es equivalente a igual
23
efecto, cualquier valor con signo positivo es mayor efecto, cualquier valor con signo
negativo es menor efecto.
Ejemplo. Diferencias de promedios de peso en Kg. en niños después de una
intervención nutricional
Ejemplo 1 Media Diferencia de medias (DM) Dirección del Efecto
Grupo experimental 39,26 DM = 39,26 – 32,93 = + 6,33 Mayor efecto
Grupo Control 32,93
Ejemplo 2
Grupo experimental 39,26 DM = 39,26 – 39,26 = 0 Igual efecto
Grupo Control 39,26
Ejemplo 3
Grupo experimental 32,93 DM = 32,93 – 39,26 = - 6,33 Menor efecto
Grupo Control 39,26
Fuerza o poder: Nuevamente mientras más alejado de 0 este la diferencia de medias y
medianas a cualquiera de los dos lados, mayor es el poder o fuerza. Los valores
negativos también se analizan en espejo (ver gráfico).
Los valores de las diferencias de medias o medianas también se pueden ser clasificados
por categorías de fuerza, pero en la medida que los valores máximos y mínimos de un
indicador son diferentes, la fuerza dependerá de estos. Por ejemplo una diferencia de
medias de glucosa de 30 mg puede ser considerada muy fuerte, pero este mismo valor
para diferencia de medias de carga viral para VIH sería insignificante.
Para poder evaluar la fuerza y poder es importante graficar los resultados de los dos
grupos alcanzados en un grafico de barras para observar la diferencia entre la Incidencia
de expuestos y la de no expuestos. La forma correcta de graficar es poner en la escala de
valores del resultado los valores normales que tiene el indicador.
Por ejemplo si comparamos los promedios de flujo máximo urinarios entre pacientes que
recibieron Tamsulosin vs pacientes que recibieron placebo en la figura 3A se pueden ver
que las diferencias entre las líneas de tendencia de los dos grupos es importante, pero en
la Figura 3B, en la que se usa como máximo valor de la escala 15 ml/seg de flujo urinario
la diferencia es pequeña. Para analizar la fuerza, magnitud o poder se debe utilizar el
gráfico 3B.
24
Tomado de: Millán F. Guía para el análisis crítico de ensayos clínicos en Urología. Actas
Urológicas Españolas 2009; 33(6): 654-666
Para analizar la diferencia de medias o medianas se utiliza también el gráfico “forest plot”.
Como se puede observar en el gráfico siguiente el valor 0 (cero) está en la línea de igual
efecto; los valores positivos (mayor efecto) a la derecha y los negativos (menor efecto) a
la izquierda.
Menor Efecto Igual Efecto Mayor efecto
-50 -40 -30 -20 -10 0 + 10 +20 +30 +40 + 50
Medidas post-intervención vs cambio desde el valor basal
Hay dos formas de medir las diferencias de promedios (DM) en estudios de
intervenciones o evaluación de eficacia de medicamentos. La más simple es calcular la
diferencia de promedios o medianas post intervención. Esta alternativa se realiza cuando
los resultados de la línea de base o pre evaluación no presentan diferencias
estadísticamente significativas. En el ejemplo que se presenta en el grafico siguiente la
DM post intervención es igual 4.
La segunda forma, que se presenta en algunos estudios es medir los valores al inicio del
estudio (pre evaluación o medición basal) y reportar la diferencia de medias entre la línea
de base y la post-intervención, denominada cambio desde el valor basal. En el ejemplo
siguiente el cambio de medias pre-post del grupo experimental fue de 5 y el del grupo
control de 1; la diferencia de cambios pre post fue de 4.
25
Grupo
Intervención
Grupo
Intervención
Diferencia Pre
Post
Medida Basal o Pre
Evaluación
Post Evaluación Cambio de
Medias (pre-post)
Media (DE)
35 (3)
Media (DE)
40 (3)
- 5
DM= 1 DCM= -4
Grupo control Grupo control Diferencia
Medida Basal o Pre
Evaluación
Post Evaluación Cambio de
Medias (pre-post)
Media (DE)
38 (2,8)
Media (DE)
39 (3,2)
-1
Ejemplo:
En un estudio ECA que evaluó el Efecto de terapia combinada con Tamsulosin
Hydrochloride and Meloxicam (T&M) comparada con monoterapia con Tamsulosin (T) en
pacientes en pacientes con Hiperplasia Benigna de Prostata Sintomática (HPB) y su
impacto en el Índice Internacional de síntomas (IPSS) para poder afirmar que el efecto
observado se debe al tratamiento y no a otras variables se plantearían las siguientes
hipótesis:
Una vez realizado el estudio los autores reportan los siguientes resultados para los
cambios en los promedios de IPSS
Grupo T&M -4,1 ± 2,8
Grupo T -7,9 ± 3.2
Diferencia de Medias de cambio (DM) - 3,8
Diferencia de medias estandarizada (DME) o Tamaño de Efecto
En meta análisis se calcula con frecuencia la Diferencia de Medias Estantarizada (DME)
en inglés (Standarized Mean Difference - SMD). Esta medida se aplica cuando los
estudios de una revisión sistemática miden los resultados de formas diversas (utilizando
escalas diferentes), en estos casos no es adecuado realizar una comparación directa de
esos resultados.
26
Esta medida se obtiene dividiendo la diferencia entre dos medias (grupo expuesto vs.
Grupo no expuesto) dividida por una estimación de la desviación estándar intra-grupo.
La utilización de esta medida estandarizada para expresar los resultados permite la
combinación de estudios con diferentes escalas al desaparecer las unidades de medida.
Las diferencias de medias estandarizadas a veces se conocen como índice d. (HTA
GLOSSARY, 2015).
4.4. PROCESAMIENTO Y ANALISIS BIVARIAL DE UNA VARIABLE
CUANTITATIVA CON UNA CUANTITATIVA
4.4.1. ANÁLISIS DE REGRESIÓN
El análisis de regresión involucra el estudio la relación entre dos variables cuantitativas. El
análisis de regresión se puede utilizar para explorar y cuantificar la relación entre una
variable dependiente o criterio (Y) y una o más variables independientes o predictoras
(X1, X2, etc.). Si se analizan dos variables se denomina regresión simple y si se analizan
más de dos variables regresión múltiple.
En el análisis de regresión simple Interesa estudiar tres aspectos:
1. La dirección y fuerza de la asociación, a través de una medida de asociación
denominada Coeficiente de Correlación r.
2. La forma de la relación, a través de los Coeficientes de regresión β (B1) y de
intersección de Y o alfa (B0). Usando los datos se propone un modelo para la relación y
a partir de ella será posible predecir el valor de una variable a partir de la otra.
3. La significación estadística. Se evalúa si existe una asociación entre las dos variables
testeando la hipótesis de independencia o significación estadística.
4.4.2. DIAGRAMA DE DISPERSIÓN
Es un gráfico que permite ver la forma en que se distribuyen los puntajes de dos variables
“X” y “Y” en toda la escala de los posibles valores de los puntajes. Este diagrama tiene
como base un sistema de coordenadas, en el que la variable “Y”, que es la variable
dependiente, se ubica en la línea vertical y la variable “X” que es la independiente en la
línea horizontal.
En el diagrama de dispersión se puede observar la fuerza de correlación entre “X” y “Y”, la
misma que aumenta a medida que los puntos se van juntando y van formando un línea
recta imaginaria por el centro del gráfico. Mientras más cerca de la recta imaginaria estén
los puntos, mayor será la fuerza de correlación.
En la siguiente ilustración se presenta un ejemplo de cómo se construye un diagrama de
dispersión. En el casillero de la izquierda se presentan una tabla para evaluar la
asociación entre Edad Gestacional y Peso al Nacer. Esta tabla tiene tres columnas con
datos de 20 recién nacidos estudiados: en la primera columna esta el número de
identificación de cada recién nacido, ii) en la segunda columna se registra la edad
27
gestacional según fecha de ultima menstruación de la madre y iii) en la tercera el peso al
nacer en gramos.
En el casillero de la izquierda se presenta el diagrama de dispersión con la línea recta
imaginaria equidistante de todos los puntos. Cada punto se construye identificando el
lugar en que el valor de X (edad gestacional) intercepta al valor de Y (peso al nacer) de un
RN.
Ver en el grafico en líneas entrecortadas del punto de intersección del RN con ID 19, que
presentó una edad gestacional de 36 semanas y un peso al nacer de 2400 gr.
ID
Paciente
Edad gestac. Peso al nacer
1 39 2750
2 39 2600
3 40 3000
4 39 2400
5 40 2500
6 40 3500
7 39 2750
8 40 3500
9 40 3500
10 39 3000
11 37 2750
12 40 2000
13 39 3500
14 40 3750
15 38 2400
16 40 2400
17 41 3250
18 40 2950
19 36 2400
20 39 2950
4.4.3. COEFICIENTES
Como se explicó al inicio de esta sección para analizar la asociación entre dos variables
cuantitativas se utilizan tres coeficientes:
Coeficiente de correlación r
Es una prueba de asociación que se utiliza cuando se quiere establecer la presencia o
ausencia de una correlación o asociación entre dos variables cuantitativas: una
dependiente “Y” y la otra independiente “X”.
Esta prueba permite ver el grado en que varían conjuntamente las dos variables, aunque
el descubrir la existencia de una relación no dice mucho del grado de asociación o
correlación. Por ejemplo se dice que los gastos están relacionados con el ingreso: gasto
más cuando gano más, aunque no siempre sucede así, porque hay personas que
teniendo un ingreso alto gastan poco. El peso y la talla están asociados: mientras más
1500
2000
2500
3000
3500
4000
35 37 39 41 43
PesoalNacerY
X Edad Gestacional
28
alto, más peso, sin embargo algunas personas altas pesan poco y algunas pequeñas
pesan mucho.
La CORRELACION varía respecto a su fuerza, estas variaciones se pueden apreciar por
medio de un diagrama de dispersión.
El coeficiente de correlación lineal r mide el grado de intensidad de esta posible
relación entre las variables. Este coeficiente se utiliza cuando la relación que puede existir
entre las variables es lineal; es decir, si se representa en un gráfico los pares de valores
de las dos variables la nube de puntos se aproximaría a una recta).
Sin embargo, existen relaciones no lineales, sino exponencial, parabólica, etc. En estos
casos, el coeficiente de correlación lineal mide mal la intensidad de la relación entre las
variables, por lo que se debe utilizar otro tipo de coeficiente. Para poder definir que
coeficiente se debe utilizar, se debe primero analizar la nube de puntos o diagrama de
dispersión y ver la forma.
Existen varios tipos de correlación: curvilínea, cuadrática, etc... En este curso se explica
solamente la correlación lineal únicamente. En el siguiente grafico se puede observar tres
posibilidades de relación: lineal, exponencial y sin relación.
Fuente: Aula Fácil. Lección 12ª. Coeficiente de correlación lineal. 27 de diciembre 2014.
http://www.aulafacil.com/CursoEstadistica/Lecc-12-est.htm
Esta medida estadística se expresa con la letra “r” y es el valor que expresa
numéricamente tanto la dirección como la fuerza de la correlación lineal. Indica la
estrechez de la asociación. Esta medida puede ir de un valor de -1 a un valor de +1.
Para analizar esta medida de estadística bivarial se utilizan tres criterios: dirección de la
correlación, fuerza o magnitud de la correlación y la significación estadística.
Dirección de la correlación
La dirección de la correlación puede ser:
 Positiva o Directa
 Negativa o Indirecta
 No correlación
La correlación es positiva cuando los puntajes en el diagrama de dispersión muestran una
tendencia hacia arriba y hacia la derecha. Los puntajes altos de “Y” se asocian con los
29
puntajes altos de “X” y los bajos de “Y” con las bajos de “X”. La línea equidistante entre
los puntos denominada línea de regresión tiene una dirección ascendente.
La correlación es negativa cuando la tendencia de los puntajes en el diagrama es hacia
abajo y hacia la derecha. A puntajes bajos de la variable X corresponden valores altos de
la variable Y y a valores altos de X, los de Y son bajos. Es decir a un incremento de la una
variable la otra decrece. Por ejemplo, cuando menos años de estudio tienen los padres,
mayor es el número de hijos que tienen.
No correlación cuando no hay ninguna relación entre las variables X y Y, en este caso los
valores de X y de Y se distribuyen indistintamente como una nube.
0
5
10
15
20
25
30
35
0 5 10 15 20 25 30 35
0
2
4
6
8
10
12
14
16
0 5 10 15 20
Y
X
30
Tanto la correlación positiva como la negativa representan una relación lineal en la que
los valores en el diagrama van formando una línea recta. El signo que antecede al número
indica la dirección de la correlación: + si es positiva, - si es negativa. Valores con signos
positivos indican correlación positiva, valores con signos negativos indican correlación
negativa y valor igual a 0 ninguna correlación.
Fuerza o poder
En cuanto al grado o nivel de fuerza o poder, mientras más se acerca a -1 o a +1, la
fuerza de la correlación es mayor.
El valor de “r” de -1 indica que la correlación es negativa perfecta y +1 cuando es positiva
perfecta. Un valor igual a 0 significa ninguna correlación. En la siguiente tabla se presenta
categorías de la fuerza o poder de la correlación:
Correlación negativa Correlación positiva
-1
-0.99 a -0.75
-0.74 a -0.50
-0.49 a - 0.10
Correlación negativa perfecta
Correlación negativa fuerte
Correlación negativa moderada
Correlación negativa débil
+0.10 a 0.49
+0.50 a 0.74
+0.75 a 0.99
+1.00
Correlación positiva débil
Correlación positiva moderada
Correlación positiva fuerte
Correlación positiva perfecta
0.00 Ninguna correlación
El coeficiente de correlación nunca debe ser mayor a +1 o -1.
Para realizar un análisis gráfico de la correlación hay que considerar el grado de
dispersión de los puntos de intersección en relación a la línea de regresión. Si todos los
puntos están en la línea, la correlación es perfecta. En el gráfico siguiente la correlación
es negativa perfecta, r igual a -1. En cambio en el grafico de la izquierda los puntos no
siguen una tendencia, por lo que no hay ninguna correlación, r igual a 0.
0
5
10
15
20
25
0 5 10 15 20 25
Y
X
31
En los gráficos siguientes se presentan ejemplos de correlaciones positivas con diferentes
niveles de fuerza o poder de débil (0,3) a fuerte (0,9).
Análisis descriptivo de la correlación
Para analizar la correlación se puede también utilizar el grafico “forest plot”. Como se
puede observar en el gráfico siguiente el valor 0 (cero) está en la línea de No correlación;
los valores positivos (correlación positiva) a la derecha y los negativos (correlación
negativa a la izquierda) a la izquierda.
0
5
10
15
20
25
30
35
0 10 20 30 40
0
5
10
15
20
25
0 10 20 30
32
Correlación No Correlación
negativa Correlación Positiva
-1 -0,9 -0,8 -0,7 -0,6 -0,5 -0,4 -0,3 -0,2 -0,1 0 +0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 +1
Coeficiente de Determinación
El Coeficiente de Determinación r² indica qué porcentaje de la variabilidad total en la
variable Y puede ser explicada por la variable regresora, en consecuencia es una medida
de la capacidad de PREDICCIÓN del modelo. También puede verse como es una medida
de la fuerza de la asociación lineal entre X e Y.
Regresión
Línea de regresión
En la correlación, en el diagrama de dispersión los valores se distribuyen de acuerdo a la
fuerza de asociación y a su dirección en una línea imaginaria que se va formando en el
centro. En la regresión, se identifica esta línea como una línea recta que se traza a través
del diagrama de dispersión. En todos los gráficos anteriores se presenta la línea de
correlación para cada diagrama de dispersión.
Coeficiente de Regresión β
Es una prueba estadística que permite estudiar cambios concomitantes entre la variable
X” (variable independiente) y la “Y” (variable dependiente), por lo que permite predecir los
valores de la variable “Y” a partir de los valores de la variable “X”. La regresión no indica
causalidad, indica la variación promedial de la variable Y en relación a un cambio de la
variable X.
Este coeficiente se expresa como “β” (beta) y mide el incremento promedial de “Y” por
cada unidad de aumento de X. Es decir en cuantas unidades cambia Y en promedio
cuando X cambia en una unidad. Por ejemplo, un “β” =1 significa que si “X” cambia en una
unidad (1), “Y” cambia también en una unidad. Si el “β” = 2, significa que si “X” cambia en
una unidad (1), “Y” cambia también en dos (2) unidades.
Coeficiente de Intersección de y o alfa
El coeficiente α (alfa), es el punto donde la línea de regresión intercepta el eje “Y”, es
decir el valor de “Y” cuando “X” = 0.
33
El cálculo y el análisis de estos indicadores son útiles para evaluar dosis respuesta de
medicamentos.
Ejemplo:
En el siguiente gráfico se comparan los resultados de dos asociaciones dosis efecto de
dos medicamentos A y B y se puede analizar que si bien las dos presentan los mismos
valores de r y de alfa (α), hay diferencias en las pendientes (A: β =1; B: β =2). Si la
relación que se estudia fuera dosis (x) efecto (y) entonces se podría concluir que el
medicamento B es más eficaz que el A.
Para entender mejor esta medida observe el gráfico siguiente de la pendiente del
medicamento A y podrá ver que cuando X aumenta en 1 y también aumenta en 1.
0
5
10
15
20
25
30
35
0 5 10 15 20
A: r=1 ; β=2: α=0
B: r=1; β=1; α=0
X
Y
34
En cambio en la gráfico de la pendiente del medicamento B puede ver que cuando X
cambia en una unidad Y cambia en 2.
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
Y
X
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
Y
X
35
CONSIDERACIONES IMPORTANTES
Para evaluar si se utilizó adecuadamente la regresión lineal es importante tomar en
cuenta los siguientes aspectos:
1. La correlación es útil solamente cuando se quiere ver una asociación entre “X” y “Y”.
2. Las muestras deben ser extraídas aleatoriamente de la población y deben ser
representativa de la misma.
3. Tanto la variable “X” como la “Y” deben tener la característica de distribuirse
normalmente en la población. Por lo tanto la muestra no de tener menos de 30 casos.
4. En caso que una o las dos distribuciones sean no normales o tengan menos de 30
observaciones se debe hacer una transformación logarítmica de datos para poder
utilizar correlación y regresión lineal.
Ejemplo de análisis de un estudio dosis respuesta
En un experimento controlado y aleatorizado se estudió el efecto de una nueva droga
sobre la glicemia en personas diabéticas. Diez personas fueron asignadas aleatoriamente
a una de diez dosis y se registró la máxima disminución observada en la glicemia en una
hora. Los datos obtenidos son:
La relación respuesta-dosis es aparentemente lineal y utilizando el paquete EpiInfo7 se
obtuvieron los siguientes resultados:
Coeficiente de determinación r ²= 0,93 ⇒ indica que el 93% de la variación observada en
los datos de reducción de la glicemia es explicada por la dosis de droga. En este ejemplo
la dosis es un excelente predictor de la glicemia.
Coeficiente de regresión β (pendiente) = 0,062 ⇒ indica que por cada mg de aumento en
la dosis se espera una reducción de 0,062 mg. de glicemia. Si analizaríamos las dosis
36
como gramos indicaría que por cada 100 mg. Se espera una reducción de la glicemia de
6.
Coeficiente alfa α (intercept) = - 11,47 ⇒ es el punto donde la recta corta el eje vertical, es
decir, la disminución esperada en la glicemia cuando la dosis es cero. No es interpretable
si el 0 no está contenido en el rango de valores de X como en el presente caso.
Materiales audiovisuales de apoyo
Regresión Lineal Simple. Introducción. Interpretación de coeficientes:
https://www.youtube.com/watch?v=s3Wr0FD9KwM
Cómo interpretar el modelo de regresión lineal:
https://www.youtube.com/watch?v=TL3up8LIItE
37
5. ANALISIS INFERENCIAL BIVARIAL
La estadística inferencial es una parte de la estadística que comprende los métodos y
procedimientos que por medio de la inducción determina propiedades de una población
estadística, a partir de una pequeña parte de la misma. La estadística inferencial
comprende como aspectos importantes (Wikipedia):
 La toma de muestra o muestreo, que se referiere a la forma adecuada de
considerar o calcular una muestra que permita obtener conclusiones
estadísticamente válidas y significativas.
 La estimación de parámetros o variables estadísticas, que permite estimar
valores poblacionales a partir de muestras de mucho menor tamaño .
 El contraste de hipótesis, que permite decidir si dos muestras son
estadísticamente diferentes, si un determinado procedimiento o intervención tiene
un efecto estadístico significativo, etc.
 El diseño experimental.
 La inferencia bayesiana.
 Los métodos no paramétricos
En el caso de análisis bivarial se debe realizar estimación de parámetros y contraste de
hipótesis.
La estimación de parámetros se trata de a partir de los datos obtenidos en la muestra
(estimador), calcular valores en la población de la que se obtuvo la muestra (parámetro)
con un cierto grado de certeza o confiabilidad.
Existen dos tipos de pruebas de análisis inferencial o estimación:
1. Pruebas de significación estadística o de estimación de punto
2. Intervalos de confianza o estimación de intervalo.
En el pasado en los artículos científicos se presentaban simplemente tablas y gráficos con
una descripción y explicación de los principales hallazgos. Actualmente se exige que la
evaluación de la significación estadística de los hallazgos a través del uso de pruebas de
significación o intervalos de confianza. La necesidad de las pruebas de significación y los
intervalos de confianza cobraron importancia por la presencia del error de muestreo en los
estudios.
5.1. ERROR DE MUESTREO
Cualquiera que sea el procedimiento de: selección de los individuos de un estudio, calculo
del tamaño de la muestra y de del cálculo de medidas estadísticas calculadas, siempre
hay la probabilidad de que exista un error de muestreo que afecta los resultados. Los
efectos del error de muestreo son más evidentes cuando las muestras son más
pequeñas.
Supongamos que en el universo de una población en estudio tienen el 50% de varones y
el 50% de mujeres. Si se toma una muestra de diez niños, aunque esperaríamos que
cerca de la mitad podrían ser mujeres, no deberíamos sorprendernos si se encuentra
siete mujeres y solamente tres niños varones. Si se toma una segunda muestra, el
obtener cuatro mujeres y de seis varones, tampoco debería sorprendernos. El ejemplo
38
anterior nos hace ver que debido al error de muestreo rara vez tendríamos 50% mujeres y
50% varones en muestras pequeñas.
Los efectos del error del muestreo se presentan en cualquier circunstancia en la
investigación médica. Supongamos que dos tratamientos se están comparando en un
estudio clínico controlado. Los pacientes han sido asignados aleatoriamente (por sorteo)
en dos grupos. Aunque la asignación aleatoria o randomización evita diferencias
sistemáticas (o debidas al azar) entre los dos grupos, no evita que existan diferencias por
error de muestreo. Por ejemplo, podría suceder que en uno de los dos grupos de estudio
existan más pacientes enfermos graves, creando una diferencia aparente entre los
tratamientos aunque en realidad no existan. En la práctica es poco usual que dos grupos
de un estudio clínico controlado sean exactamente iguales, hay con frecuencia pequeños
errores de muestreo entre ellos y es raro encontrar errores de muestreo grandes o
diferencias grandes entre los dos grupos.
La importancia del error de muestreo radica en la magnitud con la cual este afecta los
resultados observados. Algunas veces puede encontrarse un resultado interesante, pero
este puede tratarse de un hallazgo casual estadístico. Afortunadamente los métodos
estadísticos inferenciales nos permiten probar si los resultados observados se deben o
no se deben a un error de muestreo. Un concepto central en estos métodos es el
concepto de probabilidad.
5.2. PROBABILIDAD
La probabilidad de obtener un seis, al lanzar un dado es uno en seis; la probabilidad de
ganarse un sorteo de navidad, con un solo guachito en el que se imprimieron 1000
boletos en uno en mil. La probabilidad, es simplemente, una forma de describir cómo un
evento puede ocurrir probablemente.
Las probabilidades se pueden expresar en porcentajes, pero en estadística son casi
siempre expresadas en fracciones decimales. En este caso sería 1,0 sería igual a 100%.
Las probabilidades varían de entre 0,0 y 1,0, donde 0 significa que un evento nunca
sucederá y 1 significa que hay la total certeza que sucederá. Por ejemplo, si se expresa
en fracciones decimales 1 en 6 vendría a ser 0,167, resultado de dividir 1 para 6 y uno en
mil sería igual a 0,001.
La interpretación de probabilidades es un poco difícil, cuando un evento tiene una
pequeña probabilidad por ejemplo 0,001, es poco probable que suceda, cuando una
probabilidad es grande por ejemplo, 0,9 el evento es muy probablemente que suceda.
Por ejemplo la probabilidad de que un adulto sano muera algún día es de 1.0 (100%),
porque todos morirán algún día, en contraste la probabilidad de que un adulto muera
mañana podría ser menor que 1 en 100.000, o 0,00001.
Las probabilidades son un aspecto medular de la estadística inferencial. Estos son
expresados con frecuencia en términos de valor de p o valor de probabilidad, en la cual la
letra p significa probabilidad.
Se pueden escribir como p = 0,0003, indicando que un evento tiene 3 en 10.000
oportunidades de ocurrir, es algo que casi no ocurrirá.
39
Se puede escribir también como p < 0,001 o p < 0,005, donde el símbolo “<” significa
“menor que”.
El símbolo “<” es ampliamente usado, pero escribir p < 0,01 es menos preciso que p=
0.003. El uso de “<” está ampliamente usado, con lo cual se redondean las cantidades a
ciertos valores; los más frecuentes son p<0,05, p<0,01 y p<0,001. Se recomienda dar el
valor exacto de p, porque el redondeo puede caer en un valor aproximado al mínimo
aceptado, lo que echa a perder la información porque no se puede conocer la probabilidad
de cometer errores Tipo I o Tipo II.
5.3. PRUEBAS DE SIGNIFICACIÓN ESTADÍSTICA
Las pruebas de significación estadística sirven para comparar variables entre distintas
muestras.
La lógica de las pruebas de significación estadística
Las pruebas o test estadísticos pueden parecer que han sido creados para dar
dificultades. Sin embargo son de gran utilidad porque es la única forma de conocer si los
resultados obtenidos en la muestra son similares a los que obtendría si se estudiaría a
todo el universo o población de la que se extrajo la muestra. Lo anterior se conoce
también como relevancia de los resultados, validez externa o capacidad de generalización
estadística de un estudio. El término validez externa en Medicina Basada en Evidencia
puede referirse también a la Utilidad práctica de los resultados, en caso de estudios de
evaluación de eficacia de tratamiento se refiere a la evaluación de si el tratamiento o la
intervención estudiada puede ser de utilidad para manejar nuestros propios pacientes
(Millan, 2009).
Imagine que en un estudio clínico controlado en el que se comparan dos tratamientos, se
encontró que un tratamiento da mejores resultados que el otro. Pero como este resultado
es de una muestra de pacientes, es necesario estimar si los resultados obtenidos en esta
muestra se encontrarán también en el universo de pacientes de donde se obtuvo la
muestra. Para lograr este propósito el primer paso es proponer, que la diferencia
observada entre los tratamientos es debido solamente a un error de muestreo, es decir
que no hay diferencias entre los dos tratamiento en el universo. Esto no es lo que se
espera, con la lógica que se utiliza a menudo siempre se espera que un nuevo tratamiento
sea superior al convencional. Sin embargo, cuando se hace análisis inferencial se inicia
planteando lo contrario a lo esperado a lo que se denomina Hipótesis Nula (H0) y el
resultado que se espera que suceda se denomina Hipótesis Alternativa o de trabajo (H1).
Las pruebas estadísticas inferenciales indican la probabilidad (valor de p) de que, los
resultados obtenidos en la muestra se deban al error muestral. Cuando este valor es
pequeño, ejemplo p<0,01 se concluye que el resultado observado es improbable que
suceda por error, lo que lleva a rechazar la propuesta de que no hay diferencias entre los
tratamientos y por lo tanto a rechazar la hipótesis nula. Se puede concluir entonces que
uno de los tratamientos es realmente mejor que el otro, o dicho de otra manera los
resultados observados en el estudio (en el que se utilizó una muestra) también se dan en
el universo del que se extrajo la muestra o que el resultado es significativo o confiable.
40
El valor de p es una muy buena guía para analizar si los resultados observados pueden
deberse al error muestral: valores pequeños de p, indican que los resultados son
improbables que sucedan por error muestral. Sin embargo, es importante definir a que
denominamos un valor de p pequeño. Existe una regla conveniente pero arbitraria:
cuando el valor de p es menor de 0,05 (p<0,05) es decir 5%, se excluirá el error muestral
como explicación. Cuando se tiene un valor de p menor al valor de referencia se puede
decir que se ha alcanzado significación estadística.
Sin embargo, el uso de esta regla arbitraria de p<0,05 no es una garantía. Supongamos
que se realizan una gran cantidad de test estadísticos, puede aparecer un resultado
estadístico espurio o incorrecto una vez en cada veinte pruebas. Esto se debe a que
p=0,05 significa una probabilidad de uno en veinte de que ocurra un evento. Hay dos
conclusiones de este análisis:
1. Los estudios en los cuales se han realizado múltiples test de significación darán
regularmente significados espurios.
2. Valores pequeños de p, es decir p<0,01 o aun p<0,001 darían una confianza mayor
de que el resultado no fue por un error de muestreo.
5.4. ANALISIS DE LOS ERRORES TIPO I Y TIPO II
La mayoría de las investigaciones sociales, clínicas o epidemiológicas tienen como
objetivo contrastar hipótesis que plantean diferencias entre dos o más grupos o muestras.
Por ejemplo en estudios de evaluación de eficacia de medicamentos siempre existen dos
hipótesis. La hipótesis nula (H0) y la hipótesis alternativa (H1) la que se pretende
demostrar.
La Hipótesis Nula (H0), que es la que se pretende rechazar, sustenta que no hay
diferencias entre dos muestras, posiblemente porque han sido extraídas de la misma
población; por lo tanto, cualquier diferencia observada entre las muestras se considera
como un hecho casual o debido al azar, resultante únicamente del error de muestreo. Es
por tanto la afirmación a rechazar.
La Hipótesis Alternativa (H1) es la afirmación que se pretende demostrar.
En los estudios experimentales (ECA) y en los estudios observacionales analíticos existen
siempre dos hipótesis. La hipótesis nula (H0) que es la se pretende rechazar y la hipótesis
alternativa (H1) la que se pretende demostrar.
“H0: Los pacientes afectos de Enfermedad X tratados mediante el fármaco B no
presentan una mejoría clínica respecto a los tratados con placebo”. RR=1
“H1: Los pacientes afectos de Enfermedad X tratados mediante el fármaco B presentan
una mejoría clínica respecto a los tratados con placebo”. RR > 1
Habitualmente se acepta un error máximo de un 5%; por lo que se aceptará la H1 si se
tiene valores de p menores al 5% (valor p < 0,05).
41
Supongamos que ya se ha realizado el ECA, y con los datos obtenidos tras aplicar unas
pruebas estadísticas determinadas, encontramos unos resultados que indican que la
diferencia es estadísticamente significativa por lo que aceptamos la H1.
En este ejemplo, el fármaco B es más eficaz que el placebo en el tratamiento de la
Enfermedad X. No obstante, lo primero que hay que plantearse es si no podemos haber
llegado a una conclusión falsa, o sea que la hipótesis cierta sea la H0 y que por error se
haya aceptado la H1.
Desde el punto de vista teórico, al aceptar la Hipótesis Nula (H0) o la Hipótesis de Trabajo
(H1) se pueden cometer dos tipos de errores:
 Si se acepta la H1 y esta decisión es correcta no existe error. El error tipo I o error
alfa se comete cuando se rechaza una hipótesis nula siendo verdadera. La
probabilidad de cometer este tipo de error sólo puede presentarse cuando rechaza
la hipótesis nula y varía de acuerdo al nivel de confianza que se imponga. Esto
puede suceder cuando el valor de p es cercano a 0,05, por ejemplo 0,049.
 Por el contrario, si se acepta la hipótesis nula (H0) y ésta es falsa se comete un
error tipo II. A la probabilidad de cometer este error se le denomina Beta (β). De
igual manera como en el caso anterior esto puede suceder cuando el valor de p es
mayor pero muy cercano a 0,05, por ejemplo 0,052.
ACEPTA H0 H0 Correcta No error
H0 Falsa Error Tipo II (beta)
ACEPTA H1 H1 Correcta No error
H1 Falsa Error Tipo I (alfa)
La probabilidad de cometer error alfa será menor mientras haya más rigor en el nivel de
confianza; es decir mientras más pequeño sea el valor de p. Así, con un “valor de p” de
0,001 la probabilidad de cometer Error Tipo I, es 1 vez en 1000, en cambio con un valor
de p de 0,049, tan cercano a 0,05 la probabilidad de cometer error Tipo I es mayor.
El riesgo de cometer error beta o tipo II será menor si el “valor de p” esta lo más alejado
posible del valor de referencia 0.05 o 0.01. Por ejemplo, con un valor de p de 0.1 la
probabilidad de cometer un error Tipo II será pequeño, en cambio con un valor de p de
0.51, tan cercano al valor de referencia (0.05) la probabilidad de cometer un error Tipo II
será grande.
De forma arbitraria, solo como referencia para entender lo explicado anteriormente, se
pueden transformar los valores de p a categorías de nivel de significación estadística o
confiabilidad como se muestra en el ejemplo siguiente:
42
Valor de p Nivel de significación
0,049 Significación o confiabilidad baja o débil. Probabilidad alta de error tipo
I.
0,0049 Significación o confiabilidad moderada.
0,00049 Altamente significativo o altamente confiable. Probabilidad muy baja de
error tipo I.
0,051 No estadísticamente significativo o no confiable bajo. Probabilidad alta
de error tipo II.
0,20 No significativo o no confiable moderado. Moderada probabilidad de
error tipo II
0,8 Altamente No significativo o no confiable muy bajo. Probabilidad muy
baja de error tipo II.
Cuando se observan en los artículos científicos valores de p muy cercanos al valor de
referencia (0.05 o 0.01) una de las explicaciones es que el tamaño de la muestra es muy
pequeño para demostrar la hipótesis. Por lo tanto, una forma de evaluar si el tamaño de la
muestra es suficiente para cumplir los objetivos o demostrar las hipótesis es analizar los
valores exactos de p.
En general se consideran muestras pequeñas para estudios experimentales y
observacionales analíticos cuando se estudian menos de 100 individuos, muestras
aceptables de 100 a 400 personas y muestras grandes cuando superan las 400 personas.
Mientras más grande la muestra más pequeño o confiable será el valor de p. Analizar el
tamaño de la muestra es una forma rápida, pero no precisa de evaluar la capacidad de
generalización de un estudio.
Ejemplo:
En un estudio ECA que evaluó el Efecto de terapia combinada con Tamsulosin
Hydrochloride and Meloxicam (T&M) comparada con monoterapia con Tamsulosin (T) en
pacientes con Hiperplasia Benigna de Prostata Sintomática (HPB) y su impacto en la
nicturia y en la Calidad del Sueño para poder afirmar que el efecto observado se debe al
tratamiento y no a otras variables se plantearían las siguientes hipótesis:
H0: Los pacientes con HPB tratados mediante los fármacos “T&M” no presentan un
aumento del flujo máximo urinario respecto a los tratados con “T”.
H1: Los pacientes afectos de HPB tratados mediante los fármacos T&M” presentan un
aumento del flujo máximo urinario respecto a los tratados con placebo”.
Una vez realizado el estudio los autores reportan los siguientes resultados para los
promedios de Flujo Urinario (mL/seg)
Grupo T&M 2.2 ± 1.8
Grupo T 3.9 ± 3.2
Diferencia de Medias (DM) - 1,7
Valor de p < 0.03
En este ejemplo, el tratamiento con “T&M” es más eficaz que el tratamiento “T” en el
tratamiento de la HPB. No obstante, lo primero que hay que plantear es si puede haber
llegado a una conclusión falsa, o sea que la hipótesis cierta sea la H0 y que por error se
haya aceptado la H1.
43
En este caso como el valor de p es < 0,03 (3%)) la probabilidad de cometer error alfa es
menor a 0,05 (5%) por lo que acepto la H1 como verdadera.
Ejercicios:
Con los siguientes datos del estudio del ejemplo anterior formule Hipótesis para cada uno
de los resultados que se presenta en la tabla siguiente.
Consulte las definiciones de cada una de los resultados que se presentan en la tabla y
cuáles son los valores de referencia (valores normales).
En la siguiente tabla calcule la diferencia de promedios (DM) y evalúe la dirección y la
fuerza del resultado para cada una de los resultados que se presentan en la tabla anterior.
Para evaluar la fuerza o magnitud del efecto compare el resultado con el valor de
referencia.
Resultado DM Dirección Fuerza Mayor eficacia a favor de
que tratamiento T&M o T
PSQS
Episodios Nocturia
Total IPSS
IPSS-QoL
Omax (mL/seg)
AFR
PVR
En la siguiente tabla formule las Hipótesis de Trabajo (H1) y la Hipótesis Nula (H0) de
cada resultado evaluado, analice el valor de p y defina cual de las dos hipótesis aceptaría
como verdadera.
44
Resultado Hipótesis de trabajo Hipótesis Alternativa Valor
de p
Que
hipótesis
acepta
PSQS
Episodios Nocturia
Total IPSS
IPSS-QoL
Omax (mL/seg)
AFR
PVR
5.5. EVALUACIÓN DEL TEST DE SIGNIFICACIÓN UTILIZADO
Para evaluar si se ha escogido adecuadamente el test de significación estadística es
importante conocer que esto depende de:
1. El tipo de variables en estudio, si son cualitativas o cuantitativas.
2. El tipo de hipótesis u objetivos del estudio. Se dividen en dos tipos:
 Los que buscan asociaciones o relación de dependencia/ independencia.
 Los que contrastan resultados entre dos o más grupos o muestras.
3. El tipo de diseño: independiente o pareado.
4. Comportamiento de la variables, si es normal o no normal (sesgada, platicúrvica o
leptocúrvica), o si las varianzas son diferentes entre los grupos o muestras que se
comparan.
5. Tamaño de los grupos (muestras)
5.5.1. POR TIPO DE VARIABLE EN ESTUDIO
De forma muy esquemática existen cuatro posibilidades:
1. La dos variables (independiente y dependiente) son cuantitativas,
2. Las dos variables son cuantitativas,
3. La variable dependiente es cualitativa y la independiente cuantitativa,
4. La variable dependiente es cuantitativa y la independiente es cualitativa.
A continuación se expone una tabla resumen de las pruebas de significación más usadas
según el tipo de variables.
45
Tabla 2. Pruebas de significación estadística según tipo de variables
VARIABLE DEPENDIENTE
CUALITATIVA CUANTITATIVA
VARIABLE
INDEPENDIENTE
CUALITATIVA - 2 grupos: Z o t para
diferencia de
proporciones.
- Más de 2 grupos
(tablas n x n) y tablas
- Tablas de 2 x2 :
Chi cuadrado o Test
Exacto de Fisher
- 2 grupos: Z o t para
diferencia de promedios
o medianas *
- Más de 2 grupos:
ANOVA.
CUANTITA-
TIVA
Regresión logística 2 Grupos:
Prueba F para análisis
de regresión.
* Por el número de elementos que intervienen en la muestra se deben utilizar la prueba t
cuando son menos 30 en cada grupo y la Z cuando son más de 30 en cada grupo.
Pruebas de significación para asociación de variables cualitativas con
cualitativas
Las variables cualitativas únicamente pueden describirse como proporciones o razones.
Por ello, entre variables cualitativas únicamente podremos realizar estudios de asociación
o relación entre dos variables, una variable independiente y una dependiente, nunca se
realizará comparación de medias.
Si los datos son independientes, de entrada debe considerarse como test de elección la
prueba Chi cuadrado. No obstante, como este test presenta una serie de limitaciones en
ocasiones es preciso utilizar el test de exactitud de Fisher. En el caso de datos
cualitativos apareados se utilizará el test de Mac Nemar.
Chi Cuadrado
Se usa como prueba de significación estadística de las medidas de asociación entre
variables cualitativas o para probar diferencias entre dos proporciones. Las dos categorías
deben ser mutuamente excluyentes e independientes. Existen tres variantes de Chi
cuadrado:
1. Chi cuadrado sin corrección, que se utilizan cuando los valores esperados en cada
celda es mayor o igual a cinco.
2. Mantel Haenszel, que se utiliza cuando existen variables perturbadoras o
intervinientes.
3. Corrección de yates, se utiliza cuando los valores esperados en cada celda son
menores de cinco.
Los valores esperados constituyen los valores teóricos que tendría la distribución si no
existirían diferencias entre las categorías de las variables estudiadas. Para esto se
46
calculan los valores teóricos o esperados de cada celda, multiplicando el total de la fila por
el total de la columna en la que está la celda y luego se divide para el total de las
observaciones. Con esto se consigue tener una cantidad que distribuye el total de la
columna, tomando en cuenta el peso que tiene la fila correspondiente.
Ejemplo:
GRUPO
SOCIAL
OBSERVADOS ESPERADOS
Enfermos Sanos Total Enfermos Sanos Total
Expuestos 21 a 79 b 100 13 a 87 b 100
No expuestos 5 c 95 d 100 13 c 87 d 100
TOTAL 26 174 200 26 174 200
Valores esperados:
a = 26 x 100 / 200 = 13
b = 174 x 100/ 200 = 87
c = 26 x 100 / 200 = 13
d = 174 x 100 / 200 = 87
Si se calcula tasas de incidencia de expuestos y no expuestos en esperados en la tabla
de esperados, se puede observar que no hay diferencias entre los dos grupos.
Ie = 13/100 = 13%
Ine = 13/100 = 13%
Los dos grupos tienen una tasa de enfermar. Por lo tanto los valores de esperados
representan a la hipótesis nula y lo que se trata es de medir las diferencias entre
esperados y no esperados, si no hay diferencias o las diferencias son pequeñas se acepta
la hipótesis nula.
Paquetes estadísticos como Statcalc de EpiInfo proveen tres tipos de Chi Cuadrado
(Perarson, Mantel Hansel y Corrección de yates) y la prueba de Fisher, el investigador
debe seleccionar cual es el más conveniente para su análisis. A continuación se
presentan un ejemplo con las tres alternativas de Chi².
Valor Chi² Valor p
Chi² sin corrección 11,32 0,00076
Mantel Haenszel 11,26 0,0079
Corrección yates 9,95 0,001611
Como en este ejemplo no hay valores esperados menores de cinco en cada celda, se
debería usar Chi² sin corrección.
Cuando se tiene tablas de contingencia de dos filas y más de dos columnas (2 x n) o de
más de dos filas y columnas (r x c), se utiliza e Chi² de Pearson.
Prueba de exactitud de Fisher
El test exacto de Fisher es una prueba de significación estadística utilizada en el análisis
de tablas de contingencia. Aunque en la práctica se emplea cuando los tamaños de
47
muestra son pequeños, también es válido para todos los tamaños de muestra. Esta
prueba es considerada el “estándar de oro” de las pruebas estadísticas, pues provee un
valor exacto de p mientras el Chi-Cuadrado provee un valor aproximado.
La mayoría de los usos de la prueba de Fisher implican, una tabla de 2×2 de contingencia.
Con la fórmula de la prueba se calcula directamente el “valor de p” y no se necesita la
tabla de Chi Cuadrado.
Este test provee dos resultados: para una cola, como para dos colas. Para una cola se
refiere cuando calcula la probabilidad en una sola dirección, es decir comparando la
distribución teórica con una distribución en la que se conoce por estudios o referencias la
dirección de la asociación. De dos colas se debe usar cuando no se desconoce la
dirección de la asociación.
Ejemplo si la H1 dice que el OR es mayor de 1 es de una cola, si la H1 dice que OR
puede ser mayor o menor a 1 es de dos colas.
Pruebas de significación para comparación de proporciones
Comparación de una proporción con un estándar conocido.
Para comparar la proporción de personas (P) con ciertas características (enfermedad)
con un valor estándar conocido, se utiliza una prueba de significación de diferencias de
proporciones, utilizando la tabla Z distribución normal para muestras de más de 30
observaciones para identificar el valor de “p” y la distribución t para muestras de menos
de 30 observaciones.
Ejemplo: Se tomaron 100 muestras para evaluar prevalencia de bocio en una localidad Y,
obteniendo una prevalencia de 18%. La prevalencia en toda el área endémica fue 30%
(estándar conocido).
Diferencia de proporciones = 0,12 (12%)
Estadístico Z= 2,6 Valor de p= 0,01
Con los resultados anteriores se puede concluir que la prevalencia de bocio en la
comunidad Y (18%) es menor al resultado obtenido en el área endémica.
Comparación de dos porcentajes de dos muestras
Para comparar diferencias de dos muestras con proporciones P1 y P2, se usa la prueba
de significación de diferencia de proporciones. Al igual que en la prueba anterior para
identificar el valor de “p” se utiliza la tabla Z de distribución normal para muestras de más
de 30 observaciones para cada grupo y la distribución t para muestras de menos de 30
observaciones para cada grupo.
Ejemplo: En la encuesta de prevalencia de alcoholismo en el Ecuador se encontró 360
alcohólicos para la sierra y 280 para la costa. Se quiere saber si estas dos diferencias son
significativas. La muestra de la Sierra fue de 3600 y la de la Costa 4000.
Prevalencia en la Sierra 0,10 o 10%
Prevalencia en la Costa 0,07 o 7%
48
Diferencia de proporciones = 0,10 – 0,07 = 0,03 (3%)
Estadístico Z = 4,66 Valor de p = 0,0000 (< 0,0001)
Con los resultados anteriores se puede concluir que en la Sierra hay una prevalencia mayor
de alcoholismo que en la Sierra.
Pruebas de significación para asociación de variables cualitativas con
cuantitativas
Cuando la variable independiente es cualitativa y la dependiente es cuantitativa se deben
utilizar pruebas de significación estadística para diferencia o comparación de promedios o
medianas.
Para diferencia de promedios hay dos tipos de pruebas paramétricas: la Prueba Z y la
Prueba t de student. Estas pruebas se utilizan cuando los dos grupos de comparación
presentan distribuciones simétricas, por lo que son pruebas paramétricas.
Prueba z
Es una prueba de hipótesis paramétrica, que se utiliza para ver si la diferencia que existe
entre valores de dos muestras es estadísticamente significativa o se debe al azar. Se
utiliza para comparan dos promedios o dos proporciones cuando las muestras son
mayores a 30 y su distribución se aproxima a una distribución normal.
Prueba t o t de student
Es una prueba de hipótesis paramétrica, que se utiliza para ver si la diferencia que existe
entre valores de dos muestras es estadísticamente significativa o se debe al azar. De
preferencia se utiliza cuando las muestras son pequeñas -menores a 30 - aunque se
puede utilizar en muestras mayores, en este caso su distribución se aproxima a una
distribución normal.
Es paramétrica porque las frecuencias se distribuyen bajo la curva normal o se aproximan
a élla. Toma como referencia los parámetros para estimar o probar. Esta prueba permite
convertir la diferencia de promedios o de proporciones en unidades estandarizadas.
La prueba t debe interpretarse con referencia a los grados de libertad, los mismos que
varían directamente con el tamaño de la muestra. Mientras mayor es el tamaño de la
muestra, mayores serán los grados de libertad y mientras mayor sea los grados de
libertad más se acercará la distribución en la curva normal.
Grados de libertad: Técnicamente se refiere a la libertad de variación entre un conjunto de
puntajes. Así, si se tiene una muestra de cinco puntajes o grupos, cuatro son libres de
variar, mientras que solo uno es valor fijo. En este caso, el cálculo de grados de libertad
sería = 5 - 1 = 4 porque gl = n - 1.
49
Comparación de una media de una muestra con un estándar conocido
En este caso se quiere probar si la media muestral tiene una diferencia significativa con
un estándar conocido. Para muestras de más de 30 observaciones se utilizará la
distribución Z. Para muestras pequeñas de menos de 30 observaciones la fórmula es la
misma, pero por tener una distribución de t, el resultado se busca en una tabla de
distribución T student con grados de libertad igual a n-1, porque se comparan solo dos
grupos.
El valor de “p” se obtiene mirando el valor calculado de “z” en la tabla de distribución
normal o en la tabla “t”.
Ejemplo Prueba Z:
El promedio de Yodo en Sal de una muestra de 100 observaciones fue de 70 p.p.m con
una desviación estándar de 15. El mínimo aceptable según las normas del país es de 67
p.p.m.
Diferencia de medias = 70 - 67 = 3
Estadístico Z = 2 Valor de p = 0,024
Ejemplo: El valor de glucosa en la sangre considerado como normal es de 100. Se
determinó la glucosa en una muestra de 25 personas y se encontró que el promedio en
este grupo fue de 110 y la desviación estándar de 10. Queremos saber si esta diferencia
es significativa, es decir que existe en la población o se debe al azar.
Ho = No hay diferencia entre el promedio de glucosa encontrado con el valor
considerado como normal.
Ha = Existe diferencia entre el promedio de glucosa encontrado y el valor de
glucosa referencial.
Diferencia de medias = 110 - 100 = 10
Grados de libertad = n-1 = 25 - 1 = 24
Estadistico t = 5 Valor de p < 0.05.
Comparación de medias de dos muestras
En este caso se quiere probar si una media muestral tiene una diferencia significativa con
otra media muestral. Si las dos muestras tienen más de 30 observaciones se utilizará la
distribución Z. Si una de las muestras o grupos o las dos tienen menos de 30
observaciones el valor de p se busca en una tabla de distribución T student.
El valor de “p” se obtiene de la tabla Z de la curva normal para muestras de más de 30
observaciones y la distribución “t” para muestras de menos de 30 observaciones.
Ejemplo en muestras mayores a 30: Se comparan el contenido de Iodo en muestras de
sal de dos marcas. La marca Crissal tiene 69,5 ppm de iodo en sal y una desviación
50
estándar de 2,5 en 50 observaciones. La marca Super Max tiene 70,1 ppm y DE 2,3 en 60
observaciones.
Diferencia de medias = 70,1 - 69,5 = 0,6
Estadístico Z = 1,18 Valor de p= 0,53
Se acepta la hipótesis nula, se rechaza la hipótesis alternativa o de investigación
Ejemplo de muestras menores a 30: En un estudio se determinó nivel de colesterol en
mujeres que toman anticonceptivos y en mujeres que no toman anticonceptivos.
Los resultados fueron los siguientes:
Toman anticonceptivos No toman anticonceptivos
Media colesterol 198 181
Desvio estandar 29 12
No participantes 26 26
Hipótesis nula: No hay diferencia en los niveles de colesterol entre los dos grupos.
Hipótesis Alternativa: Si hay diferencia en los niveles de colesterol entre los dos grupos.
Diferencia de medias = 17
Estadístico t = 2,71 Valor de p = 0,04 (<0,05)
Se rechaza la hipótesis nula, se acepta la hipótesis alternativa o de investigación.
Análisis de varianza
Es un test de significación estadística que se usa cuando se cruza una variable cualitativa
con una cuantitativa y se quiere comprobar si las diferencias en los promedios de una
variable que presenta más de dos categorías o muestras se deben al azar o existe en el
universo.
Cuando se realiza comparaciones entre promedios de dos muestras se utiliza la prueba t
o Z, pero cuando el número de comparaciones aumentan, es decir son 3, 4 o más el
procedimiento que puede utilizarse es hacer pruebas -t- por separado. Esto implica no
sólo gran cantidad de trabajo sino también una limitación estadística porque aumenta la
probabilidad de cometer el error alpha o Tipo I, es decir, rechazar la Ho cuando es
verdadera y debe ser aceptada, lo que implica obtener resultados estadísticamente
significativos por error de muestreo más que por una verdadera diferencia poblacional.
Para superar este problema se utiliza la prueba ANALISIS DE VARIANZA (ANOVA). Esta
prueba permite comparar 3, 4 o más promedios de diferentes muestras. La prueba calcula
la Razón F que indica la magnitud de la diferencia entre los grupos en relación a la
magnitud de la variación dentro de cada grupo.
Mientras mayor sea la razón F, es decir mientras mayor sea la variación entre los grupos
en relación con la variación dentro de éstos, menor será el valor de p y por lo tanto mayor
51
será la probabilidad de rechazar la Ho y aceptar la Ha o de trabajo. Esta prueba también
se interpreta con el valor de p de la misma manera que el Chi cuadrado.
Ejemplo: Promedio de peso en los estudiantes de 4 facultades de la universidad.
Variación dentro del grupo:
DIBUJO
Variación entre los grupos:
DIBUJO
RAZON F: Indica la magnitud de la diferencia entre los grupos en relación a la magnitud
de la variación dentro de cada grupo.
Mientras mayor sea la razón F, es decir mientras mayor sea la variación entre los grupos
en relación con la variación dentro de éstos, mayor será la probabilidad de rechazar la Ho
y aceptar la Ht o de trabajo.
Pruebas de significación para asociación de variables cualitativas con
cuantitativas (análisis de regresión)
Para analizar si los resultados de los coeficientes de correlación y regresión se deben al
azar o son representativos del universo del que se obtuvo la muestra, se pueden usar los
Intervalos de Confianza o las Prueba F de significación para el coeficiente de correlación
r o para el coeficiente de regresión β (Beta).
La lógica de análisis es la misma que antes. Para lo cual es necesario definir la Hipótesis
Nula (Ho) y el Valor crítico de “p”.
5.5.2. SEGÚN EL TIPO DE HIPÓTESIS U OBJETIVOS DEL ESTUDIO
Como se puede analizar en la sección anterior hay dos tipos de hipótesis u objetivos: los
que buscan asociaciones o relación de dependencia/ independencia y los que contrastan
resultados entre dos o más grupos o muestras.
Ya se señaló previamente que las dos hipótesis principales a contrastar pueden ser las
diferencias entre promedios o proporciones de muestras (contrastar resultados) y la
relación o asociación entre dos variables cualitativas (evaluar asociaciones).
Tipo de hipótesis Pruebas de significación estadística
Relación o asociación Chi cuadrado
Test de exactitud de Fisher
Correlación y regresión
Comparación o contrastación de
resultados
Z o t para diferencia de proporciones.
Z o t para diferencia de promedios
ANOVA
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016
Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016

Más contenido relacionado

La actualidad más candente

Análisis de los datos e interpretación POR SYLVIA JAQUE
Análisis de los datos e interpretación POR SYLVIA JAQUE Análisis de los datos e interpretación POR SYLVIA JAQUE
Análisis de los datos e interpretación POR SYLVIA JAQUE silviaseptiembre
 
Metaanálisis y revision sistematica
Metaanálisis y revision sistematicaMetaanálisis y revision sistematica
Metaanálisis y revision sistematicaRolando Rmz
 
Unidad 11 recoleccion y analisis de datos
Unidad 11 recoleccion y analisis de datosUnidad 11 recoleccion y analisis de datos
Unidad 11 recoleccion y analisis de datosRocioo Sanchez
 
Actividad 4 (técnicas de recolección y análisis de datos)
Actividad 4 (técnicas de recolección y análisis de datos)Actividad 4 (técnicas de recolección y análisis de datos)
Actividad 4 (técnicas de recolección y análisis de datos)lunes rodriguez
 
Conceptos básicos de estadística
Conceptos básicos de estadísticaConceptos básicos de estadística
Conceptos básicos de estadísticaJavier Rodriguez
 
Ensayo probabilida y estadistica
Ensayo probabilida y estadisticaEnsayo probabilida y estadistica
Ensayo probabilida y estadisticaMmanuel Jesuss
 
Actividad 4. contrastación de hipotesis
Actividad 4. contrastación de hipotesisActividad 4. contrastación de hipotesis
Actividad 4. contrastación de hipotesisKarla_Hdz_F
 
Fundamentos para análisis de resultados de una investigación
Fundamentos para análisis de resultados de una investigaciónFundamentos para análisis de resultados de una investigación
Fundamentos para análisis de resultados de una investigaciónFredy RS Gutierrez
 
Importancia de la estadística en la investigación científica
Importancia de la estadística en la investigación científicaImportancia de la estadística en la investigación científica
Importancia de la estadística en la investigación científicaCarlos Leon
 

La actualidad más candente (20)

Análisis de los datos e interpretación POR SYLVIA JAQUE
Análisis de los datos e interpretación POR SYLVIA JAQUE Análisis de los datos e interpretación POR SYLVIA JAQUE
Análisis de los datos e interpretación POR SYLVIA JAQUE
 
Metaanálisis y revision sistematica
Metaanálisis y revision sistematicaMetaanálisis y revision sistematica
Metaanálisis y revision sistematica
 
Tema estadisticas (1)
Tema estadisticas (1)Tema estadisticas (1)
Tema estadisticas (1)
 
Unidad 11 recoleccion y analisis de datos
Unidad 11 recoleccion y analisis de datosUnidad 11 recoleccion y analisis de datos
Unidad 11 recoleccion y analisis de datos
 
Actividad 4 (técnicas de recolección y análisis de datos)
Actividad 4 (técnicas de recolección y análisis de datos)Actividad 4 (técnicas de recolección y análisis de datos)
Actividad 4 (técnicas de recolección y análisis de datos)
 
Metaanalisis
MetaanalisisMetaanalisis
Metaanalisis
 
Conceptos básicos de estadística
Conceptos básicos de estadísticaConceptos básicos de estadística
Conceptos básicos de estadística
 
Ensayo probabilida y estadistica
Ensayo probabilida y estadisticaEnsayo probabilida y estadistica
Ensayo probabilida y estadistica
 
Analisis
Analisis Analisis
Analisis
 
Estadistica aplicada 2017
Estadistica aplicada 2017Estadistica aplicada 2017
Estadistica aplicada 2017
 
Conceptos basicos
Conceptos basicosConceptos basicos
Conceptos basicos
 
estadística
estadística estadística
estadística
 
Actividad 4. contrastación de hipotesis
Actividad 4. contrastación de hipotesisActividad 4. contrastación de hipotesis
Actividad 4. contrastación de hipotesis
 
Fundamentos para análisis de resultados de una investigación
Fundamentos para análisis de resultados de una investigaciónFundamentos para análisis de resultados de una investigación
Fundamentos para análisis de resultados de una investigación
 
Analisis multivariado
Analisis multivariadoAnalisis multivariado
Analisis multivariado
 
Importancia de la estadística en la investigación científica
Importancia de la estadística en la investigación científicaImportancia de la estadística en la investigación científica
Importancia de la estadística en la investigación científica
 
Tests piscométricos. aliaga
Tests piscométricos. aliagaTests piscométricos. aliaga
Tests piscométricos. aliaga
 
Estadistica y diseños experimentales
Estadistica y diseños experimentalesEstadistica y diseños experimentales
Estadistica y diseños experimentales
 
Tema estadistica
Tema estadisticaTema estadistica
Tema estadistica
 
Clase 14 meta análisis
Clase 14 meta análisisClase 14 meta análisis
Clase 14 meta análisis
 

Similar a Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016

Exposición completa de estadistica
Exposición completa de estadisticaExposición completa de estadistica
Exposición completa de estadisticaAida Aguilar
 
Guía de interpretación de resultados en el contraste de hipótesis estadísticas
Guía de interpretación de resultados en el contraste de hipótesis estadísticasGuía de interpretación de resultados en el contraste de hipótesis estadísticas
Guía de interpretación de resultados en el contraste de hipótesis estadísticasEnrique Navarro
 
Estrito critico la recoleccion y analisis de datos cuantitativos
Estrito critico la recoleccion y analisis de datos cuantitativosEstrito critico la recoleccion y analisis de datos cuantitativos
Estrito critico la recoleccion y analisis de datos cuantitativosrieralyzdany
 
Análisis de datos
Análisis de datosAnálisis de datos
Análisis de datoscaceli
 
Indicadores y estándares en Epidemiología.pptx
Indicadores y estándares en Epidemiología.pptxIndicadores y estándares en Epidemiología.pptx
Indicadores y estándares en Epidemiología.pptxjuansucre3
 
Analisis de datos última versión
Analisis  de  datos última versiónAnalisis  de  datos última versión
Analisis de datos última versiónSeth Sánchez Miranda
 
Generalidades de la estadística
Generalidades de la estadísticaGeneralidades de la estadística
Generalidades de la estadísticaJenny HB
 
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...rieralyzdany
 
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...rieralyzdany
 
Monografia 1: Escala de Medición. Juan Carlos Rengel.
Monografia 1: Escala de Medición. Juan Carlos Rengel. Monografia 1: Escala de Medición. Juan Carlos Rengel.
Monografia 1: Escala de Medición. Juan Carlos Rengel. JuanRengel2
 
Monografia 1: Escala de Medición. Juan Carlos Rengel.
Monografia 1: Escala de Medición. Juan Carlos Rengel. Monografia 1: Escala de Medición. Juan Carlos Rengel.
Monografia 1: Escala de Medición. Juan Carlos Rengel. JUNIORMARCANO1
 
Analisis de encuestas
Analisis de encuestasAnalisis de encuestas
Analisis de encuestasMauricio Cano
 
Fundamentos de estadistica
Fundamentos de estadisticaFundamentos de estadistica
Fundamentos de estadisticalinajimenez30
 

Similar a Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016 (20)

Exposición completa de estadistica
Exposición completa de estadisticaExposición completa de estadistica
Exposición completa de estadistica
 
Analisis multivariado
Analisis multivariadoAnalisis multivariado
Analisis multivariado
 
Guía de interpretación de resultados en el contraste de hipótesis estadísticas
Guía de interpretación de resultados en el contraste de hipótesis estadísticasGuía de interpretación de resultados en el contraste de hipótesis estadísticas
Guía de interpretación de resultados en el contraste de hipótesis estadísticas
 
METODOS ESTADISTICOS3.pdf
METODOS ESTADISTICOS3.pdfMETODOS ESTADISTICOS3.pdf
METODOS ESTADISTICOS3.pdf
 
Taller de estadistica
Taller de estadisticaTaller de estadistica
Taller de estadistica
 
Tema estadistica
Tema estadisticaTema estadistica
Tema estadistica
 
Estrito critico la recoleccion y analisis de datos cuantitativos
Estrito critico la recoleccion y analisis de datos cuantitativosEstrito critico la recoleccion y analisis de datos cuantitativos
Estrito critico la recoleccion y analisis de datos cuantitativos
 
Metodos estadisticos
Metodos estadisticosMetodos estadisticos
Metodos estadisticos
 
Análisis de datos
Análisis de datosAnálisis de datos
Análisis de datos
 
Exposicion Tema Analisis De Datos
Exposicion Tema Analisis De DatosExposicion Tema Analisis De Datos
Exposicion Tema Analisis De Datos
 
Tema estadistica
Tema estadisticaTema estadistica
Tema estadistica
 
Indicadores y estándares en Epidemiología.pptx
Indicadores y estándares en Epidemiología.pptxIndicadores y estándares en Epidemiología.pptx
Indicadores y estándares en Epidemiología.pptx
 
Analisis de datos última versión
Analisis  de  datos última versiónAnalisis  de  datos última versión
Analisis de datos última versión
 
Generalidades de la estadística
Generalidades de la estadísticaGeneralidades de la estadística
Generalidades de la estadística
 
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
 
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOSEstrito critico la recoleccio...
 
Monografia 1: Escala de Medición. Juan Carlos Rengel.
Monografia 1: Escala de Medición. Juan Carlos Rengel. Monografia 1: Escala de Medición. Juan Carlos Rengel.
Monografia 1: Escala de Medición. Juan Carlos Rengel.
 
Monografia 1: Escala de Medición. Juan Carlos Rengel.
Monografia 1: Escala de Medición. Juan Carlos Rengel. Monografia 1: Escala de Medición. Juan Carlos Rengel.
Monografia 1: Escala de Medición. Juan Carlos Rengel.
 
Analisis de encuestas
Analisis de encuestasAnalisis de encuestas
Analisis de encuestas
 
Fundamentos de estadistica
Fundamentos de estadisticaFundamentos de estadistica
Fundamentos de estadistica
 

Último

MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAEl Fortí
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdfDemetrio Ccesa Rayme
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Lourdes Feria
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Ecosistemas Natural, Rural y urbano 2021.pptx
Ecosistemas Natural, Rural y urbano  2021.pptxEcosistemas Natural, Rural y urbano  2021.pptx
Ecosistemas Natural, Rural y urbano 2021.pptxolgakaterin
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxMaritzaRetamozoVera
 
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxYadi Campos
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
Ley 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularLey 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularMooPandrea
 
origen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioorigen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioELIASAURELIOCHAVEZCA1
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxlclcarmen
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfFrancisco158360
 

Último (20)

MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdf
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
 
Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 
Ecosistemas Natural, Rural y urbano 2021.pptx
Ecosistemas Natural, Rural y urbano  2021.pptxEcosistemas Natural, Rural y urbano  2021.pptx
Ecosistemas Natural, Rural y urbano 2021.pptx
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docx
 
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
Ley 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularLey 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circular
 
origen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioorigen y desarrollo del ensayo literario
origen y desarrollo del ensayo literario
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
 

Mbe unidad 4. lectura comprensiva estadistica 13 octubre2016

  • 1. 1 UNIDAD 4. ENTENDIENDO ESTADÍSTICAS PARA MEDICINA BASADA EN EVIDENCIAS DE DUDAS TERAPÉUTICAS OBJETIVOS DE APRENDIZAJE Comprender e interpretar indicadores estadísticos en literatura científica para aplicar en la toma de decisiones. ACTIVIDAD DE APRENDIZAJE 1 1. Lea el texto que se presenta a continuación utilizando las técnicas de lectura comprensiva, sistemática y elabore resúmenes o cuadros sinópticos. 2. Identifique los indicadores estadísticos que se adjuntan en los resúmenes y artículos científicos proporcionados por el tutor. 3. Analice los indicadores de efectividad o eficacia de los artículos proporcionados utilizando el gráfico de análisis de dirección y fuerza del efecto y la significación estadística de los mismos. 1. INTRODUCCIÓN AL ANÁLISIS DE DATOS La compresión de indicadores estadísticos y la interpretación de los resultados de un artículo científico constituyen un gran reto para el desarrollo de las habilidades de lectura comprensiva y del análisis crítico. Cada tabla o figura debería ser evaluada preguntándose ¿Qué pienso que significa realmente? La discreción es la palabra clave: resultados grandes, excitantes o inesperados son extremadamente raros. En contraste, estudios defectuosos y hallazgos equivocados son mucho más comunes. Los resultados deben ser abordados con cuidado para evaluar su significancia o confiabilidad y para observar posibles peligros en el análisis. Esta unidad presenta las ideas fundamentales para interpretar resultados y evaluar si los resultados fueron adecuadamente procesados y analizados. 2. CONCEPTOS BÁSICOS Variable: Un proceso de la realidad que cambia o varia de sujeto a sujeto. Es una variación a ser medida. Valor: Son los elementos concretos de la variable. Opción: Valor preciso de una variable. Parámetro: Valores de la población. Estimador: Valores de la muestra. Muestra: Parte o subconjunto de la población. Población: Conjunto de unidades relevantes de la población.
  • 2. 2 3. EVALUACIÓN DEL DISEÑO DE ANÁLISIS ESTADÍSTICO Y DEL ANÁLISIS DE DATOS 3.1. REVISIÓN DEL DISEÑO DE ANÁLISIS DE DATOS Antes de revisar las tablas o gráficos se debe primero leer como el autor analizó los datos en la sección metodología. En el capítulo metodología debe constar el diseño de estudio, las variables y el diseño del análisis; esta información debe ser contrastada con las hipótesis u objetivos del estudio y analizar si el análisis corresponde a las mismas. Si la hipótesis u objetivo es descriptivo, se debe realizar análisis univarial, pero si es explicativo o de asociación se deberá haber realizado análisis bivarial o multivarial. En este segundo caso es importante reconocer como se clasificaron las variables de acuerdo a su ubicación causal, ¿Cuál o cuáles son dependientes (o efecto) y cuáles independientes (factores de riesgo o exposiciones)? y dentro de estas cuál es la variable antecedente simple o causal directa, las intervinientes (cofactores y moderadoras o interacción) y las perturbadoras, etc. Analice si el diseño planteado coincide con las tablas y gráficos, considerando la exposición, los efectos y los potenciales variables de confusión o perturbadoras y variables moderadoras. Observe como se definieron los subgrupos y categorías de cada una de las variables. Las forma de estructurar subgrupos se debe basar en: i) los conocimientos que se tiene sobre el objeto de estudio, ii) las hipótesis biológicas de importancia y iii) de la manera en que el estudio va a ser (o fue) conducido. Los estudios tienen mayor posibilidad de ser útiles si el análisis toma en cuenta asociaciones y pruebas de hipótesis, basadas en la biología más que en la mecánica (o electrónica), comparando toda posible exposición (variable independiente) con cada daño o efecto posible (variable dependiente). 3.2. EVALUACIÓN DEL ANÁLISIS DE DATOS 3.1.1. REGLAS PARA LEER EL ANÁLISIS DE DATOS Tres son las reglas más importantes a seguir en la lectura del análisis de datos: 1. El análisis de datos debe ir desde lo simple a lo complejo, las técnicas de análisis sofisticadas no pueden reparar una información de mala calidad (mala representatividad, sesgo sistemático, sesgos por falta de respuestas de los encuestados). Por ello es importante primero analizar la información más simple. 2. Evaluar la consistencia de la información, que implica evaluar la presencia de valores imposibles o fuera de rango, duplicados, datos extraños y el porcentaje de no respuesta (datos en blanco). Tanto las tablas simples como la representación gráfica permiten observar los valores que difieren ostensiblemente del resto (valores extraños o fuera de rango) y los llamados valores imposibles.
  • 3. 3  Los valores extraños y los fuera de rango son aquellos que es posible encontrar pero que no se esperarían encontrar, por ejemplo valores de hemoglobina menores de 5 o edad mayor de 80 años.  Los valores imposibles son aquellos cuya existencia no es factible. Por ejemplo, cuando se estudia la variable sexo se esperan solo dos códigos: M para masculino y F para femenino y no otra letra como G o N. La importancia de estos valores extraños radica en que pueden alterar los resultados estadísticos (asociación, significación, estimación) pudiendo modificar la interpretación de los resultados. El evaluar si la información es correcta y limpia de errores es más importante que proceder a analizar las pruebas estadísticas sofisticadas. Una elevada proporción de datos en blanco (“missing value”) es una importante fuente de sesgo que con frecuencia es considerada al evaluar la validez científica o calidad de las investigaciones. Es necesario primero determinar el porcentaje de no respuestas dentro de cada variable, y apreciar si esto afecta a los resultados; obviamente con las variables fundamentales de estudio no se debería aceptar un alto porcentaje de no respuestas (un máximo de 20%). 3. Evaluar el uso adecuado de las técnicas estadísticas. Para cumplir este objetivo a continuación se presentan los elementos necesarios para poder evaluar si el análisis de datos se hizo o no adecuadamente. 3.1.2. TIPOS DE ANÁLISIS DE DATOS El análisis de información se puede clasificar de varias formas, las mismas que no son excluyentes: ANÀLISIS DESCRIPTIVO E INFERENCIAL Análisis Descriptivo Es el análisis de las características de las variables en la muestra (análisis univarial) y la explicación de las relaciones entre variables (análisis bivarial o multivariado). El análisis estadístico se puede hacer en muestras o en el universo. Un ejemplo de estudio en el universo o población son los censos. Con mucha frecuencia se diferencia descripción de explicación, pero en Estadística el análisis descriptivo abarca las dos actividades: la descripción de las características de las variables y la explicación de sus relaciones. Análisis Inferencial Este análisis se refiere a como pasar de los hallazgos de la muestra a sacar conclusiones en el universo. Incluye la estimación de Intervalos de confianza y la significación estadística (pruebas de significación estadística).
  • 4. 4 ANÁLISIS UNIVARIAL Y MULTIVARIAL Análisis univarial se refiere al análisis de una sola variable, puede ser descriptiva o inferencial. Los objetivos del análisis univarial son resumir y presentar la información de cada variable individual. Multivarial se refiere al estudio (descriptivo e inferencial) de dos o más variables. En este texto se diferencia análisis bivarial (dos variables) de multivarial (más de dos variables), por las características y técnicas particulares que estas dos modalidades presentan. ANÁLISIS CAUSAL, FACTORIAL Y CLASIFICATORIO En los estudios epidemiológicos y clínicos experimentales, cohorte, casos testigo o de corte transversal se estudia con más frecuencia la relación causa efecto de dos o más variables. Este tipo de estudios necesitan un análisis causal bivarial o multivarial. 4. EVALUACIÓN DE USO DE LAS TÉCNICAS DE ANÁLISIS DESCRIPTIVO BIVARIAL Para efectos de evaluación de la eficacia o efectividad de intervenciones terapéuticas en esta unidad se enfatiza la comprensión de medidas estadísticas bivariales. Por lo que, después de haber revisado la distribución de las variables claves de interés (análisis univarial), revise los cruces de variables. El conocimiento de las distribuciones simples y de los cruces de variables garantiza la comprobación de hipótesis. Al igual que en el análisis univarial, la elección del tipo y técnicas de análisis bivarial depende de los objetivos de la investigación, del tipo de datos que se estudian y de la audiencia a la que va dirigida la investigación. Además de lo anterior, el uso de técnicas especificas de análisis bivarial depende de: el tipo de variables que se manejan (cuantitativas o cualitativas), su lugar en el estudio como variable independiente o dependiente y el tipo de distribución que tienen (análisis de sesgo y curtosis). En análisis de sesgo determinar si una distribución es normal o simétrica o si es sesgada o asimétrica.). En el análisis de curtosis interesa determinar si una distribución es platicurvica (alargada), normal o leptocurvica (aplanada). Las técnicas de análisis pueden ser gráficas o matemáticas. Para el análisis matemático bivarial se debe realizar dos tipos de pruebas estadísticas:  Medidas de asociación o relación, que son medidas descriptivas  Medidas de análisis inferencial: de estimación y de significación estadística. En los estudios epidemiológicos y clínicos, cuando se relacionan dos variables con frecuencia se buscan relaciones causales. Para poder evaluar el grado de relación que tienen dos variables entre sí, las medidas más importantes y usuales son las que se muestran en la siguiente tabla:
  • 5. 5 En la siguiente tabla se presentan las alternativas de relación de variables (análisis bivarial), como se representan y el análisis estadístico que se realiza: Tabla 1. Relación entre variables V. Independiente V. Dependiente Representación Análisis estadístico Medidas estadísticas Cualitativa Cualitativa Tabla de contingencia Coeficientes de asociación o comparación de proporciones Riesgo Relativo (RR) Razón de Momios (RM) Reducción del riesgo relativo (RRR) Riesgo Atribuible (RA) Número Necesario a Tratar (NNT) Cualitativa (binaria o de más de 2 categorías) Cuantitativa Tabla Comparación de medias o diferencia de medias Diferencia de medias (DM) Diferencia de medianas (DMd) Cuantitativa Cuantitativa Diagrama de dispersión Modelo de regresión Coeficiente de correlación r Coeficiente de regresión β Intersección de Y α Tomado de: Gómez-Biedma, S; Vivó, M; Soria, E. Temas para residentes: Pruebas de significación en Bioestadística. Revista de Diagnóstico Biológico. Volumen 50 No 4. Oct- dic 2001. (Gómez-Biedma, y otros, 2001) 4.1. PROCESAMIENTO Y ANALISIS BIVARIAL DE DOS VARIABLES CUALITATIVAS El análisis de la relación de dos variables cualitativas se puede hacer mediante el cálculo de porcentajes en una tabla o mediante los coeficientes de asociación. Para el cálculo de porcentajes en una tabla es necesario recordar algunas reglas básicas para evaluar el análisis bivarial (cruces) entre dos variables cualitativas:  Identificar cual es la variable dependiente y cual la independiente.  El cálculo de porcentajes debe ser en el sentido de la variable independiente. El análisis se hace comparando los resultados en el sentido contrario al calculado.
  • 6. 6 Ejemplo: Asociación Cesárea y Muerte Materna En el ejemplo anterior el análisis sería: 1. La variable independiente en el ejemplo siguiente es CESAREA (filas) y la dependiente es Estado al Alta Materna (columnas). 2. En el ejemplo anterior se calcula los porcentajes en el sentido de las filas (Cesárea). 3. En la tabla anterior se toma el calculó los porcentajes en sentido horizontal es decir en el sentido de la variable independiente (Cesárea), para el análisis se compara el porcentaje de muertes entre las mujeres a las que se hizo Cesárea con parto vaginal. En este ejemplo, se puede decir que las mujeres con cesárea tienen porcentaje o más riesgo de morir (0,04%) que las de parto vaginal (0%). 4.2. COEFICIENTES DE ASOCIACIÓN Cuando se trata de tablas de dos por dos se debe calcular Coeficientes de Asociación. Estos coeficientes se clasifican en dos grupos: 1. Coeficientes de producto cruzado: Riesgo Relativo, Razón de Productos Cruzados, Diferencia de Riesgo. 2. Coeficientes basados en Chi cuadrado: Pearson, Tschuprow, Cramer’V En este curso se revisarán solamente los Coeficientes de Producto Cruzado. 4.2.1. MEDICIÓN DEL EFECTO En el ejemplo anterior el objetivo del estudio era evaluar el riesgo o protección. Cuando se trata de medir la eficacia de un medicamento lo más común es que los ensayos clínicos controlados midan la incidencia de algún evento en los grupos de individuos seguidos en un determinado lapso y que este evento se exprese de manera dicotómica (es decir, la Tipo de parto Estado al Alta Total Viva Muerta Referida Vaginal 10508 4 15 10527 Fila % 99,82% 0,04% 0,14% 100,00% Colum. % 84,34% 100,00% 71,43% 84,32% Cesárea 1951 0 6 1957 Fila % 99,69% 0,00% 0,31% 100,00% Colum. % 15,66% 0,00% 28,57% 15,68% TOTAL 12459 4 21 12484 Fila % 99,80% 0,03% 0,17% 100,00% Col% 100,00% 100,00% 100,00% 100,00%
  • 7. 7 presencia o no del desenlace: infarto al miocardio, recurrencia de una neoplasia, muerte, etc.) como la proporción de sujetos que llegan a presentarlo. Para entender mejor el análisis de efecto a continuación se desarrolla un ejemplo de un estudio en el que 15 personas del Grupo Intervención o Expuestos enfermaron y de 20 personas en el grupo control que enfermaron. Para poder calcular estos coeficientes se debe articular adecuadamente una tabla de 2 x 2, el diseño debe ser el que se presenta en el ejemplo siguiente: Enfermedad/ efecto + - Grupo Intervención o Expuestos (+) A 15 B 85 H1 100 Grupo de comparación o no Expuestos (-) C 20 D 80 H2 100 V1 35 V2 165 N 200 H1 y V1 representa los totales horizontal y vertical en los cuales la enfermedad o la exposición están presentes. H2 y V2 son los totales en los cuales la exposición o la enfermedad están ausentes. N es el gran total producto de la suma de todas las celdas. Con estos datos se pueden calcular dos tipos de indicadores 1. Tasas de incidencia o proporciones en cada uno de los grupos como se muestra a continuación: Incidencia del evento en los pacientes expuestos Ie (grupo experimental) Ie = A / H1 = 15/100 = 0.15 o 15% Riesgo del evento en los pacientes no expuestos Ine (grupo control) Ine = C / H2 = 20/100 = 0.20 o 20% En este ejemplo el grupo de intervención o experimental tuvo un efecto de 15% (menos enfermos) que el grupo control o de comparación 20%. Comparando los dos porcentajes es evidente que el grupo de intervención tuvo menos enfermos. Enfermedad/ efecto + - Grupo Intervención o Expuestos (e) A 15 B 85 H1 100 Ie= 15/100 = 0,15 = 15% Grupo de comparación o no Expuestos (ne) C 20 D 80 H2 100 Ine= 20/100 = 0,2= 20% V1 35 V2 165 N 200
  • 8. 8 2. Razones de personas con efecto o sin efecto en cada grupo Razón e = A / B = 15 / 85 = 0,18 Razón ne = C / D = 20 / 80 = 0,25 Enfermedad/ efecto + - Grupo Intervención o Expuestos (e) A 15 B 85 H1 100 Re= 15/85 = 0,18 Grupo de comparación o no Expuestos (ne) C 20 D 80 H2 100 Rne= 20/80 = 0,25 V1 35 V2 165 N 200 Con estos dos tipos de medidas estadísticas se calculan todos los coeficientes de asociación que se presentan a continuación. 4.2.2. COEFICIENTES DE PRODUCTO CRUZADO Existen diferentes parámetros para cuantificar el efecto de un tratamiento cuando el resultado se determina mediante una variable cualitativa binaria (con dos categorías), siendo los más utilizados el Riesgo Relativo (RR), la Razón de Momios u Odds Ratio (OR), el Riesgo Atribuible (RA) o Reducción Absoluta de Riesgo, y el Número de pacientes que será necesario tratar (NNT). Los dos primeros son medidas relativas y los dos últimos medidas absolutas. Estas medidas de asociación evalúan la dirección y la magnitud de la fuerza o poder de la asociación estadística entre la exposición y el efecto o la enfermedad estudiada. Estos indicadores se calculan a partir de tasas de incidencia o de razones de expuestos y no expuestos. Por ejemplo, se estudió la eficacia de un nuevo medicamento comparado con un placebo. Se evalúa tasa de curación. Enfermedad/ efecto + - Exposición (+) A 40 B 170 H1 210 Ie = 40/ 210 = 0.19 Exposición (-) C 10 D 190 H2 200 Ine = 10 / 200 = 0.05 V1 50 V2 360 N 410 Rt = 50 / 410 = 0.12 El primer paso es calcular tasas de ataque de la enfermedad o Tasas de Incidencia para los expuestos o grupo de intervención (Ie) y para los no expuestos (Ine). Con estos dos datos se pueden calcular dos coeficientes, el riesgo relativo o razón de tasas y el riesgo atribuible o diferencia de tasas.
  • 9. 9 a. Riesgo Relativo o Razón de Tasas En Ingles se denomina Relative Risk (RR) o Hazard Risk (HR). El cálculo de la razón de tasas es simple, el riesgo en el grupo de expuestos dividido para el grupo de no expuestos: Riesgo Relativo (RR) = Ie / Ine = (A/H1) / (C/H2) RR = 0.19 / 0.05 = 3.8 Al igual que la diferencia de riesgo, la razón de tasas refleja también el exceso de riesgo o de efecto en el grupo de expuestos o grupo de intervención comparado con el grupo no expuesto o grupo de comparación, pero expresado como una razón. Un RR de 3.8 significa que los expuestos tienen 3.8 veces más riesgo o efecto que los no expuestos que tienen 1 de riesgo. No es 3.8 veces más. El RR se utiliza en estudios de Cohorte o en experimentales, porque permite calcular las tasas de incidencia de la enfermedad según la exposición. Cuando no existen diferencias de riesgo el resultado es 1. Si el valor del RR es mayor a 1 se considera mayor efecto o factor de riesgo, si es menor de 1 es factor de protección o menor efecto. Mientras más alejado este de 1 el resultado de RR, significa que hay mayor fuerza o poder de la asociación entre exposición y enfermedad o efecto. Análisis descriptivo del riesgo relativo Para la interpretación de la eficacia de un medicamento o la seguridad del mismo se deben aplicar cuatro criterios: 1. Dirección del efecto 2. Tamaño, fuerza, poder del efecto (eficacia) 3. Significación estadística o confiabilidad 4. Significación clínica o eficacia clinica. Para los dos primeros criterios se utilizan las medidas de estadística descriptiva y para los dos últimos medidas de estimación (Intervalos de Confianza) o medidas se significación estadística. A continuación se analizará la dirección y la fuerza de la asociación. Para el análisis se puede utilizar el siguiente gráfico denominado en inglés “forest plot” o Bosque de Líneas. En este gráfico los valores equivalentes a igual efecto están en el centro (línea vertical). Menor Efecto Igual Efecto Mayor efecto
  • 10. 10 En el análisis de la Dirección del efecto, un valor igual a 1 significa igual efecto, valores mayores de 1 significan mayor efecto y menores de uno menor efecto. Sin embargo debe estar claro que menor efecto no quiere decir menos eficaz ya que esto depende del indicador de efecto que se evalúe. Si evaluamos días estadía hospitalaria o muerte, valores menores de 1 significan menor estancia hospitalaria o menos muertes en el grupo de intervención, lo cual es un resultado beneficioso y por lo tanto se puede interpretar como más eficaz. Ejemplos: Ejemplo 1 Grupo experimental (Ie) 19,0 RR = 19/5 = 3,8 Mayor riesgo o mayor efecto Grupo Control (Ine) 5,0 Ejemplo 2 Grupo experimental (Ie) 19,0 RR = 19/19 = 1,0 Igual riesgo o igual efecto Grupo Control (Ine) 19,0 Ejemplo 3 Grupo experimental 5,0 RR = 5/19 = 0,26 Menor riesgo o menor efecto Grupo Control 19,0 Para el análisis de fuerza o poder del efecto o de la asociación la regla es que mientras, más lejos este el RR de la línea de igualdad (valor 1) a cualquiera de los dos lados, mayor es el poder. Analizar el poder o fuerza en valores mayores de uno es muy fácil, un RR de 5 tiene mayor fuerza que 2. Pero el análisis de valores menores de 1 suele ser difíciles, porque no se toma en cuente que el RR y el OR son razones y no números absolutos. En razones un RR igual a dos para mayor efecto es igual a 0,5 para menor efecto. Por ejemplo si hay 20 hombres y 10 mujeres en una serie de datos la razón Hombres /Mujeres es igual a 2, pero si calculo la razón de Mujeres/ Hombres la razón es 0,5. Para entender la fuerza o poder con valores menores a 1 (uno) cuando se utilizan razones hay que hacer una comparación en espejo como se presenta en la tabla y en el gráfico a continuación. Mayor Efecto Menor Efecto 1,5 0,67 2 0,50 3 0,33 3,5 0,29 4 0,25 5 0,20 6 0,17 10 0,10
  • 11. 11 Menor Efecto Igual Efecto Mayor efecto 0,17 0,20 0,25 0,33 0,5 1 2 3 4 5 6 Para facilitar el análisis de la significación clínica se puede transformar los valores en categorías ordenales de la siguiente manera. Categoría Fuerza o poder Mayor Efecto Menor Efecto Débil 1,1 - 1,4 0,67 -0,99 Moderado 1,5 - 1,9 0,68 - 0,49 Fuerte 2,0 -3,4 0,50 - 0,28 Muy Fuerte 3,5 y mas 0,29 y menos En el ejemplo anterior el RR fue de 3.8 es decir mayor efecto poder muy fuerte. No es necesario memorizar las categorías de valores menores a 1. A partir de un valor de RR menor de 1 se puede calcular el valor mayor de uno dividiendo 1 para el RR. A continuación de presentan ejemplos: RR= 0,18 Equivalente para mayor efecto = 1 / 0,18 = 5,6 Ejercicio: Calcule los valores equivalentes para mayor efecto de los siguientes valores de RR: Menor Efecto Operación Equivalente mayor efecto 0,67 0,50 0,33 0,29 0,25 0,20 0,17 0,10
  • 12. 12 b. Razón de Productos Cruzados o Razón de Momios (ODDS RATIO) Se puede calcular los riesgos de expuestos y no expuestos, no solamente con tasas de incidencia o proporciones del grupo expuesto y del no expuesto, sino también con Razones de cada grupo. Con las razones de cada grupo se puede calcular la razón de razones o razón de riesgos. Para el efecto se calculan razones entre casos con efecto y casos sin efecto para cada uno de los grupos. El nombre que se utiliza con más frecuencia para denominar a esta Razón es la de Razón de Momios, porque momio es sinónimo de razón. La traducción al Inglés es Odds Ratio (Odds=momios; Ratio= razón). Es importante enfatizar que esta medida en español puede tener varios nombres:  Razón de Momios o Razón de Razones. Momio es un sinónimo del término “razón”  Razón de Productos Cruzados o Razón de Disparidades. En inglés solo tiene una denominación Odds Ratio (OR) Ejemplo: Utilizando los mismos datos del ejemplo anterior los pasos para calcular la Razón de Razones es: Razón de evento y no evento en los pacientes expuestos o con el tratamiento (grupo de intervención o experimental) Re = 40 / 170 = 0,235 Razón de evento y no evento en los pacientes no expuestos o sin el tratamiento (grupo de comparación o control) Rne = 10 / 190 = 0.056 Efecto + - Exposición Si a 40 b 170 210 Re = 40/ 170 = 0,235 No c 10 d 190 200 Rne = 10 / 190 = 0,056 50 360 410 Rt = 50 / 360 = 0,13 La fórmula para el cálculo de la razón de razones es: RM = (a / b) / (c / d) = Re / Rne = 0,235 / 0,056 = 4,5 La Razón de Momios se denomina también Razón de Productos Cruzados o Razón de Disparidades, debido a que la ecuación anterior puede transformarse matemáticamente
  • 13. 13 en una Razón de Productos Cruzados o Razón de Disparidades, como puede verse en las siguientes ecuaciones: Razón de Momios = (a / b) / (c / d) Razón de Productos Cruzados = (a x d) / (c x b) Aplicando la fórmula de productos cruzados el cálculo sería el siguiente: OR = (40 x 190) / (10 x 170)= 4,47= 4,5 Como se puede apreciar la Razón de Momios o de Productos Cruzados a más de ser fácil de calcular, es una medida útil de asociación porque mide también la diferencia de riesgo o de exposición entre enfermos y no enfermos, lo que le hace útil para estudios de Casos y Testigos, Corte Transversal y en cohortes de enfermedades raras, en las cuales las muestras son pequeñas. Análisis descriptivo de la Razón de Momios Como se trata de una razón la interpretación de la Razón de Momios es igual a la que se hace con el Riesgo Relativo. La diferencia de estas dos medidas esta en el cálculo y en e el uso según diseño de estudio. El Riesgo Relativo se utiliza para estudios Experimentales (ECA) y cohortes. La Razón de Momios se utiliza para estudios casos testigos y estudios analíticos de corte transversal. La RM se puede utilizar también en Cohortes de muestras pequeñas. c. Reducción del riesgo relativo (RRR) o fracción de prevención La reducción del riesgo relativo (RRR) es una medida de tamaño de efecto que se expresa como un porcentaje. La Reducción de Riesgo Relativo (en Inglés Preventive fraction-PF o Preventable Fraction), se calcula a partir del Riesgo Relativo o de la Razón de Momios-OR. Se debe usar cuando una exposición reduce el riesgo y provee el porcentaje de casos que puede evitarse o prevenirse si una población se expone a una intervención, comparada con una no expuesta. La reducción del riesgo relativo (RRR) se expresa como un porcentaje. La fórmula para calcular esta medida es: RRR = [(1 – Riesgo Relativo) *100] o [(1-Razón de Momios)*100] Ejemplo: Para el ejemplo de Medición de Efecto el resultado es: RR = Ie / Ine = 0.15 / 0.20 = 0,75 Con este dato se calcula el RRR RRR= (1 – 0,75) *100= 25%
  • 14. 14 Esta cifra significa que el nuevo tratamiento reduce el riesgo de sufrir el evento (morir o enfermar) en 25% con relación a lo que ocurre en los pacientes del grupo control; mientras mayor sea la RRR mayor es la eficacia del tratamiento. d. Riesgo Atribuible (RA), Diferencia de efectividad, Diferencia de riesgo, o Reducción del riesgo absoluto (RRA) Este indicador se denomina Diferencias de Riesgo (DR), Riesgo Atribuible (RA) o Reducción del Riesgo Absoluto (RRA). En epidemiología, el riesgo atribuible (RA) en una población expuesta a un factor de riesgo es la diferencia entre la incidencia de enfermedad en expuestos (Ie) y no expuestos (Ine) al factor de riesgo o intervención. La diferencia entre ambos valores proporciona el valor del riesgo o efecto de enfermedad en la cohorte expuesta, que se debe exclusivamente a la exposición al factor de riesgo. Representa la cantidad de incidencia que puede ser atribuida al factor de riesgo. Para obtener este indicador se utilizan las tasas de incidencia o proporción del efecto en cada uno de los grupos. La diferencia de riesgos o diferencia de eficacia se calcula de una manera simple, se resta del riesgo o efectividad de expuestos el riesgo o efectividad del grupo de no expuestos. Diferencia de riesgos (DR) = Ie -Ine = a/H1 - c/HO DR o RA = 0.19 - 0.05 = 0.14 = 14 % La diferencia de riesgos refleja el exceso de asociación de riesgo o efecto de exposición. Si no existiría diferencia de enfermar entre expuestos y no expuestos el resultado será 0. Valores con signo positivo significan riesgo o efecto mayor y valores con signo negativo riesgo o efecto menor. Esta medida estadística en español se denomina Riesgo Atribuible (RA). En Ingles puede tener tres denominaciones:  Atributable Risk (AR)  Efficacy Difference (ED)  Risk Diference Análisis descriptivo del Riesgo Atribuible Al igual que el Riesgo Relativo, para analizar el Riesgo Atribuible (RA) se deben tomar en cuenta cuatro criterios: dirección, fuerza o poder, significación estadística y significación clínica. Dirección: El riesgo atribuible es una diferencia de tasas o proporciones, para su análisis el valor 0 es equivalente a igual efecto, cualquier valor con signo positivo es mayor efecto, cualquier valor con signo negativo es menor efecto.
  • 15. 15 Ejemplo 1 Grupo experimental (Ie) 19,0% RA = 19 - 5 = +14% Mayor riesgo o mayor efecto Grupo Control (Ine) 5,0% Ejemplo 2 Grupo experimental (Ie) 19,0% RA = 19 – 19 = 0 Igual riesgo o igual efecto Grupo Control (Ine) 19,0% Ejemplo 3 Grupo experimental 5,0% RA = 5 – 19 = - 14% Menor riesgo o menor efecto Grupo Control 19,0% Fuerza o poder: Nuevamente mientras más alejado de 0 este el RA a cualquiera de los dos lados, mayor es el poder o fuerza. Los valores negativos también se analizan en espejo (ver gráfico). Los valores del Riesgo Atribuible también se pueden ser clasificados por categorías de fuerza de la siguiente manera: Categoría Fuerza o poder Mayor Efecto Menor Efecto Débil +1 % a + 9% -1 % a – 9% Moderado +10% a + 19% -10 % a – 19% Fuerte +20 % a + 39% - 20 % a – 39% Muy Fuerte + 40% a +100% - 40 % a - 100% El riesgo atribuible se puede también expresar en proporciones de tal manera que +100 es igual a +1 y menos 100 es igual a -1. Para analizar el Riesgo Atribuible se utiliza también el gráfico “forest plot”. Como se puede observar en el gráfico siguiente el valor 0 (cero) está en la línea de igual efecto; los valores positivos (mayor efecto) a la derecha y los negativos (menor efecto) a la izquierda. Menor Efecto Igual Efecto Mayor efecto -50 -40 -30 -20 -10 0 + 10 +20 +30 +40 + 50
  • 16. 16 Relación entre Riesgo Relativo y Riesgo Atribuible No existe relación estrecha entre Riesgo Relativo y Riesgo Atribuible. El RR es una medida de fuerza de asociación o impacto, mientras que el RA es una medida administrativa que indica el beneficio ganado al implementar una intervención o prescribir un tratamiento en el grupo expuesto. Para un mismo RR el RA puede ser fuerte, moderado o débil, dependiendo de la frecuencia o incidencia del efecto en el grupo expuesto y en el no expuesto. En el ejemplo que se desarrolla en esta sección mientras el RR es muy fuerte (3,8) el RA es moderado (14%). e. Proporción de riesgo atribuible o fracción etiológica (%RA o PRA) La proporción de riesgo atribuible o fracción etiológica es el riesgo atribuible dividido por la incidencia de enfermedad en los expuestos al factor de riesgo (Attributable Fraction of Exposed). Es otra forma más de presentar el impacto del factor de riesgo o exposición entre los expuestos a él. Expresado en términos útiles para la prevención, representa la proporción de la incidencia de enfermedad que se evitaría entre los expuestos si se evitara el factor de riesgo o se prescribiera un medicamento o intervención. Se calcula según las siguientes expresiones matemáticas: %RA = (RA / Ie) x 100 %RA = ((Ie-Ine) / Ie) x 100 %RA = (1- (1 / RR) *100 Ejemplo Para el ejemplo que se desarrolla en este curso en el cual el RA es 14% los resultados serían: RA% = (RA / Ie) x 100 = (14 / 19) x 100 = 73,7% RA% = ((Ie-Ine) / Ie) x 100 = ((19 – 5) / 19)) x 100 = 73,7% RA% = (1- (1 / RR)) x 100 = ((1- (1/3,8)) x 100 = 73,7% Conclusión: el 73,7% de las personas que recibieron el nuevo tratamiento desarrollan la enfermedad y este efecto es atribuible al hecho de estar expuestas al tratamiento. Análisis de la Proporción de Riesgo Atribuible (PRA) Por ser la PRA un porcentaje sus valores oscilan de 1% a 100% o de -1% a -100% y se interpreta de manera similar al Riesgo Atribuible.
  • 17. 17 e. Número Necesario a Tratar (NNT) y Numero Necesario para hacer Daño (NND) Número Necesario a Tratar (NNT) El Numero Necesario a Tratar (NNT), “Number Needed to Treat” en Inglés, se denomina también Índice de intervención. Esta es una medida de probabilidad de la eficacia de un tratamiento. Es el número de personas que se necesitaría tratar con un tratamiento específico (ej. aspirina a quienes han sufrido un ataque cardíaco) para producir, o evitar, una ocurrencia adicional de un evento determinado (ej. prevención de muerte). Por ejemplo, si una droga tiene un NNT de 5, significa que se debe tratar 5 personas con esta droga para prevenir un resultado negativo adicional. El NNT es una medida de probabilidad. El NNT es una forma sencilla de comprender de los resultados de un estudio, especialmente de ensayos clínicos y su mayor utilidad reside en que su cálculo es mucho más fácil de entender que otros índices estadísticos. El NNT es cada vez más utilizado por los profesionales de la salud para comparar la efectividad de los diferentes procedimientos terapéuticos disponibles frente a un determinado problema de salud. El NNT es un indicador específico para cada opción terapéutica y describe la diferencia que hay entre dicha opción de tratamiento (tratamiento activo) y un control (placebo u otro tratamiento) conseguir un resultado clínico concreto. Puede utilizarse para describir cualquier resultado terapéutico siempre que se tenga los valores de efecto (Ie, Ine) tanto para el tratamiento como para el control. Para que los NNT sean de utilidad es preciso definir claramente el resultado clínico que se espera alcanzar. El NNT es un valor o indicador específico para cada tratamiento y describe la diferencia entre un tratamiento activo y un control (placebo u otro tratamiento) en lo que se refiere al logro de un resultado clínico concreto. Un NNT de 1 significa que en cada paciente al que se le da tratamiento se produce un resultado favorable, a la vez que ningún paciente del grupo de comparación (tratamiento control o placebo) tiene este resultado. Las ventajas del NNT son (Patient):  El NNTs puede ser utilizado tanto para resumir los resultados terapéuticos de un ensayo o para tomar decisiones clínicas ECA en pacientes individuales.  El NNT provee una medida clínica de mayor utilidad del beneficio relativo de un tratamiento activo sobre el control que el uso del Riesgo Relativo, la reduccion del Riesgo Relativo (RRR) o la Razón de Momios (OR).  Los NNTs son más sensibles a los factores que cambian el riesgo basal como (variables intervinientes): los resultados evaluados, las características de los pacientes, las tendencias seculares (anuales) de la incidencia y la mortalidad y el entorno clínico.
  • 18. 18 Las desventajas son (Patient):  Se ha argumentado que el NNT y el NND no son los mejores indicadores para evaluar los resultados de Estudios Clínico Controlados Aleatorizados y que es preferible usar el Riesgo Atribuible.  Aunque los NNTs son fáciles de interpretar, no pueden utilizarse en los metaanalisis. Los NNTs calculados a partir de un meta-analyses pueden ser altamente engañosos porque el riesgo basal con frecuencia varia ostensiblemente entre ensayos. Cálculo del NNT El NNT es la inversa del Riesgo Relativo (RR). Por ello para calcular el NNT usted necesita conocer el Riesgo Atribuible (RA) o la Reducción Absoluta de Riesgo (AAR) o la Incidencia de Expuestos (Ie) y la Incidencia de No Expuestos (Ine). La fórmula es: NNT=1/RA (RA calculado en proporción) Si se calcula a partir del RA en porcentaje la fórmula es: NNT = 100 / RA (calculado en porcentaje) Ejemplo: NNT = 1 / 0,14 = 7,14 NNT = 100 / 14 = 7,14 Análisis descriptivo del NNT El NNT al igual que todas las medidas estadísticas de análisis bivarial debe evaluarse la dirección, la fuerza o magnitud del efecto y la significación estadística: Dirección. El NNT puede tener signos positivos o negativos. La dirección se interpreta igual que el Riesgo Atribuible, signo positivo es mas efecto y signo negativo menos efecto. La dirección del efecto no implica mayor o menor eficacia. Fuerza o magnitud del efecto. Si bien no se han establecido límites para que un NNT sea reconocido como clínicamente efectivo, se acepta que el NNT es mejor cuanto más bajo sea su valor. Solo como referencia para facilitar su interpretación de la fuerza o poder, a continuación se exponen categorías de fuerza o poder como referencia: 1 a 2 = muy fuerte 3 a 4 = fuerte 5 a 10 = moderado 10 y más = débil En el caso de problemas graves como un Accidente Cerebro Vascular las categorías expresadas anteriormente no tienen mucha utilidad. Es necesario siempre evaluar la eficacia (NNT) vs el riesgo de producir efectos adversos (NND), los costos, las preferencias de los pacientes, de la sociedad y el grado de experiencia del médico con el
  • 19. 19 producto. Para que un NNT esté correctamente especificado, debe hacer constar siempre: i) el comparador (control), ii) el resultado terapéutico, iii) la duración necesaria del tratamiento para alcanzar ese resultado y iv) el intervalo de confianza del 95%. Ejemplo: Tomando como ejemplo el uso de aspirina como agente trombolítico después de un infarto de miocardio, es decir para prevención secundaria, se obtiene un NNT de 50. Esto significa que tendríamos que tratar con terapia trombolítica a 50 personas después de un ataque cardíaco para evitar que una de ellas muera dentro de las seis semanas después del percance. Número Necesario para hacer Daño Número necesario a dañar o perjudicar (NND) o Number Needed to Harm (NNH), es una medida de los efectos adversos de un tratamiento, definida de modo similar al NNT, como el número de personas que hay que tratar para producir un efecto adverso adicional (ej. aspirinas para producir trastornos gástricos). Dicho de otra manera es indica cuantos pacientes necesitan exponerse a un factor de riesgo (que puede ser un medicamento) para causar daño en un paciente quien de otra manera no presentaría. Se calcula de manera similar al NNT pero en relación a la fuerza o poder un NND de 1 (el más bajo) sería el peor riesgo y valores de NND mayores de 10 significarían un riesgo bajo. Calculo de NNT o NND a partir del RR o del OR Es posible calcular el NNT y el Numero Necesario a Tratar (NNH) a partir de del Riesgo Relativo o de la razón RA Momios u Odds Ratio (OR) con las siguientes formulas: NNT = (1-(TEEP*(1-OR))) / ((1-TEEP)*(TEEP)*(1-OR)) NNH = ((TEEP*(OR-1))+1) / (TEEP*(OR-1)*(1-TEEP)) Donde TEEP es Tasa de Eventos Esperados en Pacientes, en Inglés Patient Event Expected Rate (PEER), que es el riesgo de tener un evento en la población. Esta tasa es la incidencia o prevalencia en la población que es la prevalencia en el grupo no expuesto. Ejemplo: Enfermedad/ efecto + - Exposición Si a 40 b 170 210 Re = 40/ 170 = 0,235 No c 10 d 190 200 Rne = 10 / 190 = 0,056 50 360 410 Rt = 50 / 360 = 0,13 OR = (a / b) / (c / d) = R1 / R0 = 0,235 / 0,056 = 4,47
  • 20. 20 Aplicando la formula anterior el resultado es: NNT = (1-(0,05*(1-4,47))) / ((1-0,05)*(0,05)*(1-4,47)) NNT = 7,12, un poco menor al NNT calculado a partir del Riesgo Atribuible que fue de 7,5. Hay que recordar que el OR presenta siempre valores superiores al RR. Para calcular el NNT a partir del OR se puede diseñar un programa en Excel. Se adjunta a este curso un programa para el cálculo del NNT o del NND a partir del OR. Materiales audiovisuales de apoyo Para ampliar su comprensión de la interpretación decoeficientes de asociación mire los siguientes materiales audiovisuales. ¿Qué demonios es un Odds Ratio OR? Medidas de efecto: https://www.youtube.com/watch?v=so4sV2KtQl0 Interpretación OR, RR y NNT: https://www.youtube.com/watch?v=VYz81LDo4zg Ejercicios Ejercicio 1. Para el siguiente estudio de eficacia de un medicamento vs placebo con la siguiente información calcule las medidas estadísticas que correspondan: Autor (año) Intervención experimental N personas Muertes (n) Medidas de asociación G. Experim G. Control G. Experim G. Control RR OR RRR RA NNT Douglass 82 (USA) FU+Sem. 71 71 29 40 Schlag 82 (Alemania) FU+Carm. 49 54 10 17 Diseñe una tabla de 2 x 2 para cada estudio. Enfermedad/ efecto + - Exposición (+) A B H1 Exposición (-) C D H2 V1 V2 N Enfermedad/ efecto + - Exposición (+) A B H1 Exposición (-) C D H2 V1 V2 N
  • 21. 21 Escoja uno de los indicadores calculados, analice los resultados y evalué la dirección y poder cuál de los dos estudios tiene mayor eficacia. Estudio Medida estadística Dirección Fuerza y Poder Douglass 82 (USA) Schlag 82 (Alemania) En cuál de los dos estudios la eficacia es mejor: _______________________ Ejercicio 2. Analice la dirección y fuerza (poder) de la efectividad de los siguientes resultados. Pregunta 2.1: RR = 1,3 Mayor efecto poder bajo Mayor efecto poder moderado Menor efecto poder bajo Menor efecto poder moderado Pregunta 2.2. OR = 0,20 Mayor efecto poder fuerte Mayor efecto poder muy fuerte Menor efecto poder fuerte Menor efecto poder muy fuerte Pregunta 2.3. RA= +40% Mayor efecto poder fuerte Mayor efecto poder moderado Menor efecto poder fuerte Menor efecto poder moderado Pregunta 2.4. RA= -5% Mayor efecto poder débil Mayor efecto poder moderado Menor efecto poder débil Menor efecto poder moderado Pregunta 2.5. NNT= 11 Mayor efecto poder débil Mayor efecto poder moderado Menor efecto poder débil Menor efecto poder moderado
  • 22. 22 4.3. PROCESAMIENTO Y ANALISIS BIVARIAL DE UNA VARIABLE CUALITATIVA CON UNA CUANTITATIVA Cuando se analiza la relación entre una variable cualitativa con un cuantitativa se debe realizar Análisis de Desenlaces Continuos (Cumpston, 2015) . Los desenlaces o efectos continuos se caracterizan por: • Pueden tomar cualquier valor dentro de un rango especificado • Los intervalos entre valores son equidistantes. Por ejemplo es peso la distancia entre y a 2 kg. es la misma que entre 79 a 80 kg. Hay escalas ordenales que son evaluadas frecuentemente como continuas, como por ejemplo: calidad de vida, escala de dolor, depresión, etc. Para realizar este análisis se pueden utilizar dos medidas o indicadores estadísticos: • Diferencia de medias (DM) • Diferencia de medias estandarizada (DME o SMD) (tamaño del efecto) • Diferencia de medianas Para cualquiera de las dos medidas se debe analizar la dirección del efecto, la magnitud o fuerza del efecto y la significación o precisión (deben presentarse con un intervalo de confianza). 4.3.1. DIFERENCIA DE MEDIAS O MEDIANAS Procesamiento Cuando se busca la relación entre una variable independiente cualitativa con una variable dependiente cuantitativa se puede calcular diferencias de promedios o medias o diferencia de medianas. El análisis descriptivo bivarial de diferencia de medias o promedios y de diferencia de mediana es muy simple, se trata de cuantificar la diferencia entre las medias o medianas muestrales restando del promedio del grupo expuesto el promedio del grupo NO expuesto. La diferencia de promedios o medias se utiliza cuando las distribuciones de los dos grupos son simétricas o normales. La diferencia de mediana se utiliza cuando las distribuciones de los dos grupos en comparación son asimétricas o sesgadas o también cuando un grupo tiene una distribución normal y el otro grupo asimétrica. Análisis descriptivo de Diferencia de Promedios o medianas Al igual que con los coeficientes de asociación para evaluar la diferencia de medias o medianas se utilizan dos criterios: dirección y fuerza o magnitud. Dirección: El riesgo atribuible es una diferencia de tasas o proporciones. Como se muestra en los ejemplos a continuación, para su análisis el valor 0 es equivalente a igual
  • 23. 23 efecto, cualquier valor con signo positivo es mayor efecto, cualquier valor con signo negativo es menor efecto. Ejemplo. Diferencias de promedios de peso en Kg. en niños después de una intervención nutricional Ejemplo 1 Media Diferencia de medias (DM) Dirección del Efecto Grupo experimental 39,26 DM = 39,26 – 32,93 = + 6,33 Mayor efecto Grupo Control 32,93 Ejemplo 2 Grupo experimental 39,26 DM = 39,26 – 39,26 = 0 Igual efecto Grupo Control 39,26 Ejemplo 3 Grupo experimental 32,93 DM = 32,93 – 39,26 = - 6,33 Menor efecto Grupo Control 39,26 Fuerza o poder: Nuevamente mientras más alejado de 0 este la diferencia de medias y medianas a cualquiera de los dos lados, mayor es el poder o fuerza. Los valores negativos también se analizan en espejo (ver gráfico). Los valores de las diferencias de medias o medianas también se pueden ser clasificados por categorías de fuerza, pero en la medida que los valores máximos y mínimos de un indicador son diferentes, la fuerza dependerá de estos. Por ejemplo una diferencia de medias de glucosa de 30 mg puede ser considerada muy fuerte, pero este mismo valor para diferencia de medias de carga viral para VIH sería insignificante. Para poder evaluar la fuerza y poder es importante graficar los resultados de los dos grupos alcanzados en un grafico de barras para observar la diferencia entre la Incidencia de expuestos y la de no expuestos. La forma correcta de graficar es poner en la escala de valores del resultado los valores normales que tiene el indicador. Por ejemplo si comparamos los promedios de flujo máximo urinarios entre pacientes que recibieron Tamsulosin vs pacientes que recibieron placebo en la figura 3A se pueden ver que las diferencias entre las líneas de tendencia de los dos grupos es importante, pero en la Figura 3B, en la que se usa como máximo valor de la escala 15 ml/seg de flujo urinario la diferencia es pequeña. Para analizar la fuerza, magnitud o poder se debe utilizar el gráfico 3B.
  • 24. 24 Tomado de: Millán F. Guía para el análisis crítico de ensayos clínicos en Urología. Actas Urológicas Españolas 2009; 33(6): 654-666 Para analizar la diferencia de medias o medianas se utiliza también el gráfico “forest plot”. Como se puede observar en el gráfico siguiente el valor 0 (cero) está en la línea de igual efecto; los valores positivos (mayor efecto) a la derecha y los negativos (menor efecto) a la izquierda. Menor Efecto Igual Efecto Mayor efecto -50 -40 -30 -20 -10 0 + 10 +20 +30 +40 + 50 Medidas post-intervención vs cambio desde el valor basal Hay dos formas de medir las diferencias de promedios (DM) en estudios de intervenciones o evaluación de eficacia de medicamentos. La más simple es calcular la diferencia de promedios o medianas post intervención. Esta alternativa se realiza cuando los resultados de la línea de base o pre evaluación no presentan diferencias estadísticamente significativas. En el ejemplo que se presenta en el grafico siguiente la DM post intervención es igual 4. La segunda forma, que se presenta en algunos estudios es medir los valores al inicio del estudio (pre evaluación o medición basal) y reportar la diferencia de medias entre la línea de base y la post-intervención, denominada cambio desde el valor basal. En el ejemplo siguiente el cambio de medias pre-post del grupo experimental fue de 5 y el del grupo control de 1; la diferencia de cambios pre post fue de 4.
  • 25. 25 Grupo Intervención Grupo Intervención Diferencia Pre Post Medida Basal o Pre Evaluación Post Evaluación Cambio de Medias (pre-post) Media (DE) 35 (3) Media (DE) 40 (3) - 5 DM= 1 DCM= -4 Grupo control Grupo control Diferencia Medida Basal o Pre Evaluación Post Evaluación Cambio de Medias (pre-post) Media (DE) 38 (2,8) Media (DE) 39 (3,2) -1 Ejemplo: En un estudio ECA que evaluó el Efecto de terapia combinada con Tamsulosin Hydrochloride and Meloxicam (T&M) comparada con monoterapia con Tamsulosin (T) en pacientes en pacientes con Hiperplasia Benigna de Prostata Sintomática (HPB) y su impacto en el Índice Internacional de síntomas (IPSS) para poder afirmar que el efecto observado se debe al tratamiento y no a otras variables se plantearían las siguientes hipótesis: Una vez realizado el estudio los autores reportan los siguientes resultados para los cambios en los promedios de IPSS Grupo T&M -4,1 ± 2,8 Grupo T -7,9 ± 3.2 Diferencia de Medias de cambio (DM) - 3,8 Diferencia de medias estandarizada (DME) o Tamaño de Efecto En meta análisis se calcula con frecuencia la Diferencia de Medias Estantarizada (DME) en inglés (Standarized Mean Difference - SMD). Esta medida se aplica cuando los estudios de una revisión sistemática miden los resultados de formas diversas (utilizando escalas diferentes), en estos casos no es adecuado realizar una comparación directa de esos resultados.
  • 26. 26 Esta medida se obtiene dividiendo la diferencia entre dos medias (grupo expuesto vs. Grupo no expuesto) dividida por una estimación de la desviación estándar intra-grupo. La utilización de esta medida estandarizada para expresar los resultados permite la combinación de estudios con diferentes escalas al desaparecer las unidades de medida. Las diferencias de medias estandarizadas a veces se conocen como índice d. (HTA GLOSSARY, 2015). 4.4. PROCESAMIENTO Y ANALISIS BIVARIAL DE UNA VARIABLE CUANTITATIVA CON UNA CUANTITATIVA 4.4.1. ANÁLISIS DE REGRESIÓN El análisis de regresión involucra el estudio la relación entre dos variables cuantitativas. El análisis de regresión se puede utilizar para explorar y cuantificar la relación entre una variable dependiente o criterio (Y) y una o más variables independientes o predictoras (X1, X2, etc.). Si se analizan dos variables se denomina regresión simple y si se analizan más de dos variables regresión múltiple. En el análisis de regresión simple Interesa estudiar tres aspectos: 1. La dirección y fuerza de la asociación, a través de una medida de asociación denominada Coeficiente de Correlación r. 2. La forma de la relación, a través de los Coeficientes de regresión β (B1) y de intersección de Y o alfa (B0). Usando los datos se propone un modelo para la relación y a partir de ella será posible predecir el valor de una variable a partir de la otra. 3. La significación estadística. Se evalúa si existe una asociación entre las dos variables testeando la hipótesis de independencia o significación estadística. 4.4.2. DIAGRAMA DE DISPERSIÓN Es un gráfico que permite ver la forma en que se distribuyen los puntajes de dos variables “X” y “Y” en toda la escala de los posibles valores de los puntajes. Este diagrama tiene como base un sistema de coordenadas, en el que la variable “Y”, que es la variable dependiente, se ubica en la línea vertical y la variable “X” que es la independiente en la línea horizontal. En el diagrama de dispersión se puede observar la fuerza de correlación entre “X” y “Y”, la misma que aumenta a medida que los puntos se van juntando y van formando un línea recta imaginaria por el centro del gráfico. Mientras más cerca de la recta imaginaria estén los puntos, mayor será la fuerza de correlación. En la siguiente ilustración se presenta un ejemplo de cómo se construye un diagrama de dispersión. En el casillero de la izquierda se presentan una tabla para evaluar la asociación entre Edad Gestacional y Peso al Nacer. Esta tabla tiene tres columnas con datos de 20 recién nacidos estudiados: en la primera columna esta el número de identificación de cada recién nacido, ii) en la segunda columna se registra la edad
  • 27. 27 gestacional según fecha de ultima menstruación de la madre y iii) en la tercera el peso al nacer en gramos. En el casillero de la izquierda se presenta el diagrama de dispersión con la línea recta imaginaria equidistante de todos los puntos. Cada punto se construye identificando el lugar en que el valor de X (edad gestacional) intercepta al valor de Y (peso al nacer) de un RN. Ver en el grafico en líneas entrecortadas del punto de intersección del RN con ID 19, que presentó una edad gestacional de 36 semanas y un peso al nacer de 2400 gr. ID Paciente Edad gestac. Peso al nacer 1 39 2750 2 39 2600 3 40 3000 4 39 2400 5 40 2500 6 40 3500 7 39 2750 8 40 3500 9 40 3500 10 39 3000 11 37 2750 12 40 2000 13 39 3500 14 40 3750 15 38 2400 16 40 2400 17 41 3250 18 40 2950 19 36 2400 20 39 2950 4.4.3. COEFICIENTES Como se explicó al inicio de esta sección para analizar la asociación entre dos variables cuantitativas se utilizan tres coeficientes: Coeficiente de correlación r Es una prueba de asociación que se utiliza cuando se quiere establecer la presencia o ausencia de una correlación o asociación entre dos variables cuantitativas: una dependiente “Y” y la otra independiente “X”. Esta prueba permite ver el grado en que varían conjuntamente las dos variables, aunque el descubrir la existencia de una relación no dice mucho del grado de asociación o correlación. Por ejemplo se dice que los gastos están relacionados con el ingreso: gasto más cuando gano más, aunque no siempre sucede así, porque hay personas que teniendo un ingreso alto gastan poco. El peso y la talla están asociados: mientras más 1500 2000 2500 3000 3500 4000 35 37 39 41 43 PesoalNacerY X Edad Gestacional
  • 28. 28 alto, más peso, sin embargo algunas personas altas pesan poco y algunas pequeñas pesan mucho. La CORRELACION varía respecto a su fuerza, estas variaciones se pueden apreciar por medio de un diagrama de dispersión. El coeficiente de correlación lineal r mide el grado de intensidad de esta posible relación entre las variables. Este coeficiente se utiliza cuando la relación que puede existir entre las variables es lineal; es decir, si se representa en un gráfico los pares de valores de las dos variables la nube de puntos se aproximaría a una recta). Sin embargo, existen relaciones no lineales, sino exponencial, parabólica, etc. En estos casos, el coeficiente de correlación lineal mide mal la intensidad de la relación entre las variables, por lo que se debe utilizar otro tipo de coeficiente. Para poder definir que coeficiente se debe utilizar, se debe primero analizar la nube de puntos o diagrama de dispersión y ver la forma. Existen varios tipos de correlación: curvilínea, cuadrática, etc... En este curso se explica solamente la correlación lineal únicamente. En el siguiente grafico se puede observar tres posibilidades de relación: lineal, exponencial y sin relación. Fuente: Aula Fácil. Lección 12ª. Coeficiente de correlación lineal. 27 de diciembre 2014. http://www.aulafacil.com/CursoEstadistica/Lecc-12-est.htm Esta medida estadística se expresa con la letra “r” y es el valor que expresa numéricamente tanto la dirección como la fuerza de la correlación lineal. Indica la estrechez de la asociación. Esta medida puede ir de un valor de -1 a un valor de +1. Para analizar esta medida de estadística bivarial se utilizan tres criterios: dirección de la correlación, fuerza o magnitud de la correlación y la significación estadística. Dirección de la correlación La dirección de la correlación puede ser:  Positiva o Directa  Negativa o Indirecta  No correlación La correlación es positiva cuando los puntajes en el diagrama de dispersión muestran una tendencia hacia arriba y hacia la derecha. Los puntajes altos de “Y” se asocian con los
  • 29. 29 puntajes altos de “X” y los bajos de “Y” con las bajos de “X”. La línea equidistante entre los puntos denominada línea de regresión tiene una dirección ascendente. La correlación es negativa cuando la tendencia de los puntajes en el diagrama es hacia abajo y hacia la derecha. A puntajes bajos de la variable X corresponden valores altos de la variable Y y a valores altos de X, los de Y son bajos. Es decir a un incremento de la una variable la otra decrece. Por ejemplo, cuando menos años de estudio tienen los padres, mayor es el número de hijos que tienen. No correlación cuando no hay ninguna relación entre las variables X y Y, en este caso los valores de X y de Y se distribuyen indistintamente como una nube. 0 5 10 15 20 25 30 35 0 5 10 15 20 25 30 35 0 2 4 6 8 10 12 14 16 0 5 10 15 20 Y X
  • 30. 30 Tanto la correlación positiva como la negativa representan una relación lineal en la que los valores en el diagrama van formando una línea recta. El signo que antecede al número indica la dirección de la correlación: + si es positiva, - si es negativa. Valores con signos positivos indican correlación positiva, valores con signos negativos indican correlación negativa y valor igual a 0 ninguna correlación. Fuerza o poder En cuanto al grado o nivel de fuerza o poder, mientras más se acerca a -1 o a +1, la fuerza de la correlación es mayor. El valor de “r” de -1 indica que la correlación es negativa perfecta y +1 cuando es positiva perfecta. Un valor igual a 0 significa ninguna correlación. En la siguiente tabla se presenta categorías de la fuerza o poder de la correlación: Correlación negativa Correlación positiva -1 -0.99 a -0.75 -0.74 a -0.50 -0.49 a - 0.10 Correlación negativa perfecta Correlación negativa fuerte Correlación negativa moderada Correlación negativa débil +0.10 a 0.49 +0.50 a 0.74 +0.75 a 0.99 +1.00 Correlación positiva débil Correlación positiva moderada Correlación positiva fuerte Correlación positiva perfecta 0.00 Ninguna correlación El coeficiente de correlación nunca debe ser mayor a +1 o -1. Para realizar un análisis gráfico de la correlación hay que considerar el grado de dispersión de los puntos de intersección en relación a la línea de regresión. Si todos los puntos están en la línea, la correlación es perfecta. En el gráfico siguiente la correlación es negativa perfecta, r igual a -1. En cambio en el grafico de la izquierda los puntos no siguen una tendencia, por lo que no hay ninguna correlación, r igual a 0. 0 5 10 15 20 25 0 5 10 15 20 25 Y X
  • 31. 31 En los gráficos siguientes se presentan ejemplos de correlaciones positivas con diferentes niveles de fuerza o poder de débil (0,3) a fuerte (0,9). Análisis descriptivo de la correlación Para analizar la correlación se puede también utilizar el grafico “forest plot”. Como se puede observar en el gráfico siguiente el valor 0 (cero) está en la línea de No correlación; los valores positivos (correlación positiva) a la derecha y los negativos (correlación negativa a la izquierda) a la izquierda. 0 5 10 15 20 25 30 35 0 10 20 30 40 0 5 10 15 20 25 0 10 20 30
  • 32. 32 Correlación No Correlación negativa Correlación Positiva -1 -0,9 -0,8 -0,7 -0,6 -0,5 -0,4 -0,3 -0,2 -0,1 0 +0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 +1 Coeficiente de Determinación El Coeficiente de Determinación r² indica qué porcentaje de la variabilidad total en la variable Y puede ser explicada por la variable regresora, en consecuencia es una medida de la capacidad de PREDICCIÓN del modelo. También puede verse como es una medida de la fuerza de la asociación lineal entre X e Y. Regresión Línea de regresión En la correlación, en el diagrama de dispersión los valores se distribuyen de acuerdo a la fuerza de asociación y a su dirección en una línea imaginaria que se va formando en el centro. En la regresión, se identifica esta línea como una línea recta que se traza a través del diagrama de dispersión. En todos los gráficos anteriores se presenta la línea de correlación para cada diagrama de dispersión. Coeficiente de Regresión β Es una prueba estadística que permite estudiar cambios concomitantes entre la variable X” (variable independiente) y la “Y” (variable dependiente), por lo que permite predecir los valores de la variable “Y” a partir de los valores de la variable “X”. La regresión no indica causalidad, indica la variación promedial de la variable Y en relación a un cambio de la variable X. Este coeficiente se expresa como “β” (beta) y mide el incremento promedial de “Y” por cada unidad de aumento de X. Es decir en cuantas unidades cambia Y en promedio cuando X cambia en una unidad. Por ejemplo, un “β” =1 significa que si “X” cambia en una unidad (1), “Y” cambia también en una unidad. Si el “β” = 2, significa que si “X” cambia en una unidad (1), “Y” cambia también en dos (2) unidades. Coeficiente de Intersección de y o alfa El coeficiente α (alfa), es el punto donde la línea de regresión intercepta el eje “Y”, es decir el valor de “Y” cuando “X” = 0.
  • 33. 33 El cálculo y el análisis de estos indicadores son útiles para evaluar dosis respuesta de medicamentos. Ejemplo: En el siguiente gráfico se comparan los resultados de dos asociaciones dosis efecto de dos medicamentos A y B y se puede analizar que si bien las dos presentan los mismos valores de r y de alfa (α), hay diferencias en las pendientes (A: β =1; B: β =2). Si la relación que se estudia fuera dosis (x) efecto (y) entonces se podría concluir que el medicamento B es más eficaz que el A. Para entender mejor esta medida observe el gráfico siguiente de la pendiente del medicamento A y podrá ver que cuando X aumenta en 1 y también aumenta en 1. 0 5 10 15 20 25 30 35 0 5 10 15 20 A: r=1 ; β=2: α=0 B: r=1; β=1; α=0 X Y
  • 34. 34 En cambio en la gráfico de la pendiente del medicamento B puede ver que cuando X cambia en una unidad Y cambia en 2. 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Y X 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Y X
  • 35. 35 CONSIDERACIONES IMPORTANTES Para evaluar si se utilizó adecuadamente la regresión lineal es importante tomar en cuenta los siguientes aspectos: 1. La correlación es útil solamente cuando se quiere ver una asociación entre “X” y “Y”. 2. Las muestras deben ser extraídas aleatoriamente de la población y deben ser representativa de la misma. 3. Tanto la variable “X” como la “Y” deben tener la característica de distribuirse normalmente en la población. Por lo tanto la muestra no de tener menos de 30 casos. 4. En caso que una o las dos distribuciones sean no normales o tengan menos de 30 observaciones se debe hacer una transformación logarítmica de datos para poder utilizar correlación y regresión lineal. Ejemplo de análisis de un estudio dosis respuesta En un experimento controlado y aleatorizado se estudió el efecto de una nueva droga sobre la glicemia en personas diabéticas. Diez personas fueron asignadas aleatoriamente a una de diez dosis y se registró la máxima disminución observada en la glicemia en una hora. Los datos obtenidos son: La relación respuesta-dosis es aparentemente lineal y utilizando el paquete EpiInfo7 se obtuvieron los siguientes resultados: Coeficiente de determinación r ²= 0,93 ⇒ indica que el 93% de la variación observada en los datos de reducción de la glicemia es explicada por la dosis de droga. En este ejemplo la dosis es un excelente predictor de la glicemia. Coeficiente de regresión β (pendiente) = 0,062 ⇒ indica que por cada mg de aumento en la dosis se espera una reducción de 0,062 mg. de glicemia. Si analizaríamos las dosis
  • 36. 36 como gramos indicaría que por cada 100 mg. Se espera una reducción de la glicemia de 6. Coeficiente alfa α (intercept) = - 11,47 ⇒ es el punto donde la recta corta el eje vertical, es decir, la disminución esperada en la glicemia cuando la dosis es cero. No es interpretable si el 0 no está contenido en el rango de valores de X como en el presente caso. Materiales audiovisuales de apoyo Regresión Lineal Simple. Introducción. Interpretación de coeficientes: https://www.youtube.com/watch?v=s3Wr0FD9KwM Cómo interpretar el modelo de regresión lineal: https://www.youtube.com/watch?v=TL3up8LIItE
  • 37. 37 5. ANALISIS INFERENCIAL BIVARIAL La estadística inferencial es una parte de la estadística que comprende los métodos y procedimientos que por medio de la inducción determina propiedades de una población estadística, a partir de una pequeña parte de la misma. La estadística inferencial comprende como aspectos importantes (Wikipedia):  La toma de muestra o muestreo, que se referiere a la forma adecuada de considerar o calcular una muestra que permita obtener conclusiones estadísticamente válidas y significativas.  La estimación de parámetros o variables estadísticas, que permite estimar valores poblacionales a partir de muestras de mucho menor tamaño .  El contraste de hipótesis, que permite decidir si dos muestras son estadísticamente diferentes, si un determinado procedimiento o intervención tiene un efecto estadístico significativo, etc.  El diseño experimental.  La inferencia bayesiana.  Los métodos no paramétricos En el caso de análisis bivarial se debe realizar estimación de parámetros y contraste de hipótesis. La estimación de parámetros se trata de a partir de los datos obtenidos en la muestra (estimador), calcular valores en la población de la que se obtuvo la muestra (parámetro) con un cierto grado de certeza o confiabilidad. Existen dos tipos de pruebas de análisis inferencial o estimación: 1. Pruebas de significación estadística o de estimación de punto 2. Intervalos de confianza o estimación de intervalo. En el pasado en los artículos científicos se presentaban simplemente tablas y gráficos con una descripción y explicación de los principales hallazgos. Actualmente se exige que la evaluación de la significación estadística de los hallazgos a través del uso de pruebas de significación o intervalos de confianza. La necesidad de las pruebas de significación y los intervalos de confianza cobraron importancia por la presencia del error de muestreo en los estudios. 5.1. ERROR DE MUESTREO Cualquiera que sea el procedimiento de: selección de los individuos de un estudio, calculo del tamaño de la muestra y de del cálculo de medidas estadísticas calculadas, siempre hay la probabilidad de que exista un error de muestreo que afecta los resultados. Los efectos del error de muestreo son más evidentes cuando las muestras son más pequeñas. Supongamos que en el universo de una población en estudio tienen el 50% de varones y el 50% de mujeres. Si se toma una muestra de diez niños, aunque esperaríamos que cerca de la mitad podrían ser mujeres, no deberíamos sorprendernos si se encuentra siete mujeres y solamente tres niños varones. Si se toma una segunda muestra, el obtener cuatro mujeres y de seis varones, tampoco debería sorprendernos. El ejemplo
  • 38. 38 anterior nos hace ver que debido al error de muestreo rara vez tendríamos 50% mujeres y 50% varones en muestras pequeñas. Los efectos del error del muestreo se presentan en cualquier circunstancia en la investigación médica. Supongamos que dos tratamientos se están comparando en un estudio clínico controlado. Los pacientes han sido asignados aleatoriamente (por sorteo) en dos grupos. Aunque la asignación aleatoria o randomización evita diferencias sistemáticas (o debidas al azar) entre los dos grupos, no evita que existan diferencias por error de muestreo. Por ejemplo, podría suceder que en uno de los dos grupos de estudio existan más pacientes enfermos graves, creando una diferencia aparente entre los tratamientos aunque en realidad no existan. En la práctica es poco usual que dos grupos de un estudio clínico controlado sean exactamente iguales, hay con frecuencia pequeños errores de muestreo entre ellos y es raro encontrar errores de muestreo grandes o diferencias grandes entre los dos grupos. La importancia del error de muestreo radica en la magnitud con la cual este afecta los resultados observados. Algunas veces puede encontrarse un resultado interesante, pero este puede tratarse de un hallazgo casual estadístico. Afortunadamente los métodos estadísticos inferenciales nos permiten probar si los resultados observados se deben o no se deben a un error de muestreo. Un concepto central en estos métodos es el concepto de probabilidad. 5.2. PROBABILIDAD La probabilidad de obtener un seis, al lanzar un dado es uno en seis; la probabilidad de ganarse un sorteo de navidad, con un solo guachito en el que se imprimieron 1000 boletos en uno en mil. La probabilidad, es simplemente, una forma de describir cómo un evento puede ocurrir probablemente. Las probabilidades se pueden expresar en porcentajes, pero en estadística son casi siempre expresadas en fracciones decimales. En este caso sería 1,0 sería igual a 100%. Las probabilidades varían de entre 0,0 y 1,0, donde 0 significa que un evento nunca sucederá y 1 significa que hay la total certeza que sucederá. Por ejemplo, si se expresa en fracciones decimales 1 en 6 vendría a ser 0,167, resultado de dividir 1 para 6 y uno en mil sería igual a 0,001. La interpretación de probabilidades es un poco difícil, cuando un evento tiene una pequeña probabilidad por ejemplo 0,001, es poco probable que suceda, cuando una probabilidad es grande por ejemplo, 0,9 el evento es muy probablemente que suceda. Por ejemplo la probabilidad de que un adulto sano muera algún día es de 1.0 (100%), porque todos morirán algún día, en contraste la probabilidad de que un adulto muera mañana podría ser menor que 1 en 100.000, o 0,00001. Las probabilidades son un aspecto medular de la estadística inferencial. Estos son expresados con frecuencia en términos de valor de p o valor de probabilidad, en la cual la letra p significa probabilidad. Se pueden escribir como p = 0,0003, indicando que un evento tiene 3 en 10.000 oportunidades de ocurrir, es algo que casi no ocurrirá.
  • 39. 39 Se puede escribir también como p < 0,001 o p < 0,005, donde el símbolo “<” significa “menor que”. El símbolo “<” es ampliamente usado, pero escribir p < 0,01 es menos preciso que p= 0.003. El uso de “<” está ampliamente usado, con lo cual se redondean las cantidades a ciertos valores; los más frecuentes son p<0,05, p<0,01 y p<0,001. Se recomienda dar el valor exacto de p, porque el redondeo puede caer en un valor aproximado al mínimo aceptado, lo que echa a perder la información porque no se puede conocer la probabilidad de cometer errores Tipo I o Tipo II. 5.3. PRUEBAS DE SIGNIFICACIÓN ESTADÍSTICA Las pruebas de significación estadística sirven para comparar variables entre distintas muestras. La lógica de las pruebas de significación estadística Las pruebas o test estadísticos pueden parecer que han sido creados para dar dificultades. Sin embargo son de gran utilidad porque es la única forma de conocer si los resultados obtenidos en la muestra son similares a los que obtendría si se estudiaría a todo el universo o población de la que se extrajo la muestra. Lo anterior se conoce también como relevancia de los resultados, validez externa o capacidad de generalización estadística de un estudio. El término validez externa en Medicina Basada en Evidencia puede referirse también a la Utilidad práctica de los resultados, en caso de estudios de evaluación de eficacia de tratamiento se refiere a la evaluación de si el tratamiento o la intervención estudiada puede ser de utilidad para manejar nuestros propios pacientes (Millan, 2009). Imagine que en un estudio clínico controlado en el que se comparan dos tratamientos, se encontró que un tratamiento da mejores resultados que el otro. Pero como este resultado es de una muestra de pacientes, es necesario estimar si los resultados obtenidos en esta muestra se encontrarán también en el universo de pacientes de donde se obtuvo la muestra. Para lograr este propósito el primer paso es proponer, que la diferencia observada entre los tratamientos es debido solamente a un error de muestreo, es decir que no hay diferencias entre los dos tratamiento en el universo. Esto no es lo que se espera, con la lógica que se utiliza a menudo siempre se espera que un nuevo tratamiento sea superior al convencional. Sin embargo, cuando se hace análisis inferencial se inicia planteando lo contrario a lo esperado a lo que se denomina Hipótesis Nula (H0) y el resultado que se espera que suceda se denomina Hipótesis Alternativa o de trabajo (H1). Las pruebas estadísticas inferenciales indican la probabilidad (valor de p) de que, los resultados obtenidos en la muestra se deban al error muestral. Cuando este valor es pequeño, ejemplo p<0,01 se concluye que el resultado observado es improbable que suceda por error, lo que lleva a rechazar la propuesta de que no hay diferencias entre los tratamientos y por lo tanto a rechazar la hipótesis nula. Se puede concluir entonces que uno de los tratamientos es realmente mejor que el otro, o dicho de otra manera los resultados observados en el estudio (en el que se utilizó una muestra) también se dan en el universo del que se extrajo la muestra o que el resultado es significativo o confiable.
  • 40. 40 El valor de p es una muy buena guía para analizar si los resultados observados pueden deberse al error muestral: valores pequeños de p, indican que los resultados son improbables que sucedan por error muestral. Sin embargo, es importante definir a que denominamos un valor de p pequeño. Existe una regla conveniente pero arbitraria: cuando el valor de p es menor de 0,05 (p<0,05) es decir 5%, se excluirá el error muestral como explicación. Cuando se tiene un valor de p menor al valor de referencia se puede decir que se ha alcanzado significación estadística. Sin embargo, el uso de esta regla arbitraria de p<0,05 no es una garantía. Supongamos que se realizan una gran cantidad de test estadísticos, puede aparecer un resultado estadístico espurio o incorrecto una vez en cada veinte pruebas. Esto se debe a que p=0,05 significa una probabilidad de uno en veinte de que ocurra un evento. Hay dos conclusiones de este análisis: 1. Los estudios en los cuales se han realizado múltiples test de significación darán regularmente significados espurios. 2. Valores pequeños de p, es decir p<0,01 o aun p<0,001 darían una confianza mayor de que el resultado no fue por un error de muestreo. 5.4. ANALISIS DE LOS ERRORES TIPO I Y TIPO II La mayoría de las investigaciones sociales, clínicas o epidemiológicas tienen como objetivo contrastar hipótesis que plantean diferencias entre dos o más grupos o muestras. Por ejemplo en estudios de evaluación de eficacia de medicamentos siempre existen dos hipótesis. La hipótesis nula (H0) y la hipótesis alternativa (H1) la que se pretende demostrar. La Hipótesis Nula (H0), que es la que se pretende rechazar, sustenta que no hay diferencias entre dos muestras, posiblemente porque han sido extraídas de la misma población; por lo tanto, cualquier diferencia observada entre las muestras se considera como un hecho casual o debido al azar, resultante únicamente del error de muestreo. Es por tanto la afirmación a rechazar. La Hipótesis Alternativa (H1) es la afirmación que se pretende demostrar. En los estudios experimentales (ECA) y en los estudios observacionales analíticos existen siempre dos hipótesis. La hipótesis nula (H0) que es la se pretende rechazar y la hipótesis alternativa (H1) la que se pretende demostrar. “H0: Los pacientes afectos de Enfermedad X tratados mediante el fármaco B no presentan una mejoría clínica respecto a los tratados con placebo”. RR=1 “H1: Los pacientes afectos de Enfermedad X tratados mediante el fármaco B presentan una mejoría clínica respecto a los tratados con placebo”. RR > 1 Habitualmente se acepta un error máximo de un 5%; por lo que se aceptará la H1 si se tiene valores de p menores al 5% (valor p < 0,05).
  • 41. 41 Supongamos que ya se ha realizado el ECA, y con los datos obtenidos tras aplicar unas pruebas estadísticas determinadas, encontramos unos resultados que indican que la diferencia es estadísticamente significativa por lo que aceptamos la H1. En este ejemplo, el fármaco B es más eficaz que el placebo en el tratamiento de la Enfermedad X. No obstante, lo primero que hay que plantearse es si no podemos haber llegado a una conclusión falsa, o sea que la hipótesis cierta sea la H0 y que por error se haya aceptado la H1. Desde el punto de vista teórico, al aceptar la Hipótesis Nula (H0) o la Hipótesis de Trabajo (H1) se pueden cometer dos tipos de errores:  Si se acepta la H1 y esta decisión es correcta no existe error. El error tipo I o error alfa se comete cuando se rechaza una hipótesis nula siendo verdadera. La probabilidad de cometer este tipo de error sólo puede presentarse cuando rechaza la hipótesis nula y varía de acuerdo al nivel de confianza que se imponga. Esto puede suceder cuando el valor de p es cercano a 0,05, por ejemplo 0,049.  Por el contrario, si se acepta la hipótesis nula (H0) y ésta es falsa se comete un error tipo II. A la probabilidad de cometer este error se le denomina Beta (β). De igual manera como en el caso anterior esto puede suceder cuando el valor de p es mayor pero muy cercano a 0,05, por ejemplo 0,052. ACEPTA H0 H0 Correcta No error H0 Falsa Error Tipo II (beta) ACEPTA H1 H1 Correcta No error H1 Falsa Error Tipo I (alfa) La probabilidad de cometer error alfa será menor mientras haya más rigor en el nivel de confianza; es decir mientras más pequeño sea el valor de p. Así, con un “valor de p” de 0,001 la probabilidad de cometer Error Tipo I, es 1 vez en 1000, en cambio con un valor de p de 0,049, tan cercano a 0,05 la probabilidad de cometer error Tipo I es mayor. El riesgo de cometer error beta o tipo II será menor si el “valor de p” esta lo más alejado posible del valor de referencia 0.05 o 0.01. Por ejemplo, con un valor de p de 0.1 la probabilidad de cometer un error Tipo II será pequeño, en cambio con un valor de p de 0.51, tan cercano al valor de referencia (0.05) la probabilidad de cometer un error Tipo II será grande. De forma arbitraria, solo como referencia para entender lo explicado anteriormente, se pueden transformar los valores de p a categorías de nivel de significación estadística o confiabilidad como se muestra en el ejemplo siguiente:
  • 42. 42 Valor de p Nivel de significación 0,049 Significación o confiabilidad baja o débil. Probabilidad alta de error tipo I. 0,0049 Significación o confiabilidad moderada. 0,00049 Altamente significativo o altamente confiable. Probabilidad muy baja de error tipo I. 0,051 No estadísticamente significativo o no confiable bajo. Probabilidad alta de error tipo II. 0,20 No significativo o no confiable moderado. Moderada probabilidad de error tipo II 0,8 Altamente No significativo o no confiable muy bajo. Probabilidad muy baja de error tipo II. Cuando se observan en los artículos científicos valores de p muy cercanos al valor de referencia (0.05 o 0.01) una de las explicaciones es que el tamaño de la muestra es muy pequeño para demostrar la hipótesis. Por lo tanto, una forma de evaluar si el tamaño de la muestra es suficiente para cumplir los objetivos o demostrar las hipótesis es analizar los valores exactos de p. En general se consideran muestras pequeñas para estudios experimentales y observacionales analíticos cuando se estudian menos de 100 individuos, muestras aceptables de 100 a 400 personas y muestras grandes cuando superan las 400 personas. Mientras más grande la muestra más pequeño o confiable será el valor de p. Analizar el tamaño de la muestra es una forma rápida, pero no precisa de evaluar la capacidad de generalización de un estudio. Ejemplo: En un estudio ECA que evaluó el Efecto de terapia combinada con Tamsulosin Hydrochloride and Meloxicam (T&M) comparada con monoterapia con Tamsulosin (T) en pacientes con Hiperplasia Benigna de Prostata Sintomática (HPB) y su impacto en la nicturia y en la Calidad del Sueño para poder afirmar que el efecto observado se debe al tratamiento y no a otras variables se plantearían las siguientes hipótesis: H0: Los pacientes con HPB tratados mediante los fármacos “T&M” no presentan un aumento del flujo máximo urinario respecto a los tratados con “T”. H1: Los pacientes afectos de HPB tratados mediante los fármacos T&M” presentan un aumento del flujo máximo urinario respecto a los tratados con placebo”. Una vez realizado el estudio los autores reportan los siguientes resultados para los promedios de Flujo Urinario (mL/seg) Grupo T&M 2.2 ± 1.8 Grupo T 3.9 ± 3.2 Diferencia de Medias (DM) - 1,7 Valor de p < 0.03 En este ejemplo, el tratamiento con “T&M” es más eficaz que el tratamiento “T” en el tratamiento de la HPB. No obstante, lo primero que hay que plantear es si puede haber llegado a una conclusión falsa, o sea que la hipótesis cierta sea la H0 y que por error se haya aceptado la H1.
  • 43. 43 En este caso como el valor de p es < 0,03 (3%)) la probabilidad de cometer error alfa es menor a 0,05 (5%) por lo que acepto la H1 como verdadera. Ejercicios: Con los siguientes datos del estudio del ejemplo anterior formule Hipótesis para cada uno de los resultados que se presenta en la tabla siguiente. Consulte las definiciones de cada una de los resultados que se presentan en la tabla y cuáles son los valores de referencia (valores normales). En la siguiente tabla calcule la diferencia de promedios (DM) y evalúe la dirección y la fuerza del resultado para cada una de los resultados que se presentan en la tabla anterior. Para evaluar la fuerza o magnitud del efecto compare el resultado con el valor de referencia. Resultado DM Dirección Fuerza Mayor eficacia a favor de que tratamiento T&M o T PSQS Episodios Nocturia Total IPSS IPSS-QoL Omax (mL/seg) AFR PVR En la siguiente tabla formule las Hipótesis de Trabajo (H1) y la Hipótesis Nula (H0) de cada resultado evaluado, analice el valor de p y defina cual de las dos hipótesis aceptaría como verdadera.
  • 44. 44 Resultado Hipótesis de trabajo Hipótesis Alternativa Valor de p Que hipótesis acepta PSQS Episodios Nocturia Total IPSS IPSS-QoL Omax (mL/seg) AFR PVR 5.5. EVALUACIÓN DEL TEST DE SIGNIFICACIÓN UTILIZADO Para evaluar si se ha escogido adecuadamente el test de significación estadística es importante conocer que esto depende de: 1. El tipo de variables en estudio, si son cualitativas o cuantitativas. 2. El tipo de hipótesis u objetivos del estudio. Se dividen en dos tipos:  Los que buscan asociaciones o relación de dependencia/ independencia.  Los que contrastan resultados entre dos o más grupos o muestras. 3. El tipo de diseño: independiente o pareado. 4. Comportamiento de la variables, si es normal o no normal (sesgada, platicúrvica o leptocúrvica), o si las varianzas son diferentes entre los grupos o muestras que se comparan. 5. Tamaño de los grupos (muestras) 5.5.1. POR TIPO DE VARIABLE EN ESTUDIO De forma muy esquemática existen cuatro posibilidades: 1. La dos variables (independiente y dependiente) son cuantitativas, 2. Las dos variables son cuantitativas, 3. La variable dependiente es cualitativa y la independiente cuantitativa, 4. La variable dependiente es cuantitativa y la independiente es cualitativa. A continuación se expone una tabla resumen de las pruebas de significación más usadas según el tipo de variables.
  • 45. 45 Tabla 2. Pruebas de significación estadística según tipo de variables VARIABLE DEPENDIENTE CUALITATIVA CUANTITATIVA VARIABLE INDEPENDIENTE CUALITATIVA - 2 grupos: Z o t para diferencia de proporciones. - Más de 2 grupos (tablas n x n) y tablas - Tablas de 2 x2 : Chi cuadrado o Test Exacto de Fisher - 2 grupos: Z o t para diferencia de promedios o medianas * - Más de 2 grupos: ANOVA. CUANTITA- TIVA Regresión logística 2 Grupos: Prueba F para análisis de regresión. * Por el número de elementos que intervienen en la muestra se deben utilizar la prueba t cuando son menos 30 en cada grupo y la Z cuando son más de 30 en cada grupo. Pruebas de significación para asociación de variables cualitativas con cualitativas Las variables cualitativas únicamente pueden describirse como proporciones o razones. Por ello, entre variables cualitativas únicamente podremos realizar estudios de asociación o relación entre dos variables, una variable independiente y una dependiente, nunca se realizará comparación de medias. Si los datos son independientes, de entrada debe considerarse como test de elección la prueba Chi cuadrado. No obstante, como este test presenta una serie de limitaciones en ocasiones es preciso utilizar el test de exactitud de Fisher. En el caso de datos cualitativos apareados se utilizará el test de Mac Nemar. Chi Cuadrado Se usa como prueba de significación estadística de las medidas de asociación entre variables cualitativas o para probar diferencias entre dos proporciones. Las dos categorías deben ser mutuamente excluyentes e independientes. Existen tres variantes de Chi cuadrado: 1. Chi cuadrado sin corrección, que se utilizan cuando los valores esperados en cada celda es mayor o igual a cinco. 2. Mantel Haenszel, que se utiliza cuando existen variables perturbadoras o intervinientes. 3. Corrección de yates, se utiliza cuando los valores esperados en cada celda son menores de cinco. Los valores esperados constituyen los valores teóricos que tendría la distribución si no existirían diferencias entre las categorías de las variables estudiadas. Para esto se
  • 46. 46 calculan los valores teóricos o esperados de cada celda, multiplicando el total de la fila por el total de la columna en la que está la celda y luego se divide para el total de las observaciones. Con esto se consigue tener una cantidad que distribuye el total de la columna, tomando en cuenta el peso que tiene la fila correspondiente. Ejemplo: GRUPO SOCIAL OBSERVADOS ESPERADOS Enfermos Sanos Total Enfermos Sanos Total Expuestos 21 a 79 b 100 13 a 87 b 100 No expuestos 5 c 95 d 100 13 c 87 d 100 TOTAL 26 174 200 26 174 200 Valores esperados: a = 26 x 100 / 200 = 13 b = 174 x 100/ 200 = 87 c = 26 x 100 / 200 = 13 d = 174 x 100 / 200 = 87 Si se calcula tasas de incidencia de expuestos y no expuestos en esperados en la tabla de esperados, se puede observar que no hay diferencias entre los dos grupos. Ie = 13/100 = 13% Ine = 13/100 = 13% Los dos grupos tienen una tasa de enfermar. Por lo tanto los valores de esperados representan a la hipótesis nula y lo que se trata es de medir las diferencias entre esperados y no esperados, si no hay diferencias o las diferencias son pequeñas se acepta la hipótesis nula. Paquetes estadísticos como Statcalc de EpiInfo proveen tres tipos de Chi Cuadrado (Perarson, Mantel Hansel y Corrección de yates) y la prueba de Fisher, el investigador debe seleccionar cual es el más conveniente para su análisis. A continuación se presentan un ejemplo con las tres alternativas de Chi². Valor Chi² Valor p Chi² sin corrección 11,32 0,00076 Mantel Haenszel 11,26 0,0079 Corrección yates 9,95 0,001611 Como en este ejemplo no hay valores esperados menores de cinco en cada celda, se debería usar Chi² sin corrección. Cuando se tiene tablas de contingencia de dos filas y más de dos columnas (2 x n) o de más de dos filas y columnas (r x c), se utiliza e Chi² de Pearson. Prueba de exactitud de Fisher El test exacto de Fisher es una prueba de significación estadística utilizada en el análisis de tablas de contingencia. Aunque en la práctica se emplea cuando los tamaños de
  • 47. 47 muestra son pequeños, también es válido para todos los tamaños de muestra. Esta prueba es considerada el “estándar de oro” de las pruebas estadísticas, pues provee un valor exacto de p mientras el Chi-Cuadrado provee un valor aproximado. La mayoría de los usos de la prueba de Fisher implican, una tabla de 2×2 de contingencia. Con la fórmula de la prueba se calcula directamente el “valor de p” y no se necesita la tabla de Chi Cuadrado. Este test provee dos resultados: para una cola, como para dos colas. Para una cola se refiere cuando calcula la probabilidad en una sola dirección, es decir comparando la distribución teórica con una distribución en la que se conoce por estudios o referencias la dirección de la asociación. De dos colas se debe usar cuando no se desconoce la dirección de la asociación. Ejemplo si la H1 dice que el OR es mayor de 1 es de una cola, si la H1 dice que OR puede ser mayor o menor a 1 es de dos colas. Pruebas de significación para comparación de proporciones Comparación de una proporción con un estándar conocido. Para comparar la proporción de personas (P) con ciertas características (enfermedad) con un valor estándar conocido, se utiliza una prueba de significación de diferencias de proporciones, utilizando la tabla Z distribución normal para muestras de más de 30 observaciones para identificar el valor de “p” y la distribución t para muestras de menos de 30 observaciones. Ejemplo: Se tomaron 100 muestras para evaluar prevalencia de bocio en una localidad Y, obteniendo una prevalencia de 18%. La prevalencia en toda el área endémica fue 30% (estándar conocido). Diferencia de proporciones = 0,12 (12%) Estadístico Z= 2,6 Valor de p= 0,01 Con los resultados anteriores se puede concluir que la prevalencia de bocio en la comunidad Y (18%) es menor al resultado obtenido en el área endémica. Comparación de dos porcentajes de dos muestras Para comparar diferencias de dos muestras con proporciones P1 y P2, se usa la prueba de significación de diferencia de proporciones. Al igual que en la prueba anterior para identificar el valor de “p” se utiliza la tabla Z de distribución normal para muestras de más de 30 observaciones para cada grupo y la distribución t para muestras de menos de 30 observaciones para cada grupo. Ejemplo: En la encuesta de prevalencia de alcoholismo en el Ecuador se encontró 360 alcohólicos para la sierra y 280 para la costa. Se quiere saber si estas dos diferencias son significativas. La muestra de la Sierra fue de 3600 y la de la Costa 4000. Prevalencia en la Sierra 0,10 o 10% Prevalencia en la Costa 0,07 o 7%
  • 48. 48 Diferencia de proporciones = 0,10 – 0,07 = 0,03 (3%) Estadístico Z = 4,66 Valor de p = 0,0000 (< 0,0001) Con los resultados anteriores se puede concluir que en la Sierra hay una prevalencia mayor de alcoholismo que en la Sierra. Pruebas de significación para asociación de variables cualitativas con cuantitativas Cuando la variable independiente es cualitativa y la dependiente es cuantitativa se deben utilizar pruebas de significación estadística para diferencia o comparación de promedios o medianas. Para diferencia de promedios hay dos tipos de pruebas paramétricas: la Prueba Z y la Prueba t de student. Estas pruebas se utilizan cuando los dos grupos de comparación presentan distribuciones simétricas, por lo que son pruebas paramétricas. Prueba z Es una prueba de hipótesis paramétrica, que se utiliza para ver si la diferencia que existe entre valores de dos muestras es estadísticamente significativa o se debe al azar. Se utiliza para comparan dos promedios o dos proporciones cuando las muestras son mayores a 30 y su distribución se aproxima a una distribución normal. Prueba t o t de student Es una prueba de hipótesis paramétrica, que se utiliza para ver si la diferencia que existe entre valores de dos muestras es estadísticamente significativa o se debe al azar. De preferencia se utiliza cuando las muestras son pequeñas -menores a 30 - aunque se puede utilizar en muestras mayores, en este caso su distribución se aproxima a una distribución normal. Es paramétrica porque las frecuencias se distribuyen bajo la curva normal o se aproximan a élla. Toma como referencia los parámetros para estimar o probar. Esta prueba permite convertir la diferencia de promedios o de proporciones en unidades estandarizadas. La prueba t debe interpretarse con referencia a los grados de libertad, los mismos que varían directamente con el tamaño de la muestra. Mientras mayor es el tamaño de la muestra, mayores serán los grados de libertad y mientras mayor sea los grados de libertad más se acercará la distribución en la curva normal. Grados de libertad: Técnicamente se refiere a la libertad de variación entre un conjunto de puntajes. Así, si se tiene una muestra de cinco puntajes o grupos, cuatro son libres de variar, mientras que solo uno es valor fijo. En este caso, el cálculo de grados de libertad sería = 5 - 1 = 4 porque gl = n - 1.
  • 49. 49 Comparación de una media de una muestra con un estándar conocido En este caso se quiere probar si la media muestral tiene una diferencia significativa con un estándar conocido. Para muestras de más de 30 observaciones se utilizará la distribución Z. Para muestras pequeñas de menos de 30 observaciones la fórmula es la misma, pero por tener una distribución de t, el resultado se busca en una tabla de distribución T student con grados de libertad igual a n-1, porque se comparan solo dos grupos. El valor de “p” se obtiene mirando el valor calculado de “z” en la tabla de distribución normal o en la tabla “t”. Ejemplo Prueba Z: El promedio de Yodo en Sal de una muestra de 100 observaciones fue de 70 p.p.m con una desviación estándar de 15. El mínimo aceptable según las normas del país es de 67 p.p.m. Diferencia de medias = 70 - 67 = 3 Estadístico Z = 2 Valor de p = 0,024 Ejemplo: El valor de glucosa en la sangre considerado como normal es de 100. Se determinó la glucosa en una muestra de 25 personas y se encontró que el promedio en este grupo fue de 110 y la desviación estándar de 10. Queremos saber si esta diferencia es significativa, es decir que existe en la población o se debe al azar. Ho = No hay diferencia entre el promedio de glucosa encontrado con el valor considerado como normal. Ha = Existe diferencia entre el promedio de glucosa encontrado y el valor de glucosa referencial. Diferencia de medias = 110 - 100 = 10 Grados de libertad = n-1 = 25 - 1 = 24 Estadistico t = 5 Valor de p < 0.05. Comparación de medias de dos muestras En este caso se quiere probar si una media muestral tiene una diferencia significativa con otra media muestral. Si las dos muestras tienen más de 30 observaciones se utilizará la distribución Z. Si una de las muestras o grupos o las dos tienen menos de 30 observaciones el valor de p se busca en una tabla de distribución T student. El valor de “p” se obtiene de la tabla Z de la curva normal para muestras de más de 30 observaciones y la distribución “t” para muestras de menos de 30 observaciones. Ejemplo en muestras mayores a 30: Se comparan el contenido de Iodo en muestras de sal de dos marcas. La marca Crissal tiene 69,5 ppm de iodo en sal y una desviación
  • 50. 50 estándar de 2,5 en 50 observaciones. La marca Super Max tiene 70,1 ppm y DE 2,3 en 60 observaciones. Diferencia de medias = 70,1 - 69,5 = 0,6 Estadístico Z = 1,18 Valor de p= 0,53 Se acepta la hipótesis nula, se rechaza la hipótesis alternativa o de investigación Ejemplo de muestras menores a 30: En un estudio se determinó nivel de colesterol en mujeres que toman anticonceptivos y en mujeres que no toman anticonceptivos. Los resultados fueron los siguientes: Toman anticonceptivos No toman anticonceptivos Media colesterol 198 181 Desvio estandar 29 12 No participantes 26 26 Hipótesis nula: No hay diferencia en los niveles de colesterol entre los dos grupos. Hipótesis Alternativa: Si hay diferencia en los niveles de colesterol entre los dos grupos. Diferencia de medias = 17 Estadístico t = 2,71 Valor de p = 0,04 (<0,05) Se rechaza la hipótesis nula, se acepta la hipótesis alternativa o de investigación. Análisis de varianza Es un test de significación estadística que se usa cuando se cruza una variable cualitativa con una cuantitativa y se quiere comprobar si las diferencias en los promedios de una variable que presenta más de dos categorías o muestras se deben al azar o existe en el universo. Cuando se realiza comparaciones entre promedios de dos muestras se utiliza la prueba t o Z, pero cuando el número de comparaciones aumentan, es decir son 3, 4 o más el procedimiento que puede utilizarse es hacer pruebas -t- por separado. Esto implica no sólo gran cantidad de trabajo sino también una limitación estadística porque aumenta la probabilidad de cometer el error alpha o Tipo I, es decir, rechazar la Ho cuando es verdadera y debe ser aceptada, lo que implica obtener resultados estadísticamente significativos por error de muestreo más que por una verdadera diferencia poblacional. Para superar este problema se utiliza la prueba ANALISIS DE VARIANZA (ANOVA). Esta prueba permite comparar 3, 4 o más promedios de diferentes muestras. La prueba calcula la Razón F que indica la magnitud de la diferencia entre los grupos en relación a la magnitud de la variación dentro de cada grupo. Mientras mayor sea la razón F, es decir mientras mayor sea la variación entre los grupos en relación con la variación dentro de éstos, menor será el valor de p y por lo tanto mayor
  • 51. 51 será la probabilidad de rechazar la Ho y aceptar la Ha o de trabajo. Esta prueba también se interpreta con el valor de p de la misma manera que el Chi cuadrado. Ejemplo: Promedio de peso en los estudiantes de 4 facultades de la universidad. Variación dentro del grupo: DIBUJO Variación entre los grupos: DIBUJO RAZON F: Indica la magnitud de la diferencia entre los grupos en relación a la magnitud de la variación dentro de cada grupo. Mientras mayor sea la razón F, es decir mientras mayor sea la variación entre los grupos en relación con la variación dentro de éstos, mayor será la probabilidad de rechazar la Ho y aceptar la Ht o de trabajo. Pruebas de significación para asociación de variables cualitativas con cuantitativas (análisis de regresión) Para analizar si los resultados de los coeficientes de correlación y regresión se deben al azar o son representativos del universo del que se obtuvo la muestra, se pueden usar los Intervalos de Confianza o las Prueba F de significación para el coeficiente de correlación r o para el coeficiente de regresión β (Beta). La lógica de análisis es la misma que antes. Para lo cual es necesario definir la Hipótesis Nula (Ho) y el Valor crítico de “p”. 5.5.2. SEGÚN EL TIPO DE HIPÓTESIS U OBJETIVOS DEL ESTUDIO Como se puede analizar en la sección anterior hay dos tipos de hipótesis u objetivos: los que buscan asociaciones o relación de dependencia/ independencia y los que contrastan resultados entre dos o más grupos o muestras. Ya se señaló previamente que las dos hipótesis principales a contrastar pueden ser las diferencias entre promedios o proporciones de muestras (contrastar resultados) y la relación o asociación entre dos variables cualitativas (evaluar asociaciones). Tipo de hipótesis Pruebas de significación estadística Relación o asociación Chi cuadrado Test de exactitud de Fisher Correlación y regresión Comparación o contrastación de resultados Z o t para diferencia de proporciones. Z o t para diferencia de promedios ANOVA