SlideShare una empresa de Scribd logo
1 de 496
Descargar para leer sin conexión
www.pearsoneducacion.com
ISBN 978-84-8322-404-5
9 7 8 8 4 8 3 2 2 4 0 4 5
Este libro está dirigido a estudiantes y profesionales de
Ciencias e Ingenierías. Trata los conceptos más importantes
de la inferencia estadística y el análisis de datos tanto
univariante como multivariante. El enfoque con el que
se exponen dichos conceptos es, desde el punto de vista
matemático, riguroso, si bien se dan ejemplos, casi siempre
de carácter biológico, después de casi cada definición o la
demostración de un resultado.
Ipiña
Durand
ISBN 978-84-8322-404-5
9 7 8 8 4 8 3 2 2 4 0 4 5
Santiago L. Ipiña
Ana I. Durand
Inferencia estadística
y análisis de datos
Inferencia
estadística
y
análisis
de
datos
9788483224045.indd 1 20/2/08 12:32:26
i
i
“inferencia” — 2008/2/14 — 9:08 — page I — #1
i
i
i i
INFERENCIA ESTADÍSTICA
Y
ANÁLISIS DE DATOS
i
i
“inferencia” — 2008/2/14 — 9:08 — page II — #2
i
i
i i
i
i
“inferencia” — 2008/2/14 — 9:08 — page III — #3
i
i
i i
INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
SANTIAGO L. IPIÑA
ANA I. DURAND
Departamento de Matemática Aplicada (Biomatemática)
Universidad Complutense de Madrid
Madrid • México • Santafé de Bogotá • Buenos Aires • Caracas • Lima • Montevideo
San Juan • San José • Santiago • São Paulo • White Plains
i
i
“inferencia” — 2008/2/14 — 9:08 — page IV — #4
i
i
i i
Datos de catalogación bibliográfica
INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
Santiago L. Ipiña y Ana I. Durand
PEARSON EDUCACIÓN, S.A. 2008
ISBN: 978-84-8322-404-5
Materia: Estadística matemática, 519.2
Formato: 195 X 250 mm Páginas: 495
Todos los derechos reservados.
Queda prohibida, salvo excepción prevista en la ley, cualquier forma de reproducción, distribución, comunicación pública
y transformación de esta obra sin contar con autorización de los titulares de propiedad intelectual. La infracción de los
derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (arts. 270 y sgts. Código Penal).
DERECHOS RESERVADOS
c

 2008, PEARSON EDUCACIÓN S.A.
Ribera del Loira, 28
28042 Madrid (España)
INFERENCIA ESTADÍSTICA Y
ANÁLISIS DE DATOS
Santiago L. Ipiña y Ana I. Durand
ISBN: 978-84-8322-404-5
Deposito Legal: M.
Equipo editorial:
Editor: Miguel Martín-Romo
Técnico editorial: Marta Caicoya
Equipo de producción:
Director: José A. Clares
Técnico: José A. Hernán
Diseño de cubierta: Equipo de diseño de Pearson Educación S.A.
Impreso por:
IMPRESO EN ESPAÑA - PRINTED IN SPAIN
Este libro ha sido impreso con papel y tintas ecológicos
Nota sobre enlaces a páginas web ajenas: Este libro puede incluir enlaces a sitios web gestionados por terceros y aje-
nos a PEARSON EDUCACIÓN S.A. que se incluyen sólo con finalidad informativa. PEARSON EDUCACIÓN S.A. no
asume ningún tipo de responsabilidad por los daños y perjuicios derivados del uso de los datos personales que pueda
hacer un tercero encargado del mantenimiento de las páginas web ajenas a PEARSON EDUCACIÓN S. A y del fun-
cionamiento, accesibilidad o mantenimiento de los sitios web no gestionados por PEARSON EDUCACIÓN S.A. Las
referencias se proporcionan en el estado en que se encuentran en el momento de publicación sin garantías, expresas o
implícitas, sobre la información que se proporcione en ellas.
i
i
“inferencia” — 2008/2/14 — 9:08 — page V — #5
i
i
i i
Índice general
Prólogo XI
I Variables y distribuciones 1
1. Sucesos y probabilidad 3
1.1. Experimento Aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4. Probabilidad Condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2. Variables aleatorias 19
2.1. Variable Aleatoria y Función de Distribución . . . . . . . . . . . . . . . . . . . 19
2.2. Propiedades de la Función de Distribución . . . . . . . . . . . . . . . . . . . . . 23
2.3. Probabilidad de un Intervalo Real . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4. Distribuciones Discretas y Absolutamente Continuas . . . . . . . . . . . . . . . 25
2.5. Variable Aleatoria Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6. Distribuciones Bivariantes Discretas y Absolutamente Contínuas . . . . . . . . . 31
2.7. Distribuciones Marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.8. Independencia Estocástica de Variables Aleatorias . . . . . . . . . . . . . . . . . 34
2.9. Distribuciones Condicionadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3. Parámetros de una variable aleatoria 51
3.1. Esperanza Matemática de una Variable Aleatoria . . . . . . . . . . . . . . . . . 51
3.2. Varianza de una Variable Aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3. Covarianza de Dos Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . 56
3.4. Dos Teoremas Importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.5. Coeficiente de Correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6. Independencias Estocástica y Lineal . . . . . . . . . . . . . . . . . . . . . . . . 59
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
i
i
“inferencia” — 2008/2/14 — 9:08 — page VI — #6
i
i
i i
VI INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
4. Transformación de variables aleatorias 65
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2. Transformación de Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2.1. Caso discreto, univariante y biyectivo . . . . . . . . . . . . . . . . . . . 66
4.2.2. Caso discreto, univariante y no biyectivo . . . . . . . . . . . . . . . . . 67
4.2.3. Caso discreto, bivariante y biyectivo . . . . . . . . . . . . . . . . . . . . 68
4.2.4. Caso discreto, bivariante y no biyectivo . . . . . . . . . . . . . . . . . . 69
4.2.5. Caso continuo, univariante y biyectivo . . . . . . . . . . . . . . . . . . . 70
4.2.6. Caso continuo, univariante y no biyectivo . . . . . . . . . . . . . . . . . 73
4.2.7. Caso continuo, bivariante y biyectivo . . . . . . . . . . . . . . . . . . . 75
4.2.8. Caso continuo, bivariante y no biyectivo . . . . . . . . . . . . . . . . . . 77
4.3. Funciones Generadoras de Momentos . . . . . . . . . . . . . . . . . . . . . . . 80
4.3.1. Propiedades de la función generadora de momentos . . . . . . . . . . . 80
4.3.2. Momentos y funciones generadoras de momentos conjuntos . . . . . . . 85
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5. Funciones de distribución más usuales 93
5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2. Distribución de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3. Distribución Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.4. Distribución de la Frecuencia Relativa de un Suceso . . . . . . . . . . . . . . . . 97
5.5. Distribución Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.6. Distribución Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.7. Distribución Geométrica o de Pascal . . . . . . . . . . . . . . . . . . . . . . . . 101
5.8. Distribución Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.9. Distribución Serie Logarítmica . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.10. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.11. Distribución Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.11.1. Transformada integral de probabilidad . . . . . . . . . . . . . . . . . . . 109
5.12. Distribución Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.12.1. Distribución exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.12.2. Distribución ji-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.12.3. Distribución ji-cuadrado no centrada . . . . . . . . . . . . . . . . . . . . 114
5.13. Distribución Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.14. Distribución Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.15. Distribución LogNormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.16. Distribución Doble Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.17. Distribución Normal Bivariante . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
5.18. Mixtura de Dos Distribuciones Normales . . . . . . . . . . . . . . . . . . . . . 126
5.19. Modelos Jerárquicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.20. Manejo de las Tablas de Distribuciones . . . . . . . . . . . . . . . . . . . . . . 135
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
i
i
“inferencia” — 2008/2/14 — 9:08 — page VII — #7
i
i
i i
ÍNDICE GENERAL VII
II Inferencia estadística 145
6. Distribución muestral 147
6.1. Introducción y Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
6.2. Muestra Aleatoria Simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6.3. Estadístico y Distribución Muestral . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.4. Teorema Central del Límite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.5. Ley Débil de los Grandes Números . . . . . . . . . . . . . . . . . . . . . . . . . 152
6.6. Distribución de la Varianza Muestral . . . . . . . . . . . . . . . . . . . . . . . . 154
6.7. Distribución t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
6.7.1. Distribución de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
6.7.2. Distribución t de Student no centrada . . . . . . . . . . . . . . . . . . . 158
6.8. Distribución F de Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . 159
6.8.1. Distribución F de Fisher-Snedecor no centrada . . . . . . . . . . . . . . 161
6.9. Estadísticos de Orden o Posición . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
7. Estimación puntual 179
7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
7.2. Propiedades de un Estimador Puntual . . . . . . . . . . . . . . . . . . . . . . . 180
7.2.1. Insesgamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7.2.2. Error cuadrático medio . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7.2.3. Consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
7.2.4. Suficiencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
7.3. Obtención de Estimadores Puntuales . . . . . . . . . . . . . . . . . . . . . . . . 195
7.3.1. Máxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
7.3.2. Momentos muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
7.3.3. Estimadores bayesianos . . . . . . . . . . . . . . . . . . . . . . . . . . 202
Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
8. Estimación por intervalo 213
8.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
8.2. Intervalo de Confianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
8.3. Cantidad Pivotante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
8.3.1. Método de la cantidad pivotante . . . . . . . . . . . . . . . . . . . . . . 216
8.4. Intervalos de Confianza para la Esperanza Matemática . . . . . . . . . . . . . . 219
8.4.1. Intervalo de confianza para E(X) . . . . . . . . . . . . . . . . . . . . . . 219
8.4.2. Intervalo de confianza para la diferencia de dos esperanzas
matemáticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
8.5. Intervalos de Confianza para la Varianza . . . . . . . . . . . . . . . . . . . . . . 224
8.5.1. Intervalo de confianza para una varianza . . . . . . . . . . . . . . . . . . 224
8.5.2. Intervalo de confianza para el cociente de dos varianzas . . . . . . . . . . 226
8.6. Construcción de Intervalos de Confianza por el Método Estadístico . . . . . . . . 227
Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
i
i
“inferencia” — 2008/2/14 — 9:08 — page VIII — #8
i
i
i i
VIII INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
9. Contraste de hipótesis 245
9.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
9.2. Contrastes basados en el Cociente de Verosimilitudes . . . . . . . . . . . . . . . 246
9.3. Método del Intervalo de Confianza . . . . . . . . . . . . . . . . . . . . . . . . . 250
9.4. Contrastes basados en los Métodos Intersección-Unión
y Unión-Intersección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
9.5. Contrastes Bayesianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
9.6. Calidad de un Contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
9.6.1. Función potencia, tamaño y nivel de significación . . . . . . . . . . . . . 256
9.6.2. Contrastes potentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
9.6.3. Contrastes insesgados . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
9.6.4. Tamaño de los contrastes intersección-unión y unión-intersección . . . . 279
9.7. Intervalos de Confianza y Contrastes de Hipótesis . . . . . . . . . . . . . . . . . 282
9.8. Contrastes de Hipótesis Basados en el Estadístico Ji-Cuadrado . . . . . . . . . . 286
9.8.1. Bondad de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
9.8.2. Tablas de contingencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
10. Introducción a la teoría de la decisión 301
10.1. Introducción y Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
10.2. Teoría de la Decisión en Estimación y Contrastes de Hipótesis . . . . . . . . . . 303
10.2.1. Estimación puntual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
10.2.2. Estimación por intervalo . . . . . . . . . . . . . . . . . . . . . . . . . . 306
10.2.3. Contraste de hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
10.3. Reglas de Decisión Bayesianas . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
III Técnicas del análisis de datos 315
11. Análisis de la varianza 317
11.1. Introducción y Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
11.2. ANOVA de un FACTOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
11.2.1. Modelo equilibrado de efectos fijos . . . . . . . . . . . . . . . . . . . . 318
11.2.2. Modelo no equilibrado con efectos fijos . . . . . . . . . . . . . . . . . . 323
11.2.3. Modelo equilibrado de efectos aleatorios . . . . . . . . . . . . . . . . . 324
11.2.4. Comparaciones a posteriori . . . . . . . . . . . . . . . . . . . . . . . . . 326
11.2.5. Resolución del ANOVA mediante contrastes de parámetros . . . . . . . . 337
11.3. ANOVA de dos FACTORES . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
11.3.1. Estadísticos de contraste y distribuciones . . . . . . . . . . . . . . . . . 342
11.3.2. Caso con tamaño muestral uno . . . . . . . . . . . . . . . . . . . . . . . 343
11.4. Introducción al ANOVA Multifactorial . . . . . . . . . . . . . . . . . . . . . . . 345
Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
i
i
“inferencia” — 2008/2/14 — 9:08 — page IX — #9
i
i
i i
ÍNDICE GENERAL IX
12. Regresión lineal 357
12.1. Modelos Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
12.2. Estimaciones Máximo Verosímiles . . . . . . . . . . . . . . . . . . . . . . . . . 358
12.3. Distribución de los Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . 360
12.4. Inferencias sobre los Parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 363
12.4.1. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
12.4.2. Parámetros centrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
12.4.3. Pendiente de la recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
12.4.4. Intersección con ordenadas . . . . . . . . . . . . . . . . . . . . . . . . . 368
12.5. Otros Modelos de Regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368
12.5.1. Modelo normal bivariante . . . . . . . . . . . . . . . . . . . . . . . . . 369
12.5.2. Variables con error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
13. Análisis de componentes principales 377
13.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
13.2. Obtención de las Componentes Principales . . . . . . . . . . . . . . . . . . . . . 378
13.2.1. Componentes principales de la matriz de correlación . . . . . . . . . . . 379
13.3. Interpretación de las Componentes Principales . . . . . . . . . . . . . . . . . . . 380
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
14. Análisis multivariante de la varianza 391
14.1. Tres Distribuciones de Probabilidad Multivariantes . . . . . . . . . . . . . . . . 391
14.1.1. Distribución normal multivariante . . . . . . . . . . . . . . . . . . . . . 391
14.1.2. Distribución de Wishart . . . . . . . . . . . . . . . . . . . . . . . . . . 394
14.1.3. Distribución lambda de Wilks . . . . . . . . . . . . . . . . . . . . . . . 394
14.2. Análisis Multivariante de la Varianza . . . . . . . . . . . . . . . . . . . . . . . . 395
14.2.1. Obtención de las matrices de sumas de cuadrados y productos . . . . . . 395
14.2.2. Estadísticos de contraste . . . . . . . . . . . . . . . . . . . . . . . . . . 397
14.2.3. Homogeneidad de las matrices de varianzas covarianzas
residuales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399
14.3. Dimensión de la Hipótesis Alternativa . . . . . . . . . . . . . . . . . . . . . . . 400
14.4. Análisis Canónico de Poblaciones . . . . . . . . . . . . . . . . . . . . . . . . . 402
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
15. Análisis discriminante 407
15.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
15.2. Función Discriminante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
15.2.1. Distribución del discriminador de Wald-Anderson . . . . . . . . . . . . 409
15.2.2. Discriminación con dos o más poblaciones de parámetros
desconocidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
15.3. Otros Criterios de Asignación . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
15.4. Dos Hipótesis Básicas a Contrastar . . . . . . . . . . . . . . . . . . . . . . . . . 414
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414
i
i
“inferencia” — 2008/2/14 — 9:08 — page X — #10
i
i
i i
X INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
Apéndices 421
A. Álgebra y Geometría de matrices 421
A.1. Definiciones Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
A.2. Operaciones Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
A.3. Leyes del Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426
A.4. Matriz Traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
A.5. Partición de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
A.6. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
A.7. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
A.8. Matriz de Varianzas Covarianzas . . . . . . . . . . . . . . . . . . . . . . . . . . 431
A.9. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432
A.10. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
A.11. Rango e Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
A.12. Inversa Generalizada y Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . 441
A.13. Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
A.14. Geometría de una Transformación Lineal . . . . . . . . . . . . . . . . . . . . . 448
A.14.1. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
A.14.2. Transformaciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . 450
A.14.3. Otras transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . 451
A.14.4. Transformaciones lineales y rango de una matriz . . . . . . . . . . . . . 454
A.14.5. Estructura geométrica de los autovectores . . . . . . . . . . . . . . . . . 455
A.15. Subapéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457
B. Tablas de Distribuciones 463
Bibliografía 475
Índice alfabético 479
i
i
“inferencia” — 2008/2/14 — 9:08 — page XI — #11
i
i
i i
Prólogo
Lo primero que uno se plantea cuando tiene la intención de escribir un libro tiene que
ver con la razón por la que lo escribe. Si bien es cierto que no hay una sola razón, la
más inmediata, no exenta de cierta inmodestia, está relacionada con el grado de insa-
tisfacción que se tiene respecto a lo leído en otras obras que tratan la materia que aquí
desarrollamos y están escritas en lengua española.
Aunque sin respuesta convincente, también nos hemos preguntado qué es lo que hace
a este libro diferente de otros ya publicados. Quizás, lo mejor que podemos decir en este
sentido es que hemos trabajado intensamente para que el resultado final sea de nuestro
agrado.
En cualquier caso, tenemos la esperanza de que lo que exponemos pueda ser consi-
derado satisfactorio tanto para profesionales como para estudiantes de las licenciaturas
de Ciencias e Ingenierías.
Hemos asumido que nuestro lector tiene una base matemática que, aproximadamente,
es equivalente a la impartida en la enseñanza pre-universitaria. Algunos de los temas
que desarrollamos exigen, no obstante, conocimientos matemáticos que sobrepasan di-
cha base. Para hacer más asequibles estos casos, así como aquellos relacionados con
resultados más conocidos y, como consecuencia, en cierta medida más tediosos, hemos
estructurado el libro de forma que, cuando ha sido necesario, se ha introducido al final
de cada capítulo un apéndice en el que se desarrollan las demostraciones que permiten
comprender totalmente el argumento del que se habla.
Después de la explicación de casi todo nuevo concepto hemos incluido un ejemplo
que pretendemos ilustre y haga entender satisfactoriamente la teoría expuesta, cuando
la complejidad de ésta así lo requiere. Adicionalmente, al finalizar cada capítulo se ha
propuesto un conjunto de ejercicios que creemos ayudarán al lector a afianzar el co-
nocimiento teórico. Es importante, por tanto, tratar de resolver estos ejercicios, si bien
se ofrecen las soluciones de aquellos que nosotros hemos considerado puedan servir de
modelo de resolución para el resto. La mayor parte tanto de los ejemplos como de los
ejercicios propuestos son de naturaleza biológica, lo que no es más que una consecuencia
del campo de aplicación en el que trabajan los autores.
El lector interesado puede encontrar en la Bibliografía una selección de libros sobre
Inferencia Estadística y Análisis de Datos que pensamos son interesantes bien para pro-
fundizar bien para complementar su formación. Naturalmente, también en esta sección
i
i
“inferencia” — 2008/2/14 — 9:08 — page XII — #12
i
i
i i
XII INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
se encuentran las referencias de los artículos científicos y los libros que se citan a lo
largo de la exposición de los distintos temas que aquí se tratan.
Los autores deseamos dejar patente las atenciones y facilidades prestadas por la Edi-
torial Pearson Educación, sin cuya colaboración la realización de este libro hubiera sido
más compleja, si no imposible. La responsabilidad de los errores que puedan haber so-
brevivido a la tarea editorial, sin embargo, es enteramente nuestra.
Uno de los autores, quien sin relación con sus méritos o mayor trabajo figura en
primer lugar, desea agradecer al otro autor su constante apoyo personal y profesional.
Madrid, Marzo de 2007
i
i
“inferencia” — 2008/2/14 — 9:08 — page II — #2
i
i
i i
i
i
“inferencia” — 2008/2/14 — 9:08 — page 1 — #13
i
i
i i
Parte I
Variables y distribuciones
i
i
“inferencia” — 2008/2/14 — 9:08 — page 3 — #15
i
i
i i
CAPÍTULO
1
Sucesos y probabilidad
La materia de la que se compone este capítulo forma parte del soporte de los restantes
capítulos de este libro. Como el lector puede fácilmente comprender, esto significa que
tanto su importancia como su extensión son considerables. Tratar, sin embargo, con el
debido rigor, la teoría de la probabilidad es una tarea inadmisible en una obra cuyos
objetivos tienen que ver con la inferencia estadística y el análisis de datos. Existen, por
otra parte, excelentes referencias en la bibliografía actual, por lo que el lector que lo crea
necesario, siempre puede consultarlas. En nuestra opinión, dos de dichas referencias son
A Course in Probability Theory (K.L. Chung) y An Introduction to Probabilistic Theory
and Its Applications (W. Feller), en tanto que el libro Fundamentos de Probabilidad
en Bioestadística (Alonso, G., Ocaña, J. y Cuadras, C.M.) constituye un buen punto de
partida para adentrarse en los aspectos más formales de la probabilidad.
1.1 EXPERIMENTO ALEATORIO
Definición 1.1 Un experimento es un estudio científico que genera datos y está carac-
terizado por dos componentes, el fenómeno a estudiar y el observador.
Esta definición tiene que ver con el propósito que perseguimos en este capítulo y
en los siguientes. En todo caso, según el diccionario de la Real Academia Española
(RAE), un experimento es la acción y el efecto de experimentar, y experimentar - en
su 4a acepción - consiste en realizar operaciones destinadas a descubrir, comprobar o
demostrar determinados fenómenos o principios científicos.
Notemos que el observador está dotado de cierta capacidad de controlar y analizar el
fenómeno. Así, podemos estar interesados en estudiar un conjunto de personas reumáti-
cas y es evidente que las observaciones hechas por un médico no serán las mismas que
aquellas realizadas por un observador no especializado.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 4 — #16
i
i
i i
4 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
Por otro lado, el fenómeno a estudiar puede ser determinístico o aleatorio, lo que de-
pende del modelo que trata de explicarlo. Entendiendo que el término modelo se emplea
aquí en el sentido de un conjunto de ecuaciones y funciones - acudiendo nuevamente al
diccionario de la RAE, en su cuarta acepción, puede verse que modelo es un esquema
teórico, generalmente en forma matemática, de un sistema o de una realidad compleja
que se elabora para facilitar su comprensión y el estudio de su comportamiento -, la
trayectoria de una bala al ser disparada puede ser explicada desde una perspectiva deter-
minística como la Mecánica clásica, o desde un punto de vista aleatorio al contemplar
factores incontrolables como la velocidad del aire en el momento del disparo, las partícu-
las en suspensión en el aire, etc. El estudio de poblaciones humanas, o la transmisión de
caracteres hereditarios son también ejemplos de fenómenos aleatorios, o estocásticos,
dado que resulta imposible conocer o controlar los factores que intervienen en dichos
fenómenos.
Definición 1.2 Un fenómeno se dice que es aleatorio cuando cumple las siguientes con-
diciones,
a) puede repetirse indefinidamente, obteniéndose datos o resultados que pueden ser
distintos en cada prueba o repetición,
b) en cada prueba se obtiene un resultado perteneciente al conjunto de resultados
posibles del experimento,
c) antes de realizar una prueba es imposible saber el resultado de la misma, lo que
se denomina condición de azar,
d) la frecuencia relativa de cada resultado tiende a un número fijo al aumentar el
número de repeticiones del experimento, lo que se denomina regularidad estadís-
tica.
1.2 SUCESOS
Definición 1.3 Espacio muestral, Ω, es el nombre que se da al conjunto de resulta-
dos posibles de un experimento, y cada elemento de dicho conjunto se denomina punto
muestral, ω.
Es evidente que el número de puntos muestrales puede ser finito o infinito. Al lan-
zar una moneda al aire y ver el resultado, tenemos que Ω = {o, x} (o = cara, x =
cruz), en tanto que al considerar el tiempo de reacción a determinado estímulo, tenemos
que Ω = (0, ∞) ≡ R+, la semirecta real positiva . Además, deben distinguirse, entre
los espacios muestrales que son infinitos, aquellos que son numerables - sus elementos
pueden ponerse en correspondencia uno a uno con los elementos del conjunto, o algún
i
i
“inferencia” — 2008/2/14 — 9:08 — page 5 — #17
i
i
i i
CAPÍTULO 1. SUCESOS Y PROBABILIDAD 5
subconjunto, de los números naturales - de aquellos que son no numerables. Desde un
punto de vista empírico, incluso filosófico, puede argumentarse que solo existen espacios
muestrales numerables ya que las medidas no pueden realizarse con precisión infinita.
Sobre un mismo espacio muestral pueden construirse diferentes experimentos, lo
que depende de la capacidad de observación, o interés, del observador. Por ejemplo, al
lanzamiento de un dado, Ω = {1, 2, ..., 6}, puede añadirse y observar si sale cara impar,
o también y observar si sale como máximo un tres, etc. Es decir, que dicha capacidad de
observación determina un conjunto de sucesos observables asociados al experimento.
Definición 1.4 Suceso observable es un enunciado referente a los puntos muestrales de
Ω con la condición de que en cada realización del experimento se pueda determinar si se
ha cumplido o no el enunciado en cuestión. Un suceso observable es elemental cuando
el enunciado hace referencia a un solo punto muestral.
Puede identificarse un suceso observable con un subconjunto de Ω, un resultado
consecuencia del teorema de Stone. Este teorema - que el lector interesado puede ver
en Monk (1995) - indica que un conjunto de sucesos puede representarse mediante una
colección de subconjuntos, o dicho más técnicamente, entre ambos conjuntos existen un
isomorfismo —una aplicación uno a uno que conserva las relaciones de los elementos
del conjunto de partida—.
Supongamos que deseamos seleccionar un individuo de una población humana y nos
interesan los enunciados A = individuo con ojos azules y B = individuo con astigma-
tismo. Es evidente que al realizar el experimento sabremos si el individuo seleccionado
cumple o no los citados enunciados, con lo que A y B son sucesos observables. Pero
también podremos saber si se cumple, por ejemplo, A ∧ B, es decir, individuo con ojos
azules y astigmatismo, que es el suceso observable resultante de la conjunción lógica
(intersección en teoría de conjuntos) entre A y B. Lo mismo podría decirse respecto de
la disyunción lógica (∨) (unión), o de la negación (c) (complementación). Es importante
que estas operaciones lógicas cumplan ciertas propiedades con el propósito de facilitar
su manejo.
Al conjunto A de sucesos observables dotado de estructura de álgebra de Boole con
respecto a las operaciones disyunción y negación lógicas se le denomina álgebra de
sucesos, si el número de sucesos considerados es finito. Si dicho número es infinito, el
álgebra de sucesos se dice que tiene estructura de σ− álgebra (o campo de Borel). Siendo
Ac el suceso complemento de A, la siguiente definición recoge el caso más general.
Definición 1.5 Una colección A de subconjuntos de Ω se denomina campo de Borel
(σ− álgebra) si,
1. ∅ ∈ A,
2. A ∈ A ⇒ Ac ∈ A,
3. A1, A2, ... ∈ A ⇒ ∪∞
i=1Ai ∈ A.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 6 — #18
i
i
i i
6 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
Tengamos presente que por las leyes de De Morgan, combinando las propiedades 2.
y 3., la intersección de sucesos (o su conjunción) es un suceso de A.
Dado un número finito de niveles de observación, es decir, un interés específico ante
un conjunto de resultados finito, es fácil construir el álgebra de sucesos asociada a un
experimento. En efecto, si suponemos que nos interesan solo dos sucesos A y B, cons-
truiremos en primer lugar el conjunto,
Q = {A ∧ B, A ∧ Bc
, Ac
∧ B, Ac
∧ Bc
},
y, a continuación, el conjunto compuesto por todos los subconjuntos de Q, con 24 ele-
mentos, llamado partes de Q, P(Q), generado a partir de las sucesivas uniones de los
cuatro elementos que componen Q. Es fácil demostrar que A = P(Q) es un álgebra de
sucesos.
La anterior construcción es un ejemplo sencillo de la generación de álgebras dados
un experimento y un espacio muestral Ω. En efecto, de modo general, decimos que A
es un álgebra engendrada por una colección de sucesos S = {A | A ⊂ Ω}, lo que
se representa mediante A = g(S), si A contiene a S, es un álgebra de sucesos y toda
álgebra A′ que contenga a S también contiene a A. Es decir, que A es la menor álgebra
que contiene a S.
Cuando el espacio muestral Ω no es finito, el álgebra de sucesos asociada puede ser
finita o infinita. Usualmente, si el número de sucesos del álgebra es infinito, la descrip-
ción de A no es fácil. En efecto, en este caso, el álgebra de sucesos A se dice constituida
por todo suceso que sea de interés en el experimento. Por ejemplo, si Ω = R, la recta
real, los elementos del campo de Borel son, dados cualesquiera x e y reales, conjuntos
de la forma (x, y), (x, y], [x, y), [x, y], (−∞, x), [x, ∞), etc. En el siguiente capítulo,
insistiremos en álgebras no finitas.
1.3 PROBABILIDAD
Definición 1.6 Dados Ω y A, a la aplicación P de A sobre el conjunto de los números
reales R,
P : A → R
A → P(A),
se denomina probabilidad si cumple (axiomas de Kolmogorov),
Axioma 1.1 P(A) ≥ 0, ∀A ∈ A,
Axioma 1.2 P(Ω) = 1,
Axioma 1.3 A1, A2, ... ∈ .A, y disjuntos dos a dos, P (∪∞
i=1Ai) =
P∞
i=1 P(Ai).
i
i
“inferencia” — 2008/2/14 — 9:08 — page 7 — #19
i
i
i i
CAPÍTULO 1. SUCESOS Y PROBABILIDAD 7
Son fácilmente derivables de estos axiomas, siendo A, B ∈ A dos sucesos cuales-
quiera,
1. P(Ac) = 1 − P(A),
2. P(∅) = 0,
3. A ⊂ B ⇒ P(A) ≤ P(B),
4. 0 ≤ P(A) ≤ 1,
5. P(A ∪ B) = P(A) + P(B) − P(A ∩ B), ∀A, B ∈ A.
Definición 1.7 Se llama espacio de probabilidad a la terna (Ω, A, P).
Resulta evidente, por otra parte, que el concepto axiomático de la aplicación llamada
probabilidad no ofrece modo alguno de determinar el valor numérico de la probabilidad
de un suceso, y tampoco hace referencia a algún método para calcularla. Cuando se
considera un espacio de probabilidad con sucesos elementales equiprobables, tenemos,
Ω = {w1, ..., wn} : P({w1}) = ... = P({wn},
y es fácil ver que puede justificarse la siguiente manera de calcular una probabilidad,
P(A) =
Af
c(Ω)
, ∀A ∈ A,
donde Af denota el número de resultados favorables del suceso A y c(Ω) el número de
resultados posibles de la experiencia, es decir, el cardinal del espacio muestral.
1.4 PROBABILIDAD CONDICIONADA
En el anterior cociente que define el cálculo de una probabilidad, el número de resultados
posibles podemos referirlo a algún subconjunto - suceso - de Ω. El resultado especifica la
probabilidad de un suceso condicionado al suceso definido por el anterior subconjunto.
La idea se ilustra en el siguiente ejemplo.
Ejemplo 1.1
Sea un experimento consistente en capturar al azar un conejo - equiprobabilidad en la
captura - y observar A = conejo macho y B = conejo de color blanco. Sean n conejos,
nA conejos machos, nB conejos blancos y nAB conejos machos blancos. De aquí,
P(A) =
nA
n
, P(B) =
nB
n
, P(A ∩ B) =
nAB
n
.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 8 — #20
i
i
i i
8 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
También podremos escribir,
nAB
nB
=
nAB/n
nB/n
=
P(A ∩ B)
P(B)
= P(A | B), ∀B : P(B) 6= 0,
la probabilidad del suceso A condicionado al suceso B. En nuestro ejemplo, otras for-
mas de referirse a este tipo de probabilidad son, dado que el conejo será de color blanco
¿cuál es la probabilidad de que además sea macho? O también, de entre los conejos de
color blanco ¿cuál es la probabilidad de ser macho? O más directamente, ¿cuál es la
probabilidad de ser macho dado que se es de color blanco? 
El concepto de probabilidad condicionada es importante como veremos a lo largo de este
libro, especialmente al desarrollar la denominada estadística bayesiana.
Definición 1.8 Dos sucesos son estocásticamente independientes (A ⊥ B) si se cumple
que P(A | B) = P(A) y P(B | A) = P(B).
Son fácilmente derivables las siguientes proposiciones.
Proposición 1.1 (Principio de las probabilidades compuestas)
P(A ∩ B) = P(B)P(A | B) = P(A)P(B | A).
Proposición 1.2 (Regla del producto)
A ⊥ B ⇒ P(A ∩ B) = P(A)P(B).
En el Apéndice al final del capítulo pueden verse algunas consecuencias de ser A y
B independientes.
Definición 1.9 Una colección compuesta de k sucesos de A que cumplan con los requi-
sitos de ser disjuntos, Ai ∩ Aj = ∅, i 6= j, i, j = 1, ..., k y que su unión sea el suceso
seguro,
k
[
i=1
Ai = Ω
se denomina partición finita de Ω. Se habla de partición finita propia si ningún Ai es el
vacío.
El siguiente teorema indica la probabilidad de un suceso cualquiera S ∈ A conside-
rando una partición finita como la anterior.
Teorema 1.1 (Teorema de las probabilidades totales) Sea la partición finita
{A1, ..., Ak}, Ai ∈ A, i = 1, ..., k.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 9 — #21
i
i
i i
CAPÍTULO 1. SUCESOS Y PROBABILIDAD 9
Dado un suceso S ∈ A se verifica,
P(S) =
k
X
i=1
P(Ai)P(S | Ai).
Prueba. La prueba es inmediata considerando,
P(S) = P(Ω ∩ S) = P[(A1 ∪ ... ∪ Ak) ∩ S] = P(A1 ∩ S) + ... + P(Ak ∩ S),
y el principio de las probabilidades compuestas. 
Más transcendente es el teorema de Bayes - recuérdese el anterior comentario so-
bre la estadística bayesiana -, que habla de la probabilidad condicionada de Ah ∈
{A1, ..., Ak} dado S,
Teorema 1.2 (Teorema de Bayes) Sea {A1, ..., Ak}, Ai ∈ A, i = 1, ..., k, una parti-
ción finita de Ω. Suponiendo que se presentará S, la probabilidad de que proceda del
suceso Ah ∈ {A1, ..., Ak} es,
P(Ah | S) =
P(Ah)P(S | Ah)
k
P
i=1
P(Ai)P(S | Ai)
,
Prueba. Es fácil la prueba de este teorema dados tanto el anterior Teorema 1.1 como la
definición de probabilidad condicionada. 
APÉNDICE
Independencia estocástica
Teorema 1.3 A ⊥ B ⇔ P(A∩B) = P(A)P(B). Además, si A ⊥ B entonces también
A ⊥ Bc, Ac ⊥ B y Ac ⊥ Bc.
Prueba. La implicación ⇒ se obtiene directamente de la regla del producto. Para de-
mostrar la implicación ⇐ consideraremos que,
P(A | B) =
P(A ∩ B)
P(B)
= P(A) y P(B | A) =
P(A ∩ B)
P(A)
= P(B),
es decir, A ⊥ B.
Respecto a la segunda parte del teorema, vemos que,
A ∪ B = B ∪ (A ∩ Bc
) ⇒ P(A ∪ B) = P(B) + P(A ∩ Bc
),
i
i
“inferencia” — 2008/2/14 — 9:08 — page 10 — #22
i
i
i i
10 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
pues B ∩ (A ∩ Bc) = ∅, y como,
P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = P(A)[1 − P(B)] + P(B),
por ser A ⊥ B, resulta,
P(A ∩ Bc
) = P(A)P(Bc
) ⇔ A ⊥ Bc
.
La demostración para Ac ⊥ B es análoga. Por último,
Ac
∩ Bc
= (A ∪ B)c
⇒ P(Ac
∩ Bc
) = 1 − P(A ∪ B) = P(Ac
)P(Bc
).

EJERCICIOS
1.1. Un experimento consiste en capturar al azar y observar un individuo de una población Ω de
conejos. Supongamos estamos interesados en los siguientes niveles de observación A =
el conejo capturado es macho y B = el conejo capturado es de color blanco. Suponiendo
que,
P(A) = 1/3, P(B) = 1/5, P(A ∩ B) = 1/15,
a) Determínese el álgebra de sucesos observables en base a estos dos niveles de obser-
vación.
b) Calcúlense las probabilidades de cada uno de los sucesos que componen el álgebra
de sucesos anterior.
1.2. Se consideran en el espacio de probabilidad (Ω, A, P) tres sucesos observables que de-
signamos por A, B y C. Supóngase que,
p1 = P(A) + P(B) + P(C),
p2 = P(A ∩ B) + P(B ∩ C) + P(A ∩ C),
p3 = P(A ∩ B ∩ C).
Exprésese con ayuda de p1, p2 y p3,
a) La probabilidad de que se realice solamente uno de los tres sucesos.
b) La probabilidad de que se realicen al menos dos de los tres sucesos.
1.3. Dada un álgebra de sucesos A, demuéstrese que,
a) Si A1, ..., An ∈ A, entonces,
P
n
[
i=1
Ai
!
≤
n
X
i=1
P(Ai).
i
i
“inferencia” — 2008/2/14 — 9:08 — page 11 — #23
i
i
i i
CAPÍTULO 1. SUCESOS Y PROBABILIDAD 11
b) Si A1, ..., An ∈ A, de forma que,
P
n−1

i=1
Ai
!
 0,
entonces,
P
n

i=1
Ai
!
= P(A1)P (A2 | A1) P (A3 | [A1 ∩ A2]) ...
...P (An | [A1 ∩ ... ∩ An−1]) .
1.4. Supóngase que A, B y C son tres sucesos tales que A y B son disjuntos, A y C son
independientes y además B y C son independientes. Supóngase, además, que,
4P(A) = 2P(B) = P(C)  0,
P(A ∪ B ∪ C) = 5P(A).
Determínese el valor de P(A).
1.5. Sean A, B y C tres sucesos cualesquiera de un álgebra de sucesos. Supóngase que C
contiene a A y a B, y que estos dos sucesos A y B son estocásticamente independientes.
Si P(A) = p1, P(B) = p2 y P(C) = p3, calcúlese,
a) P ([A ∩ B] | C).
b) P(C ∩ Ac
∩ Bc
).
* Indicación: con la ayuda de A, B , C y sus complementarios constrúyase una parti-
ción de Ω compuesta por cinco sucesos.
1.6. En determinada área de producción, 1/3 de los productos hechos son defectuosos. Si tres
productos fueran seleccionados al azar, calcúlese la probabilidad de que,
a) Solamente uno de ellos sea defectuoso.
b) Al menos uno de ellos sea defectuoso.
1.7. En una población se estudiaron la presencia de un estreptococo patógeno y el tamaño
de las amígdalas, considerándose de forma convencional que dicho tamaño era normal,
hipertrofiado y muy hipertrofiado. Supóngase la experiencia de seleccionar un individuo
al azar de determinada población y observar la presencia en él de los sucesos observables
antes aludidos. Se pide,
a) Constrúyase el álgebra de sucesos de la experiencia aleatoria.
b) Calcúlese la probabilidad de que el individuo seleccionado presente estreptococo,
así como la probabilidad de que no presente el estreptococo y sus amígdalas sean
no normales. Téngase presente que la población consta de 1398 individuos de los
que 19 presentan el estreptococo y tienen las amígdalas normales, 29 presentan
el estreptococo y sus amígdalas son hipertrofiadas y 24 presentan el estreptococo
y tienen amígdalas muy hipertrofiadas. Además, de entre los que no presentan el
estreptococo, 560 son normales y 269 tienen amígdalas hipertrofiadas.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 12 — #24
i
i
i i
12 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
1.8. En una determinada población, el 40 % de los individuos son varones, el 25 % tiene los
ojos azules y el 15 % son varones de ojos azules. Se selecciona un individuo al azar de esa
población,
a) Si dicho individuo fuera varón, ¿cuál es la probabilidad de que tenga ojos azules?
b) ¿Cuál es la probabilidad de que no sea varón y no tenga ojos azules?
1.9. Una compañía farmacéutica A suministró 300 unidades de un medicamento de las cuales
10 eran defectuosas, la compañía B entregó 100 unidades con 20 defectuosas, y la com-
pañía C entregó 200 de las cuales 25 eran defectuosas. Supóngase que se almacenan todas
las unidades al azar y se selecciona aleatoriamente una unidad. Calcúlese,
a) La probabilidad de que la citada unidad sea de la compañía A.
b) La probabilidad de que sea de A y no defectuosa.
c) La probabilidad de que sea defectuosa.
d) Si la unidad fuera defectuosa, ¿cuál es la probabilidad de que sea de la compañía C?
1.10. La probabilidad de que cualquier niño de una familia determinada tenga ojos azules es
1/4, y esta característica es heredada por cada niño de la familia, independientemente de
los demás. Si en la familia hubiera tres niños,
a) ¿Cuál es la probabilidad de que solo un niño tenga ojos azules?
b) ¿Cuál es la probabilidad de que los tres niños tengan ojos azules?
1.11. En un estudio sobre la riqueza de especies en las regiones tropicales, se llega a la con-
clusión de que dicha riqueza aumenta debido a la presencia de tres factores mutuamente
excluyentes: competencia, depredación y heterogeneidad espacial. La probabilidad de que
haya competencia es 0.2, mientras que la probabilidad de que tengan lugar la depredación
y heterogeneidad espacial es 0.5 y 0.3, respectivamente. En el caso de la competencia
y la depredación, cuando están presentes, la probabilidad de que aumente la riqueza de
especies es 0.1 y 0.3, respectivamente, mientras que esta probabilidad es 0.2 en el caso de
la heterogeneidad espacial.
a) ¿Cuál es la probabilidad de que aumente la riqueza de especies?
b) Si aumentara la riqueza de especies, ¿cuál es la probabilidad de que el factor cau-
sal sea la competencia?, ¿y cuál la de que el factor causal sea la heterogeneidad
espacial?
1.12. En un ecosistema conviven tres poblaciones de hormigas A, B y C. Las hormigas de las
poblaciones A y B han desarrollado un polimorfismo a causa del cual el 30 % de las hor-
migas de A y el 50 % de las de B tienen las mandíbulas muy desarrolladas. Las hormigas
de C no presentan las mandíbulas desarrolladas. Si las proporciones de las tres poblacio-
nes en el ecosistema son 20 % de A, 50 % de B y 30 % de C, calcúlese la probabilidad de
que, elegida una hormiga al azar, no tenga las mandíbulas desarrolladas.
1.13. La probabilidad de que un individuo de determinada población sea tuberculoso es 0.01.
Sabiendo que la probabilidad de que cierto aparato de rayos X detecte que un individuo
de la anterior población sea tuberculoso, cuando realmente lo es, es 0.97 y que esta pro-
babilidad es 0.001 cuando el individuo no es tuberculoso, ¿cuál es la probabilidad de que,
dado que el aparato detecta tuberculosis en un individuo elegido al azar, dicho individuo
sea tuberculoso?
i
i
“inferencia” — 2008/2/14 — 9:08 — page 13 — #25
i
i
i i
CAPÍTULO 1. SUCESOS Y PROBABILIDAD 13
1.14. Un análisis para detectar la rabia en los perros descarta la enfermedad en un 99.9 % de
los casos en los que el animal está sano, y diagnostica la enfermedad en un 99 % de los
perros que la padecen. Si el 5 % de los perros padecen rabia y un perro es tomado al azar,
¿cuál es la probabilidad de que, supuesto que el diagnóstico fuera rabia, dicho perro sea
rabioso?
1.15. En cierto bosque, la población de roedores está constituida por un 20 % de ratas, un 75 %
de ratones y un 5 % de ardillas. Se coloca un cepo y se sabe que la probabilidad de ser
atraído por el cepo es de 0.1 para las ratas, 0.2 para los ratones y 0.02 para las ardillas. Si
un animal cayera en el cepo, ¿cuál es la probabilidad de que sea de cada una de las tres
especies citadas?
1.16. Se consideran 5 cajas, designadas por U1, ..., U5, respectivamente, cada una conteniendo
10 ratas. La caja Ui, i = 1, ..., 5, contiene i ratas blancas. La experiencia aleatoria consiste
en escoger una caja al azar y posteriormente una rata de la caja seleccionada.
a) Establézcase la partición finita propia del espacio muestral correspondiente a los
niveles de observación de la experiencia aleatoria y calcular la probabilidad de los
distintos sucesos que integran dicha partición.
b) Si la rata seleccionada fuera blanca, ¿cuál es la probabilidad de que proceda de la
caja U3 o de la U5?
1.17. Se supone que el albinismo es un carácter gobernado por un alelo recesivo (a). Conside-
rando una pareja de no albinos con genotipos Aa,
a) ¿Cuál es la probabilidad de que el primer hijo sea albino?
b) ¿Cuál es la probabilidad de que el segundo hijo sea albino?
c) ¿Cuál es la probabilidad de que, suponiendo que la pareja antes citada vaya a tener
tres hijos, todos sean albinos?
1.18. En una población de Tribolium cuyo efectivo es de 100 individuos, 60 son de la especie
T. confusum y 40 son de la especie T. castanea. El 10 % de T. castanea y el 5 % de T.
confusum son portadores de ojos perla. Si tomáramos un individuo al azar,
a) ¿Cuál es la probabilidad de que sea T. castanea y no tenga ojos perla?
b) ¿Cuál es la probabilidad de que sea T. confusum y tenga ojos perla?
c) Si el individuo tomado al azar fuera portador de ojos perla, ¿cuál es la probabilidad
de que sea T. castanea?
1.19. En una prueba de diagnóstico, en epidemiología clínica, se denomina coeficiente falso
positivo (α) a la probabilidad de que la prueba resulte positiva sin que la enfermedad
exista, y coeficiente falso negativo (β) a la probabilidad de que la prueba resulte negativa
supuesto que exista tal enfermedad. En un cierto estudio se ha establecido que ambos
coeficientes valen 0.05 para una enfermedad que tiene una incidencia de un 4 %. Calcúlese
el porcentaje de enfermos y el de los que no lo están que puede esperarse de entre los que,
al ser examinados por medio de la prueba, hayan dado positivo.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 14 — #26
i
i
i i
14 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
SOLUCIONES
Ejercicio 1.1.
a) En primer lugar construiremos una partición de Ω , considerando los dos citados
niveles de observación, que será,
{A ∩ B, Ac
∩ B, A ∩ Bc
, Ac
∩ Bc
}.
Los sucesos que componen el álgebra A se obtienen formando0 0todas las posibles
uniones de los cuatro elementos de la partición de Ω, es decir, A está formada por
los siguientes sucesos,
- Sucesos formados por la unión de ningún elemento de la partición: ∅,
- Sucesos formados por la unión de un elemento de la partición:
A ∩ B, Ac
∩ B, A ∩ Bc
, Ac
∩ Bc
,
- Sucesos formados por la unión de dos elementos de la partición:
(A ∩ B) ∪ (Ac
∩ B) = (A ∪ Ac
) ∩ B = Ω ∩ B = B,
(A ∩ B) ∪ (A ∩ Bc
) = A,
(A ∩ B) ∪ (Ac
∩ Bc
),
(Ac
∩ B) ∪ (A ∩ Bc
),
(Ac
∩ B) ∪ (Ac
∩ Bc
) = Ac
,
(A ∩ Bc
) ∪ (Ac
∩ Bc
) = Bc
,
- Sucesos formados por la unión de tres elementos de la partición:
(A ∩ B) ∪ (Ac
∩ B) ∪ (A ∩ Bc
) = B ∪ (A ∩ Bc
) = A ∪ B,
(A ∩ B) ∪ (Ac
∩ B) ∪ (Ac
∩ Bc
) = B ∪ (Ac
∩ Bc
) = Ac
∪ B,
(A ∩ B) ∪ (A ∩ Bc
) ∪ (Ac
∩ Bc
) = A ∪ (Ac
∩ Bc
) = A ∪ Bc
,
(Ac
∩ B) ∪ (A ∩ Bc
) ∪ (Ac
∩ Bc
) = Bc
∪ (Ac
∩ B) = Ac
∪ Bc
,
- Sucesos formados por la unión de los cuatro elementos de la partición:
(A ∩ B) ∪ (Ac
∩ B) ∪ (A ∩ Bc
) ∪ (Ac
∩ Bc
) = Ω.
b) Las probabilidades de cada uno de los sucesos que componen el álgebra son,
- P(∅) = 0,
- P(A ∩ B) = 1/15,
- P(Ac
∩ B) = P(B) − P(A ∩ B) = 2/15, ya que,
B = (A ∩ B) ∪ (Ac
∩ B),
- P(A ∩ Bc
) = P(A) − P(A ∩ B) = 4/15, ya que,
A = (A ∩ B) ∪ (A ∩ Bc
),
i
i
“inferencia” — 2008/2/14 — 9:08 — page 15 — #27
i
i
i i
CAPÍTULO 1. SUCESOS Y PROBABILIDAD 15
- P(Ac
∩ Bc
) = 8/15, ya que
Ω = (A ∩ B) ∪ (Ac
∩ B) ∪ (A ∩ Bc
) ∪ (Ac
∩ Bc
),
- P(B) = 1/5, P(A) = 1/3,
- P([A ∩ B] ∪ [Ac
∩ Bc
]) = P(A ∩ B) + P(Ac
∩ Bc
) = 9/15,
- P([Ac
∩ B] ∪ [A ∩ Bc
]) = P(Ac
∩ B) + P(A ∩ Bc
) = 6/15,
- P(Ac
) = 2/3, P(Bc
) = 4/5,
- P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = 7/15,
- P(Ac
∪ B) = P(B ∪ [Ac
∩ Bc
]) = 11/15,
- P(A ∪ Bc
) = P(A ∪ [Ac
∩ Bc
]) = 13/15,
- P(Ac
∪ Bc
) = P(Bc
∪ [Ac
∩ B]) = 14/15,
- P(Ω) = 1.
Ejercicio 1.3.
a) Se aplica el método de inducción completa que consiste en los dos siguientes pasos.
- Se demuestra que la expresión es cierta para n = 2.
En efecto,
P(A1 ∪ A2) = P(A1) + P(A2) − P(A1 ∩ A2) ≤ P(A1) + P(A2),
ya que P(A1 ∩ A2) ≥ 0.
- Supuesto que la expresión es cierta para un n cualquiera se demuestra que
también lo es para n + 1, es decir, apoyándonos en que,
P
[n
i=1
Ai

≤
n
X
i=1
P(Ai),
tenemos que,
P
Sn+1
i=1 Ai

= P ([
Sn
i=1 Ai] ∪ An+1) =
= P (
Sn
i=1 Ai) + P(An+1) − P([
Sn
i=1 Ai] ∩ An+1),
y en virtud del primer paso, y según la hipótesis de inducción,
P
Sn+1
i=1 Ai

≤
n
P
i=1
P(Ai) + P(An+1) − P ([
Sn
i=1 Ai] ∩ An+1) ≤
≤
n+1
P
i=1
P(Ai),
dado que,
P
h[n
i=1
Ai
i
∩ An+1

≥ 0,
al ser la probabilidad de un suceso siempre mayor o igual que cero.
b) Se demuestra de forma análoga por el método de inducción.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 16 — #28
i
i
i i
16 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
Ejercicio 1.6.
a) Sean los sucesos Di = producto defectuoso elegido en i-ésimo lugar, i = 1, 2, 3. Al
ser los productos elegidos al azar, los sucesos Di son independientes, con lo que,
P(Di ∩ Dj ∩ Dk) = P(Di)P(Dj)P(Dk), i 6= j 6= k; i, j, k ∈ {1, 2, 3}.
Además, P(Di) = 1/3, i = 1, 2, 3. La probabilidad pedida es,
P(D1 ∩ Dc
2 ∩ Dc
3) + P(Dc
1 ∩ D2 ∩ Dc
3) + P(Dc
1 ∩ Dc
2 ∩ D3) =
= P(D1)P(Dc
2)P(Dc
3) + P(Dc
1)P(D2)P(Dc
3) + P(Dc
1)P(Dc
2)P(D3) =
= 3(1/3)(2/3)(2/3) = 4/9.
b) La probabilidad que nos piden en este caso es,
P(D1 ∪ D2 ∪ D3) = P(D1) + P(D2) + P(D3) − P(D1 ∩ D2)−
−P(D1 ∩ D3) − P(D2 ∩ D3) + P(D1 ∩ D2 ∩ D3) =
= 1 − 3/32
+ 1/33
= 19/27.
Ejercicio 1.7.
a) Para cada nivel de observación establecemos una partición de Ω, esto es,
P1 = {E, Ec
},
siendo E = presencia de estreptococo y,
P2 = {N, H, MH},
donde N = amígdala normal, H = amígdala hipertrofiada y MH = amígdala muy
hipertrofiada. La partición de Ω que tiene en cuenta los dos niveles de observación
establecidos es,
P1 × P2 = {E ∩ N, E ∩ H, E ∩ MH, Ec
∩ N, Ec
∩ H, Ec
∩ MH}.
El álgebra de sucesos de la experiencia aleatoria se construye con las uniones suce-
sivas de los elementos de dicha partición, es decir,
A = {∅, E ∩ N, ..., Ec
∩ MH, (E ∩ N) ∪ (E ∩ H), ..., Ω}.
b) En primer lugar, nos piden la probabilidad del suceso,
P(E) = P(E ∩ Ω) = P(E ∩ [N ∪ H ∪ MH]) =
= P(E ∩ N) + P(E ∩ H) + P(E ∩ MH) =
= 19/1398 + 29/1398 + 24/1398 = 72/1398.
En segundo lugar, calculemos la probabilidad del siguiente suceso,
P(Ec
∩ Nc
) = P(Ec
∩ [H ∪ MH]) = P(Ec
∩ H) + P(Ec
∩ MH).
Por un lado, como el número de individuos que no presentan el estreptococo y tienen
amígdalas hipertrofiadas es de 269, resulta P(Ec
∩ H) = 269/1398. Por otro lado,
i
i
“inferencia” — 2008/2/14 — 9:08 — page 17 — #29
i
i
i i
CAPÍTULO 1. SUCESOS Y PROBABILIDAD 17
al ser 1398 el número total de individuos, el número de ellos que no presentan
estreptococo y tienen amígdalas muy hipertrofiadas es 1398−19−29−24−560−
269 = 497. Así,
P(Ec
∩ MH) = 497/1398,
y de esta forma,
P(Ec
∩ Nc
) = 766/1398.
Ejercicio 1.8.
a) Consideremos los sucesos V = individuo varón, y O = individuo con ojos azules,
de manera que P(V ) = 0.4, P(O) = 0.25 y P(V ∩ O) = 0.15. La probabilidad
pedida es,
P(O | V ) =
P(O ∩ V )
P(V )
= 0.375.
b) Debemos calcular,
P(V c
∩ Oc
) = 1 − P(V ∪ O) = 1 − P(V ) − P(O) + P(V ∩ O) = 0.5.
Ejercicio 1.10.
a) Definamos los siguientes sucesos O1 = el primer niño tiene ojos azules, O2 = el
segundo niño tiene ojos azules y O3 = el tercer niño tiene ojos azules. Estos sucesos
son independientes con P(O1) = P(O2) = P(O3) = 1/4.
Calcular la probabilidad de que solamente un niño tenga ojos azules, supone el
cálculo de la probabilidad de la unión de tres sucesos disjuntos, teniendo en cuenta
que el niño con ojos azules puede ser el primero, el segundo o el tercero, esto es,
P([O1 ∩ Oc
2 ∩ Oc
3] ∪ [Oc
1 ∩ O2 ∩ Oc
3] ∪ [Oc
1 ∩ Oc
2 ∩ O3]) =
= P(O1 ∩ Oc
2 ∩ Oc
3) + P(Oc
1 ∩ O2 ∩ Oc
3) + P(Oc
1 ∩ Oc
2 ∩ O3) =
= P(O1)P(Oc
2)P(Oc
3) + P(Oc
1)P(O2)P(Oc
3) + P(Oc
1)P(Oc
2)P(O3) =
= 3(1/4)(3/4)2
= 27/64,
en donde se ha aplicado el concepto de independencia de sucesos.
b) Se trata de calcular la siguiente probabilidad,
P(O1 ∩ O2 ∩ O3) = P(O1)P(O2)P(O3) = 1/64,
teniendo en cuenta la independencia de los sucesos considerados.
Ejercicio 1.12.
a) Sean los sucesos A = aumenta la riqueza de especies, C = hay competencia, D =
hay depredación y H = hay heterogeneidad espacial. Los datos que conocemos
son los siguientes: P(C) = 0.2, P(D) = 0.5, P(H) = 0.3, P(A | C) = 0.1, P(A |
D) = 0.3 y P(A | H) = 0.2.
Aplicando el teorema de las probabilidades totales, podemos expresar la probabili-
dad pedida, P(A), de la forma,
P(A) = P(C)P(A | C) + P(D)P(A | D) + P(H)P(A | H) = 0.23.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 18 — #30
i
i
i i
18 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
b) Aplicando el teorema de Bayes,
P(C | A) =
P(C)P(A | C)
P(A)
= 0.087;
P(H | A) =
P(H)P(A | H)
P(A)
= 0.26.
Ejercicio 1.14.
Consideremos los sucesos T = el individuo es tuberculoso, y D = el aparato de rayos
X detecta tuberculosis en un individuo elegido al azar. Según los datos datos tenemos
P(T) = 0.01, P(D | T) = 0.97 y P(D | Tc
) = 0.001.
La probabilidad pedida se puede calcular aplicando el teorema de Bayes,
P(T | D) =
P(T ∩ D)
p(D)
=
P(T)P(D | T)
P(T)P(D | T) + P(Tc)P(D | Tc)
= 0.9.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 19 — #31
i
i
i i
CAPÍTULO
2
Variables aleatorias
2.1 VARIABLE ALEATORIA Y FUNCIÓN DE DISTRIBUCIÓN
En el anterior capítulo hemos visto que un experimento aleatorio queda caracterizado por
los sucesos que lo componen y la probabilidad de dichos sucesos. Sin embargo, lo que
usualmente analizamos en un experimento aleatorio es el número de veces que se realiza
un determinado resultado, o bien la medida de alguna característica de dicho resultado,
que sea de interés para el experimentador.
Ejemplo 2.1
Consideremos el experimento que consiste en lanzar dos veces una misma moneda y ob-
servar el número de caras obtenidas. El espacio muestral puede escribirse Ω2 = Ω×Ω =
{(o, o), (o, x), (x, o), (x, x)}, con Ω = {o, x}, y los resultados posibles son entonces
{0, 1, 2}. Si construimos la función X que hace corresponder a los puntos muestrales de
Ω2 los números reales {0, 1, 2},
X : Ω2 → R
(o, o) → 2
(o, x) → 1
(x, o) → 1
(x, x) → 0
diremos que X es una función numérica. 
A esta función se le llama variable aleatoria, definida sobre los puntos muestrales del
espacio muestral asociado a un experimento. Se suele designar con letras mayúsculas, y
a un valor específico de la variable con letra minúscula; así, en el ejemplo anterior, para
ω ∈ Ω2 asociamos X(ω) = x ∈ R.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 20 — #32
i
i
i i
20 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
La definición es realmente útil, pues no solo establece la conexión entre puntos
muestrales y la descripción numérica de los resultados de un experimento, sino que
también permite definir la probabilidad de un valor numérico. En efecto,
P[(o, o)] = P[(ω ∈ Ω2
| X(ω) = 2)] = P(X = 2).
No obstante, así expresada, la función es incompleta. Imaginemos que nuestro inte-
rés es la medida de la altura de las personas de cierta comunidad. Dicha medida es un
número real cuya precisión depende del aparato con el que se mide, es decir, que resulta
conveniente pensar en intervalos de la recta real dentro de los cuales se localicen deter-
minadas alturas. El problema es entonces cómo calcular la probabilidad de un intervalo
de R, por ejemplo, la probabilidad de (179, 180].
Sean Ω = R, la recta real, y S el conjunto de todos los intervalos reales de la forma
(−∞, x), con x cualquier número real. La σ− álgebra generada por S, B = g(S), se
denomina σ− álgebra de Borel de R, y contiene como elementos intervalos de la for-
ma (x, y), [x, y], (x, y], [x, y), (−∞, x], (x, ∞), [x, x], etc. obtenidos a partir de la unión,
intersección, y/o complementación de (−∞, x) y los intervalos resultantes de estas ope-
raciones.
Al par (Ω, A), siendo A una σ− álgebra, se le llama espacio medible o probabi-
lizable, de forma que, dados dos espacios medibles (Ω, A) y (Ω′, A′) se dice que la
aplicación f,
f : Ω → Ω′
,
es una función medible si,
f−1
(A′
) ∈ A , ∀A′
∈ A′
.
El siguiente teorema lo enunciamos sin demostración (véase, por ejemplo, Alonso y
col, 1989).
Teorema 2.1 Sean (Ω, A) y (Ω′, A′) dos espacios medibles y sea f una función medible.
Se verifica,
1. e
A = f−1(A′) ⊂ A es una σ− álgebra,
2. si f es exhaustiva, A′ y e
A son isomorfas.
Al álgebra e
A se la llama álgebra inducida de A′ en Ω mediante la función f.
Ejemplo 2.2
Sea una población animal Ω cuyos individuos muestran dos fenotipos, hn y hr, para
un determinado carácter, el cual parece estar gobernado por dos formas alélicas de un
gen, A y a. Es decir, supongamos que los genotipos AA y Aa producen el fenotipo hn,
en tanto que el genotipo aa es responsable del fenotipo hr. En esta situación, parece
i
i
“inferencia” — 2008/2/14 — 9:08 — page 21 — #33
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 21
obvio indicar que existe alguna técnica capaz de diferenciar los tres genotipos, pero
supongamos que dicha técnica no está al alcance de cierto estudioso de la población Ω,
que, por tanto, solo puede distinguir individuos hn e individuos hr.
Bajo el nivel de observación de quien dispone la técnica, {AA, Aa, aa} es una parti-
ción de Ω. Sea A el álgebra engendrada por esta partición, compuesta por 23 elementos,
y (Ω, A) el espacio medible correspondiente. Para el estudioso de la población anterior-
mente citado, sean Ω′ = {hn, hr} y A′ = {∅, {hn}, {hr}, Ω′}, con (Ω′, A′) el espacio
medible asociado.
Definamos la aplicación,
f : Ω −→ Ω′
,
de forma que,
f(ω) =

hn, si ω ∈ AA, o ω ∈ Aa
hr, si ω ∈ aa.
Tenemos que,
f−1(A′) = {f−1(∅), f−1({hn}), f−1({hr}), f−1(Ω′)} =
= {∅, {AA ∪ Aa}, {aa}, Ω} = e
A,
que puede demostrarse fácilmente que es un álgebra de sucesos. Además, puede verse
que las imágenes inversas de todos los elementos de A′ son elementos de A, e
A ⊂ A,
por lo que f es una función medible. Por último, es obvio que e
A yA′ son isomorfas.
Observemos que el estudioso solo puede conocer una parte del álgebra A y, por
tanto, cualquier afirmación que no se corresponda con los sucesos Ω, {AA ∪ Aa}, {aa}
y ∅, está fuera de contexto. 
Como queda patente en el anterior Ejemplo 2.2, una función medible f permite pasar
de un álgebra (A) a otra (A′), siendo ésta última isomorfa (caso de ser f exhaustiva)
con un subconjunto de la primera ( e
A). Esto indica que estamos ante un conjunto (A′
) con menos sucesos que el conjunto de sucesos original (A), pero también supone que
manejamos un conjunto cuya estructura es bien conocida - normalmente, A′ es una σ−
álgebra de Borel -.
No es difícil ver que una función medible f permite transportar la probabilidad de
un espacio medible a otro. En efecto, si (Ω, A, P) es un espacio de probabilidad, puede
definirse, sobre el espacio (Ω′, A′), la siguiente probabilidad,
P′
: A′
−→ [0, 1],
de forma que, si A′ ∈ A′,
P′
(A′
) = P(f−1
(A′
)) = P(A), con A ∈ A.
A P′ se le denomina probabilidad inducida por f.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 22 — #34
i
i
i i
22 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
Definición 2.1 Dados los espacios medibles (Ω, A) y (R, B), se llama variable aleato-
ria X a la función medible de Ω en R,
X : Ω → R
ω → X(ω) = x,
de forma que,
{ω ∈ Ω | X(ω) ≤ x} ∈ A, ∀x ∈ R,
es decir,
X−1
((−∞, x]) ∈ A, ∀x ∈ R.
Al suceso {ω ∈ Ω | X(ω) ≤ x} ∈ A se le suele designar abreviadamente (X ≤ x),
y a la probabilidad de este tipo de sucesos se le denomina función de distribución F
asociada a la variable aleatoria X.
Definición 2.2 Se llama función de distribución F de la variable aleatoria X, a la apli-
cación,
F : R → [0, 1]
x → F(x) = P({ω ∈ Ω | X(ω) ≤ x}) = P(X ≤ x).
Como veremos, a partir de la Definición 2.1 puede calcularse la probabilidad de
cualquier intervalo en R.
Ejemplo 2.3
Consideraremos los individuos de una población que pueden presentar dos genes co-
dominantes, A y a, en cierto locus de algún cromosoma. Supongamos que estamos in-
teresados en contar el número de genes A presentes en un individuo ω de la población
Ω,
X : Ω → R
ω → X(ω) = número de genes A en ω,
es decir, X(AA) = 2, X(Aa) = 1, X(aa) = 0.
Esta variable aleatoria está asociada a un experimento en el que interesa observar
la presencia de A, o no (Ac = a), y puesto que analizamos un par de cromosomas por
individuo, será Q = {A∧A, A∧a, a∧a}, o abreviadamente {AA, Aa, aa}, obteniéndose
el álgebra de sucesos,
A = P(Q) = {∅, {AA}, ..., {AA} ∪ {Aa}, ..., {AA} ∪ {Aa} ∪ {aa} = Ω}.
Entendiendo que, por ejemplo, escribiremos {AA} ∪ {Aa} = {AA, Aa}, veamos
si se verifica,
{ω ∈ Ω | X(ω) ≤ x} ∈ A, ∀x ∈ R.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 23 — #35
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 23
En efecto,
x  0 ⇒ {ω ∈ Ω | X(ω) ≤ x} = ∅ ∈ A
0 ≤ x  1 ⇒ {ω ∈ Ω | X(ω) ≤ x} = {aa} ∈ A
1 ≤ x  2 ⇒ {ω ∈ Ω | X(ω) ≤ x} = {Aa, aa} ∈ A
x ≥ 2 ⇒ {ω ∈ Ω | X(ω) ≤ x} = Ω ∈ A
y, por tanto, X es una variable aleatoria.
2.2 PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN
El papel de la función de distribución de una variable aleatoria es fundamental puesto
que la caracteriza. Dicho en otras palabras, es la ley que gobierna su conducta probabi-
lística. Es importante, como consecuencia, conocer las propiedades de una función de
distribución.
1. 0 ≤ F(x) ≤ 1, ∀x ∈ R.
En efecto, al ser F una probabilidad tomará valores en el intervalo [0, 1].
2. lı́m
x→−∞
F(x) = 0; lı́m
x→∞
F(x) = 1.
Ya que,
lı́m
x→−∞
F(x) = lı́m
x→−∞
P(X ≤ x) = P(X ≤ −∞) = 0,
lı́m
x→∞
F(x) = lı́m
x→∞
P(X ≤ x) = P(X ≤ ∞) = 1.
3. ∀x1, x2 ∈ R | x1  x2 : F(x1) ≤ F(x2).
Dicho de otra manera, F es no decreciente. En efecto,
x1  x2 ⇔ {ω ∈ Ω | X(ω) ≤ x1} ⊂ {ω ∈ Ω | X(ω) ≤ x2} ⇒
⇒ P(X ≤ x1) = F(x1) ≤ P(X ≤ x2) = F(X ≤ x2),
considerando el tercer resultado derivable de los axiomas que definen probabili-
dad.
4. P(a  X ≤ b) = F(b) − F(a), ∀a, b ∈ R | a  b.
Escribiendo en adelante, como vimos anteriormente, el suceso {ω ∈ Ω | X(ω) ≤
x} como (X ≤ x), se tiene,
(X ≤ b) = (X ≤ a) ∪ (a  X ≤ b) ⇒
⇒ P(X ≤ b) = P(X ≤ a) + P(a  X ≤ b),
al ser sucesos disjuntos, y de aquí la propiedad enunciada.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 24 — #36
i
i
i i
24 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
5. lı́m
x→a+
F(x) = F(a), ∀a ∈ R.
Es decir, que la función F es continua por la derecha en todo punto de R. En
efecto, supongamos que x es un punto a la derecha de a,
lı́m
x→a+
F(x) = lı́m
x→a+
P(X ≤ x) =
= lı́m
x→a+
P(X ≤ a) + lı́m
x→a+
P(a  X ≤ x) =
= P(X ≤ a) + P(∅) = F(a),
teniendo en cuenta que (X ≤ x) = (X ≤ a) ∪ (a  X ≤ x), y que al ser
a  X es imposible que un valor x de X alcance el punto a. Observemos que
considerando ahora que x es un punto a la izquierda de a,
lı́m
x→a−
F(x) = lı́m
x→a−
P(X ≤ x) =
= lı́m
x→a−
P(X ≤ a) − lı́m
x→a−
P(x  X ≤ a) =
= F(a) − P(X = a),
dado que ahora X ≤ a. Es decir, que F no es necesariamente continua a la iz-
quierda en todo punto de R puesto que P(X = a) puede no ser cero.
El aspecto general de una función F de distribución puede verse en la Figura 2.1.
Resaltamos que el número de discontinuidades por la izquierda puede ser finito o infinito
numerable.
Figura 2.1
i
i
“inferencia” — 2008/2/14 — 9:08 — page 25 — #37
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 25
2.3 PROBABILIDAD DE UN INTERVALO REAL
Sea X una variable aleatoria sobre (Ω, A, P). Con a, b ∈ R | a  b, puede verse en el
Apéndice al final del capítulo la demostración de los siguientes resultados,
1. P(a  X  b) = lı́m
x→b−
F(x) − F(a).
2. P(a ≤ X  b) = lı́m
x→b−
F(x) − lı́m
x→a−
F(x).
3. P(a ≤ X ≤ b) = F(b) − lı́m
x→a−
F(x).
4. P(X = a) = F(a) − lı́m
x→a−
F(x).
5. P(X  a) = lı́m
x→a−
F(x).
2.4 DISTRIBUCIONES DISCRETAS Y ABSOLUTAMENTE
CONTINUAS
Distribuciones discretas
Definición 2.3 Dado un espacio de probabilidad (Ω, A, P), se dice que una variable
aleatoria X sobre dicho espacio es discreta si su recorrido X(Ω), es decir, el conjunto
imagen de la aplicación X, es finito o infinito numerable. A la función de distribución F
asociada a X se le llama función de distribución discreta.
Definición 2.4 Sea X(Ω) = {x1, ..., xn, ...} el recorrido de una variable aleatoria dis-
creta X. A la aplicación,
f : R → [0, 1]
x → f(x) = P(X = x),
se le denomina función de densidad de X.
Propiedades de la función de densidad
1. 0 ≤ f(x) ≤ 1, ∀x ∈ R.
En efecto, f coincide con la probabilidad de un suceso.
2. Se verifica, Pn
i=1 f(xi) = 1, X(Ω) = {x1, ..., xn},
P∞
i=1 f(xi) = 1, X(Ω) = {x1, ..., xn, ...}.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 26 — #38
i
i
i i
26 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
Considerando un recorrido finito,
Ω =
n
[
i=1
(X = xi),
y como,
(X = xi) ∩ (X = xj) = ∅, ∀i, j = 1, ..., n, i 6= j,
resulta,
1 = P(Ω) = P
n
[
i=1
(X = xi)
!
=
n
X
i=1
P(X = xi) =
n
X
i=1
f(xi).
3. F(x) =
P
xi≤x
f(xi), ∀x ∈ R.
En efecto, dado que,
F(x) = P(X ≤ x) = P(X = x1) + ... + P(X = x) =
X
xi≤x
f(xi).
Observemos, por otro lado, que,
f(x) = P(X = x) = 0, ∀x /
∈ X(Ω).
Ejemplo 2.4
Al lanzar una moneda tres veces y observar el número de caras obtenidas, tenemos,
Ω3
= {(o, o, o), (o, o, x), (o, x, o), (x, o, o), (o, x, x), (x, o, x), (x, x, o), (x, x, x)},
de forma que, por ejemplo, X(o, x, o) = 2, etc.
Vemos que,
f(0) = P(X = 0) = P[(x, x, x)] =
1
8
,
f(1) = P(X = 1) = P[(o, x, x) ∪ (x, o, x) ∪ (x, x, o)] =
3
8
,
f(2) = P(X = 2) = P[(o, o, x) ∪ (o, x, o) ∪ (x, o, o)] =
3
8
,
f(3) = P(X = 3) = P[(o, o, o)] =
1
8
.
Las funciones de densidad de variables aleatorias discretas suelen representarse co-
mo en la Figura 2.2(a), donde cada barra vertical tiene una altura igual o proporcional al
valor de la probabilidad del punto de abscisas donde se origina.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 27 — #39
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 27
La función de distribución, llamada también función de probabilidad acumulada, es,
F(0) = P(X ≤ 0) = P(X = 0) = f(0) =
1
8
,
F(0.8) = P(X ≤ 0.8) = P(X = 0) = f(0) =
1
8
,
F(1) = P(X ≤ 1) = f(0) + f(1) =
1
2
,
F(2) = P(X ≤ 2) = f(0) + f(1) + f(2) =
7
8
,
F(3) = P(X ≤ 3) = f(0) + f(1) + f(2) + f(3) = 1,
cuya representación gráfica es la Figura 2.2(b). 
(a) (b)
Figura 2.2
Distribuciones continuas
Definición 2.5 Una variable aleatoria definida sobre (Ω, A, P) se dice continua si su
función de distribución no presenta discontinuidades. Una variable aleatoria continua
X se dice que tiene una distribución absolutamente continua F si existe una función f
tal que,
F(x) =
Z x
−∞
f(t)dt,
llamándose f función de densidad de probabilidad de X.
Propiedades de la función de densidad f
1.
dF(x)
dx
= f(x), ∀x ∈ R siempre que f sea continua en x.
Como sabemos, es una propiedad conocida del cálculo integral.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 28 — #40
i
i
i i
28 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
Por otro lado, como también es sabido,
dF(x)
dx
= lı́m
∆x→0
F(x + ∆x) − F(x)
∆x
=
= lı́m
∆x→0
P(x  X ≤ x + ∆x)
∆x
= f(x),
por lo que puede pensarse que f(x)dx = dF(x) representa la probabilidad infini-
tesimal de que X tome valores en el intervalo semicerrado (x, x + ∆x].
2. f(x) ≥ 0, ∀x ∈ R.
En efecto, como,
x  x + ∆x ⇒ F(x) ≤ F(x + ∆x) ⇒ F(x + ∆x) − F(x) ≥ 0 ⇒
⇒ lı́m
∆x→0
F(x + ∆x) − F(x)
∆x
= f(x) ≥ 0.
3.
R ∞
−∞ f(x)dx = 1.
Efectivamente,
Z ∞
−∞
f(x)dx = lı́m
x→∞
Z x
−∞
f(t)dt = lı́m
x→∞
F(x) = 1.
4. P(a  X ≤ b) = F(b) − F(a) =
R b
a f(x)dx, ∀a, b ∈ R | a  b.
En efecto,
F(b) =
R b
−∞ f(x)dx =
R a
−∞ f(x)dx +
R b
a f(x)dx ⇒
⇒ F(b) − F(a) =
R b
a f(x)dx.
Es importante resaltar que toda variable aleatoria tiene función de distribución pero no
siempre función de densidad. Son solo las variables aleatorias discretas y aquellas con
distribución absolutamente continua las que tienen función de densidad. En la Figura 2.3
puede verse la función de distribución de una variable aleatoria continua.
Por otra parte, dado que una variable aleatoria continua no presenta discontinuidades
en su función de distribución, y recordando la probabilidad de los diferentes intervalos
de la recta real, resulta que,
P(a  X ≤ b) = P(a  X  b) = P(a ≤ X ≤ b) =
= P(a ≤ X  b) = F(b) − F(a),
P(X ≤ a) = P(X  a) = F(a),
P(X = a) = 0.
Puede comprenderse, por tanto, que,
i
i
“inferencia” — 2008/2/14 — 9:08 — page 29 — #41
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 29
Figura 2.3
i) cuando la variable aleatoria tiene distribución absolutamente continua, la función
de densidad en un punto no puede identificarse con la probabilidad en el mismo,
contrariamente a lo que sucede en el caso de que la variable aleatoria sea discreta,
ii) la función de densidad de una variable aleatoria con distribución absolutamente
continua puede modificarse a voluntad en algunos valores puntuales del recorrido
de la variable, sin que por ello resulte alterada su función de distribución.
Ejemplo 2.5
Sea
f(x) =



1 + x2
12
, 0  x  3
0, en el resto,
y hagamos arbitrariamente que f(1) = 20. Calculemos, por ejemplo,
F(2) =
Z 2
0
1 + x2
12
dx =
7
18
.
Puede comprobarse que cuando f(1) = 20,
F(2) =
Z 1
0
1 + x2
12
dx +
Z 2
1
1 + x2
12
dx =
7
18
.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 30 — #42
i
i
i i
30 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
2.5 VARIABLE ALEATORIA BIDIMENSIONAL
Definición 2.6 Dada la terna (Ω, A, P) y dos variables aleatorias X e Y sobre Ω, se
denomina variable aleatoria bidimensional a la aplicación,
(X, Y ) : Ω → R2
ω → [X(ω), Y (ω)] = (x, y),
de forma que se verifica,
{ω ∈ Ω | X(ω) ≤ x} ∩ {ω ∈ Ω | Y (ω) ≤ y} ∈ A, ∀(x, y) ∈ R2
.
Definición 2.7 Se llama función de distribución conjunta bivariante de X e Y a la
aplicación,
F : R2 → [0, 1]
(x, y) → F(x, y) = P[(X ≤ x) ∩ (Y ≤ y)].
Propiedades de la distribución bivariante
1. 0 ≤ F(x, y) ≤ 1, ∀(x, y) ∈ R2.
2. lı́m
x→−∞
F(x, y) = lı́m
y→−∞
F(x, y) = 0,
lı́m
x→∞
y→∞
F(x, y) = 1.
En efecto,
lı́m
x→−∞
P[(X ≤ x) ∩ (Y ≤ y)] = P[(X ≤ −∞) ∩ (Y ≤ y)] = P(∅) = 0,
y,
lı́m
x→∞
y→∞
P[(X ≤ x) ∩ (Y ≤ y)] = P(Ω ∩ Ω) = 1.
3. x1  x2 ⇒ F(x1, y) ≤ F(x2, y), ∀y ∈ R,
y1  y2 ⇒ F(x, y1) ≤ F(x, y2), ∀x ∈ R.
La función es, por tanto, no decreciente. En efecto, si x1  x2,
(X ≤ x1) ∩ (Y ≤ y) ⊂ (X ≤ x2) ∩ (Y ≤ y) ⇒ F(x1, y) ≤ F(x2, y).
4. Se verifica,
P[(a  X ≤ b) ∩ (c  Y ≤ d)] =
= F(b, d) − F(b, c) − F(a, d) + F(a, c), ∀a, b, c, d ∈ R | a  b, c  d,
cuya demostración puede verse en el Apéndice.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 31 — #43
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 31
2.6 DISTRIBUCIONES BIVARIANTES DISCRETAS Y
ABSOLUTAMENTE CONTÍNUAS
Caso discreto
Definición 2.8 Se dice que una variable aleatoria bidimensional es discreta si su reco-
rrido (X, Y )(Ω) es finito o infinito numerable.
Definición 2.9 Se define función de densidad conjunta discreta de las variables X e Y,
a la aplicación,
f : R2 → [0, 1]
(x, y) → f(x, y) = P[(X = x) ∩ (Y = y)],
y, como en el caso univariante,
(x, y) /
∈ (X, Y )(Ω) ⇒ f(x, y) = 0.
Propiedades de la función de densidad f
1. 0 ≤ f(x, y) ≤ 1, ∀(x, y) ∈ R2.
2.
P
x∈X(Ω)
P
y∈Y (Ω)
f((x, y) = 1.
3. F(x, y) =
P
xi≤x
P
yj≤y
f((xi, yj), ∀(x, y) ∈ R2.
La demostración de estas propiedades es análoga a las correspondientes al caso univa-
riante.
Caso Contínuo
Definición 2.10 Si la variable aleatoria bidimensional (X, Y ) tiene función de distribu-
ción sin discontinuidades, entonces dicha variable es continua. Se dice que tiene función
de distribución bivariante absolutamente continua si existe f tal que,
F(x, y) =
Z x
−∞
Z y
−∞
f(u, v)dudv,
llamándose f función de densidad de probabilidad conjunta de X e Y .
En la Figura 2.4 puede verse un ejemplo de función de densidad de probabilidad
bivariante.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 32 — #44
i
i
i i
32 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
Figura 2.4
Propiedades de la función de densidad f
1.
∂2F(x, y)
∂x∂y
= f(x, y), ∀(x, y) ∈ R2, siempre que f sea continua en (x, y).
2. f(x, y) ≥ 0, ∀(x, y) ∈ R2.
3.
R ∞
−∞
R ∞
−∞ f(x, y)dxdy = 1.
4. Se verifica,
P[(a  X ≤ b) ∩ (c  Y ≤ d)] =
=
R b
a
R d
c f(x, y)dxdy, ∀a, b, c, d ∈ R | a  b, c  d.
Estas propiedades se demuestran de manera similar al caso univariante.
2.7 DISTRIBUCIONES MARGINALES
A partir de la distribución conjunta de dos variables aleatorias X e Y se pueden obtener
las distribuciones de X e Y, respectivamente, que llamamos marginales.
Definición 2.11 Se llama función de distribución marginal de X a la aplicación,
FX : R → [0, 1]
x → FX(x) = lı́m
y→∞
F(x, y), ∀x ∈ R,
i
i
“inferencia” — 2008/2/14 — 9:08 — page 33 — #45
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 33
e igualmente la distribución marginal de Y,
FY : R → [0, 1]
y → FY (y) = lı́m
x→∞
F(x, y), ∀y ∈ R.
Es fácil ver que,
FX(x) = P(X ≤ x),
FY (y) = P(Y ≤ y),
es decir, las distribuciones marginales coinciden con las distribuciones univariantes de
las variables.
Función de densidad marginal discreta
Definición 2.12 Dadas dos variables aleatorias discretas X e Y con función de densi-
dad conjunta f, se define función de densidad marginal de X a,
fX : R → [0, 1]
x → fX(x) =
P
yi∈Y (Ω)
f(x, yi),
y análogamente la función de densidad marginal de Y,
fY : R → [0, 1]
y → fY (y) =
P
xi∈X(Ω)
f(xi, y).
Es fácil ver también que,
fX(x) = P(X = x),
fY (y) = P(Y = y),
por lo que la función de densidad marginal de una variable aleatoria discreta coincide
con su función de densidad.
Función de densidad marginal contínua
Definición 2.13 Dadas dos variables aleatorias continuas X e Y con función de distri-
bución conjunta absolutamente continua F y función de densidad conjunta f, se define
función de densidad marginal de X a,
fX(x) =
Z ∞
−∞
f(x, y)dy, ∀x ∈ R,
y análogamente, función de densidad marginal de Y,
fY (y) =
Z ∞
−∞
f(x, y)dx, ∀y ∈ R.
Puede comprobarse que la función de densidad marginal de una variable aleatoria
continua coincide con su función de densidad.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 34 — #46
i
i
i i
34 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
2.8 INDEPENDENCIA ESTOCÁSTICA DE VARIABLES
ALEATORIAS
Definición 2.14 Dado (Ω, A, P), dos variables aleatorias X e Y se dicen estocástica-
mente independientes cuando para todo par de intervalos reales, I y J, los sucesos,
A = {ω ∈ Ω | X(ω) ∈ I}, B = {ω ∈ Ω | Y (ω) ∈ J},
son estocásticamente independientes, es decir,
P(A ∩ B) = P(A)P(B).
Función de distribución de variables independientes
Teorema 2.2 Simbolizando independencia (estocástica) entre variables aleatorias del
siguiente modo,
X ⊥ Y,
se verifica,
X ⊥ Y ⇔ F(x, y) = FX(x)FY (y), ∀(x, y) ∈ R2
.
Prueba. Véase el Apéndice. 
Función de densidad de variables independientes
Caso discreto
Teorema 2.3 Se verifica, siendo X e Y variables aleatorias discretas,
X ⊥ Y ⇔ f(x, y) = fX(x)fY (y), ∀(x, y) ∈ R2
,
Prueba. Consúltese el Apéndice. 
Caso contínuo
Teorema 2.4 Se verifica, siendo X e Y variables aleatorias continuas,
X ⊥ Y ⇔ f(x, y) = fX(x)fY (y), ∀(x, y) ∈ R2
,
Prueba. Véase el Apéndice. 
Si X es una variable aleatoria, cualquier función g de la variable, resulta ser una
variable aleatoria.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 35 — #47
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 35
Teorema 2.5 Sea f la función de densidad conjunta de dos variables aleatorias X e
Y. Se dice que la variables aleatorias X e Y son independientes si y solo si existen las
funciones g(x) y h(y) tales que,
f(x, y) = g(x)h(y), ∀x, y.
Prueba. La condición necesaria se prueba fácilmente haciendo que g(x) = fX(x) y
h(y) = fY (y).
Para probar la condición suficiente, consideremos variables continuas. Supongamos
que, Z ∞
−∞
g(x)dx = k1, y
Z ∞
−∞
h(y)dy = k2,
por lo que,
k1k2 =
R ∞
−∞ g(x)dx
 R ∞
−∞ h(y)dy

=
=
R ∞
−∞
R ∞
−∞ g(x)h(y)dxdy =
R ∞
−∞
R ∞
−∞ f(x, y)dxdy = 1.
Además,
fX(x) =
R ∞
−∞ g(x)h(y)dy = g(x)k2,
fY (y) =
R ∞
−∞ g(x)h(y)dx = h(y)k1.
En consecuencia,
f(x, y) = g(x)h(y) =
fX(x)fY (y)
k2k1
= fX(x)fY (y).
Sustituyendo integrales por sumas, el teorema se prueba para variables aleatorias
discretas. 
Teorema 2.6 Sean X e Y variables aleatorias independientes y sean g y h funciones
tales que g(X) = U y h(Y ) = V son también variables aleatorias y solo dependen de
X e Y, respectivamente. Entonces las variables U y V son independientes.
Prueba. Asumiremos que U y V son variables aleatorias continuas. Definimos,
Xu = {x : g(x) ≤ u} e Yv = {y : h(y) ≤ v}.
De aquí,
FU,V (u, v) = P[(U ≤ u) ∩ (V ≤ v)] =
= P[(X ∈ Xu) ∩ (Y ∈ Yv)] = P(X ∈ Xu)P(Y ∈ Yv),
y la función de densidad conjunta es,
i
i
“inferencia” — 2008/2/14 — 9:08 — page 36 — #48
i
i
i i
36 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
fU,V (u, v) =
∂2FU,V (u, v)
∂u∂v
=

d
du
P(X ∈ Xu)
 
d
dv
P(Y ∈ Yv)

=
=

d
du
P(U ≤ u)
 
d
dv
P(V ≤ v)

= fU (u)fV (v).

2.9 DISTRIBUCIONES CONDICIONADAS
Variables aleatorias discretas
Definición 2.15 La aplicación,
X | [Y = y0] : Ω → R2
ω → (X(ω), y0),
representa la variable X condicionada al suceso {ω ∈ Ω | Y (ω) = y0} = [Y = y0].
Definición 2.16 La función de densidad de X condicionada a [Y = y0], hX|y0
, es,
hX|y0
(x | Y = y0) =
f(x, y0)
fY (y0)
, fY (y0)  0,
siendo f la función de densidad conjunta de X e Y, y fY la función de densidad marginal
de Y.
Definición 2.17 La función de distribución de X condicionada a [Y = y0] es,
HX|y0
(x | Y = y0) =
X
xi≤x
hX|y0
(xi | Y = y0).
De forma similar pueden obtenerse las funciones de densidad hY |x0
y distribución
HY |x0
de la variable aleatoria Y | X = x0.
Variables aleatorias continuas
Definición 2.18 La función de densidad de X condicionada a [Y = y0], hX|y0
, es,
hX|y0
(x | Y = y0) =
f(x, y0)
fY (y0)
, fY (y0)  0,
i
i
“inferencia” — 2008/2/14 — 9:08 — page 37 — #49
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 37
Definición 2.19 La función de distribución condicionada HX de la variable aleatoria
X | [Y = y0] es,
HX|y0
(x | Y = y0) =
Z x
−∞
hX|y0
(u | Y = y0)dx.
Análogamente se definen las funciones de distribución y densidad condicionadas de
Y | X = x0.
Es evidente que tanto en el caso discreto como en el continuo,
X ⊥ Y ⇒ hX|y0
(x | Y = y0) = fX(x), hY |x0
(y | X = x0) = fY (y).
APÉNDICE
Probabilidad de un intervalo real
1. P(a  X  b) = lı́m
x→b−
F(x) − F(a),
puesto que,
(a  X ≤ b) = (a  X  b) ∪ (X = b) ⇒
⇒ P(a  X ≤ b) = P(a  X  b) + P(X = b) ⇒
⇒ P(a  X  b) = F(b) − F(a) − P(X = b) =
= lı́m
x→b−
F(x) − F(a).
2. P(a ≤ X  b) = lı́m
x→b−
F(x) − lı́m
x→a−
F(x),
dado que,
(a ≤ X  b) = (a  X  b) ∪ (X = a) ⇒
⇒ P(a ≤ X  b) = P(a  X  b) + P(X = a) =
= lı́m
x→b−
F(x) − F(a) − P(X = a) = lı́m
x→b−
F(x) − lı́m
x→a−
F(x).
3. P(a ≤ X ≤ b) = F(b) − lı́m
x→a−
F(x),
en efecto,
(a ≤ X ≤ b) = (a  X ≤ b) ∪ (X = a) ⇒
⇒ P(a ≤ X ≤ b) = P(a  X ≤ b) + P(X = a) =
= F(b) − F(a) + P(X = a) = F(b) − lı́m
x→a−
F(x).
i
i
“inferencia” — 2008/2/14 — 9:08 — page 38 — #50
i
i
i i
38 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
4. P(X = a) = F(a) − lı́m
x→a−
F(x),
ya que,
(X = a) = (a ≤ X ≤ a) ⇒ P(X = a) = P(a ≤ X ≤ a) =
= F(a) − lı́m
x→a−
F(x).
5. P(X  a) = lı́m
x→a−
F(x),
pues,
(X ≤ a) = (X  a) ∪ (X = a) ⇒
⇒ P(X ≤ a) = P(X  a) + P(X = a) ⇒
⇒ P(X  a) = F(a) − P(X = a) = lı́m
x→a−
F(x).
Propiedades de la distribución bivariante
Denotemos,
P(A − B) = P(A ∩ Bc
) = P(A) − P(A ∩ B).
Así, si B ⊂ A, entonces P(A − B) = P(A) − P(B).
Resulta que,
[(a  X ≤ b) ∩ (Y ≤ d)] − [(a  X ≤ b) ∩ (Y ≤ c)] =
[(a  X ≤ b) ∩ (Y ≤ d)] ∩ [(a  X ≤ b) ∩ (Y ≤ c)]c =
= [(a  X ≤ b) ∩ (Y ≤ d)] ∩ [(X /
∈ (a, b]) ∪ (Y  c)] =
= [(a  X ≤ b) ∩ (Y ≤ d)] ∩ (X /
∈ (a, b])∪
∪[(a  X ≤ b) ∩ (Y ≤ d)] ∩ (Y  c) =
= [(a  X ≤ b) ∩ (Y ≤ d)] ∩ (Y  c) =
= (a  X ≤ b) ∩ (c  Y ≤ d).
Como,
[(a  X ≤ b) ∩ (Y ≤ c)] ⊂ [(a  X ≤ b) ∩ (Y ≤ d)],
tenemos,
P[(a  X ≤ b) ∩ (c  Y ≤ d)] =
= P[(a  X ≤ b) ∩ (Y ≤ d)] − P[(a  X ≤ b) ∩ (Y ≤ c)].
Por otro lado, con el mismo razonamiento anterior,
[(a  X ≤ b) ∩ (Y ≤ d)] = [(X ≤ b) ∩ (Y ≤ d)] − [(X ≤ a) ∩ (Y ≤ d)],
y,
[(X ≤ a) ∩ (Y ≤ d)] ⊂ [(X ≤ b) ∩ (Y ≤ d)],
por lo que,
P[(a  X ≤ b) ∩ (c  Y ≤ d)] =
= P[(X ≤ b) ∩ (Y ≤ d)] − P[(X ≤ a) ∩ (Y ≤ d)]−
−P[(X ≤ b) ∩ (Y ≤ c)] + P[(X ≤ a) ∩ (Y ≤ c)].
i
i
“inferencia” — 2008/2/14 — 9:08 — page 39 — #51
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 39
Independencia estocástica entre variables
Función de distribución
i) X ⊥ Y ⇒ F(x, y) = FX(x)FY (y),
ya que entonces,
F(x, y) = P[(X ≤ x) ∩ (Y ≤ y)] =
= P(X ≤ x)P(Y ≤ y) = FX(x)FY (y).
ii) F(x, y) = FX(x)FY (y) ⇒ X ⊥ Y,
pues si, por ejemplo, A = (a  X ≤ b) y B = (c  Y ≤ d),
P[(a  X ≤ b) ∩ (c  Y ≤ d)] =
= F(b, d) − F(b, c) − F(a, d) + F(a, c) =
= FX(b)FY (d) − FX(b)FY (c) − FX(a)FY (d) + FX(a)FY (c) =
= [FX(b) − FX(a)][FY (d) − FY (c)] = P(a  X ≤ b)P(c  Y ≤ d).
Funciones de densidad
1. Caso discreto
i) X ⊥ Y ⇒ f(x, y) = fX(x)fY (y),
pues,
f(x, y) = P[(X = x) ∩ (Y = y)] =
= P(X = x)P(Y = y) = fX(x)fY (y).
ii) f(x, y) = fX(x)fY (y) ⇒ X ⊥ Y.
Sea, como anteriormente con funciones de distribución,
P[(a  X ≤ b) ∩ (c  Y ≤ d)] =
= F(b, d) − F(b, c) − F(a, d) + F(a, c).
Si demostramos que, por ejemplo, F(b, d) = FX(b)FY (d) entonces queda
probada la independencia entre variables aleatorias. En efecto,
F(b, d) =
X
xi≤b
X
yj≤d
f(xi, yj) =
X
xi≤b
fX(xi)
X
yj≤d
fY (yj) = FX(b)FY (d).
2. Caso continuo
i) X ⊥ Y ⇒ f(x, y) = fX(x)fY (y),
pues entonces,
f(x, y) =
∂2F(x, y)
∂x∂y
=
∂FX(x)
∂x

∂FY (y)
∂y

= fX(x)fY (y).
i
i
“inferencia” — 2008/2/14 — 9:08 — page 40 — #52
i
i
i i
40 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
ii) f(x, y) = fX(x)fY (y) ⇒ X ⊥ Y,
pues,
F(x, y) =
R x
−∞
R y
−∞ f(u, v)dudv =
=
R x
−∞
hR y
−∞ fY (v)dv
i
fX(u)du = FX(x)FY (y).
EJERCICIOS
2.1. El recorrido de una variable aleatoria X es X(Ω) = {0, 1, 2, 3, 4, 5}. Dada la función
f(x) = kx2
,
a) Calcúlese el valor de k para que f sea función de densidad de probabilidad de X.
b) ¿Cuál es la probabilidad de que X tome valores en el intervalo [0, 3]?
c) Calcúlese la función de distribución F de la variable aleatoria X.
d) Represéntense gráficamente f y F.
2.2. Sea X una variable aleatoria continua cuya función de densidad de probabilidad es,
f(x) =

k(1 + x2
), 0  x  3
0, en el resto,
a) Calcúlese el valor de k para que f sea función de densidad de probabilidad de X.
b) Calcúlese la función de distribución F de la variable aleatoria X.
c) Calcúlese P(1  X  2).
d) Determínese el valor de la probabilidad P ({X  2} | {X  1}).
2.3. La variable aleatoria X tiene una función de densidad de probabilidad igual a,
f(x) =
( 1
b − a
, si a  x  b
0, en el resto,
a) Calcúlese la función de distribución F de la variable aleatoria X.
b) Calcúlese la probabilidad de que la variable aleatoria X tome valores entre 0 y 2,
sabiendo que a = 0 y b = 4.
2.4. Supóngase que la acumulación de toxinas en cierta especie criada en determinado medio
es tal que la variable X(ω) = edad (medida en unidades arbitrarias) del individuo ω en
el momento de su muerte, tiene por función de densidad de probabilidad,
f(x) =

cx, 1  x  2
0, en el resto,
a) Calcúlese c y la función de distribución F de la variable aleatoria X.
b) Represéntense gráficamente las funciones f y F.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 41 — #53
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 41
c) Si un individuo ha alcanzado la edad 1.5, ¿cuál es la probabilidad de que muera
después de cumplir 1.7 de edad? ¿Cuál es la probabilidad de que cualquier individuo
tomado al azar muera después de cumplir 1.7 de edad?
2.5. Dada la variable aleatoria X encontrar el valor de k para el que la función,
f(x) =

kx2
, si − k  x  k
0, en el resto,
sea una función de densidad de probabilidad.
2.6. Sea f(x; θ) = θf1(x)+(1−θ)f2(x), donde la constante θ ∈ (0, 1). Suponiendo que f1 y
f2 son funciones de densidad de probabilidad, pruébese que f es una función de densidad.
2.7. La función de densidad de probabilidad de una variable aleatoria X es,
f(x) =
(
2(1 + x)
27
, si 2  x  5
0, en el resto,
a) Calcúlese P(X  4).
b) Determínese el valor de P(3  X  4).
2.8. La función de distribución de la variable aleatoria X = vida de las bacterias de una cierta
cepa (tiempo transcurrido hasta su duplicación) es,
F(x) =

1 − e−λx
, si x ≥ 0
0, en el resto,
siendo λ  0.
a) Calcúlese la función de densidad de probabilidad de la variable aleatoria X.
b) ¿Cuál es la probabilidad de que una bacteria tenga un tiempo de vida comprendido
entre 2.7 horas y 3 horas, sabiendo que λ = 2.5?
c) ¿Cuál es la probabilidad de que una bacteria viva menos de 3 horas, sabiendo que
ya ha vivido más de 2.7 horas (λ = 2.5)?
2.9. Sean X e Y dos variables aleatorias con función de densidad de probabilidad conjunta
dada por,
f(1, 1) = 0; f(1, 2) =
1
6
; f(1, 3) =
1
12
;
f(2, 1) =
1
5
; f(2, 2) =
1
9
; f(2, 3) = 0;
f(3, 1) =
2
15
; f(3, 2) =
1
4
; f(3, 3) =
1
18
.
Calcúlense las funciones de densidad marginales.
2.10. Sean X e Y dos variables aleatorias cuya función de densidad conjunta es,
f(x, y) =

4x(1 − y), si 0  x  1, 0  y  1,
0, en el resto.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 42 — #54
i
i
i i
42 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
a) Hállese la función de densidad marginal de la variable aleatoria X.
b) Calcúlese la función de distribución marginal de la variable aleatoria Y .
2.11. Sean dos variables aleatorias X e Y cuya función de densidad conjunta viene dada por,
f(0, 0) =
1
8
; f(0, 1) =
3
8
;
f(1, 0) =
3
8
; f(1, 1) =
1
8
.
Calcúlese la función de densidad condicionada de la variable aleatoria Y | [X = 0].
2.12. Las variables aleatorias X e Y tienen la siguiente función de densidad conjunta,
f(x, y) =

4xy, si 0  x  1, 0  y  1,
0, en el resto.
a) Calcúlese la función de densidad condicionada de la variable aleatoria X | [Y = y].
b) ¿Son las variables aleatorias X e Y estocásticamente independientes?
2.13. Sean X e Y dos variables aleatorias con función de densidad de probabilidad conjunta,
f(x, y) =

k(x + y), si 0 ≤ x ≤ 2, 0 ≤ y ≤ 2,
0, en el resto.
a) Encuéntrese el valor de k.
b) Calcúlese la función de distribución conjunta F de las variables X e Y .
c) Calcúlese las funciones de densidad marginales y las funciones de distribución mar-
ginales ¿Son las dos variables aleatorias estocásticamente independientes?
d) Calcúlese la función de densidad de probabilidad de X supuesto que [Y = 1].
2.14. En una comunidad de 120 personas 58 son del grupo sanguíneo A, 32 del AB, 20 del
grupo B y el resto del grupo O. Seleccionamos al azar 3 individuos de la comunidad y
definimos las variables aleatorias X = número de individuos seleccionados del grupo A
e Y = número de individuos seleccionados del grupo B.
a) Constrúyase la función de densidad de probabilidad conjunta f de X e Y .
b) Analícese si las variables aleatorias consideradas son estocásticamente independien-
tes.
c) Calcúlese, a partir de la función de densidad conjunta f, la probabilidad de que
ningún individuo del grupo A haya sido seleccionado.
2.15. Considérese que, según cierto modelo teórico, la duración del combate ritual entre los
machos de cierta especie es una variable aleatoria X con función de densidad de probabi-
lidad:
f(x) =

ce−hx
, si x ≥ 0
0, en el resto,
a) Determínese el signo de h y su valor en función de c.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 43 — #55
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 43
b) Calcúlese la función de distribución F de la variable aleatoria X.
c) Represéntese gráficamente f y F cuando c = 1.
2.16. Una caja contiene 3 ratas negras, 2 blancas y 3 grises. Seleccionamos al azar un conjunto
de 4 ratas y definimos las variables aleatorias X = número de ratas negras seleccionadas
e Y = número de ratas blancas seleccionadas. Encuéntrese,
a) La función de densidad de probabilidad conjunta de X e Y .
b) P[(X, Y ) ∈ A] donde A = {(x, y) | x + y ≤ 2}.
c) La función de densidad condicionada hY |x (y | [X = 2]).
2.17. Consideremos la experiencia de extraer al azar dos individuos de una población y observar
su genotipo respecto del sistema de grupos sanguíneos ABO. El primero es un receptor y
el segundo un donante. Las proporciones de los diferentes genotipos en la población son
para el grupo OO el 30 %, para AO el 10 %, para AA el 30 %, para BO el 15 %, para BB
el 5 % y para AB el 10 %. Sobre el correspondiente espacio de probabilidad se consideran
las variables aleatorias,
X : Ω2
→ R,
X(ωr, ωd) =



0, si ωr y ωd son de idéntico genotipo,
1, si ωr y ωd difieren respecto de un alelo,
2, si ωr y ωd difieren respecto de dos alelos.
Y : Ω2
→ R,
Y (ωr, ωd) =

0, si sus sangres son compatibles,
1, en caso contrario.
a) Determínese la función de densidad de probabilidad de la variable aleatoria bidi-
mensional (X, Y ), y las funciones de densidad marginales.
b) Determínese la función de densidad de probabilidad de la variable aleatoria Y en el
supuesto de que los individuos difieran en un alelo. Calcúlese la función de densidad
de la variable aleatoria X suponiendo compatibilidad sanguínea.
c) Analícese si se puede concluir que, al conocer la compatibilidad sanguínea de dos
individuos, aumenta la probabilidad de que sean idénticos genotípicamente, dismi-
nuye la de que difieran en un alelo y disminuye todavía más la de que difieran en
dos alelos.
2.18. Dos variables aleatorias X e Y tienen una función de densidad de probabilidad conjunta
definida por,
f(x, y) =

4xy, si 0  x  1, 0  y  1,
0, en el resto.
Encuéntrese,
a) P ([0 ≤ X ≤ 0.75] ∩ [0.125 ≤ Y ≤ 0.5]).
b) P(Y  X).
i
i
“inferencia” — 2008/2/14 — 9:08 — page 44 — #56
i
i
i i
44 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
2.19. Dos variables aleatorias X e Y tienen función de densidad de probabilidad conjunta dada
por,
f(x, y) =

k(x2
+ y2
), si 0  x  2, 1  y  4,
0, en el resto.
Calcúlese,
a) k.
b) P(1 ≤ X ≤ 2).
c) P ([Y + X]  4).
2.20. Supongamos que X e Y son dos variables aleatorias cuya función de densidad de proba-
bilidad conjunta viene dada por,
f(1, 1) = 0; f(1, 2) =
1
6
; f(1, 3) =
1
12
;
f(2, 1) =
1
5
; f(2, 2) =
1
9
; f(2, 3) = 0;
f(3, 1) =
2
15
; f(3, 2) =
1
4
; f(3, 3) =
1
18
.
Calcúlense las funciones de densidad condicionadas ¿Son X e Y variables aleatorias in-
dependientes?
2.21. Sean X e Y dos variables aleatorias cuyos recorridos son X(Ω) = {1, 3, 5} e Y (Ω) =
{2, 6, 8}, respectivamente. Sabiendo que la función de densidad de probabilidad marginal
de X es,
fX(1) = 0.2, fX(3) = 0.45, fX(5) = 0.35,
y conociendo las siguientes funciones de densidad condicionadas,
Y 2 6 8
fY |x(y | [X = 1]) 0.3 0.3 0.4
fY |x(y | [X = 3]) 0.15 0.45 0.4
fY |x(y | [X = 5]) 0.2 0.2 0.6
calcúlense fY (2) y P ([X = 3] | [Y = 6]).
2.22. La función de densidad de probabilidad conjunta de las variables aleatorias X, Y y Z
viene dada por,
f(x, y, z) =
(
4
9
xyz2
, si 0  x  1, 0  y  1, 0  z  3
0, en el resto.
Encuéntrese,
a) La función de densidad de probabilidad marginal conjunta de Y y Z.
b) La función de densidad de probabilidad marginal de Y .
c) P ([0.25  X  0.5] ∩ [Y  0.3] ∩ [1  Z  2]).
d) F ([0.5] | {[Y = 0.25] ∩ [Z = 2]}), siendo F la función de distribución de la varia-
ble aleatoria X condicionada al suceso {[Y = 0.25] ∩ [Z = 2]}.
i
i
“inferencia” — 2008/2/14 — 9:08 — page 45 — #57
i
i
i i
CAPÍTULO 2. VARIABLES ALEATORIAS 45
SOLUCIONES
Ejercicio 2.2.
a) Dado que, Z ∞
−∞
f(x)dx = 1,
tenemos,
1 = k
Z 3
0
(1 + x2
)dx = 12k =⇒ k =
1
12
.
b) Como,
F(x) =
Z x
−∞
f(t)dt,
entonces,
si x ≤ 0, F(x) = 0,
si 0  x  3, F(x) =
1
12
R x
0
(1 + t2
)dt =
1
12

x +
x3
3

,
si x ≥ 3, F(x) =
1
12
R 3
0
(1 + t2
)dt = 1.
c) P(1  X  2) = F(2) − F(1) =
5
18
.
d) La probabilidad pedida es,
P ([X  2] | [X  1]) =
P ([X  2] ∩ [X  1])
P(X  1)
=
=
P(1  X  2)
1 − F(1)
=
5
16
.
Ejercicio 2.3.
a) Si x ≤ a entonces,
F(x) =
Z x
−∞
f(t)dt = 0,
ya que f(x) = 0 en este intervalo.
Si a  x  b se tiene que,
F(x) =
Z x
−∞
f(t)dt =
Z x
a
1
b − a
dt =
x − a
b − a
.
Finalmente si b ≤ x, entonces,
F(x) =
Z x
−∞
f(t)dt =
Z b
a
1
b − a
dt = 1.
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos
Inferencia estadística y análisis de datos

Más contenido relacionado

Similar a Inferencia estadística y análisis de datos

06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...MarioRivera243377
 
Metodos
MetodosMetodos
Metodostototl
 
411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1CarlosRoberto154965
 
Metodos de la fisica matematica
Metodos de la fisica matematicaMetodos de la fisica matematica
Metodos de la fisica matematicaFabian Romero
 
Estadística para ingeniería
Estadística para ingenieríaEstadística para ingeniería
Estadística para ingenieríalocke23
 
Apuntes de exámenes pasados para que túu
Apuntes de exámenes pasados para que túuApuntes de exámenes pasados para que túu
Apuntes de exámenes pasados para que túuquispecolqueflorenci
 
Apuntes de preparación para la PRUEBA DE SELECCIÓN UNIVERSITARIA
Apuntes de preparación para la PRUEBA DE SELECCIÓN UNIVERSITARIAApuntes de preparación para la PRUEBA DE SELECCIÓN UNIVERSITARIA
Apuntes de preparación para la PRUEBA DE SELECCIÓN UNIVERSITARIAAlejandro Feliz
 
Matemática III - Facultad de Ingeniería Eléctrica y Electrónica de la Univers...
Matemática III - Facultad de Ingeniería Eléctrica y Electrónica de la Univers...Matemática III - Facultad de Ingeniería Eléctrica y Electrónica de la Univers...
Matemática III - Facultad de Ingeniería Eléctrica y Electrónica de la Univers...Andy Juan Sarango Veliz
 
Notas de algebra lineal
Notas de algebra linealNotas de algebra lineal
Notas de algebra linealencinamarisel
 
Sucesiones y series
Sucesiones y seriesSucesiones y series
Sucesiones y seriesulde quispe
 
notas de análisis numerico
notas de análisis numericonotas de análisis numerico
notas de análisis numericoxino7
 
Matemáticas Avanzadas_ Variable Compleja, Series y Ecuaciones Diferenciales O...
Matemáticas Avanzadas_ Variable Compleja, Series y Ecuaciones Diferenciales O...Matemáticas Avanzadas_ Variable Compleja, Series y Ecuaciones Diferenciales O...
Matemáticas Avanzadas_ Variable Compleja, Series y Ecuaciones Diferenciales O...RosaLuciaBazanCandue
 
Introduccion a la mecanica de lagrange y hamilton
Introduccion a la mecanica de lagrange y hamiltonIntroduccion a la mecanica de lagrange y hamilton
Introduccion a la mecanica de lagrange y hamiltonRlas Cocz
 

Similar a Inferencia estadística y análisis de datos (20)

06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
06. apuntes de estadística en ciencias de la salud autor p. botella rocamora...
 
Metodos
MetodosMetodos
Metodos
 
Refuerzo 6
Refuerzo 6Refuerzo 6
Refuerzo 6
 
Libro cs1
Libro cs1Libro cs1
Libro cs1
 
411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1
 
Metodos de la fisica matematica
Metodos de la fisica matematicaMetodos de la fisica matematica
Metodos de la fisica matematica
 
Calculo tensorial bueno
Calculo tensorial buenoCalculo tensorial bueno
Calculo tensorial bueno
 
Estadística para ingeniería
Estadística para ingenieríaEstadística para ingeniería
Estadística para ingeniería
 
Apuntes de exámenes pasados para que túu
Apuntes de exámenes pasados para que túuApuntes de exámenes pasados para que túu
Apuntes de exámenes pasados para que túu
 
Calculo diferencial
Calculo diferencialCalculo diferencial
Calculo diferencial
 
Libro psu matematicas
Libro psu matematicasLibro psu matematicas
Libro psu matematicas
 
Apuntes de preparación para la PRUEBA DE SELECCIÓN UNIVERSITARIA
Apuntes de preparación para la PRUEBA DE SELECCIÓN UNIVERSITARIAApuntes de preparación para la PRUEBA DE SELECCIÓN UNIVERSITARIA
Apuntes de preparación para la PRUEBA DE SELECCIÓN UNIVERSITARIA
 
Apuntes fi2001rmm201002
Apuntes fi2001rmm201002Apuntes fi2001rmm201002
Apuntes fi2001rmm201002
 
Matemática III - Facultad de Ingeniería Eléctrica y Electrónica de la Univers...
Matemática III - Facultad de Ingeniería Eléctrica y Electrónica de la Univers...Matemática III - Facultad de Ingeniería Eléctrica y Electrónica de la Univers...
Matemática III - Facultad de Ingeniería Eléctrica y Electrónica de la Univers...
 
Notas de algebra lineal
Notas de algebra linealNotas de algebra lineal
Notas de algebra lineal
 
Algebra lineal
Algebra linealAlgebra lineal
Algebra lineal
 
Sucesiones y series
Sucesiones y seriesSucesiones y series
Sucesiones y series
 
notas de análisis numerico
notas de análisis numericonotas de análisis numerico
notas de análisis numerico
 
Matemáticas Avanzadas_ Variable Compleja, Series y Ecuaciones Diferenciales O...
Matemáticas Avanzadas_ Variable Compleja, Series y Ecuaciones Diferenciales O...Matemáticas Avanzadas_ Variable Compleja, Series y Ecuaciones Diferenciales O...
Matemáticas Avanzadas_ Variable Compleja, Series y Ecuaciones Diferenciales O...
 
Introduccion a la mecanica de lagrange y hamilton
Introduccion a la mecanica de lagrange y hamiltonIntroduccion a la mecanica de lagrange y hamilton
Introduccion a la mecanica de lagrange y hamilton
 

Más de Unidad de Emprendimiento ambulante

Más de Unidad de Emprendimiento ambulante (20)

hoja de vida modificada y actualizada.pdf
hoja de vida modificada y actualizada.pdfhoja de vida modificada y actualizada.pdf
hoja de vida modificada y actualizada.pdf
 
Formulario Plan International Quito.pdf
Formulario  Plan  International  Quito.pdfFormulario  Plan  International  Quito.pdf
Formulario Plan International Quito.pdf
 
CATALOGO DIGITAL ARTESANIAS JAIDA QUITO
CATALOGO DIGITAL ARTESANIAS JAIDA  QUITOCATALOGO DIGITAL ARTESANIAS JAIDA  QUITO
CATALOGO DIGITAL ARTESANIAS JAIDA QUITO
 
Matemática Financiera Gestión Empresaria
Matemática Financiera Gestión EmpresariaMatemática Financiera Gestión Empresaria
Matemática Financiera Gestión Empresaria
 
DIRRECCION DISTRITAL 23D01 SANTO DO .pdf
DIRRECCION DISTRITAL 23D01 SANTO DO .pdfDIRRECCION DISTRITAL 23D01 SANTO DO .pdf
DIRRECCION DISTRITAL 23D01 SANTO DO .pdf
 
PARROQUIAS METROPOLITANAS QUITO ECUA.pdf
PARROQUIAS METROPOLITANAS QUITO ECUA.pdfPARROQUIAS METROPOLITANAS QUITO ECUA.pdf
PARROQUIAS METROPOLITANAS QUITO ECUA.pdf
 
Mi título de bachiller CB.pdf
Mi título de bachiller CB.pdfMi título de bachiller CB.pdf
Mi título de bachiller CB.pdf
 
Declaración juramentada de autoría notarizada.pdf
Declaración juramentada de autoría notarizada.pdfDeclaración juramentada de autoría notarizada.pdf
Declaración juramentada de autoría notarizada.pdf
 
Certificado de Tutoria.pdf
Certificado de Tutoria.pdfCertificado de Tutoria.pdf
Certificado de Tutoria.pdf
 
Certificado de prevención de drogas.pdf
Certificado de prevención de drogas.pdfCertificado de prevención de drogas.pdf
Certificado de prevención de drogas.pdf
 
Certificado de las prácticas ueb.pdf
Certificado de las prácticas ueb.pdfCertificado de las prácticas ueb.pdf
Certificado de las prácticas ueb.pdf
 
Certificado de las prácticas pre profesionales .pdf
Certificado de las prácticas pre profesionales .pdfCertificado de las prácticas pre profesionales .pdf
Certificado de las prácticas pre profesionales .pdf
 
Acta de grado del colegio CPC.pdf
Acta de grado del colegio CPC.pdfActa de grado del colegio CPC.pdf
Acta de grado del colegio CPC.pdf
 
Acta de grado de la Universidas UEB.pdf
Acta de grado de la Universidas UEB.pdfActa de grado de la Universidas UEB.pdf
Acta de grado de la Universidas UEB.pdf
 
INFORME DE GESTION PARA TALENTO HUMANO 2019-2020.docx
INFORME DE GESTION PARA TALENTO HUMANO 2019-2020.docxINFORME DE GESTION PARA TALENTO HUMANO 2019-2020.docx
INFORME DE GESTION PARA TALENTO HUMANO 2019-2020.docx
 
INFORME ENERO 2020.pdf
INFORME ENERO 2020.pdfINFORME ENERO 2020.pdf
INFORME ENERO 2020.pdf
 
INFORME Lic Ines Barragan Marzo2020.docx
INFORME Lic Ines Barragan Marzo2020.docxINFORME Lic Ines Barragan Marzo2020.docx
INFORME Lic Ines Barragan Marzo2020.docx
 
Febrero del 2020.pdf
Febrero del 2020.pdfFebrero del 2020.pdf
Febrero del 2020.pdf
 
Informe Teletrabajo Andrea Estrella EJEMPLO.docx
Informe Teletrabajo Andrea Estrella  EJEMPLO.docxInforme Teletrabajo Andrea Estrella  EJEMPLO.docx
Informe Teletrabajo Andrea Estrella EJEMPLO.docx
 
Infome de Planta Central.docx
Infome de Planta Central.docxInfome de Planta Central.docx
Infome de Planta Central.docx
 

Último

Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptxFelicitasAsuncionDia
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADOJosé Luis Palma
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.DaluiMonasterio
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxlclcarmen
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
Herramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfHerramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfMARIAPAULAMAHECHAMOR
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxlclcarmen
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...JAVIER SOLIS NOYOLA
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxPryhaSalam
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Lourdes Feria
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfAngélica Soledad Vega Ramírez
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 

Último (20)

Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptx
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
Herramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfHerramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdf
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 

Inferencia estadística y análisis de datos

  • 1. www.pearsoneducacion.com ISBN 978-84-8322-404-5 9 7 8 8 4 8 3 2 2 4 0 4 5 Este libro está dirigido a estudiantes y profesionales de Ciencias e Ingenierías. Trata los conceptos más importantes de la inferencia estadística y el análisis de datos tanto univariante como multivariante. El enfoque con el que se exponen dichos conceptos es, desde el punto de vista matemático, riguroso, si bien se dan ejemplos, casi siempre de carácter biológico, después de casi cada definición o la demostración de un resultado. Ipiña Durand ISBN 978-84-8322-404-5 9 7 8 8 4 8 3 2 2 4 0 4 5 Santiago L. Ipiña Ana I. Durand Inferencia estadística y análisis de datos Inferencia estadística y análisis de datos 9788483224045.indd 1 20/2/08 12:32:26
  • 2. i i “inferencia” — 2008/2/14 — 9:08 — page I — #1 i i i i INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS
  • 3. i i “inferencia” — 2008/2/14 — 9:08 — page II — #2 i i i i
  • 4. i i “inferencia” — 2008/2/14 — 9:08 — page III — #3 i i i i INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS SANTIAGO L. IPIÑA ANA I. DURAND Departamento de Matemática Aplicada (Biomatemática) Universidad Complutense de Madrid Madrid • México • Santafé de Bogotá • Buenos Aires • Caracas • Lima • Montevideo San Juan • San José • Santiago • São Paulo • White Plains
  • 5. i i “inferencia” — 2008/2/14 — 9:08 — page IV — #4 i i i i Datos de catalogación bibliográfica INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Santiago L. Ipiña y Ana I. Durand PEARSON EDUCACIÓN, S.A. 2008 ISBN: 978-84-8322-404-5 Materia: Estadística matemática, 519.2 Formato: 195 X 250 mm Páginas: 495 Todos los derechos reservados. Queda prohibida, salvo excepción prevista en la ley, cualquier forma de reproducción, distribución, comunicación pública y transformación de esta obra sin contar con autorización de los titulares de propiedad intelectual. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (arts. 270 y sgts. Código Penal). DERECHOS RESERVADOS c 2008, PEARSON EDUCACIÓN S.A. Ribera del Loira, 28 28042 Madrid (España) INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Santiago L. Ipiña y Ana I. Durand ISBN: 978-84-8322-404-5 Deposito Legal: M. Equipo editorial: Editor: Miguel Martín-Romo Técnico editorial: Marta Caicoya Equipo de producción: Director: José A. Clares Técnico: José A. Hernán Diseño de cubierta: Equipo de diseño de Pearson Educación S.A. Impreso por: IMPRESO EN ESPAÑA - PRINTED IN SPAIN Este libro ha sido impreso con papel y tintas ecológicos Nota sobre enlaces a páginas web ajenas: Este libro puede incluir enlaces a sitios web gestionados por terceros y aje- nos a PEARSON EDUCACIÓN S.A. que se incluyen sólo con finalidad informativa. PEARSON EDUCACIÓN S.A. no asume ningún tipo de responsabilidad por los daños y perjuicios derivados del uso de los datos personales que pueda hacer un tercero encargado del mantenimiento de las páginas web ajenas a PEARSON EDUCACIÓN S. A y del fun- cionamiento, accesibilidad o mantenimiento de los sitios web no gestionados por PEARSON EDUCACIÓN S.A. Las referencias se proporcionan en el estado en que se encuentran en el momento de publicación sin garantías, expresas o implícitas, sobre la información que se proporcione en ellas.
  • 6. i i “inferencia” — 2008/2/14 — 9:08 — page V — #5 i i i i Índice general Prólogo XI I Variables y distribuciones 1 1. Sucesos y probabilidad 3 1.1. Experimento Aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3. Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4. Probabilidad Condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2. Variables aleatorias 19 2.1. Variable Aleatoria y Función de Distribución . . . . . . . . . . . . . . . . . . . 19 2.2. Propiedades de la Función de Distribución . . . . . . . . . . . . . . . . . . . . . 23 2.3. Probabilidad de un Intervalo Real . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.4. Distribuciones Discretas y Absolutamente Continuas . . . . . . . . . . . . . . . 25 2.5. Variable Aleatoria Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.6. Distribuciones Bivariantes Discretas y Absolutamente Contínuas . . . . . . . . . 31 2.7. Distribuciones Marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.8. Independencia Estocástica de Variables Aleatorias . . . . . . . . . . . . . . . . . 34 2.9. Distribuciones Condicionadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3. Parámetros de una variable aleatoria 51 3.1. Esperanza Matemática de una Variable Aleatoria . . . . . . . . . . . . . . . . . 51 3.2. Varianza de una Variable Aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.3. Covarianza de Dos Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . 56 3.4. Dos Teoremas Importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.5. Coeficiente de Correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.6. Independencias Estocástica y Lineal . . . . . . . . . . . . . . . . . . . . . . . . 59 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
  • 7. i i “inferencia” — 2008/2/14 — 9:08 — page VI — #6 i i i i VI INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS 4. Transformación de variables aleatorias 65 4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.2. Transformación de Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.2.1. Caso discreto, univariante y biyectivo . . . . . . . . . . . . . . . . . . . 66 4.2.2. Caso discreto, univariante y no biyectivo . . . . . . . . . . . . . . . . . 67 4.2.3. Caso discreto, bivariante y biyectivo . . . . . . . . . . . . . . . . . . . . 68 4.2.4. Caso discreto, bivariante y no biyectivo . . . . . . . . . . . . . . . . . . 69 4.2.5. Caso continuo, univariante y biyectivo . . . . . . . . . . . . . . . . . . . 70 4.2.6. Caso continuo, univariante y no biyectivo . . . . . . . . . . . . . . . . . 73 4.2.7. Caso continuo, bivariante y biyectivo . . . . . . . . . . . . . . . . . . . 75 4.2.8. Caso continuo, bivariante y no biyectivo . . . . . . . . . . . . . . . . . . 77 4.3. Funciones Generadoras de Momentos . . . . . . . . . . . . . . . . . . . . . . . 80 4.3.1. Propiedades de la función generadora de momentos . . . . . . . . . . . 80 4.3.2. Momentos y funciones generadoras de momentos conjuntos . . . . . . . 85 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5. Funciones de distribución más usuales 93 5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.2. Distribución de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.3. Distribución Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.4. Distribución de la Frecuencia Relativa de un Suceso . . . . . . . . . . . . . . . . 97 5.5. Distribución Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.6. Distribución Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.7. Distribución Geométrica o de Pascal . . . . . . . . . . . . . . . . . . . . . . . . 101 5.8. Distribución Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.9. Distribución Serie Logarítmica . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.10. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 5.11. Distribución Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 5.11.1. Transformada integral de probabilidad . . . . . . . . . . . . . . . . . . . 109 5.12. Distribución Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 5.12.1. Distribución exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 111 5.12.2. Distribución ji-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . 113 5.12.3. Distribución ji-cuadrado no centrada . . . . . . . . . . . . . . . . . . . . 114 5.13. Distribución Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.14. Distribución Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.15. Distribución LogNormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 5.16. Distribución Doble Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 123 5.17. Distribución Normal Bivariante . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 5.18. Mixtura de Dos Distribuciones Normales . . . . . . . . . . . . . . . . . . . . . 126 5.19. Modelos Jerárquicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 5.20. Manejo de las Tablas de Distribuciones . . . . . . . . . . . . . . . . . . . . . . 135 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
  • 8. i i “inferencia” — 2008/2/14 — 9:08 — page VII — #7 i i i i ÍNDICE GENERAL VII II Inferencia estadística 145 6. Distribución muestral 147 6.1. Introducción y Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 6.2. Muestra Aleatoria Simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 6.3. Estadístico y Distribución Muestral . . . . . . . . . . . . . . . . . . . . . . . . . 149 6.4. Teorema Central del Límite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 6.5. Ley Débil de los Grandes Números . . . . . . . . . . . . . . . . . . . . . . . . . 152 6.6. Distribución de la Varianza Muestral . . . . . . . . . . . . . . . . . . . . . . . . 154 6.7. Distribución t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 6.7.1. Distribución de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 6.7.2. Distribución t de Student no centrada . . . . . . . . . . . . . . . . . . . 158 6.8. Distribución F de Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . 159 6.8.1. Distribución F de Fisher-Snedecor no centrada . . . . . . . . . . . . . . 161 6.9. Estadísticos de Orden o Posición . . . . . . . . . . . . . . . . . . . . . . . . . . 161 Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 7. Estimación puntual 179 7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 7.2. Propiedades de un Estimador Puntual . . . . . . . . . . . . . . . . . . . . . . . 180 7.2.1. Insesgamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 7.2.2. Error cuadrático medio . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 7.2.3. Consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 7.2.4. Suficiencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 7.3. Obtención de Estimadores Puntuales . . . . . . . . . . . . . . . . . . . . . . . . 195 7.3.1. Máxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 7.3.2. Momentos muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 7.3.3. Estimadores bayesianos . . . . . . . . . . . . . . . . . . . . . . . . . . 202 Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 8. Estimación por intervalo 213 8.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 8.2. Intervalo de Confianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 8.3. Cantidad Pivotante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 8.3.1. Método de la cantidad pivotante . . . . . . . . . . . . . . . . . . . . . . 216 8.4. Intervalos de Confianza para la Esperanza Matemática . . . . . . . . . . . . . . 219 8.4.1. Intervalo de confianza para E(X) . . . . . . . . . . . . . . . . . . . . . . 219 8.4.2. Intervalo de confianza para la diferencia de dos esperanzas matemáticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 8.5. Intervalos de Confianza para la Varianza . . . . . . . . . . . . . . . . . . . . . . 224 8.5.1. Intervalo de confianza para una varianza . . . . . . . . . . . . . . . . . . 224 8.5.2. Intervalo de confianza para el cociente de dos varianzas . . . . . . . . . . 226 8.6. Construcción de Intervalos de Confianza por el Método Estadístico . . . . . . . . 227 Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
  • 9. i i “inferencia” — 2008/2/14 — 9:08 — page VIII — #8 i i i i VIII INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS 9. Contraste de hipótesis 245 9.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 9.2. Contrastes basados en el Cociente de Verosimilitudes . . . . . . . . . . . . . . . 246 9.3. Método del Intervalo de Confianza . . . . . . . . . . . . . . . . . . . . . . . . . 250 9.4. Contrastes basados en los Métodos Intersección-Unión y Unión-Intersección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 9.5. Contrastes Bayesianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 9.6. Calidad de un Contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 9.6.1. Función potencia, tamaño y nivel de significación . . . . . . . . . . . . . 256 9.6.2. Contrastes potentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 9.6.3. Contrastes insesgados . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 9.6.4. Tamaño de los contrastes intersección-unión y unión-intersección . . . . 279 9.7. Intervalos de Confianza y Contrastes de Hipótesis . . . . . . . . . . . . . . . . . 282 9.8. Contrastes de Hipótesis Basados en el Estadístico Ji-Cuadrado . . . . . . . . . . 286 9.8.1. Bondad de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 9.8.2. Tablas de contingencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 10. Introducción a la teoría de la decisión 301 10.1. Introducción y Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 10.2. Teoría de la Decisión en Estimación y Contrastes de Hipótesis . . . . . . . . . . 303 10.2.1. Estimación puntual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 10.2.2. Estimación por intervalo . . . . . . . . . . . . . . . . . . . . . . . . . . 306 10.2.3. Contraste de hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . 308 10.3. Reglas de Decisión Bayesianas . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 III Técnicas del análisis de datos 315 11. Análisis de la varianza 317 11.1. Introducción y Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 11.2. ANOVA de un FACTOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 11.2.1. Modelo equilibrado de efectos fijos . . . . . . . . . . . . . . . . . . . . 318 11.2.2. Modelo no equilibrado con efectos fijos . . . . . . . . . . . . . . . . . . 323 11.2.3. Modelo equilibrado de efectos aleatorios . . . . . . . . . . . . . . . . . 324 11.2.4. Comparaciones a posteriori . . . . . . . . . . . . . . . . . . . . . . . . . 326 11.2.5. Resolución del ANOVA mediante contrastes de parámetros . . . . . . . . 337 11.3. ANOVA de dos FACTORES . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 11.3.1. Estadísticos de contraste y distribuciones . . . . . . . . . . . . . . . . . 342 11.3.2. Caso con tamaño muestral uno . . . . . . . . . . . . . . . . . . . . . . . 343 11.4. Introducción al ANOVA Multifactorial . . . . . . . . . . . . . . . . . . . . . . . 345 Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
  • 10. i i “inferencia” — 2008/2/14 — 9:08 — page IX — #9 i i i i ÍNDICE GENERAL IX 12. Regresión lineal 357 12.1. Modelos Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 12.2. Estimaciones Máximo Verosímiles . . . . . . . . . . . . . . . . . . . . . . . . . 358 12.3. Distribución de los Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . 360 12.4. Inferencias sobre los Parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 363 12.4.1. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 12.4.2. Parámetros centrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364 12.4.3. Pendiente de la recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 12.4.4. Intersección con ordenadas . . . . . . . . . . . . . . . . . . . . . . . . . 368 12.5. Otros Modelos de Regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368 12.5.1. Modelo normal bivariante . . . . . . . . . . . . . . . . . . . . . . . . . 369 12.5.2. Variables con error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 13. Análisis de componentes principales 377 13.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 13.2. Obtención de las Componentes Principales . . . . . . . . . . . . . . . . . . . . . 378 13.2.1. Componentes principales de la matriz de correlación . . . . . . . . . . . 379 13.3. Interpretación de las Componentes Principales . . . . . . . . . . . . . . . . . . . 380 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 14. Análisis multivariante de la varianza 391 14.1. Tres Distribuciones de Probabilidad Multivariantes . . . . . . . . . . . . . . . . 391 14.1.1. Distribución normal multivariante . . . . . . . . . . . . . . . . . . . . . 391 14.1.2. Distribución de Wishart . . . . . . . . . . . . . . . . . . . . . . . . . . 394 14.1.3. Distribución lambda de Wilks . . . . . . . . . . . . . . . . . . . . . . . 394 14.2. Análisis Multivariante de la Varianza . . . . . . . . . . . . . . . . . . . . . . . . 395 14.2.1. Obtención de las matrices de sumas de cuadrados y productos . . . . . . 395 14.2.2. Estadísticos de contraste . . . . . . . . . . . . . . . . . . . . . . . . . . 397 14.2.3. Homogeneidad de las matrices de varianzas covarianzas residuales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 14.3. Dimensión de la Hipótesis Alternativa . . . . . . . . . . . . . . . . . . . . . . . 400 14.4. Análisis Canónico de Poblaciones . . . . . . . . . . . . . . . . . . . . . . . . . 402 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 15. Análisis discriminante 407 15.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407 15.2. Función Discriminante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408 15.2.1. Distribución del discriminador de Wald-Anderson . . . . . . . . . . . . 409 15.2.2. Discriminación con dos o más poblaciones de parámetros desconocidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411 15.3. Otros Criterios de Asignación . . . . . . . . . . . . . . . . . . . . . . . . . . . 412 15.4. Dos Hipótesis Básicas a Contrastar . . . . . . . . . . . . . . . . . . . . . . . . . 414 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414
  • 11. i i “inferencia” — 2008/2/14 — 9:08 — page X — #10 i i i i X INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Apéndices 421 A. Álgebra y Geometría de matrices 421 A.1. Definiciones Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421 A.2. Operaciones Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 A.3. Leyes del Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426 A.4. Matriz Traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 A.5. Partición de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 A.6. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 A.7. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 A.8. Matriz de Varianzas Covarianzas . . . . . . . . . . . . . . . . . . . . . . . . . . 431 A.9. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432 A.10. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434 A.11. Rango e Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 A.12. Inversa Generalizada y Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . 441 A.13. Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442 A.14. Geometría de una Transformación Lineal . . . . . . . . . . . . . . . . . . . . . 448 A.14.1. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449 A.14.2. Transformaciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . 450 A.14.3. Otras transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . 451 A.14.4. Transformaciones lineales y rango de una matriz . . . . . . . . . . . . . 454 A.14.5. Estructura geométrica de los autovectores . . . . . . . . . . . . . . . . . 455 A.15. Subapéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 B. Tablas de Distribuciones 463 Bibliografía 475 Índice alfabético 479
  • 12. i i “inferencia” — 2008/2/14 — 9:08 — page XI — #11 i i i i Prólogo Lo primero que uno se plantea cuando tiene la intención de escribir un libro tiene que ver con la razón por la que lo escribe. Si bien es cierto que no hay una sola razón, la más inmediata, no exenta de cierta inmodestia, está relacionada con el grado de insa- tisfacción que se tiene respecto a lo leído en otras obras que tratan la materia que aquí desarrollamos y están escritas en lengua española. Aunque sin respuesta convincente, también nos hemos preguntado qué es lo que hace a este libro diferente de otros ya publicados. Quizás, lo mejor que podemos decir en este sentido es que hemos trabajado intensamente para que el resultado final sea de nuestro agrado. En cualquier caso, tenemos la esperanza de que lo que exponemos pueda ser consi- derado satisfactorio tanto para profesionales como para estudiantes de las licenciaturas de Ciencias e Ingenierías. Hemos asumido que nuestro lector tiene una base matemática que, aproximadamente, es equivalente a la impartida en la enseñanza pre-universitaria. Algunos de los temas que desarrollamos exigen, no obstante, conocimientos matemáticos que sobrepasan di- cha base. Para hacer más asequibles estos casos, así como aquellos relacionados con resultados más conocidos y, como consecuencia, en cierta medida más tediosos, hemos estructurado el libro de forma que, cuando ha sido necesario, se ha introducido al final de cada capítulo un apéndice en el que se desarrollan las demostraciones que permiten comprender totalmente el argumento del que se habla. Después de la explicación de casi todo nuevo concepto hemos incluido un ejemplo que pretendemos ilustre y haga entender satisfactoriamente la teoría expuesta, cuando la complejidad de ésta así lo requiere. Adicionalmente, al finalizar cada capítulo se ha propuesto un conjunto de ejercicios que creemos ayudarán al lector a afianzar el co- nocimiento teórico. Es importante, por tanto, tratar de resolver estos ejercicios, si bien se ofrecen las soluciones de aquellos que nosotros hemos considerado puedan servir de modelo de resolución para el resto. La mayor parte tanto de los ejemplos como de los ejercicios propuestos son de naturaleza biológica, lo que no es más que una consecuencia del campo de aplicación en el que trabajan los autores. El lector interesado puede encontrar en la Bibliografía una selección de libros sobre Inferencia Estadística y Análisis de Datos que pensamos son interesantes bien para pro- fundizar bien para complementar su formación. Naturalmente, también en esta sección
  • 13. i i “inferencia” — 2008/2/14 — 9:08 — page XII — #12 i i i i XII INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS se encuentran las referencias de los artículos científicos y los libros que se citan a lo largo de la exposición de los distintos temas que aquí se tratan. Los autores deseamos dejar patente las atenciones y facilidades prestadas por la Edi- torial Pearson Educación, sin cuya colaboración la realización de este libro hubiera sido más compleja, si no imposible. La responsabilidad de los errores que puedan haber so- brevivido a la tarea editorial, sin embargo, es enteramente nuestra. Uno de los autores, quien sin relación con sus méritos o mayor trabajo figura en primer lugar, desea agradecer al otro autor su constante apoyo personal y profesional. Madrid, Marzo de 2007
  • 14. i i “inferencia” — 2008/2/14 — 9:08 — page II — #2 i i i i
  • 15. i i “inferencia” — 2008/2/14 — 9:08 — page 1 — #13 i i i i Parte I Variables y distribuciones
  • 16. i i “inferencia” — 2008/2/14 — 9:08 — page 3 — #15 i i i i CAPÍTULO 1 Sucesos y probabilidad La materia de la que se compone este capítulo forma parte del soporte de los restantes capítulos de este libro. Como el lector puede fácilmente comprender, esto significa que tanto su importancia como su extensión son considerables. Tratar, sin embargo, con el debido rigor, la teoría de la probabilidad es una tarea inadmisible en una obra cuyos objetivos tienen que ver con la inferencia estadística y el análisis de datos. Existen, por otra parte, excelentes referencias en la bibliografía actual, por lo que el lector que lo crea necesario, siempre puede consultarlas. En nuestra opinión, dos de dichas referencias son A Course in Probability Theory (K.L. Chung) y An Introduction to Probabilistic Theory and Its Applications (W. Feller), en tanto que el libro Fundamentos de Probabilidad en Bioestadística (Alonso, G., Ocaña, J. y Cuadras, C.M.) constituye un buen punto de partida para adentrarse en los aspectos más formales de la probabilidad. 1.1 EXPERIMENTO ALEATORIO Definición 1.1 Un experimento es un estudio científico que genera datos y está carac- terizado por dos componentes, el fenómeno a estudiar y el observador. Esta definición tiene que ver con el propósito que perseguimos en este capítulo y en los siguientes. En todo caso, según el diccionario de la Real Academia Española (RAE), un experimento es la acción y el efecto de experimentar, y experimentar - en su 4a acepción - consiste en realizar operaciones destinadas a descubrir, comprobar o demostrar determinados fenómenos o principios científicos. Notemos que el observador está dotado de cierta capacidad de controlar y analizar el fenómeno. Así, podemos estar interesados en estudiar un conjunto de personas reumáti- cas y es evidente que las observaciones hechas por un médico no serán las mismas que aquellas realizadas por un observador no especializado.
  • 17. i i “inferencia” — 2008/2/14 — 9:08 — page 4 — #16 i i i i 4 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Por otro lado, el fenómeno a estudiar puede ser determinístico o aleatorio, lo que de- pende del modelo que trata de explicarlo. Entendiendo que el término modelo se emplea aquí en el sentido de un conjunto de ecuaciones y funciones - acudiendo nuevamente al diccionario de la RAE, en su cuarta acepción, puede verse que modelo es un esquema teórico, generalmente en forma matemática, de un sistema o de una realidad compleja que se elabora para facilitar su comprensión y el estudio de su comportamiento -, la trayectoria de una bala al ser disparada puede ser explicada desde una perspectiva deter- minística como la Mecánica clásica, o desde un punto de vista aleatorio al contemplar factores incontrolables como la velocidad del aire en el momento del disparo, las partícu- las en suspensión en el aire, etc. El estudio de poblaciones humanas, o la transmisión de caracteres hereditarios son también ejemplos de fenómenos aleatorios, o estocásticos, dado que resulta imposible conocer o controlar los factores que intervienen en dichos fenómenos. Definición 1.2 Un fenómeno se dice que es aleatorio cuando cumple las siguientes con- diciones, a) puede repetirse indefinidamente, obteniéndose datos o resultados que pueden ser distintos en cada prueba o repetición, b) en cada prueba se obtiene un resultado perteneciente al conjunto de resultados posibles del experimento, c) antes de realizar una prueba es imposible saber el resultado de la misma, lo que se denomina condición de azar, d) la frecuencia relativa de cada resultado tiende a un número fijo al aumentar el número de repeticiones del experimento, lo que se denomina regularidad estadís- tica. 1.2 SUCESOS Definición 1.3 Espacio muestral, Ω, es el nombre que se da al conjunto de resulta- dos posibles de un experimento, y cada elemento de dicho conjunto se denomina punto muestral, ω. Es evidente que el número de puntos muestrales puede ser finito o infinito. Al lan- zar una moneda al aire y ver el resultado, tenemos que Ω = {o, x} (o = cara, x = cruz), en tanto que al considerar el tiempo de reacción a determinado estímulo, tenemos que Ω = (0, ∞) ≡ R+, la semirecta real positiva . Además, deben distinguirse, entre los espacios muestrales que son infinitos, aquellos que son numerables - sus elementos pueden ponerse en correspondencia uno a uno con los elementos del conjunto, o algún
  • 18. i i “inferencia” — 2008/2/14 — 9:08 — page 5 — #17 i i i i CAPÍTULO 1. SUCESOS Y PROBABILIDAD 5 subconjunto, de los números naturales - de aquellos que son no numerables. Desde un punto de vista empírico, incluso filosófico, puede argumentarse que solo existen espacios muestrales numerables ya que las medidas no pueden realizarse con precisión infinita. Sobre un mismo espacio muestral pueden construirse diferentes experimentos, lo que depende de la capacidad de observación, o interés, del observador. Por ejemplo, al lanzamiento de un dado, Ω = {1, 2, ..., 6}, puede añadirse y observar si sale cara impar, o también y observar si sale como máximo un tres, etc. Es decir, que dicha capacidad de observación determina un conjunto de sucesos observables asociados al experimento. Definición 1.4 Suceso observable es un enunciado referente a los puntos muestrales de Ω con la condición de que en cada realización del experimento se pueda determinar si se ha cumplido o no el enunciado en cuestión. Un suceso observable es elemental cuando el enunciado hace referencia a un solo punto muestral. Puede identificarse un suceso observable con un subconjunto de Ω, un resultado consecuencia del teorema de Stone. Este teorema - que el lector interesado puede ver en Monk (1995) - indica que un conjunto de sucesos puede representarse mediante una colección de subconjuntos, o dicho más técnicamente, entre ambos conjuntos existen un isomorfismo —una aplicación uno a uno que conserva las relaciones de los elementos del conjunto de partida—. Supongamos que deseamos seleccionar un individuo de una población humana y nos interesan los enunciados A = individuo con ojos azules y B = individuo con astigma- tismo. Es evidente que al realizar el experimento sabremos si el individuo seleccionado cumple o no los citados enunciados, con lo que A y B son sucesos observables. Pero también podremos saber si se cumple, por ejemplo, A ∧ B, es decir, individuo con ojos azules y astigmatismo, que es el suceso observable resultante de la conjunción lógica (intersección en teoría de conjuntos) entre A y B. Lo mismo podría decirse respecto de la disyunción lógica (∨) (unión), o de la negación (c) (complementación). Es importante que estas operaciones lógicas cumplan ciertas propiedades con el propósito de facilitar su manejo. Al conjunto A de sucesos observables dotado de estructura de álgebra de Boole con respecto a las operaciones disyunción y negación lógicas se le denomina álgebra de sucesos, si el número de sucesos considerados es finito. Si dicho número es infinito, el álgebra de sucesos se dice que tiene estructura de σ− álgebra (o campo de Borel). Siendo Ac el suceso complemento de A, la siguiente definición recoge el caso más general. Definición 1.5 Una colección A de subconjuntos de Ω se denomina campo de Borel (σ− álgebra) si, 1. ∅ ∈ A, 2. A ∈ A ⇒ Ac ∈ A, 3. A1, A2, ... ∈ A ⇒ ∪∞ i=1Ai ∈ A.
  • 19. i i “inferencia” — 2008/2/14 — 9:08 — page 6 — #18 i i i i 6 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Tengamos presente que por las leyes de De Morgan, combinando las propiedades 2. y 3., la intersección de sucesos (o su conjunción) es un suceso de A. Dado un número finito de niveles de observación, es decir, un interés específico ante un conjunto de resultados finito, es fácil construir el álgebra de sucesos asociada a un experimento. En efecto, si suponemos que nos interesan solo dos sucesos A y B, cons- truiremos en primer lugar el conjunto, Q = {A ∧ B, A ∧ Bc , Ac ∧ B, Ac ∧ Bc }, y, a continuación, el conjunto compuesto por todos los subconjuntos de Q, con 24 ele- mentos, llamado partes de Q, P(Q), generado a partir de las sucesivas uniones de los cuatro elementos que componen Q. Es fácil demostrar que A = P(Q) es un álgebra de sucesos. La anterior construcción es un ejemplo sencillo de la generación de álgebras dados un experimento y un espacio muestral Ω. En efecto, de modo general, decimos que A es un álgebra engendrada por una colección de sucesos S = {A | A ⊂ Ω}, lo que se representa mediante A = g(S), si A contiene a S, es un álgebra de sucesos y toda álgebra A′ que contenga a S también contiene a A. Es decir, que A es la menor álgebra que contiene a S. Cuando el espacio muestral Ω no es finito, el álgebra de sucesos asociada puede ser finita o infinita. Usualmente, si el número de sucesos del álgebra es infinito, la descrip- ción de A no es fácil. En efecto, en este caso, el álgebra de sucesos A se dice constituida por todo suceso que sea de interés en el experimento. Por ejemplo, si Ω = R, la recta real, los elementos del campo de Borel son, dados cualesquiera x e y reales, conjuntos de la forma (x, y), (x, y], [x, y), [x, y], (−∞, x), [x, ∞), etc. En el siguiente capítulo, insistiremos en álgebras no finitas. 1.3 PROBABILIDAD Definición 1.6 Dados Ω y A, a la aplicación P de A sobre el conjunto de los números reales R, P : A → R A → P(A), se denomina probabilidad si cumple (axiomas de Kolmogorov), Axioma 1.1 P(A) ≥ 0, ∀A ∈ A, Axioma 1.2 P(Ω) = 1, Axioma 1.3 A1, A2, ... ∈ .A, y disjuntos dos a dos, P (∪∞ i=1Ai) = P∞ i=1 P(Ai).
  • 20. i i “inferencia” — 2008/2/14 — 9:08 — page 7 — #19 i i i i CAPÍTULO 1. SUCESOS Y PROBABILIDAD 7 Son fácilmente derivables de estos axiomas, siendo A, B ∈ A dos sucesos cuales- quiera, 1. P(Ac) = 1 − P(A), 2. P(∅) = 0, 3. A ⊂ B ⇒ P(A) ≤ P(B), 4. 0 ≤ P(A) ≤ 1, 5. P(A ∪ B) = P(A) + P(B) − P(A ∩ B), ∀A, B ∈ A. Definición 1.7 Se llama espacio de probabilidad a la terna (Ω, A, P). Resulta evidente, por otra parte, que el concepto axiomático de la aplicación llamada probabilidad no ofrece modo alguno de determinar el valor numérico de la probabilidad de un suceso, y tampoco hace referencia a algún método para calcularla. Cuando se considera un espacio de probabilidad con sucesos elementales equiprobables, tenemos, Ω = {w1, ..., wn} : P({w1}) = ... = P({wn}, y es fácil ver que puede justificarse la siguiente manera de calcular una probabilidad, P(A) = Af c(Ω) , ∀A ∈ A, donde Af denota el número de resultados favorables del suceso A y c(Ω) el número de resultados posibles de la experiencia, es decir, el cardinal del espacio muestral. 1.4 PROBABILIDAD CONDICIONADA En el anterior cociente que define el cálculo de una probabilidad, el número de resultados posibles podemos referirlo a algún subconjunto - suceso - de Ω. El resultado especifica la probabilidad de un suceso condicionado al suceso definido por el anterior subconjunto. La idea se ilustra en el siguiente ejemplo. Ejemplo 1.1 Sea un experimento consistente en capturar al azar un conejo - equiprobabilidad en la captura - y observar A = conejo macho y B = conejo de color blanco. Sean n conejos, nA conejos machos, nB conejos blancos y nAB conejos machos blancos. De aquí, P(A) = nA n , P(B) = nB n , P(A ∩ B) = nAB n .
  • 21. i i “inferencia” — 2008/2/14 — 9:08 — page 8 — #20 i i i i 8 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS También podremos escribir, nAB nB = nAB/n nB/n = P(A ∩ B) P(B) = P(A | B), ∀B : P(B) 6= 0, la probabilidad del suceso A condicionado al suceso B. En nuestro ejemplo, otras for- mas de referirse a este tipo de probabilidad son, dado que el conejo será de color blanco ¿cuál es la probabilidad de que además sea macho? O también, de entre los conejos de color blanco ¿cuál es la probabilidad de ser macho? O más directamente, ¿cuál es la probabilidad de ser macho dado que se es de color blanco? El concepto de probabilidad condicionada es importante como veremos a lo largo de este libro, especialmente al desarrollar la denominada estadística bayesiana. Definición 1.8 Dos sucesos son estocásticamente independientes (A ⊥ B) si se cumple que P(A | B) = P(A) y P(B | A) = P(B). Son fácilmente derivables las siguientes proposiciones. Proposición 1.1 (Principio de las probabilidades compuestas) P(A ∩ B) = P(B)P(A | B) = P(A)P(B | A). Proposición 1.2 (Regla del producto) A ⊥ B ⇒ P(A ∩ B) = P(A)P(B). En el Apéndice al final del capítulo pueden verse algunas consecuencias de ser A y B independientes. Definición 1.9 Una colección compuesta de k sucesos de A que cumplan con los requi- sitos de ser disjuntos, Ai ∩ Aj = ∅, i 6= j, i, j = 1, ..., k y que su unión sea el suceso seguro, k [ i=1 Ai = Ω se denomina partición finita de Ω. Se habla de partición finita propia si ningún Ai es el vacío. El siguiente teorema indica la probabilidad de un suceso cualquiera S ∈ A conside- rando una partición finita como la anterior. Teorema 1.1 (Teorema de las probabilidades totales) Sea la partición finita {A1, ..., Ak}, Ai ∈ A, i = 1, ..., k.
  • 22. i i “inferencia” — 2008/2/14 — 9:08 — page 9 — #21 i i i i CAPÍTULO 1. SUCESOS Y PROBABILIDAD 9 Dado un suceso S ∈ A se verifica, P(S) = k X i=1 P(Ai)P(S | Ai). Prueba. La prueba es inmediata considerando, P(S) = P(Ω ∩ S) = P[(A1 ∪ ... ∪ Ak) ∩ S] = P(A1 ∩ S) + ... + P(Ak ∩ S), y el principio de las probabilidades compuestas. Más transcendente es el teorema de Bayes - recuérdese el anterior comentario so- bre la estadística bayesiana -, que habla de la probabilidad condicionada de Ah ∈ {A1, ..., Ak} dado S, Teorema 1.2 (Teorema de Bayes) Sea {A1, ..., Ak}, Ai ∈ A, i = 1, ..., k, una parti- ción finita de Ω. Suponiendo que se presentará S, la probabilidad de que proceda del suceso Ah ∈ {A1, ..., Ak} es, P(Ah | S) = P(Ah)P(S | Ah) k P i=1 P(Ai)P(S | Ai) , Prueba. Es fácil la prueba de este teorema dados tanto el anterior Teorema 1.1 como la definición de probabilidad condicionada. APÉNDICE Independencia estocástica Teorema 1.3 A ⊥ B ⇔ P(A∩B) = P(A)P(B). Además, si A ⊥ B entonces también A ⊥ Bc, Ac ⊥ B y Ac ⊥ Bc. Prueba. La implicación ⇒ se obtiene directamente de la regla del producto. Para de- mostrar la implicación ⇐ consideraremos que, P(A | B) = P(A ∩ B) P(B) = P(A) y P(B | A) = P(A ∩ B) P(A) = P(B), es decir, A ⊥ B. Respecto a la segunda parte del teorema, vemos que, A ∪ B = B ∪ (A ∩ Bc ) ⇒ P(A ∪ B) = P(B) + P(A ∩ Bc ),
  • 23. i i “inferencia” — 2008/2/14 — 9:08 — page 10 — #22 i i i i 10 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS pues B ∩ (A ∩ Bc) = ∅, y como, P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = P(A)[1 − P(B)] + P(B), por ser A ⊥ B, resulta, P(A ∩ Bc ) = P(A)P(Bc ) ⇔ A ⊥ Bc . La demostración para Ac ⊥ B es análoga. Por último, Ac ∩ Bc = (A ∪ B)c ⇒ P(Ac ∩ Bc ) = 1 − P(A ∪ B) = P(Ac )P(Bc ). EJERCICIOS 1.1. Un experimento consiste en capturar al azar y observar un individuo de una población Ω de conejos. Supongamos estamos interesados en los siguientes niveles de observación A = el conejo capturado es macho y B = el conejo capturado es de color blanco. Suponiendo que, P(A) = 1/3, P(B) = 1/5, P(A ∩ B) = 1/15, a) Determínese el álgebra de sucesos observables en base a estos dos niveles de obser- vación. b) Calcúlense las probabilidades de cada uno de los sucesos que componen el álgebra de sucesos anterior. 1.2. Se consideran en el espacio de probabilidad (Ω, A, P) tres sucesos observables que de- signamos por A, B y C. Supóngase que, p1 = P(A) + P(B) + P(C), p2 = P(A ∩ B) + P(B ∩ C) + P(A ∩ C), p3 = P(A ∩ B ∩ C). Exprésese con ayuda de p1, p2 y p3, a) La probabilidad de que se realice solamente uno de los tres sucesos. b) La probabilidad de que se realicen al menos dos de los tres sucesos. 1.3. Dada un álgebra de sucesos A, demuéstrese que, a) Si A1, ..., An ∈ A, entonces, P n [ i=1 Ai ! ≤ n X i=1 P(Ai).
  • 24. i i “inferencia” — 2008/2/14 — 9:08 — page 11 — #23 i i i i CAPÍTULO 1. SUCESOS Y PROBABILIDAD 11 b) Si A1, ..., An ∈ A, de forma que, P n−1 i=1 Ai ! 0, entonces, P n i=1 Ai ! = P(A1)P (A2 | A1) P (A3 | [A1 ∩ A2]) ... ...P (An | [A1 ∩ ... ∩ An−1]) . 1.4. Supóngase que A, B y C son tres sucesos tales que A y B son disjuntos, A y C son independientes y además B y C son independientes. Supóngase, además, que, 4P(A) = 2P(B) = P(C) 0, P(A ∪ B ∪ C) = 5P(A). Determínese el valor de P(A). 1.5. Sean A, B y C tres sucesos cualesquiera de un álgebra de sucesos. Supóngase que C contiene a A y a B, y que estos dos sucesos A y B son estocásticamente independientes. Si P(A) = p1, P(B) = p2 y P(C) = p3, calcúlese, a) P ([A ∩ B] | C). b) P(C ∩ Ac ∩ Bc ). * Indicación: con la ayuda de A, B , C y sus complementarios constrúyase una parti- ción de Ω compuesta por cinco sucesos. 1.6. En determinada área de producción, 1/3 de los productos hechos son defectuosos. Si tres productos fueran seleccionados al azar, calcúlese la probabilidad de que, a) Solamente uno de ellos sea defectuoso. b) Al menos uno de ellos sea defectuoso. 1.7. En una población se estudiaron la presencia de un estreptococo patógeno y el tamaño de las amígdalas, considerándose de forma convencional que dicho tamaño era normal, hipertrofiado y muy hipertrofiado. Supóngase la experiencia de seleccionar un individuo al azar de determinada población y observar la presencia en él de los sucesos observables antes aludidos. Se pide, a) Constrúyase el álgebra de sucesos de la experiencia aleatoria. b) Calcúlese la probabilidad de que el individuo seleccionado presente estreptococo, así como la probabilidad de que no presente el estreptococo y sus amígdalas sean no normales. Téngase presente que la población consta de 1398 individuos de los que 19 presentan el estreptococo y tienen las amígdalas normales, 29 presentan el estreptococo y sus amígdalas son hipertrofiadas y 24 presentan el estreptococo y tienen amígdalas muy hipertrofiadas. Además, de entre los que no presentan el estreptococo, 560 son normales y 269 tienen amígdalas hipertrofiadas.
  • 25. i i “inferencia” — 2008/2/14 — 9:08 — page 12 — #24 i i i i 12 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS 1.8. En una determinada población, el 40 % de los individuos son varones, el 25 % tiene los ojos azules y el 15 % son varones de ojos azules. Se selecciona un individuo al azar de esa población, a) Si dicho individuo fuera varón, ¿cuál es la probabilidad de que tenga ojos azules? b) ¿Cuál es la probabilidad de que no sea varón y no tenga ojos azules? 1.9. Una compañía farmacéutica A suministró 300 unidades de un medicamento de las cuales 10 eran defectuosas, la compañía B entregó 100 unidades con 20 defectuosas, y la com- pañía C entregó 200 de las cuales 25 eran defectuosas. Supóngase que se almacenan todas las unidades al azar y se selecciona aleatoriamente una unidad. Calcúlese, a) La probabilidad de que la citada unidad sea de la compañía A. b) La probabilidad de que sea de A y no defectuosa. c) La probabilidad de que sea defectuosa. d) Si la unidad fuera defectuosa, ¿cuál es la probabilidad de que sea de la compañía C? 1.10. La probabilidad de que cualquier niño de una familia determinada tenga ojos azules es 1/4, y esta característica es heredada por cada niño de la familia, independientemente de los demás. Si en la familia hubiera tres niños, a) ¿Cuál es la probabilidad de que solo un niño tenga ojos azules? b) ¿Cuál es la probabilidad de que los tres niños tengan ojos azules? 1.11. En un estudio sobre la riqueza de especies en las regiones tropicales, se llega a la con- clusión de que dicha riqueza aumenta debido a la presencia de tres factores mutuamente excluyentes: competencia, depredación y heterogeneidad espacial. La probabilidad de que haya competencia es 0.2, mientras que la probabilidad de que tengan lugar la depredación y heterogeneidad espacial es 0.5 y 0.3, respectivamente. En el caso de la competencia y la depredación, cuando están presentes, la probabilidad de que aumente la riqueza de especies es 0.1 y 0.3, respectivamente, mientras que esta probabilidad es 0.2 en el caso de la heterogeneidad espacial. a) ¿Cuál es la probabilidad de que aumente la riqueza de especies? b) Si aumentara la riqueza de especies, ¿cuál es la probabilidad de que el factor cau- sal sea la competencia?, ¿y cuál la de que el factor causal sea la heterogeneidad espacial? 1.12. En un ecosistema conviven tres poblaciones de hormigas A, B y C. Las hormigas de las poblaciones A y B han desarrollado un polimorfismo a causa del cual el 30 % de las hor- migas de A y el 50 % de las de B tienen las mandíbulas muy desarrolladas. Las hormigas de C no presentan las mandíbulas desarrolladas. Si las proporciones de las tres poblacio- nes en el ecosistema son 20 % de A, 50 % de B y 30 % de C, calcúlese la probabilidad de que, elegida una hormiga al azar, no tenga las mandíbulas desarrolladas. 1.13. La probabilidad de que un individuo de determinada población sea tuberculoso es 0.01. Sabiendo que la probabilidad de que cierto aparato de rayos X detecte que un individuo de la anterior población sea tuberculoso, cuando realmente lo es, es 0.97 y que esta pro- babilidad es 0.001 cuando el individuo no es tuberculoso, ¿cuál es la probabilidad de que, dado que el aparato detecta tuberculosis en un individuo elegido al azar, dicho individuo sea tuberculoso?
  • 26. i i “inferencia” — 2008/2/14 — 9:08 — page 13 — #25 i i i i CAPÍTULO 1. SUCESOS Y PROBABILIDAD 13 1.14. Un análisis para detectar la rabia en los perros descarta la enfermedad en un 99.9 % de los casos en los que el animal está sano, y diagnostica la enfermedad en un 99 % de los perros que la padecen. Si el 5 % de los perros padecen rabia y un perro es tomado al azar, ¿cuál es la probabilidad de que, supuesto que el diagnóstico fuera rabia, dicho perro sea rabioso? 1.15. En cierto bosque, la población de roedores está constituida por un 20 % de ratas, un 75 % de ratones y un 5 % de ardillas. Se coloca un cepo y se sabe que la probabilidad de ser atraído por el cepo es de 0.1 para las ratas, 0.2 para los ratones y 0.02 para las ardillas. Si un animal cayera en el cepo, ¿cuál es la probabilidad de que sea de cada una de las tres especies citadas? 1.16. Se consideran 5 cajas, designadas por U1, ..., U5, respectivamente, cada una conteniendo 10 ratas. La caja Ui, i = 1, ..., 5, contiene i ratas blancas. La experiencia aleatoria consiste en escoger una caja al azar y posteriormente una rata de la caja seleccionada. a) Establézcase la partición finita propia del espacio muestral correspondiente a los niveles de observación de la experiencia aleatoria y calcular la probabilidad de los distintos sucesos que integran dicha partición. b) Si la rata seleccionada fuera blanca, ¿cuál es la probabilidad de que proceda de la caja U3 o de la U5? 1.17. Se supone que el albinismo es un carácter gobernado por un alelo recesivo (a). Conside- rando una pareja de no albinos con genotipos Aa, a) ¿Cuál es la probabilidad de que el primer hijo sea albino? b) ¿Cuál es la probabilidad de que el segundo hijo sea albino? c) ¿Cuál es la probabilidad de que, suponiendo que la pareja antes citada vaya a tener tres hijos, todos sean albinos? 1.18. En una población de Tribolium cuyo efectivo es de 100 individuos, 60 son de la especie T. confusum y 40 son de la especie T. castanea. El 10 % de T. castanea y el 5 % de T. confusum son portadores de ojos perla. Si tomáramos un individuo al azar, a) ¿Cuál es la probabilidad de que sea T. castanea y no tenga ojos perla? b) ¿Cuál es la probabilidad de que sea T. confusum y tenga ojos perla? c) Si el individuo tomado al azar fuera portador de ojos perla, ¿cuál es la probabilidad de que sea T. castanea? 1.19. En una prueba de diagnóstico, en epidemiología clínica, se denomina coeficiente falso positivo (α) a la probabilidad de que la prueba resulte positiva sin que la enfermedad exista, y coeficiente falso negativo (β) a la probabilidad de que la prueba resulte negativa supuesto que exista tal enfermedad. En un cierto estudio se ha establecido que ambos coeficientes valen 0.05 para una enfermedad que tiene una incidencia de un 4 %. Calcúlese el porcentaje de enfermos y el de los que no lo están que puede esperarse de entre los que, al ser examinados por medio de la prueba, hayan dado positivo.
  • 27. i i “inferencia” — 2008/2/14 — 9:08 — page 14 — #26 i i i i 14 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS SOLUCIONES Ejercicio 1.1. a) En primer lugar construiremos una partición de Ω , considerando los dos citados niveles de observación, que será, {A ∩ B, Ac ∩ B, A ∩ Bc , Ac ∩ Bc }. Los sucesos que componen el álgebra A se obtienen formando0 0todas las posibles uniones de los cuatro elementos de la partición de Ω, es decir, A está formada por los siguientes sucesos, - Sucesos formados por la unión de ningún elemento de la partición: ∅, - Sucesos formados por la unión de un elemento de la partición: A ∩ B, Ac ∩ B, A ∩ Bc , Ac ∩ Bc , - Sucesos formados por la unión de dos elementos de la partición: (A ∩ B) ∪ (Ac ∩ B) = (A ∪ Ac ) ∩ B = Ω ∩ B = B, (A ∩ B) ∪ (A ∩ Bc ) = A, (A ∩ B) ∪ (Ac ∩ Bc ), (Ac ∩ B) ∪ (A ∩ Bc ), (Ac ∩ B) ∪ (Ac ∩ Bc ) = Ac , (A ∩ Bc ) ∪ (Ac ∩ Bc ) = Bc , - Sucesos formados por la unión de tres elementos de la partición: (A ∩ B) ∪ (Ac ∩ B) ∪ (A ∩ Bc ) = B ∪ (A ∩ Bc ) = A ∪ B, (A ∩ B) ∪ (Ac ∩ B) ∪ (Ac ∩ Bc ) = B ∪ (Ac ∩ Bc ) = Ac ∪ B, (A ∩ B) ∪ (A ∩ Bc ) ∪ (Ac ∩ Bc ) = A ∪ (Ac ∩ Bc ) = A ∪ Bc , (Ac ∩ B) ∪ (A ∩ Bc ) ∪ (Ac ∩ Bc ) = Bc ∪ (Ac ∩ B) = Ac ∪ Bc , - Sucesos formados por la unión de los cuatro elementos de la partición: (A ∩ B) ∪ (Ac ∩ B) ∪ (A ∩ Bc ) ∪ (Ac ∩ Bc ) = Ω. b) Las probabilidades de cada uno de los sucesos que componen el álgebra son, - P(∅) = 0, - P(A ∩ B) = 1/15, - P(Ac ∩ B) = P(B) − P(A ∩ B) = 2/15, ya que, B = (A ∩ B) ∪ (Ac ∩ B), - P(A ∩ Bc ) = P(A) − P(A ∩ B) = 4/15, ya que, A = (A ∩ B) ∪ (A ∩ Bc ),
  • 28. i i “inferencia” — 2008/2/14 — 9:08 — page 15 — #27 i i i i CAPÍTULO 1. SUCESOS Y PROBABILIDAD 15 - P(Ac ∩ Bc ) = 8/15, ya que Ω = (A ∩ B) ∪ (Ac ∩ B) ∪ (A ∩ Bc ) ∪ (Ac ∩ Bc ), - P(B) = 1/5, P(A) = 1/3, - P([A ∩ B] ∪ [Ac ∩ Bc ]) = P(A ∩ B) + P(Ac ∩ Bc ) = 9/15, - P([Ac ∩ B] ∪ [A ∩ Bc ]) = P(Ac ∩ B) + P(A ∩ Bc ) = 6/15, - P(Ac ) = 2/3, P(Bc ) = 4/5, - P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = 7/15, - P(Ac ∪ B) = P(B ∪ [Ac ∩ Bc ]) = 11/15, - P(A ∪ Bc ) = P(A ∪ [Ac ∩ Bc ]) = 13/15, - P(Ac ∪ Bc ) = P(Bc ∪ [Ac ∩ B]) = 14/15, - P(Ω) = 1. Ejercicio 1.3. a) Se aplica el método de inducción completa que consiste en los dos siguientes pasos. - Se demuestra que la expresión es cierta para n = 2. En efecto, P(A1 ∪ A2) = P(A1) + P(A2) − P(A1 ∩ A2) ≤ P(A1) + P(A2), ya que P(A1 ∩ A2) ≥ 0. - Supuesto que la expresión es cierta para un n cualquiera se demuestra que también lo es para n + 1, es decir, apoyándonos en que, P [n i=1 Ai ≤ n X i=1 P(Ai), tenemos que, P Sn+1 i=1 Ai = P ([ Sn i=1 Ai] ∪ An+1) = = P ( Sn i=1 Ai) + P(An+1) − P([ Sn i=1 Ai] ∩ An+1), y en virtud del primer paso, y según la hipótesis de inducción, P Sn+1 i=1 Ai ≤ n P i=1 P(Ai) + P(An+1) − P ([ Sn i=1 Ai] ∩ An+1) ≤ ≤ n+1 P i=1 P(Ai), dado que, P h[n i=1 Ai i ∩ An+1 ≥ 0, al ser la probabilidad de un suceso siempre mayor o igual que cero. b) Se demuestra de forma análoga por el método de inducción.
  • 29. i i “inferencia” — 2008/2/14 — 9:08 — page 16 — #28 i i i i 16 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Ejercicio 1.6. a) Sean los sucesos Di = producto defectuoso elegido en i-ésimo lugar, i = 1, 2, 3. Al ser los productos elegidos al azar, los sucesos Di son independientes, con lo que, P(Di ∩ Dj ∩ Dk) = P(Di)P(Dj)P(Dk), i 6= j 6= k; i, j, k ∈ {1, 2, 3}. Además, P(Di) = 1/3, i = 1, 2, 3. La probabilidad pedida es, P(D1 ∩ Dc 2 ∩ Dc 3) + P(Dc 1 ∩ D2 ∩ Dc 3) + P(Dc 1 ∩ Dc 2 ∩ D3) = = P(D1)P(Dc 2)P(Dc 3) + P(Dc 1)P(D2)P(Dc 3) + P(Dc 1)P(Dc 2)P(D3) = = 3(1/3)(2/3)(2/3) = 4/9. b) La probabilidad que nos piden en este caso es, P(D1 ∪ D2 ∪ D3) = P(D1) + P(D2) + P(D3) − P(D1 ∩ D2)− −P(D1 ∩ D3) − P(D2 ∩ D3) + P(D1 ∩ D2 ∩ D3) = = 1 − 3/32 + 1/33 = 19/27. Ejercicio 1.7. a) Para cada nivel de observación establecemos una partición de Ω, esto es, P1 = {E, Ec }, siendo E = presencia de estreptococo y, P2 = {N, H, MH}, donde N = amígdala normal, H = amígdala hipertrofiada y MH = amígdala muy hipertrofiada. La partición de Ω que tiene en cuenta los dos niveles de observación establecidos es, P1 × P2 = {E ∩ N, E ∩ H, E ∩ MH, Ec ∩ N, Ec ∩ H, Ec ∩ MH}. El álgebra de sucesos de la experiencia aleatoria se construye con las uniones suce- sivas de los elementos de dicha partición, es decir, A = {∅, E ∩ N, ..., Ec ∩ MH, (E ∩ N) ∪ (E ∩ H), ..., Ω}. b) En primer lugar, nos piden la probabilidad del suceso, P(E) = P(E ∩ Ω) = P(E ∩ [N ∪ H ∪ MH]) = = P(E ∩ N) + P(E ∩ H) + P(E ∩ MH) = = 19/1398 + 29/1398 + 24/1398 = 72/1398. En segundo lugar, calculemos la probabilidad del siguiente suceso, P(Ec ∩ Nc ) = P(Ec ∩ [H ∪ MH]) = P(Ec ∩ H) + P(Ec ∩ MH). Por un lado, como el número de individuos que no presentan el estreptococo y tienen amígdalas hipertrofiadas es de 269, resulta P(Ec ∩ H) = 269/1398. Por otro lado,
  • 30. i i “inferencia” — 2008/2/14 — 9:08 — page 17 — #29 i i i i CAPÍTULO 1. SUCESOS Y PROBABILIDAD 17 al ser 1398 el número total de individuos, el número de ellos que no presentan estreptococo y tienen amígdalas muy hipertrofiadas es 1398−19−29−24−560− 269 = 497. Así, P(Ec ∩ MH) = 497/1398, y de esta forma, P(Ec ∩ Nc ) = 766/1398. Ejercicio 1.8. a) Consideremos los sucesos V = individuo varón, y O = individuo con ojos azules, de manera que P(V ) = 0.4, P(O) = 0.25 y P(V ∩ O) = 0.15. La probabilidad pedida es, P(O | V ) = P(O ∩ V ) P(V ) = 0.375. b) Debemos calcular, P(V c ∩ Oc ) = 1 − P(V ∪ O) = 1 − P(V ) − P(O) + P(V ∩ O) = 0.5. Ejercicio 1.10. a) Definamos los siguientes sucesos O1 = el primer niño tiene ojos azules, O2 = el segundo niño tiene ojos azules y O3 = el tercer niño tiene ojos azules. Estos sucesos son independientes con P(O1) = P(O2) = P(O3) = 1/4. Calcular la probabilidad de que solamente un niño tenga ojos azules, supone el cálculo de la probabilidad de la unión de tres sucesos disjuntos, teniendo en cuenta que el niño con ojos azules puede ser el primero, el segundo o el tercero, esto es, P([O1 ∩ Oc 2 ∩ Oc 3] ∪ [Oc 1 ∩ O2 ∩ Oc 3] ∪ [Oc 1 ∩ Oc 2 ∩ O3]) = = P(O1 ∩ Oc 2 ∩ Oc 3) + P(Oc 1 ∩ O2 ∩ Oc 3) + P(Oc 1 ∩ Oc 2 ∩ O3) = = P(O1)P(Oc 2)P(Oc 3) + P(Oc 1)P(O2)P(Oc 3) + P(Oc 1)P(Oc 2)P(O3) = = 3(1/4)(3/4)2 = 27/64, en donde se ha aplicado el concepto de independencia de sucesos. b) Se trata de calcular la siguiente probabilidad, P(O1 ∩ O2 ∩ O3) = P(O1)P(O2)P(O3) = 1/64, teniendo en cuenta la independencia de los sucesos considerados. Ejercicio 1.12. a) Sean los sucesos A = aumenta la riqueza de especies, C = hay competencia, D = hay depredación y H = hay heterogeneidad espacial. Los datos que conocemos son los siguientes: P(C) = 0.2, P(D) = 0.5, P(H) = 0.3, P(A | C) = 0.1, P(A | D) = 0.3 y P(A | H) = 0.2. Aplicando el teorema de las probabilidades totales, podemos expresar la probabili- dad pedida, P(A), de la forma, P(A) = P(C)P(A | C) + P(D)P(A | D) + P(H)P(A | H) = 0.23.
  • 31. i i “inferencia” — 2008/2/14 — 9:08 — page 18 — #30 i i i i 18 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS b) Aplicando el teorema de Bayes, P(C | A) = P(C)P(A | C) P(A) = 0.087; P(H | A) = P(H)P(A | H) P(A) = 0.26. Ejercicio 1.14. Consideremos los sucesos T = el individuo es tuberculoso, y D = el aparato de rayos X detecta tuberculosis en un individuo elegido al azar. Según los datos datos tenemos P(T) = 0.01, P(D | T) = 0.97 y P(D | Tc ) = 0.001. La probabilidad pedida se puede calcular aplicando el teorema de Bayes, P(T | D) = P(T ∩ D) p(D) = P(T)P(D | T) P(T)P(D | T) + P(Tc)P(D | Tc) = 0.9.
  • 32. i i “inferencia” — 2008/2/14 — 9:08 — page 19 — #31 i i i i CAPÍTULO 2 Variables aleatorias 2.1 VARIABLE ALEATORIA Y FUNCIÓN DE DISTRIBUCIÓN En el anterior capítulo hemos visto que un experimento aleatorio queda caracterizado por los sucesos que lo componen y la probabilidad de dichos sucesos. Sin embargo, lo que usualmente analizamos en un experimento aleatorio es el número de veces que se realiza un determinado resultado, o bien la medida de alguna característica de dicho resultado, que sea de interés para el experimentador. Ejemplo 2.1 Consideremos el experimento que consiste en lanzar dos veces una misma moneda y ob- servar el número de caras obtenidas. El espacio muestral puede escribirse Ω2 = Ω×Ω = {(o, o), (o, x), (x, o), (x, x)}, con Ω = {o, x}, y los resultados posibles son entonces {0, 1, 2}. Si construimos la función X que hace corresponder a los puntos muestrales de Ω2 los números reales {0, 1, 2}, X : Ω2 → R (o, o) → 2 (o, x) → 1 (x, o) → 1 (x, x) → 0 diremos que X es una función numérica. A esta función se le llama variable aleatoria, definida sobre los puntos muestrales del espacio muestral asociado a un experimento. Se suele designar con letras mayúsculas, y a un valor específico de la variable con letra minúscula; así, en el ejemplo anterior, para ω ∈ Ω2 asociamos X(ω) = x ∈ R.
  • 33. i i “inferencia” — 2008/2/14 — 9:08 — page 20 — #32 i i i i 20 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS La definición es realmente útil, pues no solo establece la conexión entre puntos muestrales y la descripción numérica de los resultados de un experimento, sino que también permite definir la probabilidad de un valor numérico. En efecto, P[(o, o)] = P[(ω ∈ Ω2 | X(ω) = 2)] = P(X = 2). No obstante, así expresada, la función es incompleta. Imaginemos que nuestro inte- rés es la medida de la altura de las personas de cierta comunidad. Dicha medida es un número real cuya precisión depende del aparato con el que se mide, es decir, que resulta conveniente pensar en intervalos de la recta real dentro de los cuales se localicen deter- minadas alturas. El problema es entonces cómo calcular la probabilidad de un intervalo de R, por ejemplo, la probabilidad de (179, 180]. Sean Ω = R, la recta real, y S el conjunto de todos los intervalos reales de la forma (−∞, x), con x cualquier número real. La σ− álgebra generada por S, B = g(S), se denomina σ− álgebra de Borel de R, y contiene como elementos intervalos de la for- ma (x, y), [x, y], (x, y], [x, y), (−∞, x], (x, ∞), [x, x], etc. obtenidos a partir de la unión, intersección, y/o complementación de (−∞, x) y los intervalos resultantes de estas ope- raciones. Al par (Ω, A), siendo A una σ− álgebra, se le llama espacio medible o probabi- lizable, de forma que, dados dos espacios medibles (Ω, A) y (Ω′, A′) se dice que la aplicación f, f : Ω → Ω′ , es una función medible si, f−1 (A′ ) ∈ A , ∀A′ ∈ A′ . El siguiente teorema lo enunciamos sin demostración (véase, por ejemplo, Alonso y col, 1989). Teorema 2.1 Sean (Ω, A) y (Ω′, A′) dos espacios medibles y sea f una función medible. Se verifica, 1. e A = f−1(A′) ⊂ A es una σ− álgebra, 2. si f es exhaustiva, A′ y e A son isomorfas. Al álgebra e A se la llama álgebra inducida de A′ en Ω mediante la función f. Ejemplo 2.2 Sea una población animal Ω cuyos individuos muestran dos fenotipos, hn y hr, para un determinado carácter, el cual parece estar gobernado por dos formas alélicas de un gen, A y a. Es decir, supongamos que los genotipos AA y Aa producen el fenotipo hn, en tanto que el genotipo aa es responsable del fenotipo hr. En esta situación, parece
  • 34. i i “inferencia” — 2008/2/14 — 9:08 — page 21 — #33 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 21 obvio indicar que existe alguna técnica capaz de diferenciar los tres genotipos, pero supongamos que dicha técnica no está al alcance de cierto estudioso de la población Ω, que, por tanto, solo puede distinguir individuos hn e individuos hr. Bajo el nivel de observación de quien dispone la técnica, {AA, Aa, aa} es una parti- ción de Ω. Sea A el álgebra engendrada por esta partición, compuesta por 23 elementos, y (Ω, A) el espacio medible correspondiente. Para el estudioso de la población anterior- mente citado, sean Ω′ = {hn, hr} y A′ = {∅, {hn}, {hr}, Ω′}, con (Ω′, A′) el espacio medible asociado. Definamos la aplicación, f : Ω −→ Ω′ , de forma que, f(ω) = hn, si ω ∈ AA, o ω ∈ Aa hr, si ω ∈ aa. Tenemos que, f−1(A′) = {f−1(∅), f−1({hn}), f−1({hr}), f−1(Ω′)} = = {∅, {AA ∪ Aa}, {aa}, Ω} = e A, que puede demostrarse fácilmente que es un álgebra de sucesos. Además, puede verse que las imágenes inversas de todos los elementos de A′ son elementos de A, e A ⊂ A, por lo que f es una función medible. Por último, es obvio que e A yA′ son isomorfas. Observemos que el estudioso solo puede conocer una parte del álgebra A y, por tanto, cualquier afirmación que no se corresponda con los sucesos Ω, {AA ∪ Aa}, {aa} y ∅, está fuera de contexto. Como queda patente en el anterior Ejemplo 2.2, una función medible f permite pasar de un álgebra (A) a otra (A′), siendo ésta última isomorfa (caso de ser f exhaustiva) con un subconjunto de la primera ( e A). Esto indica que estamos ante un conjunto (A′ ) con menos sucesos que el conjunto de sucesos original (A), pero también supone que manejamos un conjunto cuya estructura es bien conocida - normalmente, A′ es una σ− álgebra de Borel -. No es difícil ver que una función medible f permite transportar la probabilidad de un espacio medible a otro. En efecto, si (Ω, A, P) es un espacio de probabilidad, puede definirse, sobre el espacio (Ω′, A′), la siguiente probabilidad, P′ : A′ −→ [0, 1], de forma que, si A′ ∈ A′, P′ (A′ ) = P(f−1 (A′ )) = P(A), con A ∈ A. A P′ se le denomina probabilidad inducida por f.
  • 35. i i “inferencia” — 2008/2/14 — 9:08 — page 22 — #34 i i i i 22 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Definición 2.1 Dados los espacios medibles (Ω, A) y (R, B), se llama variable aleato- ria X a la función medible de Ω en R, X : Ω → R ω → X(ω) = x, de forma que, {ω ∈ Ω | X(ω) ≤ x} ∈ A, ∀x ∈ R, es decir, X−1 ((−∞, x]) ∈ A, ∀x ∈ R. Al suceso {ω ∈ Ω | X(ω) ≤ x} ∈ A se le suele designar abreviadamente (X ≤ x), y a la probabilidad de este tipo de sucesos se le denomina función de distribución F asociada a la variable aleatoria X. Definición 2.2 Se llama función de distribución F de la variable aleatoria X, a la apli- cación, F : R → [0, 1] x → F(x) = P({ω ∈ Ω | X(ω) ≤ x}) = P(X ≤ x). Como veremos, a partir de la Definición 2.1 puede calcularse la probabilidad de cualquier intervalo en R. Ejemplo 2.3 Consideraremos los individuos de una población que pueden presentar dos genes co- dominantes, A y a, en cierto locus de algún cromosoma. Supongamos que estamos in- teresados en contar el número de genes A presentes en un individuo ω de la población Ω, X : Ω → R ω → X(ω) = número de genes A en ω, es decir, X(AA) = 2, X(Aa) = 1, X(aa) = 0. Esta variable aleatoria está asociada a un experimento en el que interesa observar la presencia de A, o no (Ac = a), y puesto que analizamos un par de cromosomas por individuo, será Q = {A∧A, A∧a, a∧a}, o abreviadamente {AA, Aa, aa}, obteniéndose el álgebra de sucesos, A = P(Q) = {∅, {AA}, ..., {AA} ∪ {Aa}, ..., {AA} ∪ {Aa} ∪ {aa} = Ω}. Entendiendo que, por ejemplo, escribiremos {AA} ∪ {Aa} = {AA, Aa}, veamos si se verifica, {ω ∈ Ω | X(ω) ≤ x} ∈ A, ∀x ∈ R.
  • 36. i i “inferencia” — 2008/2/14 — 9:08 — page 23 — #35 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 23 En efecto, x 0 ⇒ {ω ∈ Ω | X(ω) ≤ x} = ∅ ∈ A 0 ≤ x 1 ⇒ {ω ∈ Ω | X(ω) ≤ x} = {aa} ∈ A 1 ≤ x 2 ⇒ {ω ∈ Ω | X(ω) ≤ x} = {Aa, aa} ∈ A x ≥ 2 ⇒ {ω ∈ Ω | X(ω) ≤ x} = Ω ∈ A y, por tanto, X es una variable aleatoria. 2.2 PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN El papel de la función de distribución de una variable aleatoria es fundamental puesto que la caracteriza. Dicho en otras palabras, es la ley que gobierna su conducta probabi- lística. Es importante, como consecuencia, conocer las propiedades de una función de distribución. 1. 0 ≤ F(x) ≤ 1, ∀x ∈ R. En efecto, al ser F una probabilidad tomará valores en el intervalo [0, 1]. 2. lı́m x→−∞ F(x) = 0; lı́m x→∞ F(x) = 1. Ya que, lı́m x→−∞ F(x) = lı́m x→−∞ P(X ≤ x) = P(X ≤ −∞) = 0, lı́m x→∞ F(x) = lı́m x→∞ P(X ≤ x) = P(X ≤ ∞) = 1. 3. ∀x1, x2 ∈ R | x1 x2 : F(x1) ≤ F(x2). Dicho de otra manera, F es no decreciente. En efecto, x1 x2 ⇔ {ω ∈ Ω | X(ω) ≤ x1} ⊂ {ω ∈ Ω | X(ω) ≤ x2} ⇒ ⇒ P(X ≤ x1) = F(x1) ≤ P(X ≤ x2) = F(X ≤ x2), considerando el tercer resultado derivable de los axiomas que definen probabili- dad. 4. P(a X ≤ b) = F(b) − F(a), ∀a, b ∈ R | a b. Escribiendo en adelante, como vimos anteriormente, el suceso {ω ∈ Ω | X(ω) ≤ x} como (X ≤ x), se tiene, (X ≤ b) = (X ≤ a) ∪ (a X ≤ b) ⇒ ⇒ P(X ≤ b) = P(X ≤ a) + P(a X ≤ b), al ser sucesos disjuntos, y de aquí la propiedad enunciada.
  • 37. i i “inferencia” — 2008/2/14 — 9:08 — page 24 — #36 i i i i 24 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS 5. lı́m x→a+ F(x) = F(a), ∀a ∈ R. Es decir, que la función F es continua por la derecha en todo punto de R. En efecto, supongamos que x es un punto a la derecha de a, lı́m x→a+ F(x) = lı́m x→a+ P(X ≤ x) = = lı́m x→a+ P(X ≤ a) + lı́m x→a+ P(a X ≤ x) = = P(X ≤ a) + P(∅) = F(a), teniendo en cuenta que (X ≤ x) = (X ≤ a) ∪ (a X ≤ x), y que al ser a X es imposible que un valor x de X alcance el punto a. Observemos que considerando ahora que x es un punto a la izquierda de a, lı́m x→a− F(x) = lı́m x→a− P(X ≤ x) = = lı́m x→a− P(X ≤ a) − lı́m x→a− P(x X ≤ a) = = F(a) − P(X = a), dado que ahora X ≤ a. Es decir, que F no es necesariamente continua a la iz- quierda en todo punto de R puesto que P(X = a) puede no ser cero. El aspecto general de una función F de distribución puede verse en la Figura 2.1. Resaltamos que el número de discontinuidades por la izquierda puede ser finito o infinito numerable. Figura 2.1
  • 38. i i “inferencia” — 2008/2/14 — 9:08 — page 25 — #37 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 25 2.3 PROBABILIDAD DE UN INTERVALO REAL Sea X una variable aleatoria sobre (Ω, A, P). Con a, b ∈ R | a b, puede verse en el Apéndice al final del capítulo la demostración de los siguientes resultados, 1. P(a X b) = lı́m x→b− F(x) − F(a). 2. P(a ≤ X b) = lı́m x→b− F(x) − lı́m x→a− F(x). 3. P(a ≤ X ≤ b) = F(b) − lı́m x→a− F(x). 4. P(X = a) = F(a) − lı́m x→a− F(x). 5. P(X a) = lı́m x→a− F(x). 2.4 DISTRIBUCIONES DISCRETAS Y ABSOLUTAMENTE CONTINUAS Distribuciones discretas Definición 2.3 Dado un espacio de probabilidad (Ω, A, P), se dice que una variable aleatoria X sobre dicho espacio es discreta si su recorrido X(Ω), es decir, el conjunto imagen de la aplicación X, es finito o infinito numerable. A la función de distribución F asociada a X se le llama función de distribución discreta. Definición 2.4 Sea X(Ω) = {x1, ..., xn, ...} el recorrido de una variable aleatoria dis- creta X. A la aplicación, f : R → [0, 1] x → f(x) = P(X = x), se le denomina función de densidad de X. Propiedades de la función de densidad 1. 0 ≤ f(x) ≤ 1, ∀x ∈ R. En efecto, f coincide con la probabilidad de un suceso. 2. Se verifica, Pn i=1 f(xi) = 1, X(Ω) = {x1, ..., xn}, P∞ i=1 f(xi) = 1, X(Ω) = {x1, ..., xn, ...}.
  • 39. i i “inferencia” — 2008/2/14 — 9:08 — page 26 — #38 i i i i 26 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Considerando un recorrido finito, Ω = n [ i=1 (X = xi), y como, (X = xi) ∩ (X = xj) = ∅, ∀i, j = 1, ..., n, i 6= j, resulta, 1 = P(Ω) = P n [ i=1 (X = xi) ! = n X i=1 P(X = xi) = n X i=1 f(xi). 3. F(x) = P xi≤x f(xi), ∀x ∈ R. En efecto, dado que, F(x) = P(X ≤ x) = P(X = x1) + ... + P(X = x) = X xi≤x f(xi). Observemos, por otro lado, que, f(x) = P(X = x) = 0, ∀x / ∈ X(Ω). Ejemplo 2.4 Al lanzar una moneda tres veces y observar el número de caras obtenidas, tenemos, Ω3 = {(o, o, o), (o, o, x), (o, x, o), (x, o, o), (o, x, x), (x, o, x), (x, x, o), (x, x, x)}, de forma que, por ejemplo, X(o, x, o) = 2, etc. Vemos que, f(0) = P(X = 0) = P[(x, x, x)] = 1 8 , f(1) = P(X = 1) = P[(o, x, x) ∪ (x, o, x) ∪ (x, x, o)] = 3 8 , f(2) = P(X = 2) = P[(o, o, x) ∪ (o, x, o) ∪ (x, o, o)] = 3 8 , f(3) = P(X = 3) = P[(o, o, o)] = 1 8 . Las funciones de densidad de variables aleatorias discretas suelen representarse co- mo en la Figura 2.2(a), donde cada barra vertical tiene una altura igual o proporcional al valor de la probabilidad del punto de abscisas donde se origina.
  • 40. i i “inferencia” — 2008/2/14 — 9:08 — page 27 — #39 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 27 La función de distribución, llamada también función de probabilidad acumulada, es, F(0) = P(X ≤ 0) = P(X = 0) = f(0) = 1 8 , F(0.8) = P(X ≤ 0.8) = P(X = 0) = f(0) = 1 8 , F(1) = P(X ≤ 1) = f(0) + f(1) = 1 2 , F(2) = P(X ≤ 2) = f(0) + f(1) + f(2) = 7 8 , F(3) = P(X ≤ 3) = f(0) + f(1) + f(2) + f(3) = 1, cuya representación gráfica es la Figura 2.2(b). (a) (b) Figura 2.2 Distribuciones continuas Definición 2.5 Una variable aleatoria definida sobre (Ω, A, P) se dice continua si su función de distribución no presenta discontinuidades. Una variable aleatoria continua X se dice que tiene una distribución absolutamente continua F si existe una función f tal que, F(x) = Z x −∞ f(t)dt, llamándose f función de densidad de probabilidad de X. Propiedades de la función de densidad f 1. dF(x) dx = f(x), ∀x ∈ R siempre que f sea continua en x. Como sabemos, es una propiedad conocida del cálculo integral.
  • 41. i i “inferencia” — 2008/2/14 — 9:08 — page 28 — #40 i i i i 28 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Por otro lado, como también es sabido, dF(x) dx = lı́m ∆x→0 F(x + ∆x) − F(x) ∆x = = lı́m ∆x→0 P(x X ≤ x + ∆x) ∆x = f(x), por lo que puede pensarse que f(x)dx = dF(x) representa la probabilidad infini- tesimal de que X tome valores en el intervalo semicerrado (x, x + ∆x]. 2. f(x) ≥ 0, ∀x ∈ R. En efecto, como, x x + ∆x ⇒ F(x) ≤ F(x + ∆x) ⇒ F(x + ∆x) − F(x) ≥ 0 ⇒ ⇒ lı́m ∆x→0 F(x + ∆x) − F(x) ∆x = f(x) ≥ 0. 3. R ∞ −∞ f(x)dx = 1. Efectivamente, Z ∞ −∞ f(x)dx = lı́m x→∞ Z x −∞ f(t)dt = lı́m x→∞ F(x) = 1. 4. P(a X ≤ b) = F(b) − F(a) = R b a f(x)dx, ∀a, b ∈ R | a b. En efecto, F(b) = R b −∞ f(x)dx = R a −∞ f(x)dx + R b a f(x)dx ⇒ ⇒ F(b) − F(a) = R b a f(x)dx. Es importante resaltar que toda variable aleatoria tiene función de distribución pero no siempre función de densidad. Son solo las variables aleatorias discretas y aquellas con distribución absolutamente continua las que tienen función de densidad. En la Figura 2.3 puede verse la función de distribución de una variable aleatoria continua. Por otra parte, dado que una variable aleatoria continua no presenta discontinuidades en su función de distribución, y recordando la probabilidad de los diferentes intervalos de la recta real, resulta que, P(a X ≤ b) = P(a X b) = P(a ≤ X ≤ b) = = P(a ≤ X b) = F(b) − F(a), P(X ≤ a) = P(X a) = F(a), P(X = a) = 0. Puede comprenderse, por tanto, que,
  • 42. i i “inferencia” — 2008/2/14 — 9:08 — page 29 — #41 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 29 Figura 2.3 i) cuando la variable aleatoria tiene distribución absolutamente continua, la función de densidad en un punto no puede identificarse con la probabilidad en el mismo, contrariamente a lo que sucede en el caso de que la variable aleatoria sea discreta, ii) la función de densidad de una variable aleatoria con distribución absolutamente continua puede modificarse a voluntad en algunos valores puntuales del recorrido de la variable, sin que por ello resulte alterada su función de distribución. Ejemplo 2.5 Sea f(x) =    1 + x2 12 , 0 x 3 0, en el resto, y hagamos arbitrariamente que f(1) = 20. Calculemos, por ejemplo, F(2) = Z 2 0 1 + x2 12 dx = 7 18 . Puede comprobarse que cuando f(1) = 20, F(2) = Z 1 0 1 + x2 12 dx + Z 2 1 1 + x2 12 dx = 7 18 .
  • 43. i i “inferencia” — 2008/2/14 — 9:08 — page 30 — #42 i i i i 30 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS 2.5 VARIABLE ALEATORIA BIDIMENSIONAL Definición 2.6 Dada la terna (Ω, A, P) y dos variables aleatorias X e Y sobre Ω, se denomina variable aleatoria bidimensional a la aplicación, (X, Y ) : Ω → R2 ω → [X(ω), Y (ω)] = (x, y), de forma que se verifica, {ω ∈ Ω | X(ω) ≤ x} ∩ {ω ∈ Ω | Y (ω) ≤ y} ∈ A, ∀(x, y) ∈ R2 . Definición 2.7 Se llama función de distribución conjunta bivariante de X e Y a la aplicación, F : R2 → [0, 1] (x, y) → F(x, y) = P[(X ≤ x) ∩ (Y ≤ y)]. Propiedades de la distribución bivariante 1. 0 ≤ F(x, y) ≤ 1, ∀(x, y) ∈ R2. 2. lı́m x→−∞ F(x, y) = lı́m y→−∞ F(x, y) = 0, lı́m x→∞ y→∞ F(x, y) = 1. En efecto, lı́m x→−∞ P[(X ≤ x) ∩ (Y ≤ y)] = P[(X ≤ −∞) ∩ (Y ≤ y)] = P(∅) = 0, y, lı́m x→∞ y→∞ P[(X ≤ x) ∩ (Y ≤ y)] = P(Ω ∩ Ω) = 1. 3. x1 x2 ⇒ F(x1, y) ≤ F(x2, y), ∀y ∈ R, y1 y2 ⇒ F(x, y1) ≤ F(x, y2), ∀x ∈ R. La función es, por tanto, no decreciente. En efecto, si x1 x2, (X ≤ x1) ∩ (Y ≤ y) ⊂ (X ≤ x2) ∩ (Y ≤ y) ⇒ F(x1, y) ≤ F(x2, y). 4. Se verifica, P[(a X ≤ b) ∩ (c Y ≤ d)] = = F(b, d) − F(b, c) − F(a, d) + F(a, c), ∀a, b, c, d ∈ R | a b, c d, cuya demostración puede verse en el Apéndice.
  • 44. i i “inferencia” — 2008/2/14 — 9:08 — page 31 — #43 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 31 2.6 DISTRIBUCIONES BIVARIANTES DISCRETAS Y ABSOLUTAMENTE CONTÍNUAS Caso discreto Definición 2.8 Se dice que una variable aleatoria bidimensional es discreta si su reco- rrido (X, Y )(Ω) es finito o infinito numerable. Definición 2.9 Se define función de densidad conjunta discreta de las variables X e Y, a la aplicación, f : R2 → [0, 1] (x, y) → f(x, y) = P[(X = x) ∩ (Y = y)], y, como en el caso univariante, (x, y) / ∈ (X, Y )(Ω) ⇒ f(x, y) = 0. Propiedades de la función de densidad f 1. 0 ≤ f(x, y) ≤ 1, ∀(x, y) ∈ R2. 2. P x∈X(Ω) P y∈Y (Ω) f((x, y) = 1. 3. F(x, y) = P xi≤x P yj≤y f((xi, yj), ∀(x, y) ∈ R2. La demostración de estas propiedades es análoga a las correspondientes al caso univa- riante. Caso Contínuo Definición 2.10 Si la variable aleatoria bidimensional (X, Y ) tiene función de distribu- ción sin discontinuidades, entonces dicha variable es continua. Se dice que tiene función de distribución bivariante absolutamente continua si existe f tal que, F(x, y) = Z x −∞ Z y −∞ f(u, v)dudv, llamándose f función de densidad de probabilidad conjunta de X e Y . En la Figura 2.4 puede verse un ejemplo de función de densidad de probabilidad bivariante.
  • 45. i i “inferencia” — 2008/2/14 — 9:08 — page 32 — #44 i i i i 32 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS Figura 2.4 Propiedades de la función de densidad f 1. ∂2F(x, y) ∂x∂y = f(x, y), ∀(x, y) ∈ R2, siempre que f sea continua en (x, y). 2. f(x, y) ≥ 0, ∀(x, y) ∈ R2. 3. R ∞ −∞ R ∞ −∞ f(x, y)dxdy = 1. 4. Se verifica, P[(a X ≤ b) ∩ (c Y ≤ d)] = = R b a R d c f(x, y)dxdy, ∀a, b, c, d ∈ R | a b, c d. Estas propiedades se demuestran de manera similar al caso univariante. 2.7 DISTRIBUCIONES MARGINALES A partir de la distribución conjunta de dos variables aleatorias X e Y se pueden obtener las distribuciones de X e Y, respectivamente, que llamamos marginales. Definición 2.11 Se llama función de distribución marginal de X a la aplicación, FX : R → [0, 1] x → FX(x) = lı́m y→∞ F(x, y), ∀x ∈ R,
  • 46. i i “inferencia” — 2008/2/14 — 9:08 — page 33 — #45 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 33 e igualmente la distribución marginal de Y, FY : R → [0, 1] y → FY (y) = lı́m x→∞ F(x, y), ∀y ∈ R. Es fácil ver que, FX(x) = P(X ≤ x), FY (y) = P(Y ≤ y), es decir, las distribuciones marginales coinciden con las distribuciones univariantes de las variables. Función de densidad marginal discreta Definición 2.12 Dadas dos variables aleatorias discretas X e Y con función de densi- dad conjunta f, se define función de densidad marginal de X a, fX : R → [0, 1] x → fX(x) = P yi∈Y (Ω) f(x, yi), y análogamente la función de densidad marginal de Y, fY : R → [0, 1] y → fY (y) = P xi∈X(Ω) f(xi, y). Es fácil ver también que, fX(x) = P(X = x), fY (y) = P(Y = y), por lo que la función de densidad marginal de una variable aleatoria discreta coincide con su función de densidad. Función de densidad marginal contínua Definición 2.13 Dadas dos variables aleatorias continuas X e Y con función de distri- bución conjunta absolutamente continua F y función de densidad conjunta f, se define función de densidad marginal de X a, fX(x) = Z ∞ −∞ f(x, y)dy, ∀x ∈ R, y análogamente, función de densidad marginal de Y, fY (y) = Z ∞ −∞ f(x, y)dx, ∀y ∈ R. Puede comprobarse que la función de densidad marginal de una variable aleatoria continua coincide con su función de densidad.
  • 47. i i “inferencia” — 2008/2/14 — 9:08 — page 34 — #46 i i i i 34 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS 2.8 INDEPENDENCIA ESTOCÁSTICA DE VARIABLES ALEATORIAS Definición 2.14 Dado (Ω, A, P), dos variables aleatorias X e Y se dicen estocástica- mente independientes cuando para todo par de intervalos reales, I y J, los sucesos, A = {ω ∈ Ω | X(ω) ∈ I}, B = {ω ∈ Ω | Y (ω) ∈ J}, son estocásticamente independientes, es decir, P(A ∩ B) = P(A)P(B). Función de distribución de variables independientes Teorema 2.2 Simbolizando independencia (estocástica) entre variables aleatorias del siguiente modo, X ⊥ Y, se verifica, X ⊥ Y ⇔ F(x, y) = FX(x)FY (y), ∀(x, y) ∈ R2 . Prueba. Véase el Apéndice. Función de densidad de variables independientes Caso discreto Teorema 2.3 Se verifica, siendo X e Y variables aleatorias discretas, X ⊥ Y ⇔ f(x, y) = fX(x)fY (y), ∀(x, y) ∈ R2 , Prueba. Consúltese el Apéndice. Caso contínuo Teorema 2.4 Se verifica, siendo X e Y variables aleatorias continuas, X ⊥ Y ⇔ f(x, y) = fX(x)fY (y), ∀(x, y) ∈ R2 , Prueba. Véase el Apéndice. Si X es una variable aleatoria, cualquier función g de la variable, resulta ser una variable aleatoria.
  • 48. i i “inferencia” — 2008/2/14 — 9:08 — page 35 — #47 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 35 Teorema 2.5 Sea f la función de densidad conjunta de dos variables aleatorias X e Y. Se dice que la variables aleatorias X e Y son independientes si y solo si existen las funciones g(x) y h(y) tales que, f(x, y) = g(x)h(y), ∀x, y. Prueba. La condición necesaria se prueba fácilmente haciendo que g(x) = fX(x) y h(y) = fY (y). Para probar la condición suficiente, consideremos variables continuas. Supongamos que, Z ∞ −∞ g(x)dx = k1, y Z ∞ −∞ h(y)dy = k2, por lo que, k1k2 = R ∞ −∞ g(x)dx R ∞ −∞ h(y)dy = = R ∞ −∞ R ∞ −∞ g(x)h(y)dxdy = R ∞ −∞ R ∞ −∞ f(x, y)dxdy = 1. Además, fX(x) = R ∞ −∞ g(x)h(y)dy = g(x)k2, fY (y) = R ∞ −∞ g(x)h(y)dx = h(y)k1. En consecuencia, f(x, y) = g(x)h(y) = fX(x)fY (y) k2k1 = fX(x)fY (y). Sustituyendo integrales por sumas, el teorema se prueba para variables aleatorias discretas. Teorema 2.6 Sean X e Y variables aleatorias independientes y sean g y h funciones tales que g(X) = U y h(Y ) = V son también variables aleatorias y solo dependen de X e Y, respectivamente. Entonces las variables U y V son independientes. Prueba. Asumiremos que U y V son variables aleatorias continuas. Definimos, Xu = {x : g(x) ≤ u} e Yv = {y : h(y) ≤ v}. De aquí, FU,V (u, v) = P[(U ≤ u) ∩ (V ≤ v)] = = P[(X ∈ Xu) ∩ (Y ∈ Yv)] = P(X ∈ Xu)P(Y ∈ Yv), y la función de densidad conjunta es,
  • 49. i i “inferencia” — 2008/2/14 — 9:08 — page 36 — #48 i i i i 36 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS fU,V (u, v) = ∂2FU,V (u, v) ∂u∂v = d du P(X ∈ Xu) d dv P(Y ∈ Yv) = = d du P(U ≤ u) d dv P(V ≤ v) = fU (u)fV (v). 2.9 DISTRIBUCIONES CONDICIONADAS Variables aleatorias discretas Definición 2.15 La aplicación, X | [Y = y0] : Ω → R2 ω → (X(ω), y0), representa la variable X condicionada al suceso {ω ∈ Ω | Y (ω) = y0} = [Y = y0]. Definición 2.16 La función de densidad de X condicionada a [Y = y0], hX|y0 , es, hX|y0 (x | Y = y0) = f(x, y0) fY (y0) , fY (y0) 0, siendo f la función de densidad conjunta de X e Y, y fY la función de densidad marginal de Y. Definición 2.17 La función de distribución de X condicionada a [Y = y0] es, HX|y0 (x | Y = y0) = X xi≤x hX|y0 (xi | Y = y0). De forma similar pueden obtenerse las funciones de densidad hY |x0 y distribución HY |x0 de la variable aleatoria Y | X = x0. Variables aleatorias continuas Definición 2.18 La función de densidad de X condicionada a [Y = y0], hX|y0 , es, hX|y0 (x | Y = y0) = f(x, y0) fY (y0) , fY (y0) 0,
  • 50. i i “inferencia” — 2008/2/14 — 9:08 — page 37 — #49 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 37 Definición 2.19 La función de distribución condicionada HX de la variable aleatoria X | [Y = y0] es, HX|y0 (x | Y = y0) = Z x −∞ hX|y0 (u | Y = y0)dx. Análogamente se definen las funciones de distribución y densidad condicionadas de Y | X = x0. Es evidente que tanto en el caso discreto como en el continuo, X ⊥ Y ⇒ hX|y0 (x | Y = y0) = fX(x), hY |x0 (y | X = x0) = fY (y). APÉNDICE Probabilidad de un intervalo real 1. P(a X b) = lı́m x→b− F(x) − F(a), puesto que, (a X ≤ b) = (a X b) ∪ (X = b) ⇒ ⇒ P(a X ≤ b) = P(a X b) + P(X = b) ⇒ ⇒ P(a X b) = F(b) − F(a) − P(X = b) = = lı́m x→b− F(x) − F(a). 2. P(a ≤ X b) = lı́m x→b− F(x) − lı́m x→a− F(x), dado que, (a ≤ X b) = (a X b) ∪ (X = a) ⇒ ⇒ P(a ≤ X b) = P(a X b) + P(X = a) = = lı́m x→b− F(x) − F(a) − P(X = a) = lı́m x→b− F(x) − lı́m x→a− F(x). 3. P(a ≤ X ≤ b) = F(b) − lı́m x→a− F(x), en efecto, (a ≤ X ≤ b) = (a X ≤ b) ∪ (X = a) ⇒ ⇒ P(a ≤ X ≤ b) = P(a X ≤ b) + P(X = a) = = F(b) − F(a) + P(X = a) = F(b) − lı́m x→a− F(x).
  • 51. i i “inferencia” — 2008/2/14 — 9:08 — page 38 — #50 i i i i 38 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS 4. P(X = a) = F(a) − lı́m x→a− F(x), ya que, (X = a) = (a ≤ X ≤ a) ⇒ P(X = a) = P(a ≤ X ≤ a) = = F(a) − lı́m x→a− F(x). 5. P(X a) = lı́m x→a− F(x), pues, (X ≤ a) = (X a) ∪ (X = a) ⇒ ⇒ P(X ≤ a) = P(X a) + P(X = a) ⇒ ⇒ P(X a) = F(a) − P(X = a) = lı́m x→a− F(x). Propiedades de la distribución bivariante Denotemos, P(A − B) = P(A ∩ Bc ) = P(A) − P(A ∩ B). Así, si B ⊂ A, entonces P(A − B) = P(A) − P(B). Resulta que, [(a X ≤ b) ∩ (Y ≤ d)] − [(a X ≤ b) ∩ (Y ≤ c)] = [(a X ≤ b) ∩ (Y ≤ d)] ∩ [(a X ≤ b) ∩ (Y ≤ c)]c = = [(a X ≤ b) ∩ (Y ≤ d)] ∩ [(X / ∈ (a, b]) ∪ (Y c)] = = [(a X ≤ b) ∩ (Y ≤ d)] ∩ (X / ∈ (a, b])∪ ∪[(a X ≤ b) ∩ (Y ≤ d)] ∩ (Y c) = = [(a X ≤ b) ∩ (Y ≤ d)] ∩ (Y c) = = (a X ≤ b) ∩ (c Y ≤ d). Como, [(a X ≤ b) ∩ (Y ≤ c)] ⊂ [(a X ≤ b) ∩ (Y ≤ d)], tenemos, P[(a X ≤ b) ∩ (c Y ≤ d)] = = P[(a X ≤ b) ∩ (Y ≤ d)] − P[(a X ≤ b) ∩ (Y ≤ c)]. Por otro lado, con el mismo razonamiento anterior, [(a X ≤ b) ∩ (Y ≤ d)] = [(X ≤ b) ∩ (Y ≤ d)] − [(X ≤ a) ∩ (Y ≤ d)], y, [(X ≤ a) ∩ (Y ≤ d)] ⊂ [(X ≤ b) ∩ (Y ≤ d)], por lo que, P[(a X ≤ b) ∩ (c Y ≤ d)] = = P[(X ≤ b) ∩ (Y ≤ d)] − P[(X ≤ a) ∩ (Y ≤ d)]− −P[(X ≤ b) ∩ (Y ≤ c)] + P[(X ≤ a) ∩ (Y ≤ c)].
  • 52. i i “inferencia” — 2008/2/14 — 9:08 — page 39 — #51 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 39 Independencia estocástica entre variables Función de distribución i) X ⊥ Y ⇒ F(x, y) = FX(x)FY (y), ya que entonces, F(x, y) = P[(X ≤ x) ∩ (Y ≤ y)] = = P(X ≤ x)P(Y ≤ y) = FX(x)FY (y). ii) F(x, y) = FX(x)FY (y) ⇒ X ⊥ Y, pues si, por ejemplo, A = (a X ≤ b) y B = (c Y ≤ d), P[(a X ≤ b) ∩ (c Y ≤ d)] = = F(b, d) − F(b, c) − F(a, d) + F(a, c) = = FX(b)FY (d) − FX(b)FY (c) − FX(a)FY (d) + FX(a)FY (c) = = [FX(b) − FX(a)][FY (d) − FY (c)] = P(a X ≤ b)P(c Y ≤ d). Funciones de densidad 1. Caso discreto i) X ⊥ Y ⇒ f(x, y) = fX(x)fY (y), pues, f(x, y) = P[(X = x) ∩ (Y = y)] = = P(X = x)P(Y = y) = fX(x)fY (y). ii) f(x, y) = fX(x)fY (y) ⇒ X ⊥ Y. Sea, como anteriormente con funciones de distribución, P[(a X ≤ b) ∩ (c Y ≤ d)] = = F(b, d) − F(b, c) − F(a, d) + F(a, c). Si demostramos que, por ejemplo, F(b, d) = FX(b)FY (d) entonces queda probada la independencia entre variables aleatorias. En efecto, F(b, d) = X xi≤b X yj≤d f(xi, yj) = X xi≤b fX(xi) X yj≤d fY (yj) = FX(b)FY (d). 2. Caso continuo i) X ⊥ Y ⇒ f(x, y) = fX(x)fY (y), pues entonces, f(x, y) = ∂2F(x, y) ∂x∂y = ∂FX(x) ∂x ∂FY (y) ∂y = fX(x)fY (y).
  • 53. i i “inferencia” — 2008/2/14 — 9:08 — page 40 — #52 i i i i 40 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS ii) f(x, y) = fX(x)fY (y) ⇒ X ⊥ Y, pues, F(x, y) = R x −∞ R y −∞ f(u, v)dudv = = R x −∞ hR y −∞ fY (v)dv i fX(u)du = FX(x)FY (y). EJERCICIOS 2.1. El recorrido de una variable aleatoria X es X(Ω) = {0, 1, 2, 3, 4, 5}. Dada la función f(x) = kx2 , a) Calcúlese el valor de k para que f sea función de densidad de probabilidad de X. b) ¿Cuál es la probabilidad de que X tome valores en el intervalo [0, 3]? c) Calcúlese la función de distribución F de la variable aleatoria X. d) Represéntense gráficamente f y F. 2.2. Sea X una variable aleatoria continua cuya función de densidad de probabilidad es, f(x) = k(1 + x2 ), 0 x 3 0, en el resto, a) Calcúlese el valor de k para que f sea función de densidad de probabilidad de X. b) Calcúlese la función de distribución F de la variable aleatoria X. c) Calcúlese P(1 X 2). d) Determínese el valor de la probabilidad P ({X 2} | {X 1}). 2.3. La variable aleatoria X tiene una función de densidad de probabilidad igual a, f(x) = ( 1 b − a , si a x b 0, en el resto, a) Calcúlese la función de distribución F de la variable aleatoria X. b) Calcúlese la probabilidad de que la variable aleatoria X tome valores entre 0 y 2, sabiendo que a = 0 y b = 4. 2.4. Supóngase que la acumulación de toxinas en cierta especie criada en determinado medio es tal que la variable X(ω) = edad (medida en unidades arbitrarias) del individuo ω en el momento de su muerte, tiene por función de densidad de probabilidad, f(x) = cx, 1 x 2 0, en el resto, a) Calcúlese c y la función de distribución F de la variable aleatoria X. b) Represéntense gráficamente las funciones f y F.
  • 54. i i “inferencia” — 2008/2/14 — 9:08 — page 41 — #53 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 41 c) Si un individuo ha alcanzado la edad 1.5, ¿cuál es la probabilidad de que muera después de cumplir 1.7 de edad? ¿Cuál es la probabilidad de que cualquier individuo tomado al azar muera después de cumplir 1.7 de edad? 2.5. Dada la variable aleatoria X encontrar el valor de k para el que la función, f(x) = kx2 , si − k x k 0, en el resto, sea una función de densidad de probabilidad. 2.6. Sea f(x; θ) = θf1(x)+(1−θ)f2(x), donde la constante θ ∈ (0, 1). Suponiendo que f1 y f2 son funciones de densidad de probabilidad, pruébese que f es una función de densidad. 2.7. La función de densidad de probabilidad de una variable aleatoria X es, f(x) = ( 2(1 + x) 27 , si 2 x 5 0, en el resto, a) Calcúlese P(X 4). b) Determínese el valor de P(3 X 4). 2.8. La función de distribución de la variable aleatoria X = vida de las bacterias de una cierta cepa (tiempo transcurrido hasta su duplicación) es, F(x) = 1 − e−λx , si x ≥ 0 0, en el resto, siendo λ 0. a) Calcúlese la función de densidad de probabilidad de la variable aleatoria X. b) ¿Cuál es la probabilidad de que una bacteria tenga un tiempo de vida comprendido entre 2.7 horas y 3 horas, sabiendo que λ = 2.5? c) ¿Cuál es la probabilidad de que una bacteria viva menos de 3 horas, sabiendo que ya ha vivido más de 2.7 horas (λ = 2.5)? 2.9. Sean X e Y dos variables aleatorias con función de densidad de probabilidad conjunta dada por, f(1, 1) = 0; f(1, 2) = 1 6 ; f(1, 3) = 1 12 ; f(2, 1) = 1 5 ; f(2, 2) = 1 9 ; f(2, 3) = 0; f(3, 1) = 2 15 ; f(3, 2) = 1 4 ; f(3, 3) = 1 18 . Calcúlense las funciones de densidad marginales. 2.10. Sean X e Y dos variables aleatorias cuya función de densidad conjunta es, f(x, y) = 4x(1 − y), si 0 x 1, 0 y 1, 0, en el resto.
  • 55. i i “inferencia” — 2008/2/14 — 9:08 — page 42 — #54 i i i i 42 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS a) Hállese la función de densidad marginal de la variable aleatoria X. b) Calcúlese la función de distribución marginal de la variable aleatoria Y . 2.11. Sean dos variables aleatorias X e Y cuya función de densidad conjunta viene dada por, f(0, 0) = 1 8 ; f(0, 1) = 3 8 ; f(1, 0) = 3 8 ; f(1, 1) = 1 8 . Calcúlese la función de densidad condicionada de la variable aleatoria Y | [X = 0]. 2.12. Las variables aleatorias X e Y tienen la siguiente función de densidad conjunta, f(x, y) = 4xy, si 0 x 1, 0 y 1, 0, en el resto. a) Calcúlese la función de densidad condicionada de la variable aleatoria X | [Y = y]. b) ¿Son las variables aleatorias X e Y estocásticamente independientes? 2.13. Sean X e Y dos variables aleatorias con función de densidad de probabilidad conjunta, f(x, y) = k(x + y), si 0 ≤ x ≤ 2, 0 ≤ y ≤ 2, 0, en el resto. a) Encuéntrese el valor de k. b) Calcúlese la función de distribución conjunta F de las variables X e Y . c) Calcúlese las funciones de densidad marginales y las funciones de distribución mar- ginales ¿Son las dos variables aleatorias estocásticamente independientes? d) Calcúlese la función de densidad de probabilidad de X supuesto que [Y = 1]. 2.14. En una comunidad de 120 personas 58 son del grupo sanguíneo A, 32 del AB, 20 del grupo B y el resto del grupo O. Seleccionamos al azar 3 individuos de la comunidad y definimos las variables aleatorias X = número de individuos seleccionados del grupo A e Y = número de individuos seleccionados del grupo B. a) Constrúyase la función de densidad de probabilidad conjunta f de X e Y . b) Analícese si las variables aleatorias consideradas son estocásticamente independien- tes. c) Calcúlese, a partir de la función de densidad conjunta f, la probabilidad de que ningún individuo del grupo A haya sido seleccionado. 2.15. Considérese que, según cierto modelo teórico, la duración del combate ritual entre los machos de cierta especie es una variable aleatoria X con función de densidad de probabi- lidad: f(x) = ce−hx , si x ≥ 0 0, en el resto, a) Determínese el signo de h y su valor en función de c.
  • 56. i i “inferencia” — 2008/2/14 — 9:08 — page 43 — #55 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 43 b) Calcúlese la función de distribución F de la variable aleatoria X. c) Represéntese gráficamente f y F cuando c = 1. 2.16. Una caja contiene 3 ratas negras, 2 blancas y 3 grises. Seleccionamos al azar un conjunto de 4 ratas y definimos las variables aleatorias X = número de ratas negras seleccionadas e Y = número de ratas blancas seleccionadas. Encuéntrese, a) La función de densidad de probabilidad conjunta de X e Y . b) P[(X, Y ) ∈ A] donde A = {(x, y) | x + y ≤ 2}. c) La función de densidad condicionada hY |x (y | [X = 2]). 2.17. Consideremos la experiencia de extraer al azar dos individuos de una población y observar su genotipo respecto del sistema de grupos sanguíneos ABO. El primero es un receptor y el segundo un donante. Las proporciones de los diferentes genotipos en la población son para el grupo OO el 30 %, para AO el 10 %, para AA el 30 %, para BO el 15 %, para BB el 5 % y para AB el 10 %. Sobre el correspondiente espacio de probabilidad se consideran las variables aleatorias, X : Ω2 → R, X(ωr, ωd) =    0, si ωr y ωd son de idéntico genotipo, 1, si ωr y ωd difieren respecto de un alelo, 2, si ωr y ωd difieren respecto de dos alelos. Y : Ω2 → R, Y (ωr, ωd) = 0, si sus sangres son compatibles, 1, en caso contrario. a) Determínese la función de densidad de probabilidad de la variable aleatoria bidi- mensional (X, Y ), y las funciones de densidad marginales. b) Determínese la función de densidad de probabilidad de la variable aleatoria Y en el supuesto de que los individuos difieran en un alelo. Calcúlese la función de densidad de la variable aleatoria X suponiendo compatibilidad sanguínea. c) Analícese si se puede concluir que, al conocer la compatibilidad sanguínea de dos individuos, aumenta la probabilidad de que sean idénticos genotípicamente, dismi- nuye la de que difieran en un alelo y disminuye todavía más la de que difieran en dos alelos. 2.18. Dos variables aleatorias X e Y tienen una función de densidad de probabilidad conjunta definida por, f(x, y) = 4xy, si 0 x 1, 0 y 1, 0, en el resto. Encuéntrese, a) P ([0 ≤ X ≤ 0.75] ∩ [0.125 ≤ Y ≤ 0.5]). b) P(Y X).
  • 57. i i “inferencia” — 2008/2/14 — 9:08 — page 44 — #56 i i i i 44 INFERENCIA ESTADÍSTICA Y ANÁLISIS DE DATOS 2.19. Dos variables aleatorias X e Y tienen función de densidad de probabilidad conjunta dada por, f(x, y) = k(x2 + y2 ), si 0 x 2, 1 y 4, 0, en el resto. Calcúlese, a) k. b) P(1 ≤ X ≤ 2). c) P ([Y + X] 4). 2.20. Supongamos que X e Y son dos variables aleatorias cuya función de densidad de proba- bilidad conjunta viene dada por, f(1, 1) = 0; f(1, 2) = 1 6 ; f(1, 3) = 1 12 ; f(2, 1) = 1 5 ; f(2, 2) = 1 9 ; f(2, 3) = 0; f(3, 1) = 2 15 ; f(3, 2) = 1 4 ; f(3, 3) = 1 18 . Calcúlense las funciones de densidad condicionadas ¿Son X e Y variables aleatorias in- dependientes? 2.21. Sean X e Y dos variables aleatorias cuyos recorridos son X(Ω) = {1, 3, 5} e Y (Ω) = {2, 6, 8}, respectivamente. Sabiendo que la función de densidad de probabilidad marginal de X es, fX(1) = 0.2, fX(3) = 0.45, fX(5) = 0.35, y conociendo las siguientes funciones de densidad condicionadas, Y 2 6 8 fY |x(y | [X = 1]) 0.3 0.3 0.4 fY |x(y | [X = 3]) 0.15 0.45 0.4 fY |x(y | [X = 5]) 0.2 0.2 0.6 calcúlense fY (2) y P ([X = 3] | [Y = 6]). 2.22. La función de densidad de probabilidad conjunta de las variables aleatorias X, Y y Z viene dada por, f(x, y, z) = ( 4 9 xyz2 , si 0 x 1, 0 y 1, 0 z 3 0, en el resto. Encuéntrese, a) La función de densidad de probabilidad marginal conjunta de Y y Z. b) La función de densidad de probabilidad marginal de Y . c) P ([0.25 X 0.5] ∩ [Y 0.3] ∩ [1 Z 2]). d) F ([0.5] | {[Y = 0.25] ∩ [Z = 2]}), siendo F la función de distribución de la varia- ble aleatoria X condicionada al suceso {[Y = 0.25] ∩ [Z = 2]}.
  • 58. i i “inferencia” — 2008/2/14 — 9:08 — page 45 — #57 i i i i CAPÍTULO 2. VARIABLES ALEATORIAS 45 SOLUCIONES Ejercicio 2.2. a) Dado que, Z ∞ −∞ f(x)dx = 1, tenemos, 1 = k Z 3 0 (1 + x2 )dx = 12k =⇒ k = 1 12 . b) Como, F(x) = Z x −∞ f(t)dt, entonces, si x ≤ 0, F(x) = 0, si 0 x 3, F(x) = 1 12 R x 0 (1 + t2 )dt = 1 12 x + x3 3 , si x ≥ 3, F(x) = 1 12 R 3 0 (1 + t2 )dt = 1. c) P(1 X 2) = F(2) − F(1) = 5 18 . d) La probabilidad pedida es, P ([X 2] | [X 1]) = P ([X 2] ∩ [X 1]) P(X 1) = = P(1 X 2) 1 − F(1) = 5 16 . Ejercicio 2.3. a) Si x ≤ a entonces, F(x) = Z x −∞ f(t)dt = 0, ya que f(x) = 0 en este intervalo. Si a x b se tiene que, F(x) = Z x −∞ f(t)dt = Z x a 1 b − a dt = x − a b − a . Finalmente si b ≤ x, entonces, F(x) = Z x −∞ f(t)dt = Z b a 1 b − a dt = 1.