2. 2
Hasta ahora, el análisis estadístico se ha limitado a la
descripción de un conjunto pequeño de datos (obtención de
medidas de posición, dispersión y forma, entre otros).
En cualquier investigación o estudio es importante poder
generalizar nuestros resultados a un colectivo mucho más
amplio (población).
La teoría de la probabilidad proporciona una base para
evaluar la fiabilidad de las conclusiones alcanzadas y las
inferencias realizadas.
Debido al importante papel desempeñado por la probabilidad
dentro de la estadística, es necesario familiarizarse con sus
elementos básicos, lo que constituye el objetivo del presente
tema.
PROBABILIDAD Y VARIABLE ALEATORIA
4. • En nuestra vida cotidiana asociamos usualmente
el concepto de Probabilidad a su calificativo
probable.
• Consideramos probables aquellos eventos en los
que tenemos un alto grado de creencia en su
ocurrencia.
• Probabilidad es un concepto asociado a la medida
del azar.
• Pensamos en el azar vinculado con los juegos de
azar. Pero hay otros ejemplos de fenómenos de la
vida cotidiana u otras disciplinas de distintas
ciencias.
4
INTRODUCCIÓN
5. Ejemplos._
¿Qué número de unidades de producción salen
cada día de una cadena de montaje?
No existe un número fijo que pueda ser conocido a
priori, sino un conjunto de posibles valores que
podrían darse, cada uno de ellos con un cierto grado
de certeza.
¿Cuál es el tamaño de un paquete de información
que se transmite a través de HTTP?
No existe en realidad un número fijo, sino que éste es
desconocido a priori.
5
INTRODUCCIÓN
6. 6
INTRODUCCIÓN
En contraposición, un experimento determinístico es aquel
donde las mismas condiciones aseguran que se obtengan los
mismos resultados.
Lanzar un dado o una moneda al aire.
La duración de una bombilla.
Nº piezas defectuosas fabricadas al día.
Leyes Físicas.
Teoremas Matemáticos.
Experimento Aleatorio
Un experimento que repetido en las mismas condiciones, no
siempre proporciona los mismos resultados.
7. 7
INTRODUCCIÓN
Experimento Aleatorio
Un experimento que repetido en las mismas condiciones, no
siempre proporciona los mismos resultados.
El Cálculo de Probabilidades busca encontrar una
medida de la incertidumbre que se tiene de todos los
posibles resultados, ya que muy difícilmente se podrá
conocer a priori el resultado de cualquier experimento
donde el azar esté presente: a esta medida de la
incertidumbre la denominaremos probabilidad.
8. 8
INTRODUCCIÓN
Si consideramos un experimento aleatorio, podemos
caracterizar los posibles resultados de dicho experimento.
Espacio muestral
Conjunto formado por todos los posibles resultados que se
pueden obtener al realizar un experimento aleatorio.
Lo llamamos Ω.
Ejemplo: En el lanzamiento de un dado el espacio muestral es
Ω = {1, 2, 3, 4, 5, 6}
Cada resultado posible es un elemento del conjunto Ω.
9. 9
INTRODUCCIÓN
Si consideramos un experimento aleatorio, podemos
caracterizar los posibles resultados de dicho experimento.
Suceso aleatorio
Todo subconjunto del espacio muestral Ω generado por un
experimento aleatorio.
Ejemplo: En el lanzamiento de un dado el suceso A = {2, 4, 6}
corresponde con el suceso aleatorio “sacar número par” .
Un suceso con más de un elemento se denomina suceso
compuesto.
Cuando un suceso consta de un solo elemento le llamamos
suceso simple o elemental.
10. 10
INTRODUCCIÓN
¿Cuál es nuestro objetivo?
Definir una medida sobre los sucesos asociados a un
experimento. Asociar cada suceso con una cantidad
numérica que tenga como objetivo medir la probabilidad
del mismo.
No pretendemos decir qué es la probabilidad, sino
establecer unas reglas, en forma de axiomas, a las que
se ajuste dicho concepto cualquiera que sea la
concepción probabilística de partida.
Propiedades y operaciones con sucesos
Axiomática de Kolmogorov
11. 11
PROPIEDADES Y OPERACIONES CON SUCESOS
Ejemplo:
En el lanzamiento de un dado, el suceso
A = “sacar número menor o igual a 6” = {1,2,3,4,5,6}
es un suceso seguro.
En el lanzamiento de dos dados, el suceso
B=“la suma de los dos dados sea 1” ={ø}
es un suceso imposible.
Suceso imposible
Es el que no se verifica nunca porque sus elementos no están en
Ω. Se representa por ø .
Suceso seguro
Suceso formado por todos los elementos del espacio muestral y
coincide con Ω.
12. 12
PROPIEDADES Y OPERACIONES CON SUCESOS
Ejemplo: En el lanzamiento de un dado, el suceso
A = “sacar número par” = {2, 4, 6}
tiene como suceso contrario:
Ā = “no sacar número par” = {1, 3, 5}
Suceso complementario o contrario
Dado un suceso cualquiera A, llamamos suceso complementario
de A al que se verifica cuando no se verifica A. Se representa por
Ā o AC
Sucesos incompatibles
Son aquellos que no pueden ocurrir simultáneamente porque no tienen
elementos comunes
Ejemplo: En el lanzamiento de un dado, los sucesos
A = “sacar número par” = {2,4,6}
B = “obtener un número menor que 2” ={1}
son incompatibles.
13. Unión de sucesos
Dados dos sucesos A y B de un mismo experimento aleatorio, llamamos
suceso unión de A y B al suceso que se verifica cuando sucede A, o
sucede B, o suceden ambos a la vez.
El suceso unión se denota por .
PROPIEDADES Y OPERACIONES CON SUCESOS
A
B
A
A
B
B
Es un suceso “más amplio” que A ó B pues los incluye.
Intuitivamente hay más posibilidades de que ocurra.
BA
14. PROPIEDADES Y OPERACIONES CON SUCESOS
Intersección de sucesos
Dados dos sucesos A y B de un mismo experimento aleatorio,
llamamos suceso intersección de A y B al suceso que se
verifica cuando se verifiquen A y B simultáneamente.
El suceso intersección se denota por .
B
A
A
B
BA
Es un suceso “más restrictivo” que A ó B pues está
incluido en éstos. Intuitivamente hay menos posibilidades
de que ocurra.
AÇB=Æ
(Incompatibles)
AÇB=BAÇB
15. PROPIEDADES Y OPERACIONES CON SUCESOS
Resta de sucesos
Dados dos sucesos A y B de un mismo experimento aleatorio,
llamamos suceso resta de A y B al suceso que se verifica
cuando sucede A y al mismo tiempo no sucede B.
El suceso intersección se denota por A-B o AB.
A B
BAB-A
La “resta” no es una nueva operación de sucesos
propiamente dicha. Por definición es el suceso formado
por los elementales que están en A y no están en B.
Obviamente, A-B es un suceso más restrictivo que A.
16. PROPIEDADES Y OPERACIONES CON SUCESOS
Experimento Aleatorio: Lanzamiento de un dado.
Sucesos elementales: Cada una de las 6 caras.
A = Obtener entre dos y cuatro Suceso compuesto formado por 3
sucesos elementales.
B = Obtener más de tres Suceso compuesto formado por 3 sucesos
elementales.
}3,2{BAB-A
{4}BA
6}5,4,3,{2,BA
{4,5,6}B
{2,3,4}A
Ω
A
B
Ejemplo
17. PROPIEDADES Y OPERACIONES CON SUCESOS
2) Asociativa: No importa como se asocian los sucesos para
hacer las operaciones.
C)B(ACB)(A;C)B(ACB)(A
1) Conmutativa: No importa el orden en el que consideremos
los sucesos para operar.
ABBA;ABBA
3) Distributiva: Relaciona unión e intersección.
PROPIEDADES
18. PROPIEDADES Y OPERACIONES CON SUCESOS
5) Leyes de Morgan: Proporcionan un punto de vista
diferente. Muy útiles en determinadas ocasiones.
4) Propiedades básicas: Intuitivas por definición.
BABA
A
B
BABA
BA
PROPIEDADES
19. PROPIEDADES Y OPERACIONES CON SUCESOS
Experimento Aleatorio: Lanzar una moneda 4 veces.
Ci = Obtener C en el lanzamiento i-ésimo, i = 1,2,3 y 4
Xi = Obtener X en el lanzamiento i-ésimo, i = 1,2,3 y 4
¿Cómo se describen los siguientes sucesos?
S1 = Obtener cuatro caras
S3 = Obtener al menos una cara
S2 = No obtener caras
S4= Obtener tres caras
Ejemplo
20. PROPIEDADES Y OPERACIONES CON SUCESOS
Experimento Aleatorio: Lanzar una moneda 4 veces.
Ci = Obtener C en el lanzamiento i-ésimo, i = 1,2,3 y 4
Xi = Obtener X en el lanzamiento i-ésimo, i = 1,2,3 y 4
¿Cómo se describen los siguientes sucesos?
S1 = Obtener cuatro caras
S3 = Obtener al menos una cara
S2 = No obtener caras
S4= Obtener tres caras
Ejemplo
)( 4321 CCCC
21. AXIOMÁTICA DE PROBABILIDAD
Axiomática de Kolmogorov
Una probabilidad es una aplicación P que hace corresponder
a cada suceso aleatorio un número real, de modo que al
suceso A le corresponde el número P(A), y que cumple los
siguientes axiomas:
P(A)³ 0
1)P(
Siempre que los
sucesos sean
incompatibles 2 a 2
22. Propiedades
1) La probabilidad de cualquier suceso es un número
comprendido entre 0 y 1.
2) La probabilidad del suceso complementario es:
3) La probabilidad del suceso seguro es 1 y la del suceso imposible
es 0.
4) Si un suceso incluye a otro, su probabilidad será igual o mayor.
1P(A)0
P(A)-1=)AP(
P(W)=1
P(Æ) = 0
P(B)P(A)BA
AXIOMÁTICA DE PROBABILIDAD
23. 5) Cualquiera que sea el suceso B, la probabilidad del suceso A
puede descomponerse en:
Por tanto:
6) La probabilidad de la unión de sucesos es:
Para tres sucesos quedaría:
B)P(A-P(B)+P(A)=B)P(A
)BP(AB)P(A=P(A)
P(AÇB)=P(A)- P(AÇB)=P(A-B)
AXIOMÁTICA DE PROBABILIDAD
25. AXIOMÁTICA DE PROBABILIDAD
Ejemplos
En una ciudad el 40% de sus habitantes leen el periódico A, el
80% leen el periódico B y el 30% leen A y B. ¿Cuál es la
probabilidad que al elegir una persona al azar dentro de esta
ciudad...
lea algún periódico?
no lea ningún periódico?
0,10,9-1B)P(A1B)(AP)BAP(
0,90,3-0,80,4B)P(AB)P(A-P(B)P(A)B)P(A
3,0B)P(A
0,8P(B)
0,4P(A)
26. ¿Ya sabemos calcular probabilidades?
Todavía no
La axiomática de Kolmogorov no indica como
asociar probabilidades a un suceso. Sólo indica la
propiedades que debe verificar una función que
pretenda medir probabilidades.
Las propiedades derivadas a partir de los axiomas
nos serán de gran ayuda para el cálculo de
probabilidades.
27. DISTINTAS CONCEPCIONES DE PROBABILIDAD
Concepción
Frecuentista
La probabilidad se definiría como
el valor en torno al cual tiende a
estabilizarse la frecuencia relativa
de cada posible resultado del
experimento.
Sólo aplicable en
experiencias reproducibles un
nº elevado de veces.
Las condiciones bajo las que
se realiza la experimentación
pueden variar con el tiempo.
Concepción
Subjetiva
Se entiende la probabilidad como
grado de creencia.
Cada individuo tiene un
grado de creencia personal
acerca de la ocurrencia de un
suceso dado.
Concepción
Clásica
La probabilidad es el cociente
entre el nº casos favorables y el
total de casos posibles
Es válida si todos los casos
son igualmente verosímiles
(igualmente probables).
28. CÁLCULO DE PROBABILIDADES
REGLA DE LAPLACE
Trabajaremos con un tipo de experimentos finitos
muy particulares Experimentos con n sucesos
elementales todos ellos equiprobables.
Dado un experimento finito con n posibles sucesos
elementales, y dado un suceso A asociado a dicho
experimento aleatorio:
Esta definición de probabilidad (concepción clásica)
cumple la axiomática de Kolmogorov.
º
Aº
º
º
AP
deelementosden
sucesodelelementosden
posiblescasosden
favorablescasosden
29. En una población de estudiantes se ha pasado una encuesta para conocer
los que son usuarios de software libre (L) y los que utilizan ordenador
portátil (P) en clases. Del total de 500 estudiantes, 325 utilizan software
libre, 65 utilizan portátil en clases y, finalmente, 15 utilizan software libre y
portátil. Si elegimos un estudiante al azar:
1.¿Cuál es la probabilidad de que utilice software libre y portátil?
2.¿Cuál es la probabilidad de que no utilice software libre y si utilice
portátil?.
3.¿Cuál es la probabilidad de que utilice software libre y no utilizan
portátil?
4.¿Cuál es la probabilidad de que no utilice ni software libre ni portátil?
Ejemplo
CÁLCULO DE PROBABILIDADES
30. Ejemplo
65.0500
325P(L)
10.0500
50Po)LP(
62.0500
310o)PP(L
25.0500
125o)PLP(
L= usuarios de software libre.
Po= usuarios de ordenadores portátiles.
Ω= todos los usuarios 13.0500
65P(Po)
03.0500
15Po)P(L
L Po
15310 50
125
CÁLCULO DE PROBABILIDADES
31. PROBABILIDAD CONDICIONADA
Llamamos probabilidad del suceso A condicionada por
otro B, a la probabilidad de que se presente el suceso A
sabiendo que se va a presentar el suceso B. Se escribe:
P A/B( ) o P A
B( ) o P(A|B)
La probabilidad de un suceso condicionado por otro es el
cociente entre la probabilidad de que ocurran juntos y la
probabilidad del suceso que condiciona.
P(B/A) =
P(AÇB)
P(A)
, si P(A) ¹ 0
P(A/B) =
P(AÇB)
P(B)
, si P(B)¹ 0 B
A A∩B
32. Utilizamos la probabilidad condicionada siempre que
vamos a calcular la probabilidad de un suceso al realizar un
experimento aleatorio, y tenemos alguna información
adicional que modifica el espacio muestral (resultados
posibles) de dicho experimento.
La probabilidad condicionada, definida de esta manera,
verifica los tres axiomas de Kolmogorov:
0≥
B
AP)1º
1=
B
ΩP)2º
ji
,AA,
B
AP=
B
AP)3º ji
∞
1=i
i
∞
1=i
i
PROBABILIDAD CONDICIONADA
33. PROBABILIDAD CONDICIONADA
También se puede comprobar que se verifican las siguientes
propiedades:
1. P(ø|B) = 0
2. P(Ā|B) = 1- P(A|B)
3. A1 y A2 disjuntos P((A1 U A2)|B) = P(A1|B) + P(A2|B)
4. A1 y A2 se cortan P((A1UA2)|B) = P(A1|B) + P(A2|B) - P((A1∩A2)|B)
34. EJEMPLO
RA= R. Rayado Alta GA=R. Golpes Alta
RB= R. Rayado Baja GB=R. Golpes Baja
Resistencia
Golpes
Alta Baja
Resistencia
Rayado
Alta 70 10
Baja 40 80
Se analizan los discos de plástico de policarbonato de un proveedor
para la resistencia al rayado y a los golpes. Los resultados de 200
discos se resumen a continuación:
• Probabilidad de Resistencia Golpes Alta
• Probabilidad de Resistencia Rayado Baja
• Probabilidad de Resistencia Golpes Alta
sabiendo que la de Rayado es Alta
• Probabilidad de Resistencia Golpes Baja
sabiendo que la de Rayado es Alta
200
110)( GAP
200
120)( GBP
80
70
RA
GAP
80
10
RA
GBP
35. EJEMPLO
RA= R. Rayado Alta GA=R. Golpes Alta
RB= R. Rayado Baja GB=R. Golpes Baja
Resistencia
Golpes
Alta Baja
Resistencia
Rayado
Alta 70 10
Baja 40 80
Se analizan los discos de plástico de policarbonato de un proveedor
para la resistencia al rayado y a los golpes. Los resultados de 200
discos se resumen a continuación:
Probabilidad de Resistencia Golpes Alta
sabiendo que la de Rayado es Alta:
)(
)(
20080
20070
80
70
RAP
RAGAP
RA
GAP
Calculamos algunas de las
probabilidades anteriores haciendo uso
de la fórmula
36. PROPIEDAD COMPUESTA O LEY MULTIPLICATIVA
De la definición de probabilidad condicionada se deduce
que: P(AÇB)= P(B)×P(A|B)
Recordando que la intersección satisface la propiedad
conmutativa y, por tanto, AB = BA. Es muy fácil ver
que de forma simétrica se verifica:
A)|P(BP(A)B)P(A
Generalización a tres sucesos
)AA|P(A)A|P(A)P(A)AAP(A 213121321
Estas expresiones son muy útiles en experimentos donde
existan varias etapas aleatorias. La intersección obliga a que
ocurran dos sucesos simultáneamente, esta expresión permite
estudiarlos de forma condicionada.
37. EJEMPLO
Tenemos una urna con 100 bolas, de las cuales 30 son blancas(B) y
70 son negras(N). El experimento consiste en extraer dos bolas sin
reemplazamiento.
• ¿Cuál es la probabilidad de que ambas bolas sean blancas?
• ¿Cuál es la probabilidad de que la primera sea blanca y la
segunda negra?
Urna 100 Bolas:
30B y 70N.
B1
N1
B2
B2
N2
N2
Etapa1
Etapa2:Condicionada
38. EJEMPLO
Tenemos una urna con 100 bolas, de las cuales 30 son blancas(B) y
70 son negras(N). El experimento consiste en extraer dos bolas sin
reemplazamiento.
• ¿Cuál es la probabilidad de que ambas bolas sean blancas?
• ¿Cuál es la probabilidad de que la primera sea blanca y la
segunda negra?
Urna 100 Bolas:
30B y 70N.
B1
N1
B2
B2
N2
N2
Etapa1
Etapa2:Condicionada
1) P(B1 ÇB2 ) = P(B1)P(B2|B1) =
30
100
×
29
99
39. EJEMPLO
Tenemos una urna con 100 bolas, de las cuales 30 son blancas(B) y
70 son negras(N). El experimento consiste en extraer dos bolas sin
reemplazamiento.
• ¿Cuál es la probabilidad de que ambas bolas sean blancas?
• ¿Cuál es la probabilidad de que la primera sea blanca y la
segunda negra?
Urna 100 Bolas:
30B y 70N.
B1
N1
B2
B2
N2
N2
Etapa1
Etapa2:Condicionada
2) P(B1 ÇN2 ) = P(B1)P(N2|B1) =
30
100
×
70
99
40. SUCESOS INDEPENDIENTES
Los sucesos A y B son independientes cuando :
P B
A( )=P B( ) ó P A
B( )=P A( )
Estas definiciones son equivalentes a:
P AÇB( )=P A( )×P B( )
¡ATENCIÓN!
Sucesos independientes no hay que confundirlos con
incompatibles. Los sucesos A y B son incompatibles cuando
su intersección es el conjunto vacío (ø), cuando no pueden
ocurrir simultáneamente.
41. EJEMPLO
RA= R. Rayado Alta GA=R. Golpes Alta
RB= R. Rayado Baja GB=R. Golpes Baja
Resistencia
Golpes
Alta Baja
Resistencia
Rayado
Alta 70 10
Baja 40 80
Se analizan los discos de plástico de policarbonato de un proveedor
para la resistencia al rayado y a los golpes. Los resultados de 200
discos se resumen a continuación:
)(
20
11
8
7;
80
70
;
200
110)(
GAP
RA
GAP
RA
GAP
GAP
No son independientes
0
200
70)( RAGAP Tampoco son incompatibles
42. TEOREMA DE PROBABILIDAD TOTAL
Se dan situaciones en las que se ha realizado un experimento
aleatorio que ha generado una serie de sucesos incompatibles que
cubre todos los elementos del espacio muestral Ω: A1,A2,…,An. Para
calcular la probabilidad de cualquier suceso B, podemos utilizar la
partición realizada:
Observando el diagrama:
B=(A1 B) U (A2 B) U … U (An B)
P(B) = P(A1 B) + P(A2 B) + … + P(An B)
No se conoce la probabilidad de los
sucesos intersección, pero se puede
calcular en función de :
P(Ai B) =P(Ai)P(B|Ai)
P(Ai) y P(B|Ai)
A1
A2
A3
...
An
B
A1 B
A2 B
A3 B
An B
...
Ω
43. TEOREMA DE PROBABILIDAD TOTAL
Si A1, A2, ... , An son sucesos de probabilidad no nula,
incompatibles entre sí y cuya unión es el espacio
muestral Ω, entonces, para cualquier suceso B:
P(B) = P(A1)P(B|A1) + P(A2)P(B|A2) +… + P(An)P(B|An)
44. TEOREMA DE PROBABILIDAD TOTAL
Consideramos el experimento previo de extraer dos bolas, sin
reemplazamiento, de una urna de 100 bolas, de las cuales 70 son
negras y 30 blancas.
¿Qué probabilidad hay de que la 2ª bola sea blanca?
B1
N1
B2
B2
N2
N2
100
70
100
30
99
29
99
70
99
30
99
69
Etapa1
Etapa2:Condicionada
P(B2) = P(B1)P(B2|B1) + P(N1)P(B2|N1)=
= 30/100 ∙ 29/99 + 70/100 ∙ 30/99 =
= 3/10 = 0.3
45. TEOREMA DE BAYES
Siguiendo con el mismo ejemplo: ¿Cuál es la probabilidad de
que la 1ª bola sea blanca sabiendo que la 2ª fue blanca?
No sabemos calcular esta probabilidad directamente porque la
información no aparece de forma natural B1 (primera extracción)
es causa y B2 (segunda extracción) consecuencia.
Primer Paso: Utilizando la simetría de la expresión de la
probabilidad condicionada es fácil expresar la probabilidad de B1|B2
respecto de B2|B1.
Þ P(B1|B2 ) =
P(B1)×P(B2|B1)
P(B2 )
46. TEOREMA DE BAYES
Si A1, A2, ... , An son sucesos de probabilidad no
nula, incompatibles entre sí y cuya unión es el
espacio muestral Ω, entonces, para cualquier suceso
B:
P(Ai |B ) =
P(A1)·P(B | A1) + P(A2)·P(B | A2) +… + P(An)·P(B | An)
P(Ai)·P(B | Ai)
47. TEOREMA DE BAYES
Ahora ya podemos responder a la pregunta:
¿Cuál es la probabilidad de que la 1ª bola sea blanca
sabiendo que la 2ª fue blanca?
0,29
99
30
100
70
99
29
100
30
99
29
100
30
)P(B
)B|P(B)P(B
)B|P(B
2
121
21
B1
N1
B2
B2
N2
N2
100
70
100
30
99
29
99
70
99
30
99
69
Etapa1
Etapa2:Condicionada Teorema de Bayes
48. EJERCICIO PROPUESTO
Un distribuidor recibe piezas de tres fabricantes F1, F2 y F3, de
modo que el 30% de las piezas proceden de F1, el 50% de F2 y
el resto de F3. Se devuelven por incorrecciones el 2% de las
piezas procedentes de F1, el 6% de las procedentes de F2 y el
8% de las procedentes de F3. De las próximas 2000 piezas
recibidas:
• ¿Cuántas piezas es de esperar que sean devueltas?
• Sabiendo que una pieza está defectuosa, ¿cuál es la
probabilidad de que proceda de F3?
50. INTRODUCCIÓN AL CONCEPTO DE VARIABLE ALEATORIA
Frecuentemente, cuando realizamos un experimento aleatorio nos
interesa, más que el resultado del experimento, una característica
de interés asociada a los resultados.
Experimento 1: Lanzamiento de dos dados.
“Característica de interés” = Suma de ambos dados
Experimento 2: Lanzar una moneda cinco veces.
“Característica de interés” = Nº de veces que ha
salido cara
Estas “Características de interés” son variables que dependen del
resultado obtenido al efectuar el experimento aleatorio. Por tanto,
pueden entenderse como funciones que asignan a cada posible
resultado del experimento un número real.
51. Una variable aleatoria es una función que asigna un número a
cada resultado posible de un experimento aleatorio. El nombre de
la variable aleatoria suele designarse con una letra mayúscula, por
ejemplo X.
Conviene tener en cuenta que a un mismo experimento aleatorio
pueden asociarse diversas variables aleatorias, dependiendo de la
observación que realicemos.
CONCEPTO DE VARIABLE ALEATORIA
Ejemplo → En el lanzamiento de dos dados
podríamos considerar las siguientes variables
aleatorias:
X = Suma de las puntuaciones.
Y = Producto de las puntuaciones.
Z = Nº de veces que ambos dados han sacado la
misma puntuación.
52. TIPOS DE VARIABLES ALEATORIAS
DISCRETAS
Variables aleatorias que
toman valores numéricos
aislados y puntuales.
Llamadas de teléfono que
recibimos en nuestro móvil
cada día.
Aciertos en un examen
tipo test.
Coches que atraviesan
una calle cada 5 minutos.
CONTINUAS
Variables aleatorias que
toman todos los valores
posibles dentro de un
intervalo.
Estatura de un individuo.
Temperatura de un
individuo.
Tiempo de duración de
una bombilla.
53. VARIABLES ALEATORIAS DISCRETAS
Las variables discretas quedan determinadas cuando conocemos
los posibles valores que toma y la probabilidad que toma cada uno
de sus valores .
La función de masa de probabilidad de una variable aleatoria
discreta es una función que asigna a cada valor posible de esta
variable aleatoria una probabilidad.
Si la variable aleatoria X toma los valores x1, x2, . . . , xn y
conocemos los valores pi = P[X = xi] con i= 1,…,n, la función de masa
de probabilidad de la v.a. discreta X viene dada por:
X x1 x2 x3 ··· xn
pi = P[X = xi] p1 p2 p3 ··· pn
54. VARIABLES ALEATORIAS DISCRETAS
FUNCIÓN DE MASA DE PROBABILIDAD
Para que la función de masa de probabilidad esté bien
definida debe respetar las siguientes condiciones:
10 ip
1
1
n
i
ip
55. VARIABLES ALEATORIAS DISCRETAS
Experimento Aleatorio: Lanzamiento de dos dados.
Variable Aleatoria: Suma de las puntuaciones de ambos dados.
X= Suma de las puntuaciones de ambos dados
Resultados posibles del experimento según las puntuaciones
obtenidas con los dados. Cada uno de estos 36 casos son
equiprobables. 1 2 3 4 5 6
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
Rango de X ={2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}
56. Prob. Pi
X
1/36 5/36 3/362/36 3/36 4/36 5/36 4/36 1/362/366/36
8 111097652 3 4 12
1,1
36
1
2 P
2,1,1,2
36
2
3 P
P(X = k) =
#(Suman k)
36
La función de masa de probabilidad de la v.a discreta
X= Suma de las puntuaciones de ambos dados
viene dada en la siguiente tabla:
EJEMPLO
57. FUNCIÓN DE DISTRIBUCIÓN
La función de distribución de una variable aleatoria se corresponde
con el concepto de frecuencia relativa acumulada. La función de
distribución, F(x), se define:
F(x)=P[X≤x]
PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN
1. Siempre es monótona creciente Si x1<x2 entonces F (x1) ≤ F (x2)
1. F(x) verifica:
1. F(x)es siempre continua por la derecha.
lim
x®+¥
FX(x)=1 lim
x®-¥
FX (x)= 0
58. VARIABLES ALEATORIAS DISCRETAS
FUNCIÓN DE DISTRIBUCIÓN Y CÁLCULO DE PROBABILIDADES
La Función de Distribución permite calcular la probabilidad de los
sucesos más usuales asociados a una variable. De forma general:
1) P(X ≤ a)=F(a)
2) P(X > a)= 1-F(a)
3) P(a<X≤b)= F(b)-F(a).Cuidado con las desigualdades en las variables discretas.
Probabilísticamente NO es lo mismo ‘≤’ que ‘<‘ y ‘≥’ que ‘>’
F(x)=P[X≤x]= P(xi )
xi ≤x
å
59. VARIABLES ALEATORIAS DISCRETAS
EJEMPLO
Experimento Aleatorio: Lanzamiento de dos dados.
La función de distribución de la v.a discreta
X= Suma de las puntuaciones de ambos dados
viene dada en la siguiente tabla:
F(xi)
X
1/36 26/36 33/363/36 6/36 15/36 30/36 135/3621/36
8 111097652 3 4 12
10/36
61. VARIABLES ALEATORIAS CONTINUAS
Como ya se ha dicho, las variables aleatorias discretas quedan
definidas por su función de masa de probabilidad, pero ¿y las
variables aleatorias continuas? ¿tienen masa de
probabilidad?.
Para una v.a. continua, la P[X=x]=0, o lo que es lo mismo, no
tienen masa de probabilidad y por tanto no podemos definir
su función de masa de probabilidad.
Entonces ¿cómo calculamos probabilidades para v.a.
continuas?
A través de la función de distribución F(x)=P[X≤x]
62. VARIABLES ALEATORIAS CONTINUAS
Para las v.a. discretas:
Pero también hemos visto que las v.a. continuas no tiene masa de
probabilidad, por tanto no podemos calcular la probabilidad
acumulada como suma de probabilidades puntuales.
Las v.a. continuas, al tomar infinitos valores, habría que “sumar
infinitas probabilidades”.
A partir de la función de distribución de las v.a. continuas podemos
definir una función que nos indique de que manera se distribuyen
las probabilidades para los valores de las variables. Esa función la
llamamos función de densidad y se define como:
F(x)=P[X≤x]= P(xi )
xi ≤x
å
f (x)= F'(x) Û F(x)= f (t)dt
-¥
x
ò
63. VARIABLES ALEATORIAS CONTINUAS
Las variables continuas quedan determinadas cuando conocemos
cómo se “distribuye” la probabilidad entre los posibles valores que
tome.
Para determinar la probabilidad de cada posible intervalo de
valores utilizaremos la función de densidad.
FUNCIÓN DE DENSIDAD
La función de densidad f(x) de una variable aleatoria continua es
una expresión matemática que permite determinar la probabilidad
de cada posible intervalo de valores a través del área que encierra
la curva entre los límites del intervalo.
64. VARIABLES ALEATORIAS CONTINUAS
FUNCIÓN DE DENSIDAD
Las propiedades que debe cumplir f(x) para que pueda ser
considerada una función de densidad de una variable
aleatoria continua son las siguientes:
1)(
0)(
dxxf
xf
66. VARIABLES ALEATORIAS CONTINUAS
¿CÓMO UTILIZAR f(x) PARA CALCULAR PROBABILIDADES?
¡IMPORTANTE!
En v.a continuas la
probabilidad de un punto
aislado siempre es 0
P(a £ X £ b) = f(t)dt
a
b
ò
P(X = a) = P(a £ X £ a) = f(t)dt
a
a
ò = 0
67. FUNCIÓN DE DISTRIBUCIÓN
VARIABLES ALEATORIAS CONTINUAS
La función de distribución de una variable aleatoria se
corresponde con el concepto de frecuencia relativa
acumulada. La función de distribución, F(x), se define:
x
dxxfxXPxF )(][)(
Por tanto, la función de distribución de una variable aleatoria
continua puede ser obtenida a partir de la función de
densidad f(x)
68. PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN
VARIABLES ALEATORIAS CONTINUAS
Son las mismas propiedades de la función de distribución de una
variable aleatoria discreta
FUNCIÓN DE DISTRIBUCIÓN Y CÁLCULO DE PROBABILIDADES
Para una variable continua, el hecho de que un valor tenga
probabilidad cero conduce a una mayor flexibilidad:
1) P(X ≤ a) = P(X < a) = F(a)
2) P(a < X ≤ b) = P (a ≤ X < b) = P (a ≤ X ≤ b) = P (a < x < b)= F(b)-F(a)
3) P (X ≥ a) = P (X > a) = 1- F(a)
69. VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
Función de densidad
f(x) =
1/30
0
si
si
0 £ x £ 30
c. c.
ì
í
î
70. VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
Función de Disribución
F(x) = P(X £ x) =
0 si x < 0
x
30
si 0 £ x £ 30
1 si x > 30
ì
í
ïï
î
ï
ï
F(x) = 1
30
dt = x
300
x
ò
71. VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
¿Probabilidad de esperar más de 5 min?
P(X > 5) =1- F(5) =
25
30
5
72. CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS DISCRETAS
MEDIA Y VARIANZA
El valor esperado, esperanza o media de una variable aleatoria
discreta se define como:
La varianza de una variable aleatoria discreta se define como:
n
i 1
iipxE(X)
22
n
1i
i
2
i
n
1i
i
2
i pxp)(xVar(X)
En estas expresiones se ha sustituido la frecuencia relativa,
que se usaba en el caso de los parámetros muestrales
correspondientes, por la probabilidad.
73. CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS DISCRETAS
EJEMPLO
Experimento Aleatorio: Lanzamiento de dos dados.
Variable Aleatoria: X= Suma de las puntuaciones de ambos
dados
Prob. Pi
X
1/36 5/36 3/362/36 3/36 4/36 5/36 4/36 1/362/366/36
8 111097652 3 4 12
puntos7
36
1
12·...
36
2
3·
36
1
2·pxE(X)
n
1i
ii
Var(X) = 22 1
36
+32 2
36
+ 42 3
36
+...+122 1
36
æ
è
ç
ö
ø
÷- 7( )
2
= 5,83puntos2
74. CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS CONTINUAS
MEDIA Y VARIANZA
El valor esperado, esperanza o media de una variable
aleatoria continua se define como:
La varianza de una variable aleatoria discreta se define
como:
f(x)dxxE(X)
2222
f(x)dxxf(x)dx)(xVar(X)
75. VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
Función de densidad
f(x) =
1/30
0
si
si
0 £ x £ 30
c. c.
ì
í
î
76. CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
minutos15
2
x
·
30
1
dx
30
1
x·xf(x)dxE(X)
30
0
2
30
0
7515
3
x
30
1
15dx
30
1
xVar(X)
2
30
0
3
230
0
2
77. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE BERNOULLI
A los experimentos aleatorios en los que sólo se pueden dar
dos resultados posibles (éxito - fracaso) se denominan
experimentos o pruebas de Bernoulli.
Ejemplos de pruebas de Bernoulli:
Lanzar un dado y observar si el resultado es par.
Lanzar una moneda y observar si el resultado es cruz.
Observar si una pieza fabricada por una determinada
máquina es defectuosa.
Observar si un recién nacido es varón.
Observar si un accidente de tráfico tiene resultado de
muerte.
78. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE BERNOULLI
Dada una prueba de Bernoulli, la v.a X que toma el valor 1 si se
presenta éxito y el valor 0 si se presenta fracaso, diremos que se
distribuye según una distribución de Bernoulli:
X 0 1 E(X) = p
P(X) 1-p p Var(X) = p(1-p)
p : probabilidad de obtener éxito en el experimento
1-p : probabilidad de obtener fracaso en el experimento.
)(pBeX
79. DISTRIBUCIÓN DE BERNOULLI
EJEMPLO
Si un proceso de fabricación produce un 2% de elementos
defectuosos y llamamos éxito el resultado de obtener un producto
correcto, entonces la v.a:
X= Observar si el producto es correcto
sigue una distribución de Bernoulli, es decir, X ® Be(0.98)
X 0 1
P(X) 0.02 0.98
E(X) = p= 0.98
Var(X)=p(1-p)=0.98·0.02=0.0196
80. En una prueba de Bernoulli, la variable aleatoria:
X= Nº de éxitos aparecidos en n pruebas.
decimos que sigue una distribución Binomial de parámetros n y p.
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN BINOMIAL
Si una prueba de Bernoulli, se realiza consecutivamente n veces,
de forma independiente y siempre en las mismas condiciones que
la primera vez puede interesarnos conocer el número total de
éxitos conseguidos.
),( pnBX
p : probabilidad de obtener éxito en cada prueba.
81. E(X) = n p
Var(X)=n p(1-p)
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN BINOMIAL
La función de probabilidad de la distribución Binomial viene dada
por:
n : número de veces que se realiza el experimento.
p : probabilidad de éxito en cada prueba.
1-p : probabilidad de fracaso en cada prueba.
k : Nºde éxitos al que queremos calcular la probabilidad.
La media y la varianza de la distribución Binomial son:
¡Atención! → Rango de k: 0, 1,…,n
P(X = k) = n
k
æ
è
ç
ö
ø
÷pk
(1- p)n-k
82. DISTRIBUCIÓN BINOMIAL
EJEMPLO
En un proceso de fabricación industrial se producen un 12% de piezas
defectuosas.
¿Cuál es la probabilidad de que de un lote de 20 piezas resulten
defectuosas al menos 3?
Definimos la variable : X=”Nº de piezas defectuosas en un lote de 20”
)12.0;20(BX
27403.01888.0212.0
2
20
]2[
21153.01988.0112.0
1
20
]1[
07756.02088.0012.0
0
20
]0[
2101313
XP
XP
XP
XPXPXPXPXP 0.43688
83. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN GEOMÉTRICA
En un proceso de Bernoulli, la variable aleatoria:
X= Nº de prueba hasta que aparece el primer éxito.
decimos que sigue una distribución Geométrica de
parámetro p.
)(pGeX
p : probabilidad de obtener éxito en cada prueba.
84. ppkXP k
1
1)(
La función de probabilidad de la distribución Geométrica viene
dada por:
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN GEOMÉTRICA
p : probabilidad de éxito en cada prueba.
q = 1-p : probabilidad de fracaso en cada prueba.
k : Nº de intentos necesarios para conseguir el primer éxito.
La media y la varianza de la distribución Geométrica son:
E(X) = 1/p
Var(X)=q/p2
¡Atención! → Rango de k: 1, 2,…
85. DISTRIBUCIÓN GEOMÉTRICA
EJEMPLO
En un proceso de fabricación industrial se producen un 12% de piezas
defectuosas.
¿Cuál es la probabilidad de que sea necesario fabricar 8 piezas hasta
encontrar la primera pieza defectuosa?
Definimos la variable : Y=” Nº de piezas que se necesitan fabricar
hasta encontrar la primera defectuosa”
)12.0(GeY
0.049 12.088.08 7
YP
86. ¿Cuál es la probabilidad de que sea necesario fabricar más de 3 piezas hasta
encontrar la primera pieza defectuosa?
DISTRIBUCIÓN GEOMÉTRICA
EJEMPLO
0929.012.0288.0]3[
1056.012.088.0]2[
12.0]1[
]]3[]2[]1[[1313
YP
YP
YP
YPYPYPYPYP 0.6815
87. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN BINOMIAL NEGATIVA
En una proceso de Bernoulli, la variable aleatoria:
X= Nº de pruebas que son necesarias hasta obtener r
éxitos.
decimos que sigue una distribución Binomial Negativa de
parámetros p y r.
),( prBNX
p : probabilidad de obtener éxito en cada prueba.
r : número de éxitos que se quieren conseguir.
88. La función de probabilidad de la distribución Binomial Negativa
viene dada por:
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN BINOMIAL NEGATIVA
p : probabilidad de éxito en cada prueba.
q=1-p : probabilidad de fracaso en cada prueba.
r : número de éxitos que se quieren conseguir.
k : número de intentos necesarios para conseguir r éxitos.
La media y la varianza de la distribución Binomial Negativa son:
E(X) = r/p
Var(X)= rq/p2
P(X = k)=
k -1
r -1
æ
è
ç
ç
ç
ö
ø
÷
÷
÷
pr × 1- p( )k - r
¡Atención! → Rango de k: r, r+1,…
89. DISTRIBUCIÓN BINOMIAL NEGATIVA
EJEMPLO
En un proceso de fabricación industrial se producen un 12% de piezas
defectuosas.
¿Cuál es la probabilidad de que sea necesario fabricar entre 40 y 42 piezas
para conseguir 5 piezas defectuosas?
Definimos la variable : T=”Nº de piezas que se necesitan fabricar
hasta encontrar la 5ª defectuosa”
)12.0;5(BNX
02225.03788.0512.0
4
41
]42[
02281.03688.0512.0
4
40
]41[
02333.03588.0512.0
4
39
]40[
]42[]41[]40[4240
TP
TP
TP
TPTPTPTP 0.06839
90. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE POISSON
La distribución de Poisson constituye una familia de distribuciones
de probabilidad que tienen un papel muy importante en la
estadística.
Situaciones empíricas que se rigen por un comportamiento de
tipo Poisson:
nº de llamadas telefónicas que recibimos en una hora.
nº de faltas de ortografía que se producen en un texto.
nº de nacimientos en un día.
nº de averías de una máquina en un año.
Estas variables describen el número de veces que ocurre un suceso
“raro” o “poco frecuente” por unidad de tiempo, longitud, etc.
91. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE POISSON
Si llamamos λ = nº medio de ocurrencias del suceso
“raro”, por unidad de tiempo, longitud, etc., entonces la
variable aleatoria:
X= Nº de veces que ocurre un suceso “raro” por unidad
de tiempo, longitud, etc.
decimos que sigue una distribución de Poisson de
parámetro λ .
0
)(
PX
92. La función de probabilidad de la distribución de Poisson viene dada
por:
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE POISSON
La media y la varianza de la distribución de Poisson son:
E(X) = λ
Var(X)= λ
¡Atención! → Rango de k: 0, 1,…
!k
kekXP
93. DISTRIBUCIÓN DE POISSON
EJEMPLO
El promedio de llamadas telefónicas atendidas en la centralita de una
cierta Facultad es de 36 llamadas por hora. Calcular la probabilidad de que
en un periodo de 5 minutos:
a) Se atiendan 5 llamadas
b) Se atiendan más de 2 llamadas
¡Ojo!
Una variable Poisson queda definida por una determinada unidad de
medida y por el término medio de ocurrencias en la misma.
λ = 36 llamadas / hora
Llegadas en una hora P(36)
λ = 3 llamadas / 5 Minutos
Llegadas en 5 minutos P(3)
94. DISTRIBUCIÓN DE POISSON
EJEMPLO
X=”Nº de llamadas atendidas en 5 minutos”
λ = nº medio de llamadas atendidas en 5 minutos = 3
)3(PX
a) Probabilidad de que se atiendan 5 llamadas
0,100819
5!
3e
5XP
53
b) Probabilidad de que se atiendan más de 2 llamadas
0'57681
2!
3e
1!
3e
0!
3e
12XP12XP
231303
95. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN EXPONENCIAL
En un proceso de Poisson con λ = nº medio de sucesos
acontecidos por unidad de tiempo, la variable aleatoria:
T= Tiempo transcurrido entre dos sucesos consecutivos.
decimos que sigue una distribución Exponencial de
parámetro λ .
0
)(
ExpT
96. La función de densidad para una Exponencial viene dada
por:
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN EXPONENCIAL
xexF 1)(
La función de Distribución para una Exponencial viene
dada por:
f (x) = le-lx x > 0 l > 0
La media y la varianza de la distribución Exponencial son:
E(X) =1 l
Var(X) =1 l2
97. DISTRIBUCIÓN EXPONENCIAL
EJEMPLO
El tiempo medio transcurrido entre la llegada de dos clientes consecutivos
al departamento de ventas de un concesionario de una determinada
marca de automóviles es de 20 minutos. Calcular:
a) La probabilidad de que el tiempo transcurrido entre la llegada de dos
clientes consecutivos no supere la media hora.
T=”Tiempo transcurrido (en min) entre la llegada de dos clientes
consecutivos ”
E(T)= tiempo medio transcurrido entre la llegada de dos clientes
consecutivos = 20 min
05.0
20
1201)( TE
)05.0(ExpT
98. DISTRIBUCIÓN EXPONENCIAL
EJEMPLO
a) La probabilidad de que el tiempo transcurrido entre la llegada de dos
clientes consecutivos no supere la media hora.
b) La probabilidad de que el nº de clientes que entren en el intervalo de
una hora sea al menos 4.
Tenemos que λ = 0.05 = nº medio de clientes que llegan al
concesionario cada minuto. Por tanto, el nº medio de clientes que
llegan en una hora será:
P(T<30)=F(30)=1-e
-0.05×30
=0.77687
l = 0.05×60 =3
99. DISTRIBUCIÓN EXPONENCIAL
EJEMPLO
b) La probabilidad de que el nº de clientes que entren en el intervalo de
una hora sea al menos 4.
La variable aleatoria que ahora nos interesa es:
X= Nº de clientes que llegan cada hora al concesionario
)3(PX
P(X≥4)=1-P(X<4)=1-
e-3
30
0!
+
e-3
31
1!
+
e-3
32
2!
+
e-3
33
3!
é
ë
ê
ù
û
ú=0.3528
100. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN NORMAL
Es el modelo de distribución de probabilidad continua más
importante. Son muchos los experimentos y fenómenos que
pueden ser modelizados por esta distribución.
La distribución Normal explica:
Comportamientos biológicos.
Errores de medidas.
Medidas biológicas: alturas, pesos, etc.
101. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN NORMAL
Decimos que una variable aleatoria X se distribuye según
una Normal de media μ y de desviación típica σ > 0, si su
función de densidad es:
),( NX
f x( ) =
1
2p ·s
·e
-1
2
·
x-m
s
æ
è
ç
ö
ø
÷
2
Se representará por:
102. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
PROPIEDADES DE LA DISTRIBUCIÓN NORMAL
1) f(x) tiene un máximo absoluto en µ.
2) f(x) es simétrica respecto de µ.
3) f(x) tiene forma de campana, conocida como campana de Gauss.
4) µ y σ son parámetros.
5) La media, la moda y la mediana coinciden.
µ
Observación
µ=E(X)= media de X
µ= moda –Máxima Densidad-
µ= mediana –Simetría-
103. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN NORMAL
N(30, 10)
N(50, 10)
N(70, 10)
-20 10 40 70 100 130
0
0,01
0,02
0,03
0,04
Si cambiamos el valor medio
µ la curva se traslada.
N(40, 5)
N(40, 10)
N(40, 15)
-40 0 40 80 120
0
0,02
0,04
0,06
0,08
Si σ aumenta, mayor dispersión
y la curva se aplana, menor
concentración alrededor de μ.
Si σ disminuye, menor
dispersión, más concentración
alrededor de μ.
104. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
CÁLCULO DE PROBABILIDADES CON
X→N(μ,σ)
Para calcular probabilidades tendremos que evaluar la función de
Distribución, es decir, necesitaremos calcular:
x
x
dxex
2
·
2
1
X ·
·2
1
xXPF
F(x) no se puede obtener explícitamente, hay que obtenerla por
aproximación mediante “Métodos numéricos de integración”.
Para subsanar este inconveniente podemos:
1) Tipificar
2) Usar software estadístico
105. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
CÁLCULO DE PROBABILIDADES CON X→N(μ,σ)
Para calcular probabilidades con la Normal, utilizaremos
unas Tablas Estadísticas, donde vienen los valores de la
Función de Distribución de la N(0, 1).
Previamente, habrá que tipificar la variable N(,) que
estemos tratando, es decir, pasar a una N(0, 1)
)1,0(),( N
X
ZNX
106. DISTRIBUCIÓN NORMAL
EJEMPLO
Sea X→N (60,5) , calcula las siguientes probabilidades:
P(X >50) = P
X-m
s
>
50-60
5
æ
è
ç
ö
ø
÷= P Z >
50-60
5
æ
è
ç
ö
ø
÷= P(Z > -2) = P(Z < 2)
P(X=60)
0 60)P(X Probabilidad puntual de una variable continua
P(X >50)
Tipificación N(0,1) es simétrica
respecto a la media
108. P(55< X <62) = P
55-60
5
< Z <
62-60
5
æ
è
ç
ö
ø
÷= P(-1< Z <0.4) =
P(55 < X < 62)
DISTRIBUCIÓN NORMAL
EJEMPLO
Tipificación
P (a < x < b)= F(b)-F(a)
1)P(Z0.4)P(Z1)P(Z0.4)P(Z
N(0,1) es simétrica
respecto a la media
110. DISTRIBUCIÓN NORMAL
EJERCICIO PROPUESTO
En una determinada ciudad, la cuota por contribuyente
del impuesto municipal de vehículos de tracción
mecánica sigue una distribución normal con media 30€
y desviación típica 12 €.
¿Qué porcentaje de contribuyentes paga una cuota
comprendida entre 12€ y 24€?
111. Hipótesis: todas las variables están idénticamente
distribuidas, es decir, todas tienen la misma función de
distribución, la misma ley de probabilidad.
En particular tienen la misma esperanza, µ, y la
misma desviación, σ.
Sean, X1,X2,X3,...,Xn, una sucesión de n variables aleatorias independientes
Bajo estas condiciones:
Suma=
n=∞
Aprox.
Para n≥30 la
aproximación es
mejor
)n,N(n Xi
i=1
n
å
Promedio=
n=∞
Aprox.
n
,NXi
i=1
n
å / n
TEOREMA CENTRAL DEL LÍMITE
112. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
APROXIMACIONES
Aproximación de una Binomial por una Normal
Si n es suficientemente grande y np(1-p)>5,
entonces:
Aproximación de una Poisson por una Normal
),()( NP n
Si n es suficientemente grande y λ >10,
entonces:
Aproximamos
por el teorema
central del límite
B(n, p) n ¾ ®¾ ¥
¾ ®¾¾¾ N np, np(1- p)( )
113. APROXIMACIONES
EJEMPLO
El porcentaje de fumadores en la población de estudiantes
universitarios es del 35% en el caso de los varones y del 45% en el
caso de las mujeres.
Calcular la probabilidad de que en un Colegio Mayor masculino con
225 estudiantes halla exactamente 80 fumadores.
X=”Nº de fumadores varones de entre 225
estudiantes ”
)35.0;225(BX
Como n=225 es suficientemente grande y np(1-p)=51.19 > 5,
entonces:
B(225;0.35)¾ ®¾ N 78.75, 51.19( )
114. EJERCICIO PROPUESTO
APROXIMACIONES
Si en una centralita telefónica se atienden una media
de 6 llamadas por hora, calcular la probabilidad de que
en un periodo de 3 horas:
a) Se atiendan más de 100 llamadas telefónicas.
b) El número de llamadas telefónicas esté
comprendido entre 80 y 100, ambos valores
inclusive.