SlideShare una empresa de Scribd logo
1 de 114
BLOQUE 2
PROBABILIDAD Y VARIABLE
ALEATORIA
2
 Hasta ahora, el análisis estadístico se ha limitado a la
descripción de un conjunto pequeño de datos (obtención de
medidas de posición, dispersión y forma, entre otros).
 En cualquier investigación o estudio es importante poder
generalizar nuestros resultados a un colectivo mucho más
amplio (población).
 La teoría de la probabilidad proporciona una base para
evaluar la fiabilidad de las conclusiones alcanzadas y las
inferencias realizadas.
 Debido al importante papel desempeñado por la probabilidad
dentro de la estadística, es necesario familiarizarse con sus
elementos básicos, lo que constituye el objetivo del presente
tema.
PROBABILIDAD Y VARIABLE ALEATORIA
BLOQUE 2
PROBABILIDAD
• En nuestra vida cotidiana asociamos usualmente
el concepto de Probabilidad a su calificativo
probable.
• Consideramos probables aquellos eventos en los
que tenemos un alto grado de creencia en su
ocurrencia.
• Probabilidad es un concepto asociado a la medida
del azar.
• Pensamos en el azar vinculado con los juegos de
azar. Pero hay otros ejemplos de fenómenos de la
vida cotidiana u otras disciplinas de distintas
ciencias.
4
INTRODUCCIÓN
Ejemplos._
 ¿Qué número de unidades de producción salen
cada día de una cadena de montaje?
No existe un número fijo que pueda ser conocido a
priori, sino un conjunto de posibles valores que
podrían darse, cada uno de ellos con un cierto grado
de certeza.
 ¿Cuál es el tamaño de un paquete de información
que se transmite a través de HTTP?
No existe en realidad un número fijo, sino que éste es
desconocido a priori.
5
INTRODUCCIÓN
6
INTRODUCCIÓN
En contraposición, un experimento determinístico es aquel
donde las mismas condiciones aseguran que se obtengan los
mismos resultados.
Lanzar un dado o una moneda al aire.
La duración de una bombilla.
Nº piezas defectuosas fabricadas al día.
Leyes Físicas.
Teoremas Matemáticos.
Experimento Aleatorio
Un experimento que repetido en las mismas condiciones, no
siempre proporciona los mismos resultados.
7
INTRODUCCIÓN
Experimento Aleatorio
Un experimento que repetido en las mismas condiciones, no
siempre proporciona los mismos resultados.
El Cálculo de Probabilidades busca encontrar una
medida de la incertidumbre que se tiene de todos los
posibles resultados, ya que muy difícilmente se podrá
conocer a priori el resultado de cualquier experimento
donde el azar esté presente: a esta medida de la
incertidumbre la denominaremos probabilidad.
8
INTRODUCCIÓN
Si consideramos un experimento aleatorio, podemos
caracterizar los posibles resultados de dicho experimento.
Espacio muestral
Conjunto formado por todos los posibles resultados que se
pueden obtener al realizar un experimento aleatorio.
Lo llamamos Ω.
Ejemplo: En el lanzamiento de un dado el espacio muestral es
Ω = {1, 2, 3, 4, 5, 6}
Cada resultado posible es un elemento del conjunto Ω.
9
INTRODUCCIÓN
Si consideramos un experimento aleatorio, podemos
caracterizar los posibles resultados de dicho experimento.
Suceso aleatorio
Todo subconjunto del espacio muestral Ω generado por un
experimento aleatorio.
Ejemplo: En el lanzamiento de un dado el suceso A = {2, 4, 6}
corresponde con el suceso aleatorio “sacar número par” .
Un suceso con más de un elemento se denomina suceso
compuesto.
Cuando un suceso consta de un solo elemento le llamamos
suceso simple o elemental.
10
INTRODUCCIÓN
¿Cuál es nuestro objetivo?
 Definir una medida sobre los sucesos asociados a un
experimento. Asociar cada suceso con una cantidad
numérica que tenga como objetivo medir la probabilidad
del mismo.
 No pretendemos decir qué es la probabilidad, sino
establecer unas reglas, en forma de axiomas, a las que
se ajuste dicho concepto cualquiera que sea la
concepción probabilística de partida.
Propiedades y operaciones con sucesos
Axiomática de Kolmogorov
11
PROPIEDADES Y OPERACIONES CON SUCESOS
Ejemplo:
En el lanzamiento de un dado, el suceso
A = “sacar número menor o igual a 6” = {1,2,3,4,5,6}
es un suceso seguro.
En el lanzamiento de dos dados, el suceso
B=“la suma de los dos dados sea 1” ={ø}
es un suceso imposible.
Suceso imposible
Es el que no se verifica nunca porque sus elementos no están en
Ω. Se representa por ø .
Suceso seguro
Suceso formado por todos los elementos del espacio muestral y
coincide con Ω.
12
PROPIEDADES Y OPERACIONES CON SUCESOS
Ejemplo: En el lanzamiento de un dado, el suceso
A = “sacar número par” = {2, 4, 6}
tiene como suceso contrario:
Ā = “no sacar número par” = {1, 3, 5}
Suceso complementario o contrario
Dado un suceso cualquiera A, llamamos suceso complementario
de A al que se verifica cuando no se verifica A. Se representa por
Ā o AC
Sucesos incompatibles
Son aquellos que no pueden ocurrir simultáneamente porque no tienen
elementos comunes
Ejemplo: En el lanzamiento de un dado, los sucesos
A = “sacar número par” = {2,4,6}
B = “obtener un número menor que 2” ={1}
son incompatibles.
Unión de sucesos
Dados dos sucesos A y B de un mismo experimento aleatorio, llamamos
suceso unión de A y B al suceso que se verifica cuando sucede A, o
sucede B, o suceden ambos a la vez.
El suceso unión se denota por .
PROPIEDADES Y OPERACIONES CON SUCESOS
A
B
A
A
B
B
Es un suceso “más amplio” que A ó B pues los incluye.
Intuitivamente hay más posibilidades de que ocurra.
BA
PROPIEDADES Y OPERACIONES CON SUCESOS
Intersección de sucesos
Dados dos sucesos A y B de un mismo experimento aleatorio,
llamamos suceso intersección de A y B al suceso que se
verifica cuando se verifiquen A y B simultáneamente.
El suceso intersección se denota por .
B
A
A
B
BA
Es un suceso “más restrictivo” que A ó B pues está
incluido en éstos. Intuitivamente hay menos posibilidades
de que ocurra.
AÇB=Æ
(Incompatibles)
AÇB=BAÇB
PROPIEDADES Y OPERACIONES CON SUCESOS
Resta de sucesos
Dados dos sucesos A y B de un mismo experimento aleatorio,
llamamos suceso resta de A y B al suceso que se verifica
cuando sucede A y al mismo tiempo no sucede B.
El suceso intersección se denota por A-B o AB.
A B
BAB-A 
La “resta” no es una nueva operación de sucesos
propiamente dicha. Por definición es el suceso formado
por los elementales que están en A y no están en B.
Obviamente, A-B es un suceso más restrictivo que A.
PROPIEDADES Y OPERACIONES CON SUCESOS
Experimento Aleatorio: Lanzamiento de un dado.
Sucesos elementales: Cada una de las 6 caras.
A = Obtener entre dos y cuatro  Suceso compuesto formado por 3
sucesos elementales.
B = Obtener más de tres  Suceso compuesto formado por 3 sucesos
elementales.
}3,2{BAB-A
{4}BA
6}5,4,3,{2,BA
{4,5,6}B
{2,3,4}A








Ω
A
B
Ejemplo
PROPIEDADES Y OPERACIONES CON SUCESOS
2) Asociativa: No importa como se asocian los sucesos para
hacer las operaciones.
C)B(ACB)(A;C)B(ACB)(A  
1) Conmutativa: No importa el orden en el que consideremos
los sucesos para operar.
ABBA;ABBA  
3) Distributiva: Relaciona unión e intersección.
PROPIEDADES
PROPIEDADES Y OPERACIONES CON SUCESOS
5) Leyes de Morgan: Proporcionan un punto de vista
diferente. Muy útiles en determinadas ocasiones.
4) Propiedades básicas: Intuitivas por definición.
BABA  
A
B
BABA  
BA
PROPIEDADES
PROPIEDADES Y OPERACIONES CON SUCESOS
Experimento Aleatorio: Lanzar una moneda 4 veces.
Ci = Obtener C en el lanzamiento i-ésimo, i = 1,2,3 y 4
Xi = Obtener X en el lanzamiento i-ésimo, i = 1,2,3 y 4
¿Cómo se describen los siguientes sucesos?
S1 = Obtener cuatro caras
S3 = Obtener al menos una cara
S2 = No obtener caras
S4= Obtener tres caras
Ejemplo
PROPIEDADES Y OPERACIONES CON SUCESOS
Experimento Aleatorio: Lanzar una moneda 4 veces.
Ci = Obtener C en el lanzamiento i-ésimo, i = 1,2,3 y 4
Xi = Obtener X en el lanzamiento i-ésimo, i = 1,2,3 y 4
¿Cómo se describen los siguientes sucesos?
S1 = Obtener cuatro caras
S3 = Obtener al menos una cara
S2 = No obtener caras
S4= Obtener tres caras
Ejemplo
)( 4321 CCCC 
AXIOMÁTICA DE PROBABILIDAD
Axiomática de Kolmogorov
Una probabilidad es una aplicación P que hace corresponder
a cada suceso aleatorio un número real, de modo que al
suceso A le corresponde el número P(A), y que cumple los
siguientes axiomas:
P(A)³ 0
1)P( 
Siempre que los
sucesos sean
incompatibles 2 a 2
Propiedades
1) La probabilidad de cualquier suceso es un número
comprendido entre 0 y 1.
2) La probabilidad del suceso complementario es:
3) La probabilidad del suceso seguro es 1 y la del suceso imposible
es 0.
4) Si un suceso incluye a otro, su probabilidad será igual o mayor.
1P(A)0 
P(A)-1=)AP(
P(W)=1
P(Æ) = 0
P(B)P(A)BA 
AXIOMÁTICA DE PROBABILIDAD
5) Cualquiera que sea el suceso B, la probabilidad del suceso A
puede descomponerse en:
Por tanto:
6) La probabilidad de la unión de sucesos es:
Para tres sucesos quedaría:
B)P(A-P(B)+P(A)=B)P(A 
)BP(AB)P(A=P(A)  
P(AÇB)=P(A)- P(AÇB)=P(A-B)
AXIOMÁTICA DE PROBABILIDAD
).BAP(Calcular0,2.B)P(A0,30;P(B)
0,30;P(A)quetales,oexperimentundesucesosdosByASean
 

0,6)BAP(B)(AP:Sol  
LEY DE MORGAN
AXIOMÁTICA DE PROBABILIDAD
Ejemplos
AXIOMÁTICA DE PROBABILIDAD
Ejemplos
En una ciudad el 40% de sus habitantes leen el periódico A, el
80% leen el periódico B y el 30% leen A y B. ¿Cuál es la
probabilidad que al elegir una persona al azar dentro de esta
ciudad...
 lea algún periódico?
 no lea ningún periódico?
0,10,9-1B)P(A1B)(AP)BAP(
0,90,3-0,80,4B)P(AB)P(A-P(B)P(A)B)P(A




3,0B)P(A
0,8P(B)
0,4P(A)




¿Ya sabemos calcular probabilidades?
Todavía no
 La axiomática de Kolmogorov no indica como
asociar probabilidades a un suceso. Sólo indica la
propiedades que debe verificar una función que
pretenda medir probabilidades.
 Las propiedades derivadas a partir de los axiomas
nos serán de gran ayuda para el cálculo de
probabilidades.
DISTINTAS CONCEPCIONES DE PROBABILIDAD
Concepción
Frecuentista
La probabilidad se definiría como
el valor en torno al cual tiende a
estabilizarse la frecuencia relativa
de cada posible resultado del
experimento.
Sólo aplicable en
experiencias reproducibles un
nº elevado de veces.
Las condiciones bajo las que
se realiza la experimentación
pueden variar con el tiempo.
Concepción
Subjetiva
Se entiende la probabilidad como
grado de creencia.
Cada individuo tiene un
grado de creencia personal
acerca de la ocurrencia de un
suceso dado.
Concepción
Clásica
La probabilidad es el cociente
entre el nº casos favorables y el
total de casos posibles
Es válida si todos los casos
son igualmente verosímiles
(igualmente probables).
CÁLCULO DE PROBABILIDADES
REGLA DE LAPLACE
Trabajaremos con un tipo de experimentos finitos
muy particulares  Experimentos con n sucesos
elementales todos ellos equiprobables.
Dado un experimento finito con n posibles sucesos
elementales, y dado un suceso A asociado a dicho
experimento aleatorio:
Esta definición de probabilidad (concepción clásica)
cumple la axiomática de Kolmogorov.
 


º
Aº
º
º
AP
deelementosden
sucesodelelementosden
posiblescasosden
favorablescasosden
En una población de estudiantes se ha pasado una encuesta para conocer
los que son usuarios de software libre (L) y los que utilizan ordenador
portátil (P) en clases. Del total de 500 estudiantes, 325 utilizan software
libre, 65 utilizan portátil en clases y, finalmente, 15 utilizan software libre y
portátil. Si elegimos un estudiante al azar:
1.¿Cuál es la probabilidad de que utilice software libre y portátil?
2.¿Cuál es la probabilidad de que no utilice software libre y si utilice
portátil?.
3.¿Cuál es la probabilidad de que utilice software libre y no utilizan
portátil?
4.¿Cuál es la probabilidad de que no utilice ni software libre ni portátil?
Ejemplo
CÁLCULO DE PROBABILIDADES
Ejemplo
65.0500
325P(L) 
10.0500
50Po)LP( 
62.0500
310o)PP(L 
25.0500
125o)PLP( 
L= usuarios de software libre.
Po= usuarios de ordenadores portátiles.
Ω= todos los usuarios 13.0500
65P(Po) 
03.0500
15Po)P(L 
L Po
15310 50
125 
CÁLCULO DE PROBABILIDADES
PROBABILIDAD CONDICIONADA
Llamamos probabilidad del suceso A condicionada por
otro B, a la probabilidad de que se presente el suceso A
sabiendo que se va a presentar el suceso B. Se escribe:
P A/B( ) o P A
B( ) o P(A|B)
La probabilidad de un suceso condicionado por otro es el
cociente entre la probabilidad de que ocurran juntos y la
probabilidad del suceso que condiciona.
P(B/A) =
P(AÇB)
P(A)
, si P(A) ¹ 0
P(A/B) =
P(AÇB)
P(B)
, si P(B)¹ 0 B
A A∩B

 Utilizamos la probabilidad condicionada siempre que
vamos a calcular la probabilidad de un suceso al realizar un
experimento aleatorio, y tenemos alguna información
adicional que modifica el espacio muestral (resultados
posibles) de dicho experimento.
 La probabilidad condicionada, definida de esta manera,
verifica los tres axiomas de Kolmogorov:
  0≥
B
AP)1º
  1=
B
ΩP)2º
ji 











 ,AA,
B
AP=
B
AP)3º ji
∞
1=i
i
∞
1=i
i 
PROBABILIDAD CONDICIONADA
PROBABILIDAD CONDICIONADA
 También se puede comprobar que se verifican las siguientes
propiedades:
1. P(ø|B) = 0
2. P(Ā|B) = 1- P(A|B)
3. A1 y A2 disjuntos  P((A1 U A2)|B) = P(A1|B) + P(A2|B)
4. A1 y A2 se cortan  P((A1UA2)|B) = P(A1|B) + P(A2|B) - P((A1∩A2)|B)
EJEMPLO
RA= R. Rayado Alta GA=R. Golpes Alta
RB= R. Rayado Baja GB=R. Golpes Baja
Resistencia
Golpes
Alta Baja
Resistencia
Rayado
Alta 70 10
Baja 40 80
Se analizan los discos de plástico de policarbonato de un proveedor
para la resistencia al rayado y a los golpes. Los resultados de 200
discos se resumen a continuación:
• Probabilidad de Resistencia Golpes Alta
• Probabilidad de Resistencia Rayado Baja
• Probabilidad de Resistencia Golpes Alta
sabiendo que la de Rayado es Alta
• Probabilidad de Resistencia Golpes Baja
sabiendo que la de Rayado es Alta
200
110)( GAP
200
120)( GBP
  80
70
RA
GAP
  80
10
RA
GBP
EJEMPLO
RA= R. Rayado Alta GA=R. Golpes Alta
RB= R. Rayado Baja GB=R. Golpes Baja
Resistencia
Golpes
Alta Baja
Resistencia
Rayado
Alta 70 10
Baja 40 80
Se analizan los discos de plástico de policarbonato de un proveedor
para la resistencia al rayado y a los golpes. Los resultados de 200
discos se resumen a continuación:
Probabilidad de Resistencia Golpes Alta
sabiendo que la de Rayado es Alta:
  )(
)(
20080
20070
80
70
RAP
RAGAP
RA
GAP


Calculamos algunas de las
probabilidades anteriores haciendo uso
de la fórmula
PROPIEDAD COMPUESTA O LEY MULTIPLICATIVA
De la definición de probabilidad condicionada se deduce
que: P(AÇB)= P(B)×P(A|B)
Recordando que la intersección satisface la propiedad
conmutativa y, por tanto, AB = BA. Es muy fácil ver
que de forma simétrica se verifica:
A)|P(BP(A)B)P(A 
Generalización a tres sucesos
)AA|P(A)A|P(A)P(A)AAP(A 213121321 
Estas expresiones son muy útiles en experimentos donde
existan varias etapas aleatorias. La intersección obliga a que
ocurran dos sucesos simultáneamente, esta expresión permite
estudiarlos de forma condicionada.
EJEMPLO
Tenemos una urna con 100 bolas, de las cuales 30 son blancas(B) y
70 son negras(N). El experimento consiste en extraer dos bolas sin
reemplazamiento.
• ¿Cuál es la probabilidad de que ambas bolas sean blancas?
• ¿Cuál es la probabilidad de que la primera sea blanca y la
segunda negra?
Urna 100 Bolas:
30B y 70N.
B1
N1
B2
B2
N2
N2
Etapa1
Etapa2:Condicionada
EJEMPLO
Tenemos una urna con 100 bolas, de las cuales 30 son blancas(B) y
70 son negras(N). El experimento consiste en extraer dos bolas sin
reemplazamiento.
• ¿Cuál es la probabilidad de que ambas bolas sean blancas?
• ¿Cuál es la probabilidad de que la primera sea blanca y la
segunda negra?
Urna 100 Bolas:
30B y 70N.
B1
N1
B2
B2
N2
N2
Etapa1
Etapa2:Condicionada
1) P(B1 ÇB2 ) = P(B1)P(B2|B1) =
30
100
×
29
99
EJEMPLO
Tenemos una urna con 100 bolas, de las cuales 30 son blancas(B) y
70 son negras(N). El experimento consiste en extraer dos bolas sin
reemplazamiento.
• ¿Cuál es la probabilidad de que ambas bolas sean blancas?
• ¿Cuál es la probabilidad de que la primera sea blanca y la
segunda negra?
Urna 100 Bolas:
30B y 70N.
B1
N1
B2
B2
N2
N2
Etapa1
Etapa2:Condicionada
2) P(B1 ÇN2 ) = P(B1)P(N2|B1) =
30
100
×
70
99
SUCESOS INDEPENDIENTES
Los sucesos A y B son independientes cuando :
P B
A( )=P B( ) ó P A
B( )=P A( )
Estas definiciones son equivalentes a:
P AÇB( )=P A( )×P B( )
¡ATENCIÓN!
Sucesos independientes no hay que confundirlos con
incompatibles. Los sucesos A y B son incompatibles cuando
su intersección es el conjunto vacío (ø), cuando no pueden
ocurrir simultáneamente.
EJEMPLO
RA= R. Rayado Alta GA=R. Golpes Alta
RB= R. Rayado Baja GB=R. Golpes Baja
Resistencia
Golpes
Alta Baja
Resistencia
Rayado
Alta 70 10
Baja 40 80
Se analizan los discos de plástico de policarbonato de un proveedor
para la resistencia al rayado y a los golpes. Los resultados de 200
discos se resumen a continuación:
    )(
20
11
8
7;
80
70
;
200
110)(
GAP
RA
GAP
RA
GAP
GAP

 No son independientes
0
200
70)(  RAGAP Tampoco son incompatibles
TEOREMA DE PROBABILIDAD TOTAL
Se dan situaciones en las que se ha realizado un experimento
aleatorio que ha generado una serie de sucesos incompatibles que
cubre todos los elementos del espacio muestral Ω: A1,A2,…,An. Para
calcular la probabilidad de cualquier suceso B, podemos utilizar la
partición realizada:
Observando el diagrama:
B=(A1  B) U (A2  B) U … U (An  B)
P(B) = P(A1  B) + P(A2  B) + … + P(An  B)
No se conoce la probabilidad de los
sucesos intersección, pero se puede
calcular en función de :
P(Ai  B) =P(Ai)P(B|Ai)
P(Ai) y P(B|Ai)
A1
A2
A3
...
An
B
A1  B
A2  B
A3  B
An  B
...
Ω
TEOREMA DE PROBABILIDAD TOTAL
Si A1, A2, ... , An son sucesos de probabilidad no nula,
incompatibles entre sí y cuya unión es el espacio
muestral Ω, entonces, para cualquier suceso B:
P(B) = P(A1)P(B|A1) + P(A2)P(B|A2) +… + P(An)P(B|An)
TEOREMA DE PROBABILIDAD TOTAL
Consideramos el experimento previo de extraer dos bolas, sin
reemplazamiento, de una urna de 100 bolas, de las cuales 70 son
negras y 30 blancas.
¿Qué probabilidad hay de que la 2ª bola sea blanca?
B1
N1
B2
B2
N2
N2
100
70
100
30
99
29
99
70
99
30
99
69
Etapa1
Etapa2:Condicionada
P(B2) = P(B1)P(B2|B1) + P(N1)P(B2|N1)=
= 30/100 ∙ 29/99 + 70/100 ∙ 30/99 =
= 3/10 = 0.3
TEOREMA DE BAYES
Siguiendo con el mismo ejemplo: ¿Cuál es la probabilidad de
que la 1ª bola sea blanca sabiendo que la 2ª fue blanca?
No sabemos calcular esta probabilidad directamente porque la
información no aparece de forma natural  B1 (primera extracción)
es causa y B2 (segunda extracción) consecuencia.
Primer Paso: Utilizando la simetría de la expresión de la
probabilidad condicionada es fácil expresar la probabilidad de B1|B2
respecto de B2|B1.
Þ P(B1|B2 ) =
P(B1)×P(B2|B1)
P(B2 )
TEOREMA DE BAYES
Si A1, A2, ... , An son sucesos de probabilidad no
nula, incompatibles entre sí y cuya unión es el
espacio muestral Ω, entonces, para cualquier suceso
B:
P(Ai |B ) =
P(A1)·P(B | A1) + P(A2)·P(B | A2) +… + P(An)·P(B | An)
P(Ai)·P(B | Ai)
TEOREMA DE BAYES
Ahora ya podemos responder a la pregunta:
¿Cuál es la probabilidad de que la 1ª bola sea blanca
sabiendo que la 2ª fue blanca?
0,29
99
30
100
70
99
29
100
30
99
29
100
30
)P(B
)B|P(B)P(B
)B|P(B
2
121
21







B1
N1
B2
B2
N2
N2
100
70
100
30
99
29
99
70
99
30
99
69
Etapa1
Etapa2:Condicionada Teorema de Bayes
EJERCICIO PROPUESTO
Un distribuidor recibe piezas de tres fabricantes F1, F2 y F3, de
modo que el 30% de las piezas proceden de F1, el 50% de F2 y
el resto de F3. Se devuelven por incorrecciones el 2% de las
piezas procedentes de F1, el 6% de las procedentes de F2 y el
8% de las procedentes de F3. De las próximas 2000 piezas
recibidas:
• ¿Cuántas piezas es de esperar que sean devueltas?
• Sabiendo que una pieza está defectuosa, ¿cuál es la
probabilidad de que proceda de F3?
BLOQUE 2
VARIABLE ALEATORIA
INTRODUCCIÓN AL CONCEPTO DE VARIABLE ALEATORIA
Frecuentemente, cuando realizamos un experimento aleatorio nos
interesa, más que el resultado del experimento, una característica
de interés asociada a los resultados.
Experimento 1: Lanzamiento de dos dados.
“Característica de interés” = Suma de ambos dados
Experimento 2: Lanzar una moneda cinco veces.
“Característica de interés” = Nº de veces que ha
salido cara
Estas “Características de interés” son variables que dependen del
resultado obtenido al efectuar el experimento aleatorio. Por tanto,
pueden entenderse como funciones que asignan a cada posible
resultado del experimento un número real.
 Una variable aleatoria es una función que asigna un número a
cada resultado posible de un experimento aleatorio. El nombre de
la variable aleatoria suele designarse con una letra mayúscula, por
ejemplo X.
 Conviene tener en cuenta que a un mismo experimento aleatorio
pueden asociarse diversas variables aleatorias, dependiendo de la
observación que realicemos.
CONCEPTO DE VARIABLE ALEATORIA
Ejemplo → En el lanzamiento de dos dados
podríamos considerar las siguientes variables
aleatorias:
X = Suma de las puntuaciones.
Y = Producto de las puntuaciones.
Z = Nº de veces que ambos dados han sacado la
misma puntuación.
TIPOS DE VARIABLES ALEATORIAS
DISCRETAS
Variables aleatorias que
toman valores numéricos
aislados y puntuales.
 Llamadas de teléfono que
recibimos en nuestro móvil
cada día.
 Aciertos en un examen
tipo test.
 Coches que atraviesan
una calle cada 5 minutos.
CONTINUAS
Variables aleatorias que
toman todos los valores
posibles dentro de un
intervalo.
 Estatura de un individuo.
 Temperatura de un
individuo.
 Tiempo de duración de
una bombilla.
VARIABLES ALEATORIAS DISCRETAS
Las variables discretas quedan determinadas cuando conocemos
los posibles valores que toma y la probabilidad que toma cada uno
de sus valores .
La función de masa de probabilidad de una variable aleatoria
discreta es una función que asigna a cada valor posible de esta
variable aleatoria una probabilidad.
Si la variable aleatoria X toma los valores x1, x2, . . . , xn y
conocemos los valores pi = P[X = xi] con i= 1,…,n, la función de masa
de probabilidad de la v.a. discreta X viene dada por:
X x1 x2 x3 ··· xn
pi = P[X = xi] p1 p2 p3 ··· pn
VARIABLES ALEATORIAS DISCRETAS
FUNCIÓN DE MASA DE PROBABILIDAD
Para que la función de masa de probabilidad esté bien
definida debe respetar las siguientes condiciones:
10  ip
1
1

n
i
ip
VARIABLES ALEATORIAS DISCRETAS
Experimento Aleatorio: Lanzamiento de dos dados.
Variable Aleatoria: Suma de las puntuaciones de ambos dados.
X= Suma de las puntuaciones de ambos dados
Resultados posibles del experimento según las puntuaciones
obtenidas con los dados. Cada uno de estos 36 casos son
equiprobables. 1 2 3 4 5 6
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
Rango de X ={2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}
Prob. Pi
X
1/36 5/36 3/362/36 3/36 4/36 5/36 4/36 1/362/366/36
8 111097652 3 4 12
    1,1
36
1
2 P
      2,1,1,2
36
2
3 P
P(X = k) =
#(Suman k)
36
La función de masa de probabilidad de la v.a discreta
X= Suma de las puntuaciones de ambos dados
viene dada en la siguiente tabla:
EJEMPLO
FUNCIÓN DE DISTRIBUCIÓN
La función de distribución de una variable aleatoria se corresponde
con el concepto de frecuencia relativa acumulada. La función de
distribución, F(x), se define:
F(x)=P[X≤x]
PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN
1. Siempre es monótona creciente  Si x1<x2 entonces F (x1) ≤ F (x2)
1. F(x) verifica:
1. F(x)es siempre continua por la derecha.
lim
x®+¥
FX(x)=1 lim
x®-¥
FX (x)= 0
VARIABLES ALEATORIAS DISCRETAS
FUNCIÓN DE DISTRIBUCIÓN Y CÁLCULO DE PROBABILIDADES
La Función de Distribución permite calcular la probabilidad de los
sucesos más usuales asociados a una variable. De forma general:
1) P(X ≤ a)=F(a)
2) P(X > a)= 1-F(a)
3) P(a<X≤b)= F(b)-F(a).Cuidado con las desigualdades en las variables discretas.
Probabilísticamente NO es lo mismo ‘≤’ que ‘<‘ y ‘≥’ que ‘>’
F(x)=P[X≤x]= P(xi )
xi ≤x
å
VARIABLES ALEATORIAS DISCRETAS
EJEMPLO
Experimento Aleatorio: Lanzamiento de dos dados.
La función de distribución de la v.a discreta
X= Suma de las puntuaciones de ambos dados
viene dada en la siguiente tabla:
F(xi)
X
1/36 26/36 33/363/36 6/36 15/36 30/36 135/3621/36
8 111097652 3 4 12
10/36
EJEMPLO
La representación gráfica de esta función de distribución es:
¡Atención! Gráfica escalonada
VARIABLES ALEATORIAS CONTINUAS
Como ya se ha dicho, las variables aleatorias discretas quedan
definidas por su función de masa de probabilidad, pero ¿y las
variables aleatorias continuas? ¿tienen masa de
probabilidad?.
Para una v.a. continua, la P[X=x]=0, o lo que es lo mismo, no
tienen masa de probabilidad y por tanto no podemos definir
su función de masa de probabilidad.
Entonces ¿cómo calculamos probabilidades para v.a.
continuas?
A través de la función de distribución F(x)=P[X≤x]
VARIABLES ALEATORIAS CONTINUAS
Para las v.a. discretas:
Pero también hemos visto que las v.a. continuas no tiene masa de
probabilidad, por tanto no podemos calcular la probabilidad
acumulada como suma de probabilidades puntuales.
Las v.a. continuas, al tomar infinitos valores, habría que “sumar
infinitas probabilidades”.
A partir de la función de distribución de las v.a. continuas podemos
definir una función que nos indique de que manera se distribuyen
las probabilidades para los valores de las variables. Esa función la
llamamos función de densidad y se define como:
F(x)=P[X≤x]= P(xi )
xi ≤x
å
f (x)= F'(x) Û F(x)= f (t)dt
-¥
x
ò
VARIABLES ALEATORIAS CONTINUAS
Las variables continuas quedan determinadas cuando conocemos
cómo se “distribuye” la probabilidad entre los posibles valores que
tome.
Para determinar la probabilidad de cada posible intervalo de
valores utilizaremos la función de densidad.
FUNCIÓN DE DENSIDAD
La función de densidad f(x) de una variable aleatoria continua es
una expresión matemática que permite determinar la probabilidad
de cada posible intervalo de valores a través del área que encierra
la curva entre los límites del intervalo.
VARIABLES ALEATORIAS CONTINUAS
FUNCIÓN DE DENSIDAD
Las propiedades que debe cumplir f(x) para que pueda ser
considerada una función de densidad de una variable
aleatoria continua son las siguientes:





1)(
0)(
dxxf
xf
VARIABLES ALEATORIAS CONTINUAS
¿CÓMO UTILIZAR f(x) PARA CALCULAR PROBABILIDADES?
P(X £ x) = f(t)dt
-¥
x
ò
P(X ³ x) = f(t)dt
x
+¥
ò
VARIABLES ALEATORIAS CONTINUAS
¿CÓMO UTILIZAR f(x) PARA CALCULAR PROBABILIDADES?
¡IMPORTANTE!
En v.a continuas la
probabilidad de un punto
aislado siempre es 0
P(a £ X £ b) = f(t)dt
a
b
ò
P(X = a) = P(a £ X £ a) = f(t)dt
a
a
ò = 0
FUNCIÓN DE DISTRIBUCIÓN
VARIABLES ALEATORIAS CONTINUAS
 La función de distribución de una variable aleatoria se
corresponde con el concepto de frecuencia relativa
acumulada. La función de distribución, F(x), se define:
 

x
dxxfxXPxF )(][)(
Por tanto, la función de distribución de una variable aleatoria
continua puede ser obtenida a partir de la función de
densidad f(x)
PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN
VARIABLES ALEATORIAS CONTINUAS
Son las mismas propiedades de la función de distribución de una
variable aleatoria discreta
FUNCIÓN DE DISTRIBUCIÓN Y CÁLCULO DE PROBABILIDADES
Para una variable continua, el hecho de que un valor tenga
probabilidad cero conduce a una mayor flexibilidad:
1) P(X ≤ a) = P(X < a) = F(a)
2) P(a < X ≤ b) = P (a ≤ X < b) = P (a ≤ X ≤ b) = P (a < x < b)= F(b)-F(a)
3) P (X ≥ a) = P (X > a) = 1- F(a)
VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
Función de densidad
f(x) =
1/30
0
si
si
0 £ x £ 30
c. c.
ì
í
î
VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
Función de Disribución
F(x) = P(X £ x) =
0 si x < 0
x
30
si 0 £ x £ 30
1 si x > 30
ì
í
ïï
î
ï
ï
F(x) = 1
30
dt = x
300
x
ò
VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
¿Probabilidad de esperar más de 5 min?
P(X > 5) =1- F(5) =
25
30
5
CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS DISCRETAS
MEDIA Y VARIANZA
El valor esperado, esperanza o media de una variable aleatoria
discreta se define como:
La varianza de una variable aleatoria discreta se define como:
 
n
i 1
iipxE(X)
22
n
1i
i
2
i
n
1i
i
2
i pxp)(xVar(X)    
En estas expresiones se ha sustituido la frecuencia relativa,
que se usaba en el caso de los parámetros muestrales
correspondientes, por la probabilidad.
CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS DISCRETAS
EJEMPLO
Experimento Aleatorio: Lanzamiento de dos dados.
Variable Aleatoria: X= Suma de las puntuaciones de ambos
dados
Prob. Pi
X
1/36 5/36 3/362/36 3/36 4/36 5/36 4/36 1/362/366/36
8 111097652 3 4 12
puntos7
36
1
12·...
36
2
3·
36
1
2·pxE(X)
n
1i
ii  
Var(X) = 22 1
36
+32 2
36
+ 42 3
36
+...+122 1
36
æ
è
ç
ö
ø
÷- 7( )
2
= 5,83puntos2
CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS CONTINUAS
MEDIA Y VARIANZA
El valor esperado, esperanza o media de una variable
aleatoria continua se define como:
La varianza de una variable aleatoria discreta se define
como:
 


f(x)dxxE(X)
2222
f(x)dxxf(x)dx)(xVar(X)   




VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
Función de densidad
f(x) =
1/30
0
si
si
0 £ x £ 30
c. c.
ì
í
î
CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS CONTINUAS
EJEMPLO
Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h,
suponiendo que el amigo llega con la misma probabilidad en cada
instante del intervalo.
X es una v.a continua. Rango de valores [0min.,30min.]
minutos15
2
x
·
30
1
dx
30
1
x·xf(x)dxE(X)
30
0
2
30
0
 


    7515
3
x
30
1
15dx
30
1
xVar(X)
2
30
0
3
230
0
2
 
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE BERNOULLI
A los experimentos aleatorios en los que sólo se pueden dar
dos resultados posibles (éxito - fracaso) se denominan
experimentos o pruebas de Bernoulli.
Ejemplos de pruebas de Bernoulli:
Lanzar un dado y observar si el resultado es par.
Lanzar una moneda y observar si el resultado es cruz.
Observar si una pieza fabricada por una determinada
máquina es defectuosa.
Observar si un recién nacido es varón.
Observar si un accidente de tráfico tiene resultado de
muerte.
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE BERNOULLI
Dada una prueba de Bernoulli, la v.a X que toma el valor 1 si se
presenta éxito y el valor 0 si se presenta fracaso, diremos que se
distribuye según una distribución de Bernoulli:
X 0 1 E(X) = p
P(X) 1-p p Var(X) = p(1-p)
p : probabilidad de obtener éxito en el experimento
1-p : probabilidad de obtener fracaso en el experimento.
)(pBeX 
DISTRIBUCIÓN DE BERNOULLI
EJEMPLO
Si un proceso de fabricación produce un 2% de elementos
defectuosos y llamamos éxito el resultado de obtener un producto
correcto, entonces la v.a:
X= Observar si el producto es correcto
sigue una distribución de Bernoulli, es decir, X ® Be(0.98)
X 0 1
P(X) 0.02 0.98
E(X) = p= 0.98
Var(X)=p(1-p)=0.98·0.02=0.0196
En una prueba de Bernoulli, la variable aleatoria:
X= Nº de éxitos aparecidos en n pruebas.
decimos que sigue una distribución Binomial de parámetros n y p.
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN BINOMIAL
Si una prueba de Bernoulli, se realiza consecutivamente n veces,
de forma independiente y siempre en las mismas condiciones que
la primera vez puede interesarnos conocer el número total de
éxitos conseguidos.
),( pnBX 
p : probabilidad de obtener éxito en cada prueba.
E(X) = n p
Var(X)=n p(1-p)
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN BINOMIAL
La función de probabilidad de la distribución Binomial viene dada
por:
n : número de veces que se realiza el experimento.
p : probabilidad de éxito en cada prueba.
1-p : probabilidad de fracaso en cada prueba.
k : Nºde éxitos al que queremos calcular la probabilidad.
La media y la varianza de la distribución Binomial son:
¡Atención! → Rango de k: 0, 1,…,n
P(X = k) = n
k
æ
è
ç
ö
ø
÷pk
(1- p)n-k
DISTRIBUCIÓN BINOMIAL
EJEMPLO
En un proceso de fabricación industrial se producen un 12% de piezas
defectuosas.
¿Cuál es la probabilidad de que de un lote de 20 piezas resulten
defectuosas al menos 3?
Definimos la variable : X=”Nº de piezas defectuosas en un lote de 20”
)12.0;20(BX 
          
   
   
    27403.01888.0212.0
2
20
]2[
21153.01988.0112.0
1
20
]1[
07756.02088.0012.0
0
20
]0[
2101313






















XP
XP
XP
XPXPXPXPXP 0.43688
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN GEOMÉTRICA
En un proceso de Bernoulli, la variable aleatoria:
X= Nº de prueba hasta que aparece el primer éxito.
decimos que sigue una distribución Geométrica de
parámetro p.
)(pGeX 
p : probabilidad de obtener éxito en cada prueba.
  ppkXP k
 1
1)(
La función de probabilidad de la distribución Geométrica viene
dada por:
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN GEOMÉTRICA
p : probabilidad de éxito en cada prueba.
q = 1-p : probabilidad de fracaso en cada prueba.
k : Nº de intentos necesarios para conseguir el primer éxito.
La media y la varianza de la distribución Geométrica son:
E(X) = 1/p
Var(X)=q/p2
¡Atención! → Rango de k: 1, 2,…
DISTRIBUCIÓN GEOMÉTRICA
EJEMPLO
En un proceso de fabricación industrial se producen un 12% de piezas
defectuosas.
¿Cuál es la probabilidad de que sea necesario fabricar 8 piezas hasta
encontrar la primera pieza defectuosa?
Definimos la variable : Y=” Nº de piezas que se necesitan fabricar
hasta encontrar la primera defectuosa”
)12.0(GeY 
      0.049 12.088.08 7
YP
¿Cuál es la probabilidad de que sea necesario fabricar más de 3 piezas hasta
encontrar la primera pieza defectuosa?
DISTRIBUCIÓN GEOMÉTRICA
EJEMPLO
   
  
    0929.012.0288.0]3[
1056.012.088.0]2[
12.0]1[
]]3[]2[]1[[1313






YP
YP
YP
YPYPYPYPYP 0.6815
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN BINOMIAL NEGATIVA
En una proceso de Bernoulli, la variable aleatoria:
X= Nº de pruebas que son necesarias hasta obtener r
éxitos.
decimos que sigue una distribución Binomial Negativa de
parámetros p y r.
),( prBNX 
p : probabilidad de obtener éxito en cada prueba.
r : número de éxitos que se quieren conseguir.
La función de probabilidad de la distribución Binomial Negativa
viene dada por:
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN BINOMIAL NEGATIVA
p : probabilidad de éxito en cada prueba.
q=1-p : probabilidad de fracaso en cada prueba.
r : número de éxitos que se quieren conseguir.
k : número de intentos necesarios para conseguir r éxitos.
La media y la varianza de la distribución Binomial Negativa son:
E(X) = r/p
Var(X)= rq/p2
P(X = k)=
k -1
r -1
æ
è
ç
ç
ç
ö
ø
÷
÷
÷
pr × 1- p( )k - r
¡Atención! → Rango de k: r, r+1,…
DISTRIBUCIÓN BINOMIAL NEGATIVA
EJEMPLO
En un proceso de fabricación industrial se producen un 12% de piezas
defectuosas.
¿Cuál es la probabilidad de que sea necesario fabricar entre 40 y 42 piezas
para conseguir 5 piezas defectuosas?
Definimos la variable : T=”Nº de piezas que se necesitan fabricar
hasta encontrar la 5ª defectuosa”
)12.0;5(BNX 
 
   
   
    02225.03788.0512.0
4
41
]42[
02281.03688.0512.0
4
40
]41[
02333.03588.0512.0
4
39
]40[
]42[]41[]40[4240






















TP
TP
TP
TPTPTPTP 0.06839
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE POISSON
La distribución de Poisson constituye una familia de distribuciones
de probabilidad que tienen un papel muy importante en la
estadística.
Situaciones empíricas que se rigen por un comportamiento de
tipo Poisson:
nº de llamadas telefónicas que recibimos en una hora.
nº de faltas de ortografía que se producen en un texto.
nº de nacimientos en un día.
nº de averías de una máquina en un año.
Estas variables describen el número de veces que ocurre un suceso
“raro” o “poco frecuente” por unidad de tiempo, longitud, etc.
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE POISSON
Si llamamos λ = nº medio de ocurrencias del suceso
“raro”, por unidad de tiempo, longitud, etc., entonces la
variable aleatoria:
X= Nº de veces que ocurre un suceso “raro” por unidad
de tiempo, longitud, etc.
decimos que sigue una distribución de Poisson de
parámetro λ .
0
)(



PX
La función de probabilidad de la distribución de Poisson viene dada
por:
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
DISTRIBUCIÓN DE POISSON
La media y la varianza de la distribución de Poisson son:
E(X) = λ
Var(X)= λ
¡Atención! → Rango de k: 0, 1,…
  !k
kekXP  

DISTRIBUCIÓN DE POISSON
EJEMPLO
El promedio de llamadas telefónicas atendidas en la centralita de una
cierta Facultad es de 36 llamadas por hora. Calcular la probabilidad de que
en un periodo de 5 minutos:
a) Se atiendan 5 llamadas
b) Se atiendan más de 2 llamadas
¡Ojo!
Una variable Poisson queda definida por una determinada unidad de
medida y por el término medio de ocurrencias en la misma.
λ = 36 llamadas / hora
Llegadas en una hora P(36)
λ = 3 llamadas / 5 Minutos
Llegadas en 5 minutos P(3)
DISTRIBUCIÓN DE POISSON
EJEMPLO
X=”Nº de llamadas atendidas en 5 minutos”
λ = nº medio de llamadas atendidas en 5 minutos = 3
)3(PX 
a) Probabilidad de que se atiendan 5 llamadas
  0,100819

5!
3e
5XP
53
b) Probabilidad de que se atiendan más de 2 llamadas
    0'57681







2!
3e
1!
3e
0!
3e
12XP12XP
231303
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN EXPONENCIAL
En un proceso de Poisson con λ = nº medio de sucesos
acontecidos por unidad de tiempo, la variable aleatoria:
T= Tiempo transcurrido entre dos sucesos consecutivos.
decimos que sigue una distribución Exponencial de
parámetro λ .
0
)(



ExpT
La función de densidad para una Exponencial viene dada
por:
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN EXPONENCIAL
xexF 1)(
La función de Distribución para una Exponencial viene
dada por:
f (x) = le-lx x > 0 l > 0
La media y la varianza de la distribución Exponencial son:
E(X) =1 l
Var(X) =1 l2
DISTRIBUCIÓN EXPONENCIAL
EJEMPLO
El tiempo medio transcurrido entre la llegada de dos clientes consecutivos
al departamento de ventas de un concesionario de una determinada
marca de automóviles es de 20 minutos. Calcular:
a) La probabilidad de que el tiempo transcurrido entre la llegada de dos
clientes consecutivos no supere la media hora.
T=”Tiempo transcurrido (en min) entre la llegada de dos clientes
consecutivos ”
E(T)= tiempo medio transcurrido entre la llegada de dos clientes
consecutivos = 20 min
05.0
20
1201)(  TE
)05.0(ExpT 
DISTRIBUCIÓN EXPONENCIAL
EJEMPLO
a) La probabilidad de que el tiempo transcurrido entre la llegada de dos
clientes consecutivos no supere la media hora.
b) La probabilidad de que el nº de clientes que entren en el intervalo de
una hora sea al menos 4.
Tenemos que λ = 0.05 = nº medio de clientes que llegan al
concesionario cada minuto. Por tanto, el nº medio de clientes que
llegan en una hora será:
P(T<30)=F(30)=1-e
-0.05×30
=0.77687
l = 0.05×60 =3
DISTRIBUCIÓN EXPONENCIAL
EJEMPLO
b) La probabilidad de que el nº de clientes que entren en el intervalo de
una hora sea al menos 4.
La variable aleatoria que ahora nos interesa es:
X= Nº de clientes que llegan cada hora al concesionario
)3(PX 
P(X≥4)=1-P(X<4)=1-
e-3
30
0!
+
e-3
31
1!
+
e-3
32
2!
+
e-3
33
3!
é
ë
ê
ù
û
ú=0.3528
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN NORMAL
Es el modelo de distribución de probabilidad continua más
importante. Son muchos los experimentos y fenómenos que
pueden ser modelizados por esta distribución.
La distribución Normal explica:
Comportamientos biológicos.
Errores de medidas.
Medidas biológicas: alturas, pesos, etc.
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN NORMAL
Decimos que una variable aleatoria X se distribuye según
una Normal de media μ y de desviación típica σ > 0, si su
función de densidad es:
),( NX 
f x( ) =
1
2p ·s
·e
-1
2
·
x-m
s
æ
è
ç
ö
ø
÷
2
Se representará por:
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
PROPIEDADES DE LA DISTRIBUCIÓN NORMAL
1) f(x) tiene un máximo absoluto en µ.
2) f(x) es simétrica respecto de µ.
3) f(x) tiene forma de campana, conocida como campana de Gauss.
4) µ y σ son parámetros.
5) La media, la moda y la mediana coinciden.
µ
Observación
µ=E(X)= media de X
µ= moda –Máxima Densidad-
µ= mediana –Simetría-
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
DISTRIBUCIÓN NORMAL
N(30, 10)
N(50, 10)
N(70, 10)
-20 10 40 70 100 130
0
0,01
0,02
0,03
0,04
 Si cambiamos el valor medio
µ la curva se traslada.
N(40, 5)
N(40, 10)
N(40, 15)
-40 0 40 80 120
0
0,02
0,04
0,06
0,08
 Si σ aumenta, mayor dispersión
y la curva se aplana, menor
concentración alrededor de μ.
 Si σ disminuye, menor
dispersión, más concentración
alrededor de μ.
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
CÁLCULO DE PROBABILIDADES CON
X→N(μ,σ)
Para calcular probabilidades tendremos que evaluar la función de
Distribución, es decir, necesitaremos calcular:
     





 


x
x
dxex
2
·
2
1
X ·
·2
1
xXPF 


F(x) no se puede obtener explícitamente, hay que obtenerla por
aproximación mediante “Métodos numéricos de integración”.
Para subsanar este inconveniente podemos:
1) Tipificar
2) Usar software estadístico
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
CÁLCULO DE PROBABILIDADES CON X→N(μ,σ)
Para calcular probabilidades con la Normal, utilizaremos
unas Tablas Estadísticas, donde vienen los valores de la
Función de Distribución de la N(0, 1).
Previamente, habrá que tipificar la variable N(,) que
estemos tratando, es decir, pasar a una N(0, 1)
)1,0(),( N
X
ZNX 





DISTRIBUCIÓN NORMAL
EJEMPLO
Sea X→N (60,5) , calcula las siguientes probabilidades:
P(X >50) = P
X-m
s
>
50-60
5
æ
è
ç
ö
ø
÷= P Z >
50-60
5
æ
è
ç
ö
ø
÷= P(Z > -2) = P(Z < 2)
P(X=60)
0 60)P(X Probabilidad puntual de una variable continua
P(X >50)
Tipificación N(0,1) es simétrica
respecto a la media
0.9772 2)P(Z50)P(X
DISTRIBUCIÓN NORMAL
EJEMPLO
Tabla Estadística
de N(0,1)
P(55< X <62) = P
55-60
5
< Z <
62-60
5
æ
è
ç
ö
ø
÷= P(-1< Z <0.4) =
P(55 < X < 62)
DISTRIBUCIÓN NORMAL
EJEMPLO
Tipificación
P (a < x < b)= F(b)-F(a)
 1)P(Z0.4)P(Z1)P(Z0.4)P(Z
N(0,1) es simétrica
respecto a la media
0.4967 0.8413)-(1-0.65541))P(Z(10.4)P(Z
DISTRIBUCIÓN NORMAL
EJEMPLO
Probabilidad del
suceso contrario
Tabla Estadística de
N(0,1)
DISTRIBUCIÓN NORMAL
EJERCICIO PROPUESTO
En una determinada ciudad, la cuota por contribuyente
del impuesto municipal de vehículos de tracción
mecánica sigue una distribución normal con media 30€
y desviación típica 12 €.
¿Qué porcentaje de contribuyentes paga una cuota
comprendida entre 12€ y 24€?
Hipótesis: todas las variables están idénticamente
distribuidas, es decir, todas tienen la misma función de
distribución, la misma ley de probabilidad.
En particular tienen la misma esperanza, µ, y la
misma desviación, σ.
Sean, X1,X2,X3,...,Xn, una sucesión de n variables aleatorias independientes
Bajo estas condiciones:
Suma=
n=∞
Aprox.
Para n≥30 la
aproximación es
mejor
)n,N(n Xi
i=1
n
å
Promedio=
n=∞
Aprox.






n

,NXi
i=1
n
å / n
TEOREMA CENTRAL DEL LÍMITE
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
APROXIMACIONES
Aproximación de una Binomial por una Normal
Si n es suficientemente grande y np(1-p)>5,
entonces:
Aproximación de una Poisson por una Normal
),()(  NP n
  
Si n es suficientemente grande y λ >10,
entonces:
Aproximamos
por el teorema
central del límite
B(n, p) n ¾ ®¾ ¥
¾ ®¾¾¾ N np, np(1- p)( )
APROXIMACIONES
EJEMPLO
El porcentaje de fumadores en la población de estudiantes
universitarios es del 35% en el caso de los varones y del 45% en el
caso de las mujeres.
Calcular la probabilidad de que en un Colegio Mayor masculino con
225 estudiantes halla exactamente 80 fumadores.
X=”Nº de fumadores varones de entre 225
estudiantes ”
)35.0;225(BX 
Como n=225 es suficientemente grande y np(1-p)=51.19 > 5,
entonces:
B(225;0.35)¾ ®¾ N 78.75, 51.19( )
EJERCICIO PROPUESTO
APROXIMACIONES
Si en una centralita telefónica se atienden una media
de 6 llamadas por hora, calcular la probabilidad de que
en un periodo de 3 horas:
a) Se atiendan más de 100 llamadas telefónicas.
b) El número de llamadas telefónicas esté
comprendido entre 80 y 100, ambos valores
inclusive.

Más contenido relacionado

La actualidad más candente

Distribucion Binomial
Distribucion BinomialDistribucion Binomial
Distribucion BinomialFred Lucena
 
Distrib.binomial
Distrib.binomialDistrib.binomial
Distrib.binomialbetyglo
 
7 permutaciones combinaciones
7 permutaciones combinaciones7 permutaciones combinaciones
7 permutaciones combinacionesArbey Gutierrez
 
Formulario Ecuaciones diferenciales
Formulario Ecuaciones diferencialesFormulario Ecuaciones diferenciales
Formulario Ecuaciones diferencialesjhon kuiro pumayalli
 
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJADIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJAajimenezz
 
Circuitos de corriente directa. ing. carlos moreno (ESPOL)
Circuitos de corriente directa. ing. carlos moreno (ESPOL)Circuitos de corriente directa. ing. carlos moreno (ESPOL)
Circuitos de corriente directa. ing. carlos moreno (ESPOL)Francisco Rivas
 
Problemas ondas y sonido
Problemas ondas y sonidoProblemas ondas y sonido
Problemas ondas y sonidogyox27
 
Distribución Binomial
Distribución BinomialDistribución Binomial
Distribución Binomialsamantharisa
 
Ejercicios resueltos de cálculo de probabilidades
Ejercicios resueltos de  cálculo de probabilidadesEjercicios resueltos de  cálculo de probabilidades
Ejercicios resueltos de cálculo de probabilidadesMaría BF
 
Tarea 9 de probabilidad y estadistica con respuestas
Tarea 9 de probabilidad y estadistica con respuestasTarea 9 de probabilidad y estadistica con respuestas
Tarea 9 de probabilidad y estadistica con respuestasIPN
 
Distribución de poisso ejercicios
Distribución de poisso ejerciciosDistribución de poisso ejercicios
Distribución de poisso ejerciciosAurora Sanchez Caro
 
Ejercicios yproblemasprobabilidad
Ejercicios yproblemasprobabilidadEjercicios yproblemasprobabilidad
Ejercicios yproblemasprobabilidadmagangue1230
 

La actualidad más candente (20)

Distribucion Binomial
Distribucion BinomialDistribucion Binomial
Distribucion Binomial
 
Distribución Binomial Negativa y Geométrica
Distribución Binomial Negativa y GeométricaDistribución Binomial Negativa y Geométrica
Distribución Binomial Negativa y Geométrica
 
Distrib.binomial
Distrib.binomialDistrib.binomial
Distrib.binomial
 
Trabajo de bayes [principal]
Trabajo de bayes [principal]Trabajo de bayes [principal]
Trabajo de bayes [principal]
 
7 permutaciones combinaciones
7 permutaciones combinaciones7 permutaciones combinaciones
7 permutaciones combinaciones
 
Formulario Ecuaciones diferenciales
Formulario Ecuaciones diferencialesFormulario Ecuaciones diferenciales
Formulario Ecuaciones diferenciales
 
Distribucion binomial negativa
Distribucion binomial negativaDistribucion binomial negativa
Distribucion binomial negativa
 
Problemas unidad 3.new
Problemas unidad 3.newProblemas unidad 3.new
Problemas unidad 3.new
 
Probabilidades matematica
Probabilidades matematicaProbabilidades matematica
Probabilidades matematica
 
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJADIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
DIAPOSITIVAS DE ESTADÍSTICA COMPLEJA
 
Circuitos de corriente directa. ing. carlos moreno (ESPOL)
Circuitos de corriente directa. ing. carlos moreno (ESPOL)Circuitos de corriente directa. ing. carlos moreno (ESPOL)
Circuitos de corriente directa. ing. carlos moreno (ESPOL)
 
Problemas ondas y sonido
Problemas ondas y sonidoProblemas ondas y sonido
Problemas ondas y sonido
 
Probabilidades
ProbabilidadesProbabilidades
Probabilidades
 
Distribución Binomial
Distribución BinomialDistribución Binomial
Distribución Binomial
 
Ejercicios resueltos de cálculo de probabilidades
Ejercicios resueltos de  cálculo de probabilidadesEjercicios resueltos de  cálculo de probabilidades
Ejercicios resueltos de cálculo de probabilidades
 
Tarea 9 de probabilidad y estadistica con respuestas
Tarea 9 de probabilidad y estadistica con respuestasTarea 9 de probabilidad y estadistica con respuestas
Tarea 9 de probabilidad y estadistica con respuestas
 
Distribución de poisso ejercicios
Distribución de poisso ejerciciosDistribución de poisso ejercicios
Distribución de poisso ejercicios
 
Lineas equipotenciales
Lineas equipotencialesLineas equipotenciales
Lineas equipotenciales
 
Modelos probabilidad
Modelos probabilidadModelos probabilidad
Modelos probabilidad
 
Ejercicios yproblemasprobabilidad
Ejercicios yproblemasprobabilidadEjercicios yproblemasprobabilidad
Ejercicios yproblemasprobabilidad
 

Similar a Tema3

2° Distribución de Prob-Variable Aleatoria-1.pdf
2° Distribución de Prob-Variable Aleatoria-1.pdf2° Distribución de Prob-Variable Aleatoria-1.pdf
2° Distribución de Prob-Variable Aleatoria-1.pdfCarlos Araya Morata
 
ELEMENTOS DE PROBABILIDAD
ELEMENTOS DE PROBABILIDADELEMENTOS DE PROBABILIDAD
ELEMENTOS DE PROBABILIDADOlga Lima
 
Teoría de conjuntos y teoría de probabilidad
Teoría de conjuntos y teoría de probabilidadTeoría de conjuntos y teoría de probabilidad
Teoría de conjuntos y teoría de probabilidadarielito2907
 
Teoria de la probabilidad estadistica. primer 20% 3er corte. (3)
Teoria de la probabilidad  estadistica. primer 20% 3er corte. (3)Teoria de la probabilidad  estadistica. primer 20% 3er corte. (3)
Teoria de la probabilidad estadistica. primer 20% 3er corte. (3)luisbadell89
 
Jeison rodriguez presentación en slideshare
Jeison rodriguez presentación en slideshareJeison rodriguez presentación en slideshare
Jeison rodriguez presentación en slidesharedarjei
 
Ensayo de estadistica
Ensayo de estadisticaEnsayo de estadistica
Ensayo de estadisticaAndreMolero20
 

Similar a Tema3 (20)

Probabilidad 1
Probabilidad 1Probabilidad 1
Probabilidad 1
 
Probabilidad I
Probabilidad IProbabilidad I
Probabilidad I
 
tema5
tema5tema5
tema5
 
2° Distribución de Prob-Variable Aleatoria-1.pdf
2° Distribución de Prob-Variable Aleatoria-1.pdf2° Distribución de Prob-Variable Aleatoria-1.pdf
2° Distribución de Prob-Variable Aleatoria-1.pdf
 
Probabilidad y estadística
Probabilidad y estadísticaProbabilidad y estadística
Probabilidad y estadística
 
Probabilidad y estadística
Probabilidad y estadísticaProbabilidad y estadística
Probabilidad y estadística
 
Probabilidad y Estadística 1
Probabilidad y Estadística 1Probabilidad y Estadística 1
Probabilidad y Estadística 1
 
Probabilidad y estadística
Probabilidad y estadísticaProbabilidad y estadística
Probabilidad y estadística
 
Elementos de la probabilidad 1
Elementos de la probabilidad 1Elementos de la probabilidad 1
Elementos de la probabilidad 1
 
Probabilidad y estadística
Probabilidad y estadísticaProbabilidad y estadística
Probabilidad y estadística
 
ELEMENTOS DE PROBABILIDAD
ELEMENTOS DE PROBABILIDADELEMENTOS DE PROBABILIDAD
ELEMENTOS DE PROBABILIDAD
 
Teoria de la probabilidad
Teoria de la probabilidadTeoria de la probabilidad
Teoria de la probabilidad
 
02 - Introducción a la teoría de probabilidad
02 - Introducción a la teoría de probabilidad02 - Introducción a la teoría de probabilidad
02 - Introducción a la teoría de probabilidad
 
Teoría de conjuntos y teoría de probabilidad
Teoría de conjuntos y teoría de probabilidadTeoría de conjuntos y teoría de probabilidad
Teoría de conjuntos y teoría de probabilidad
 
Estadisticas
EstadisticasEstadisticas
Estadisticas
 
Teoria de la probabilidad estadistica. primer 20% 3er corte. (3)
Teoria de la probabilidad  estadistica. primer 20% 3er corte. (3)Teoria de la probabilidad  estadistica. primer 20% 3er corte. (3)
Teoria de la probabilidad estadistica. primer 20% 3er corte. (3)
 
Jeison rodriguez presentación en slideshare
Jeison rodriguez presentación en slideshareJeison rodriguez presentación en slideshare
Jeison rodriguez presentación en slideshare
 
Probabilidad Estadistica
Probabilidad EstadisticaProbabilidad Estadistica
Probabilidad Estadistica
 
Ensayo de estadistica
Ensayo de estadisticaEnsayo de estadistica
Ensayo de estadistica
 
Probabilidades
ProbabilidadesProbabilidades
Probabilidades
 

Tema3

  • 1. BLOQUE 2 PROBABILIDAD Y VARIABLE ALEATORIA
  • 2. 2  Hasta ahora, el análisis estadístico se ha limitado a la descripción de un conjunto pequeño de datos (obtención de medidas de posición, dispersión y forma, entre otros).  En cualquier investigación o estudio es importante poder generalizar nuestros resultados a un colectivo mucho más amplio (población).  La teoría de la probabilidad proporciona una base para evaluar la fiabilidad de las conclusiones alcanzadas y las inferencias realizadas.  Debido al importante papel desempeñado por la probabilidad dentro de la estadística, es necesario familiarizarse con sus elementos básicos, lo que constituye el objetivo del presente tema. PROBABILIDAD Y VARIABLE ALEATORIA
  • 4. • En nuestra vida cotidiana asociamos usualmente el concepto de Probabilidad a su calificativo probable. • Consideramos probables aquellos eventos en los que tenemos un alto grado de creencia en su ocurrencia. • Probabilidad es un concepto asociado a la medida del azar. • Pensamos en el azar vinculado con los juegos de azar. Pero hay otros ejemplos de fenómenos de la vida cotidiana u otras disciplinas de distintas ciencias. 4 INTRODUCCIÓN
  • 5. Ejemplos._  ¿Qué número de unidades de producción salen cada día de una cadena de montaje? No existe un número fijo que pueda ser conocido a priori, sino un conjunto de posibles valores que podrían darse, cada uno de ellos con un cierto grado de certeza.  ¿Cuál es el tamaño de un paquete de información que se transmite a través de HTTP? No existe en realidad un número fijo, sino que éste es desconocido a priori. 5 INTRODUCCIÓN
  • 6. 6 INTRODUCCIÓN En contraposición, un experimento determinístico es aquel donde las mismas condiciones aseguran que se obtengan los mismos resultados. Lanzar un dado o una moneda al aire. La duración de una bombilla. Nº piezas defectuosas fabricadas al día. Leyes Físicas. Teoremas Matemáticos. Experimento Aleatorio Un experimento que repetido en las mismas condiciones, no siempre proporciona los mismos resultados.
  • 7. 7 INTRODUCCIÓN Experimento Aleatorio Un experimento que repetido en las mismas condiciones, no siempre proporciona los mismos resultados. El Cálculo de Probabilidades busca encontrar una medida de la incertidumbre que se tiene de todos los posibles resultados, ya que muy difícilmente se podrá conocer a priori el resultado de cualquier experimento donde el azar esté presente: a esta medida de la incertidumbre la denominaremos probabilidad.
  • 8. 8 INTRODUCCIÓN Si consideramos un experimento aleatorio, podemos caracterizar los posibles resultados de dicho experimento. Espacio muestral Conjunto formado por todos los posibles resultados que se pueden obtener al realizar un experimento aleatorio. Lo llamamos Ω. Ejemplo: En el lanzamiento de un dado el espacio muestral es Ω = {1, 2, 3, 4, 5, 6} Cada resultado posible es un elemento del conjunto Ω.
  • 9. 9 INTRODUCCIÓN Si consideramos un experimento aleatorio, podemos caracterizar los posibles resultados de dicho experimento. Suceso aleatorio Todo subconjunto del espacio muestral Ω generado por un experimento aleatorio. Ejemplo: En el lanzamiento de un dado el suceso A = {2, 4, 6} corresponde con el suceso aleatorio “sacar número par” . Un suceso con más de un elemento se denomina suceso compuesto. Cuando un suceso consta de un solo elemento le llamamos suceso simple o elemental.
  • 10. 10 INTRODUCCIÓN ¿Cuál es nuestro objetivo?  Definir una medida sobre los sucesos asociados a un experimento. Asociar cada suceso con una cantidad numérica que tenga como objetivo medir la probabilidad del mismo.  No pretendemos decir qué es la probabilidad, sino establecer unas reglas, en forma de axiomas, a las que se ajuste dicho concepto cualquiera que sea la concepción probabilística de partida. Propiedades y operaciones con sucesos Axiomática de Kolmogorov
  • 11. 11 PROPIEDADES Y OPERACIONES CON SUCESOS Ejemplo: En el lanzamiento de un dado, el suceso A = “sacar número menor o igual a 6” = {1,2,3,4,5,6} es un suceso seguro. En el lanzamiento de dos dados, el suceso B=“la suma de los dos dados sea 1” ={ø} es un suceso imposible. Suceso imposible Es el que no se verifica nunca porque sus elementos no están en Ω. Se representa por ø . Suceso seguro Suceso formado por todos los elementos del espacio muestral y coincide con Ω.
  • 12. 12 PROPIEDADES Y OPERACIONES CON SUCESOS Ejemplo: En el lanzamiento de un dado, el suceso A = “sacar número par” = {2, 4, 6} tiene como suceso contrario: Ā = “no sacar número par” = {1, 3, 5} Suceso complementario o contrario Dado un suceso cualquiera A, llamamos suceso complementario de A al que se verifica cuando no se verifica A. Se representa por Ā o AC Sucesos incompatibles Son aquellos que no pueden ocurrir simultáneamente porque no tienen elementos comunes Ejemplo: En el lanzamiento de un dado, los sucesos A = “sacar número par” = {2,4,6} B = “obtener un número menor que 2” ={1} son incompatibles.
  • 13. Unión de sucesos Dados dos sucesos A y B de un mismo experimento aleatorio, llamamos suceso unión de A y B al suceso que se verifica cuando sucede A, o sucede B, o suceden ambos a la vez. El suceso unión se denota por . PROPIEDADES Y OPERACIONES CON SUCESOS A B A A B B Es un suceso “más amplio” que A ó B pues los incluye. Intuitivamente hay más posibilidades de que ocurra. BA
  • 14. PROPIEDADES Y OPERACIONES CON SUCESOS Intersección de sucesos Dados dos sucesos A y B de un mismo experimento aleatorio, llamamos suceso intersección de A y B al suceso que se verifica cuando se verifiquen A y B simultáneamente. El suceso intersección se denota por . B A A B BA Es un suceso “más restrictivo” que A ó B pues está incluido en éstos. Intuitivamente hay menos posibilidades de que ocurra. AÇB=Æ (Incompatibles) AÇB=BAÇB
  • 15. PROPIEDADES Y OPERACIONES CON SUCESOS Resta de sucesos Dados dos sucesos A y B de un mismo experimento aleatorio, llamamos suceso resta de A y B al suceso que se verifica cuando sucede A y al mismo tiempo no sucede B. El suceso intersección se denota por A-B o AB. A B BAB-A  La “resta” no es una nueva operación de sucesos propiamente dicha. Por definición es el suceso formado por los elementales que están en A y no están en B. Obviamente, A-B es un suceso más restrictivo que A.
  • 16. PROPIEDADES Y OPERACIONES CON SUCESOS Experimento Aleatorio: Lanzamiento de un dado. Sucesos elementales: Cada una de las 6 caras. A = Obtener entre dos y cuatro  Suceso compuesto formado por 3 sucesos elementales. B = Obtener más de tres  Suceso compuesto formado por 3 sucesos elementales. }3,2{BAB-A {4}BA 6}5,4,3,{2,BA {4,5,6}B {2,3,4}A         Ω A B Ejemplo
  • 17. PROPIEDADES Y OPERACIONES CON SUCESOS 2) Asociativa: No importa como se asocian los sucesos para hacer las operaciones. C)B(ACB)(A;C)B(ACB)(A   1) Conmutativa: No importa el orden en el que consideremos los sucesos para operar. ABBA;ABBA   3) Distributiva: Relaciona unión e intersección. PROPIEDADES
  • 18. PROPIEDADES Y OPERACIONES CON SUCESOS 5) Leyes de Morgan: Proporcionan un punto de vista diferente. Muy útiles en determinadas ocasiones. 4) Propiedades básicas: Intuitivas por definición. BABA   A B BABA   BA PROPIEDADES
  • 19. PROPIEDADES Y OPERACIONES CON SUCESOS Experimento Aleatorio: Lanzar una moneda 4 veces. Ci = Obtener C en el lanzamiento i-ésimo, i = 1,2,3 y 4 Xi = Obtener X en el lanzamiento i-ésimo, i = 1,2,3 y 4 ¿Cómo se describen los siguientes sucesos? S1 = Obtener cuatro caras S3 = Obtener al menos una cara S2 = No obtener caras S4= Obtener tres caras Ejemplo
  • 20. PROPIEDADES Y OPERACIONES CON SUCESOS Experimento Aleatorio: Lanzar una moneda 4 veces. Ci = Obtener C en el lanzamiento i-ésimo, i = 1,2,3 y 4 Xi = Obtener X en el lanzamiento i-ésimo, i = 1,2,3 y 4 ¿Cómo se describen los siguientes sucesos? S1 = Obtener cuatro caras S3 = Obtener al menos una cara S2 = No obtener caras S4= Obtener tres caras Ejemplo )( 4321 CCCC 
  • 21. AXIOMÁTICA DE PROBABILIDAD Axiomática de Kolmogorov Una probabilidad es una aplicación P que hace corresponder a cada suceso aleatorio un número real, de modo que al suceso A le corresponde el número P(A), y que cumple los siguientes axiomas: P(A)³ 0 1)P(  Siempre que los sucesos sean incompatibles 2 a 2
  • 22. Propiedades 1) La probabilidad de cualquier suceso es un número comprendido entre 0 y 1. 2) La probabilidad del suceso complementario es: 3) La probabilidad del suceso seguro es 1 y la del suceso imposible es 0. 4) Si un suceso incluye a otro, su probabilidad será igual o mayor. 1P(A)0  P(A)-1=)AP( P(W)=1 P(Æ) = 0 P(B)P(A)BA  AXIOMÁTICA DE PROBABILIDAD
  • 23. 5) Cualquiera que sea el suceso B, la probabilidad del suceso A puede descomponerse en: Por tanto: 6) La probabilidad de la unión de sucesos es: Para tres sucesos quedaría: B)P(A-P(B)+P(A)=B)P(A  )BP(AB)P(A=P(A)   P(AÇB)=P(A)- P(AÇB)=P(A-B) AXIOMÁTICA DE PROBABILIDAD
  • 25. AXIOMÁTICA DE PROBABILIDAD Ejemplos En una ciudad el 40% de sus habitantes leen el periódico A, el 80% leen el periódico B y el 30% leen A y B. ¿Cuál es la probabilidad que al elegir una persona al azar dentro de esta ciudad...  lea algún periódico?  no lea ningún periódico? 0,10,9-1B)P(A1B)(AP)BAP( 0,90,3-0,80,4B)P(AB)P(A-P(B)P(A)B)P(A     3,0B)P(A 0,8P(B) 0,4P(A)    
  • 26. ¿Ya sabemos calcular probabilidades? Todavía no  La axiomática de Kolmogorov no indica como asociar probabilidades a un suceso. Sólo indica la propiedades que debe verificar una función que pretenda medir probabilidades.  Las propiedades derivadas a partir de los axiomas nos serán de gran ayuda para el cálculo de probabilidades.
  • 27. DISTINTAS CONCEPCIONES DE PROBABILIDAD Concepción Frecuentista La probabilidad se definiría como el valor en torno al cual tiende a estabilizarse la frecuencia relativa de cada posible resultado del experimento. Sólo aplicable en experiencias reproducibles un nº elevado de veces. Las condiciones bajo las que se realiza la experimentación pueden variar con el tiempo. Concepción Subjetiva Se entiende la probabilidad como grado de creencia. Cada individuo tiene un grado de creencia personal acerca de la ocurrencia de un suceso dado. Concepción Clásica La probabilidad es el cociente entre el nº casos favorables y el total de casos posibles Es válida si todos los casos son igualmente verosímiles (igualmente probables).
  • 28. CÁLCULO DE PROBABILIDADES REGLA DE LAPLACE Trabajaremos con un tipo de experimentos finitos muy particulares  Experimentos con n sucesos elementales todos ellos equiprobables. Dado un experimento finito con n posibles sucesos elementales, y dado un suceso A asociado a dicho experimento aleatorio: Esta definición de probabilidad (concepción clásica) cumple la axiomática de Kolmogorov.     º Aº º º AP deelementosden sucesodelelementosden posiblescasosden favorablescasosden
  • 29. En una población de estudiantes se ha pasado una encuesta para conocer los que son usuarios de software libre (L) y los que utilizan ordenador portátil (P) en clases. Del total de 500 estudiantes, 325 utilizan software libre, 65 utilizan portátil en clases y, finalmente, 15 utilizan software libre y portátil. Si elegimos un estudiante al azar: 1.¿Cuál es la probabilidad de que utilice software libre y portátil? 2.¿Cuál es la probabilidad de que no utilice software libre y si utilice portátil?. 3.¿Cuál es la probabilidad de que utilice software libre y no utilizan portátil? 4.¿Cuál es la probabilidad de que no utilice ni software libre ni portátil? Ejemplo CÁLCULO DE PROBABILIDADES
  • 30. Ejemplo 65.0500 325P(L)  10.0500 50Po)LP(  62.0500 310o)PP(L  25.0500 125o)PLP(  L= usuarios de software libre. Po= usuarios de ordenadores portátiles. Ω= todos los usuarios 13.0500 65P(Po)  03.0500 15Po)P(L  L Po 15310 50 125  CÁLCULO DE PROBABILIDADES
  • 31. PROBABILIDAD CONDICIONADA Llamamos probabilidad del suceso A condicionada por otro B, a la probabilidad de que se presente el suceso A sabiendo que se va a presentar el suceso B. Se escribe: P A/B( ) o P A B( ) o P(A|B) La probabilidad de un suceso condicionado por otro es el cociente entre la probabilidad de que ocurran juntos y la probabilidad del suceso que condiciona. P(B/A) = P(AÇB) P(A) , si P(A) ¹ 0 P(A/B) = P(AÇB) P(B) , si P(B)¹ 0 B A A∩B 
  • 32.  Utilizamos la probabilidad condicionada siempre que vamos a calcular la probabilidad de un suceso al realizar un experimento aleatorio, y tenemos alguna información adicional que modifica el espacio muestral (resultados posibles) de dicho experimento.  La probabilidad condicionada, definida de esta manera, verifica los tres axiomas de Kolmogorov:   0≥ B AP)1º   1= B ΩP)2º ji              ,AA, B AP= B AP)3º ji ∞ 1=i i ∞ 1=i i  PROBABILIDAD CONDICIONADA
  • 33. PROBABILIDAD CONDICIONADA  También se puede comprobar que se verifican las siguientes propiedades: 1. P(ø|B) = 0 2. P(Ā|B) = 1- P(A|B) 3. A1 y A2 disjuntos  P((A1 U A2)|B) = P(A1|B) + P(A2|B) 4. A1 y A2 se cortan  P((A1UA2)|B) = P(A1|B) + P(A2|B) - P((A1∩A2)|B)
  • 34. EJEMPLO RA= R. Rayado Alta GA=R. Golpes Alta RB= R. Rayado Baja GB=R. Golpes Baja Resistencia Golpes Alta Baja Resistencia Rayado Alta 70 10 Baja 40 80 Se analizan los discos de plástico de policarbonato de un proveedor para la resistencia al rayado y a los golpes. Los resultados de 200 discos se resumen a continuación: • Probabilidad de Resistencia Golpes Alta • Probabilidad de Resistencia Rayado Baja • Probabilidad de Resistencia Golpes Alta sabiendo que la de Rayado es Alta • Probabilidad de Resistencia Golpes Baja sabiendo que la de Rayado es Alta 200 110)( GAP 200 120)( GBP   80 70 RA GAP   80 10 RA GBP
  • 35. EJEMPLO RA= R. Rayado Alta GA=R. Golpes Alta RB= R. Rayado Baja GB=R. Golpes Baja Resistencia Golpes Alta Baja Resistencia Rayado Alta 70 10 Baja 40 80 Se analizan los discos de plástico de policarbonato de un proveedor para la resistencia al rayado y a los golpes. Los resultados de 200 discos se resumen a continuación: Probabilidad de Resistencia Golpes Alta sabiendo que la de Rayado es Alta:   )( )( 20080 20070 80 70 RAP RAGAP RA GAP   Calculamos algunas de las probabilidades anteriores haciendo uso de la fórmula
  • 36. PROPIEDAD COMPUESTA O LEY MULTIPLICATIVA De la definición de probabilidad condicionada se deduce que: P(AÇB)= P(B)×P(A|B) Recordando que la intersección satisface la propiedad conmutativa y, por tanto, AB = BA. Es muy fácil ver que de forma simétrica se verifica: A)|P(BP(A)B)P(A  Generalización a tres sucesos )AA|P(A)A|P(A)P(A)AAP(A 213121321  Estas expresiones son muy útiles en experimentos donde existan varias etapas aleatorias. La intersección obliga a que ocurran dos sucesos simultáneamente, esta expresión permite estudiarlos de forma condicionada.
  • 37. EJEMPLO Tenemos una urna con 100 bolas, de las cuales 30 son blancas(B) y 70 son negras(N). El experimento consiste en extraer dos bolas sin reemplazamiento. • ¿Cuál es la probabilidad de que ambas bolas sean blancas? • ¿Cuál es la probabilidad de que la primera sea blanca y la segunda negra? Urna 100 Bolas: 30B y 70N. B1 N1 B2 B2 N2 N2 Etapa1 Etapa2:Condicionada
  • 38. EJEMPLO Tenemos una urna con 100 bolas, de las cuales 30 son blancas(B) y 70 son negras(N). El experimento consiste en extraer dos bolas sin reemplazamiento. • ¿Cuál es la probabilidad de que ambas bolas sean blancas? • ¿Cuál es la probabilidad de que la primera sea blanca y la segunda negra? Urna 100 Bolas: 30B y 70N. B1 N1 B2 B2 N2 N2 Etapa1 Etapa2:Condicionada 1) P(B1 ÇB2 ) = P(B1)P(B2|B1) = 30 100 × 29 99
  • 39. EJEMPLO Tenemos una urna con 100 bolas, de las cuales 30 son blancas(B) y 70 son negras(N). El experimento consiste en extraer dos bolas sin reemplazamiento. • ¿Cuál es la probabilidad de que ambas bolas sean blancas? • ¿Cuál es la probabilidad de que la primera sea blanca y la segunda negra? Urna 100 Bolas: 30B y 70N. B1 N1 B2 B2 N2 N2 Etapa1 Etapa2:Condicionada 2) P(B1 ÇN2 ) = P(B1)P(N2|B1) = 30 100 × 70 99
  • 40. SUCESOS INDEPENDIENTES Los sucesos A y B son independientes cuando : P B A( )=P B( ) ó P A B( )=P A( ) Estas definiciones son equivalentes a: P AÇB( )=P A( )×P B( ) ¡ATENCIÓN! Sucesos independientes no hay que confundirlos con incompatibles. Los sucesos A y B son incompatibles cuando su intersección es el conjunto vacío (ø), cuando no pueden ocurrir simultáneamente.
  • 41. EJEMPLO RA= R. Rayado Alta GA=R. Golpes Alta RB= R. Rayado Baja GB=R. Golpes Baja Resistencia Golpes Alta Baja Resistencia Rayado Alta 70 10 Baja 40 80 Se analizan los discos de plástico de policarbonato de un proveedor para la resistencia al rayado y a los golpes. Los resultados de 200 discos se resumen a continuación:     )( 20 11 8 7; 80 70 ; 200 110)( GAP RA GAP RA GAP GAP   No son independientes 0 200 70)(  RAGAP Tampoco son incompatibles
  • 42. TEOREMA DE PROBABILIDAD TOTAL Se dan situaciones en las que se ha realizado un experimento aleatorio que ha generado una serie de sucesos incompatibles que cubre todos los elementos del espacio muestral Ω: A1,A2,…,An. Para calcular la probabilidad de cualquier suceso B, podemos utilizar la partición realizada: Observando el diagrama: B=(A1  B) U (A2  B) U … U (An  B) P(B) = P(A1  B) + P(A2  B) + … + P(An  B) No se conoce la probabilidad de los sucesos intersección, pero se puede calcular en función de : P(Ai  B) =P(Ai)P(B|Ai) P(Ai) y P(B|Ai) A1 A2 A3 ... An B A1  B A2  B A3  B An  B ... Ω
  • 43. TEOREMA DE PROBABILIDAD TOTAL Si A1, A2, ... , An son sucesos de probabilidad no nula, incompatibles entre sí y cuya unión es el espacio muestral Ω, entonces, para cualquier suceso B: P(B) = P(A1)P(B|A1) + P(A2)P(B|A2) +… + P(An)P(B|An)
  • 44. TEOREMA DE PROBABILIDAD TOTAL Consideramos el experimento previo de extraer dos bolas, sin reemplazamiento, de una urna de 100 bolas, de las cuales 70 son negras y 30 blancas. ¿Qué probabilidad hay de que la 2ª bola sea blanca? B1 N1 B2 B2 N2 N2 100 70 100 30 99 29 99 70 99 30 99 69 Etapa1 Etapa2:Condicionada P(B2) = P(B1)P(B2|B1) + P(N1)P(B2|N1)= = 30/100 ∙ 29/99 + 70/100 ∙ 30/99 = = 3/10 = 0.3
  • 45. TEOREMA DE BAYES Siguiendo con el mismo ejemplo: ¿Cuál es la probabilidad de que la 1ª bola sea blanca sabiendo que la 2ª fue blanca? No sabemos calcular esta probabilidad directamente porque la información no aparece de forma natural  B1 (primera extracción) es causa y B2 (segunda extracción) consecuencia. Primer Paso: Utilizando la simetría de la expresión de la probabilidad condicionada es fácil expresar la probabilidad de B1|B2 respecto de B2|B1. Þ P(B1|B2 ) = P(B1)×P(B2|B1) P(B2 )
  • 46. TEOREMA DE BAYES Si A1, A2, ... , An son sucesos de probabilidad no nula, incompatibles entre sí y cuya unión es el espacio muestral Ω, entonces, para cualquier suceso B: P(Ai |B ) = P(A1)·P(B | A1) + P(A2)·P(B | A2) +… + P(An)·P(B | An) P(Ai)·P(B | Ai)
  • 47. TEOREMA DE BAYES Ahora ya podemos responder a la pregunta: ¿Cuál es la probabilidad de que la 1ª bola sea blanca sabiendo que la 2ª fue blanca? 0,29 99 30 100 70 99 29 100 30 99 29 100 30 )P(B )B|P(B)P(B )B|P(B 2 121 21        B1 N1 B2 B2 N2 N2 100 70 100 30 99 29 99 70 99 30 99 69 Etapa1 Etapa2:Condicionada Teorema de Bayes
  • 48. EJERCICIO PROPUESTO Un distribuidor recibe piezas de tres fabricantes F1, F2 y F3, de modo que el 30% de las piezas proceden de F1, el 50% de F2 y el resto de F3. Se devuelven por incorrecciones el 2% de las piezas procedentes de F1, el 6% de las procedentes de F2 y el 8% de las procedentes de F3. De las próximas 2000 piezas recibidas: • ¿Cuántas piezas es de esperar que sean devueltas? • Sabiendo que una pieza está defectuosa, ¿cuál es la probabilidad de que proceda de F3?
  • 50. INTRODUCCIÓN AL CONCEPTO DE VARIABLE ALEATORIA Frecuentemente, cuando realizamos un experimento aleatorio nos interesa, más que el resultado del experimento, una característica de interés asociada a los resultados. Experimento 1: Lanzamiento de dos dados. “Característica de interés” = Suma de ambos dados Experimento 2: Lanzar una moneda cinco veces. “Característica de interés” = Nº de veces que ha salido cara Estas “Características de interés” son variables que dependen del resultado obtenido al efectuar el experimento aleatorio. Por tanto, pueden entenderse como funciones que asignan a cada posible resultado del experimento un número real.
  • 51.  Una variable aleatoria es una función que asigna un número a cada resultado posible de un experimento aleatorio. El nombre de la variable aleatoria suele designarse con una letra mayúscula, por ejemplo X.  Conviene tener en cuenta que a un mismo experimento aleatorio pueden asociarse diversas variables aleatorias, dependiendo de la observación que realicemos. CONCEPTO DE VARIABLE ALEATORIA Ejemplo → En el lanzamiento de dos dados podríamos considerar las siguientes variables aleatorias: X = Suma de las puntuaciones. Y = Producto de las puntuaciones. Z = Nº de veces que ambos dados han sacado la misma puntuación.
  • 52. TIPOS DE VARIABLES ALEATORIAS DISCRETAS Variables aleatorias que toman valores numéricos aislados y puntuales.  Llamadas de teléfono que recibimos en nuestro móvil cada día.  Aciertos en un examen tipo test.  Coches que atraviesan una calle cada 5 minutos. CONTINUAS Variables aleatorias que toman todos los valores posibles dentro de un intervalo.  Estatura de un individuo.  Temperatura de un individuo.  Tiempo de duración de una bombilla.
  • 53. VARIABLES ALEATORIAS DISCRETAS Las variables discretas quedan determinadas cuando conocemos los posibles valores que toma y la probabilidad que toma cada uno de sus valores . La función de masa de probabilidad de una variable aleatoria discreta es una función que asigna a cada valor posible de esta variable aleatoria una probabilidad. Si la variable aleatoria X toma los valores x1, x2, . . . , xn y conocemos los valores pi = P[X = xi] con i= 1,…,n, la función de masa de probabilidad de la v.a. discreta X viene dada por: X x1 x2 x3 ··· xn pi = P[X = xi] p1 p2 p3 ··· pn
  • 54. VARIABLES ALEATORIAS DISCRETAS FUNCIÓN DE MASA DE PROBABILIDAD Para que la función de masa de probabilidad esté bien definida debe respetar las siguientes condiciones: 10  ip 1 1  n i ip
  • 55. VARIABLES ALEATORIAS DISCRETAS Experimento Aleatorio: Lanzamiento de dos dados. Variable Aleatoria: Suma de las puntuaciones de ambos dados. X= Suma de las puntuaciones de ambos dados Resultados posibles del experimento según las puntuaciones obtenidas con los dados. Cada uno de estos 36 casos son equiprobables. 1 2 3 4 5 6 1 2 3 4 5 6 7 2 3 4 5 6 7 8 3 4 5 6 7 8 9 4 5 6 7 8 9 10 5 6 7 8 9 10 11 6 7 8 9 10 11 12 Rango de X ={2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}
  • 56. Prob. Pi X 1/36 5/36 3/362/36 3/36 4/36 5/36 4/36 1/362/366/36 8 111097652 3 4 12     1,1 36 1 2 P       2,1,1,2 36 2 3 P P(X = k) = #(Suman k) 36 La función de masa de probabilidad de la v.a discreta X= Suma de las puntuaciones de ambos dados viene dada en la siguiente tabla: EJEMPLO
  • 57. FUNCIÓN DE DISTRIBUCIÓN La función de distribución de una variable aleatoria se corresponde con el concepto de frecuencia relativa acumulada. La función de distribución, F(x), se define: F(x)=P[X≤x] PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN 1. Siempre es monótona creciente  Si x1<x2 entonces F (x1) ≤ F (x2) 1. F(x) verifica: 1. F(x)es siempre continua por la derecha. lim x®+¥ FX(x)=1 lim x®-¥ FX (x)= 0
  • 58. VARIABLES ALEATORIAS DISCRETAS FUNCIÓN DE DISTRIBUCIÓN Y CÁLCULO DE PROBABILIDADES La Función de Distribución permite calcular la probabilidad de los sucesos más usuales asociados a una variable. De forma general: 1) P(X ≤ a)=F(a) 2) P(X > a)= 1-F(a) 3) P(a<X≤b)= F(b)-F(a).Cuidado con las desigualdades en las variables discretas. Probabilísticamente NO es lo mismo ‘≤’ que ‘<‘ y ‘≥’ que ‘>’ F(x)=P[X≤x]= P(xi ) xi ≤x å
  • 59. VARIABLES ALEATORIAS DISCRETAS EJEMPLO Experimento Aleatorio: Lanzamiento de dos dados. La función de distribución de la v.a discreta X= Suma de las puntuaciones de ambos dados viene dada en la siguiente tabla: F(xi) X 1/36 26/36 33/363/36 6/36 15/36 30/36 135/3621/36 8 111097652 3 4 12 10/36
  • 60. EJEMPLO La representación gráfica de esta función de distribución es: ¡Atención! Gráfica escalonada
  • 61. VARIABLES ALEATORIAS CONTINUAS Como ya se ha dicho, las variables aleatorias discretas quedan definidas por su función de masa de probabilidad, pero ¿y las variables aleatorias continuas? ¿tienen masa de probabilidad?. Para una v.a. continua, la P[X=x]=0, o lo que es lo mismo, no tienen masa de probabilidad y por tanto no podemos definir su función de masa de probabilidad. Entonces ¿cómo calculamos probabilidades para v.a. continuas? A través de la función de distribución F(x)=P[X≤x]
  • 62. VARIABLES ALEATORIAS CONTINUAS Para las v.a. discretas: Pero también hemos visto que las v.a. continuas no tiene masa de probabilidad, por tanto no podemos calcular la probabilidad acumulada como suma de probabilidades puntuales. Las v.a. continuas, al tomar infinitos valores, habría que “sumar infinitas probabilidades”. A partir de la función de distribución de las v.a. continuas podemos definir una función que nos indique de que manera se distribuyen las probabilidades para los valores de las variables. Esa función la llamamos función de densidad y se define como: F(x)=P[X≤x]= P(xi ) xi ≤x å f (x)= F'(x) Û F(x)= f (t)dt -¥ x ò
  • 63. VARIABLES ALEATORIAS CONTINUAS Las variables continuas quedan determinadas cuando conocemos cómo se “distribuye” la probabilidad entre los posibles valores que tome. Para determinar la probabilidad de cada posible intervalo de valores utilizaremos la función de densidad. FUNCIÓN DE DENSIDAD La función de densidad f(x) de una variable aleatoria continua es una expresión matemática que permite determinar la probabilidad de cada posible intervalo de valores a través del área que encierra la curva entre los límites del intervalo.
  • 64. VARIABLES ALEATORIAS CONTINUAS FUNCIÓN DE DENSIDAD Las propiedades que debe cumplir f(x) para que pueda ser considerada una función de densidad de una variable aleatoria continua son las siguientes:      1)( 0)( dxxf xf
  • 65. VARIABLES ALEATORIAS CONTINUAS ¿CÓMO UTILIZAR f(x) PARA CALCULAR PROBABILIDADES? P(X £ x) = f(t)dt -¥ x ò P(X ³ x) = f(t)dt x +¥ ò
  • 66. VARIABLES ALEATORIAS CONTINUAS ¿CÓMO UTILIZAR f(x) PARA CALCULAR PROBABILIDADES? ¡IMPORTANTE! En v.a continuas la probabilidad de un punto aislado siempre es 0 P(a £ X £ b) = f(t)dt a b ò P(X = a) = P(a £ X £ a) = f(t)dt a a ò = 0
  • 67. FUNCIÓN DE DISTRIBUCIÓN VARIABLES ALEATORIAS CONTINUAS  La función de distribución de una variable aleatoria se corresponde con el concepto de frecuencia relativa acumulada. La función de distribución, F(x), se define:    x dxxfxXPxF )(][)( Por tanto, la función de distribución de una variable aleatoria continua puede ser obtenida a partir de la función de densidad f(x)
  • 68. PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN VARIABLES ALEATORIAS CONTINUAS Son las mismas propiedades de la función de distribución de una variable aleatoria discreta FUNCIÓN DE DISTRIBUCIÓN Y CÁLCULO DE PROBABILIDADES Para una variable continua, el hecho de que un valor tenga probabilidad cero conduce a una mayor flexibilidad: 1) P(X ≤ a) = P(X < a) = F(a) 2) P(a < X ≤ b) = P (a ≤ X < b) = P (a ≤ X ≤ b) = P (a < x < b)= F(b)-F(a) 3) P (X ≥ a) = P (X > a) = 1- F(a)
  • 69. VARIABLES ALEATORIAS CONTINUAS EJEMPLO Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h, suponiendo que el amigo llega con la misma probabilidad en cada instante del intervalo. X es una v.a continua. Rango de valores [0min.,30min.] Función de densidad f(x) = 1/30 0 si si 0 £ x £ 30 c. c. ì í î
  • 70. VARIABLES ALEATORIAS CONTINUAS EJEMPLO Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h, suponiendo que el amigo llega con la misma probabilidad en cada instante del intervalo. X es una v.a continua. Rango de valores [0min.,30min.] Función de Disribución F(x) = P(X £ x) = 0 si x < 0 x 30 si 0 £ x £ 30 1 si x > 30 ì í ïï î ï ï F(x) = 1 30 dt = x 300 x ò
  • 71. VARIABLES ALEATORIAS CONTINUAS EJEMPLO Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h, suponiendo que el amigo llega con la misma probabilidad en cada instante del intervalo. X es una v.a continua. Rango de valores [0min.,30min.] ¿Probabilidad de esperar más de 5 min? P(X > 5) =1- F(5) = 25 30 5
  • 72. CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS DISCRETAS MEDIA Y VARIANZA El valor esperado, esperanza o media de una variable aleatoria discreta se define como: La varianza de una variable aleatoria discreta se define como:   n i 1 iipxE(X) 22 n 1i i 2 i n 1i i 2 i pxp)(xVar(X)     En estas expresiones se ha sustituido la frecuencia relativa, que se usaba en el caso de los parámetros muestrales correspondientes, por la probabilidad.
  • 73. CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS DISCRETAS EJEMPLO Experimento Aleatorio: Lanzamiento de dos dados. Variable Aleatoria: X= Suma de las puntuaciones de ambos dados Prob. Pi X 1/36 5/36 3/362/36 3/36 4/36 5/36 4/36 1/362/366/36 8 111097652 3 4 12 puntos7 36 1 12·... 36 2 3· 36 1 2·pxE(X) n 1i ii   Var(X) = 22 1 36 +32 2 36 + 42 3 36 +...+122 1 36 æ è ç ö ø ÷- 7( ) 2 = 5,83puntos2
  • 74. CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS CONTINUAS MEDIA Y VARIANZA El valor esperado, esperanza o media de una variable aleatoria continua se define como: La varianza de una variable aleatoria discreta se define como:     f(x)dxxE(X) 2222 f(x)dxxf(x)dx)(xVar(X)       
  • 75. VARIABLES ALEATORIAS CONTINUAS EJEMPLO Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h, suponiendo que el amigo llega con la misma probabilidad en cada instante del intervalo. X es una v.a continua. Rango de valores [0min.,30min.] Función de densidad f(x) = 1/30 0 si si 0 £ x £ 30 c. c. ì í î
  • 76. CARÁCTERÍSTICAS DE VARIABLES ALEATORIAS CONTINUAS EJEMPLO Sea X = tiempo de espera a un amigo entre las 10:00h y las 10:30h, suponiendo que el amigo llega con la misma probabilidad en cada instante del intervalo. X es una v.a continua. Rango de valores [0min.,30min.] minutos15 2 x · 30 1 dx 30 1 x·xf(x)dxE(X) 30 0 2 30 0         7515 3 x 30 1 15dx 30 1 xVar(X) 2 30 0 3 230 0 2  
  • 77. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN DE BERNOULLI A los experimentos aleatorios en los que sólo se pueden dar dos resultados posibles (éxito - fracaso) se denominan experimentos o pruebas de Bernoulli. Ejemplos de pruebas de Bernoulli: Lanzar un dado y observar si el resultado es par. Lanzar una moneda y observar si el resultado es cruz. Observar si una pieza fabricada por una determinada máquina es defectuosa. Observar si un recién nacido es varón. Observar si un accidente de tráfico tiene resultado de muerte.
  • 78. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN DE BERNOULLI Dada una prueba de Bernoulli, la v.a X que toma el valor 1 si se presenta éxito y el valor 0 si se presenta fracaso, diremos que se distribuye según una distribución de Bernoulli: X 0 1 E(X) = p P(X) 1-p p Var(X) = p(1-p) p : probabilidad de obtener éxito en el experimento 1-p : probabilidad de obtener fracaso en el experimento. )(pBeX 
  • 79. DISTRIBUCIÓN DE BERNOULLI EJEMPLO Si un proceso de fabricación produce un 2% de elementos defectuosos y llamamos éxito el resultado de obtener un producto correcto, entonces la v.a: X= Observar si el producto es correcto sigue una distribución de Bernoulli, es decir, X ® Be(0.98) X 0 1 P(X) 0.02 0.98 E(X) = p= 0.98 Var(X)=p(1-p)=0.98·0.02=0.0196
  • 80. En una prueba de Bernoulli, la variable aleatoria: X= Nº de éxitos aparecidos en n pruebas. decimos que sigue una distribución Binomial de parámetros n y p. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN BINOMIAL Si una prueba de Bernoulli, se realiza consecutivamente n veces, de forma independiente y siempre en las mismas condiciones que la primera vez puede interesarnos conocer el número total de éxitos conseguidos. ),( pnBX  p : probabilidad de obtener éxito en cada prueba.
  • 81. E(X) = n p Var(X)=n p(1-p) DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN BINOMIAL La función de probabilidad de la distribución Binomial viene dada por: n : número de veces que se realiza el experimento. p : probabilidad de éxito en cada prueba. 1-p : probabilidad de fracaso en cada prueba. k : Nºde éxitos al que queremos calcular la probabilidad. La media y la varianza de la distribución Binomial son: ¡Atención! → Rango de k: 0, 1,…,n P(X = k) = n k æ è ç ö ø ÷pk (1- p)n-k
  • 82. DISTRIBUCIÓN BINOMIAL EJEMPLO En un proceso de fabricación industrial se producen un 12% de piezas defectuosas. ¿Cuál es la probabilidad de que de un lote de 20 piezas resulten defectuosas al menos 3? Definimos la variable : X=”Nº de piezas defectuosas en un lote de 20” )12.0;20(BX                         27403.01888.0212.0 2 20 ]2[ 21153.01988.0112.0 1 20 ]1[ 07756.02088.0012.0 0 20 ]0[ 2101313                       XP XP XP XPXPXPXPXP 0.43688
  • 83. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN GEOMÉTRICA En un proceso de Bernoulli, la variable aleatoria: X= Nº de prueba hasta que aparece el primer éxito. decimos que sigue una distribución Geométrica de parámetro p. )(pGeX  p : probabilidad de obtener éxito en cada prueba.
  • 84.   ppkXP k  1 1)( La función de probabilidad de la distribución Geométrica viene dada por: DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN GEOMÉTRICA p : probabilidad de éxito en cada prueba. q = 1-p : probabilidad de fracaso en cada prueba. k : Nº de intentos necesarios para conseguir el primer éxito. La media y la varianza de la distribución Geométrica son: E(X) = 1/p Var(X)=q/p2 ¡Atención! → Rango de k: 1, 2,…
  • 85. DISTRIBUCIÓN GEOMÉTRICA EJEMPLO En un proceso de fabricación industrial se producen un 12% de piezas defectuosas. ¿Cuál es la probabilidad de que sea necesario fabricar 8 piezas hasta encontrar la primera pieza defectuosa? Definimos la variable : Y=” Nº de piezas que se necesitan fabricar hasta encontrar la primera defectuosa” )12.0(GeY        0.049 12.088.08 7 YP
  • 86. ¿Cuál es la probabilidad de que sea necesario fabricar más de 3 piezas hasta encontrar la primera pieza defectuosa? DISTRIBUCIÓN GEOMÉTRICA EJEMPLO            0929.012.0288.0]3[ 1056.012.088.0]2[ 12.0]1[ ]]3[]2[]1[[1313       YP YP YP YPYPYPYPYP 0.6815
  • 87. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN BINOMIAL NEGATIVA En una proceso de Bernoulli, la variable aleatoria: X= Nº de pruebas que son necesarias hasta obtener r éxitos. decimos que sigue una distribución Binomial Negativa de parámetros p y r. ),( prBNX  p : probabilidad de obtener éxito en cada prueba. r : número de éxitos que se quieren conseguir.
  • 88. La función de probabilidad de la distribución Binomial Negativa viene dada por: DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN BINOMIAL NEGATIVA p : probabilidad de éxito en cada prueba. q=1-p : probabilidad de fracaso en cada prueba. r : número de éxitos que se quieren conseguir. k : número de intentos necesarios para conseguir r éxitos. La media y la varianza de la distribución Binomial Negativa son: E(X) = r/p Var(X)= rq/p2 P(X = k)= k -1 r -1 æ è ç ç ç ö ø ÷ ÷ ÷ pr × 1- p( )k - r ¡Atención! → Rango de k: r, r+1,…
  • 89. DISTRIBUCIÓN BINOMIAL NEGATIVA EJEMPLO En un proceso de fabricación industrial se producen un 12% de piezas defectuosas. ¿Cuál es la probabilidad de que sea necesario fabricar entre 40 y 42 piezas para conseguir 5 piezas defectuosas? Definimos la variable : T=”Nº de piezas que se necesitan fabricar hasta encontrar la 5ª defectuosa” )12.0;5(BNX                02225.03788.0512.0 4 41 ]42[ 02281.03688.0512.0 4 40 ]41[ 02333.03588.0512.0 4 39 ]40[ ]42[]41[]40[4240                       TP TP TP TPTPTPTP 0.06839
  • 90. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN DE POISSON La distribución de Poisson constituye una familia de distribuciones de probabilidad que tienen un papel muy importante en la estadística. Situaciones empíricas que se rigen por un comportamiento de tipo Poisson: nº de llamadas telefónicas que recibimos en una hora. nº de faltas de ortografía que se producen en un texto. nº de nacimientos en un día. nº de averías de una máquina en un año. Estas variables describen el número de veces que ocurre un suceso “raro” o “poco frecuente” por unidad de tiempo, longitud, etc.
  • 91. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN DE POISSON Si llamamos λ = nº medio de ocurrencias del suceso “raro”, por unidad de tiempo, longitud, etc., entonces la variable aleatoria: X= Nº de veces que ocurre un suceso “raro” por unidad de tiempo, longitud, etc. decimos que sigue una distribución de Poisson de parámetro λ . 0 )(    PX
  • 92. La función de probabilidad de la distribución de Poisson viene dada por: DISTRIBUCIONES DE PROBABILIDAD DISCRETAS DISTRIBUCIÓN DE POISSON La media y la varianza de la distribución de Poisson son: E(X) = λ Var(X)= λ ¡Atención! → Rango de k: 0, 1,…   !k kekXP   
  • 93. DISTRIBUCIÓN DE POISSON EJEMPLO El promedio de llamadas telefónicas atendidas en la centralita de una cierta Facultad es de 36 llamadas por hora. Calcular la probabilidad de que en un periodo de 5 minutos: a) Se atiendan 5 llamadas b) Se atiendan más de 2 llamadas ¡Ojo! Una variable Poisson queda definida por una determinada unidad de medida y por el término medio de ocurrencias en la misma. λ = 36 llamadas / hora Llegadas en una hora P(36) λ = 3 llamadas / 5 Minutos Llegadas en 5 minutos P(3)
  • 94. DISTRIBUCIÓN DE POISSON EJEMPLO X=”Nº de llamadas atendidas en 5 minutos” λ = nº medio de llamadas atendidas en 5 minutos = 3 )3(PX  a) Probabilidad de que se atiendan 5 llamadas   0,100819  5! 3e 5XP 53 b) Probabilidad de que se atiendan más de 2 llamadas     0'57681        2! 3e 1! 3e 0! 3e 12XP12XP 231303
  • 95. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS DISTRIBUCIÓN EXPONENCIAL En un proceso de Poisson con λ = nº medio de sucesos acontecidos por unidad de tiempo, la variable aleatoria: T= Tiempo transcurrido entre dos sucesos consecutivos. decimos que sigue una distribución Exponencial de parámetro λ . 0 )(    ExpT
  • 96. La función de densidad para una Exponencial viene dada por: DISTRIBUCIONES DE PROBABILIDAD CONTINUAS DISTRIBUCIÓN EXPONENCIAL xexF 1)( La función de Distribución para una Exponencial viene dada por: f (x) = le-lx x > 0 l > 0 La media y la varianza de la distribución Exponencial son: E(X) =1 l Var(X) =1 l2
  • 97. DISTRIBUCIÓN EXPONENCIAL EJEMPLO El tiempo medio transcurrido entre la llegada de dos clientes consecutivos al departamento de ventas de un concesionario de una determinada marca de automóviles es de 20 minutos. Calcular: a) La probabilidad de que el tiempo transcurrido entre la llegada de dos clientes consecutivos no supere la media hora. T=”Tiempo transcurrido (en min) entre la llegada de dos clientes consecutivos ” E(T)= tiempo medio transcurrido entre la llegada de dos clientes consecutivos = 20 min 05.0 20 1201)(  TE )05.0(ExpT 
  • 98. DISTRIBUCIÓN EXPONENCIAL EJEMPLO a) La probabilidad de que el tiempo transcurrido entre la llegada de dos clientes consecutivos no supere la media hora. b) La probabilidad de que el nº de clientes que entren en el intervalo de una hora sea al menos 4. Tenemos que λ = 0.05 = nº medio de clientes que llegan al concesionario cada minuto. Por tanto, el nº medio de clientes que llegan en una hora será: P(T<30)=F(30)=1-e -0.05×30 =0.77687 l = 0.05×60 =3
  • 99. DISTRIBUCIÓN EXPONENCIAL EJEMPLO b) La probabilidad de que el nº de clientes que entren en el intervalo de una hora sea al menos 4. La variable aleatoria que ahora nos interesa es: X= Nº de clientes que llegan cada hora al concesionario )3(PX  P(X≥4)=1-P(X<4)=1- e-3 30 0! + e-3 31 1! + e-3 32 2! + e-3 33 3! é ë ê ù û ú=0.3528
  • 100. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS DISTRIBUCIÓN NORMAL Es el modelo de distribución de probabilidad continua más importante. Son muchos los experimentos y fenómenos que pueden ser modelizados por esta distribución. La distribución Normal explica: Comportamientos biológicos. Errores de medidas. Medidas biológicas: alturas, pesos, etc.
  • 101. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS DISTRIBUCIÓN NORMAL Decimos que una variable aleatoria X se distribuye según una Normal de media μ y de desviación típica σ > 0, si su función de densidad es: ),( NX  f x( ) = 1 2p ·s ·e -1 2 · x-m s æ è ç ö ø ÷ 2 Se representará por:
  • 102. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS PROPIEDADES DE LA DISTRIBUCIÓN NORMAL 1) f(x) tiene un máximo absoluto en µ. 2) f(x) es simétrica respecto de µ. 3) f(x) tiene forma de campana, conocida como campana de Gauss. 4) µ y σ son parámetros. 5) La media, la moda y la mediana coinciden. µ Observación µ=E(X)= media de X µ= moda –Máxima Densidad- µ= mediana –Simetría-
  • 103. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS DISTRIBUCIÓN NORMAL N(30, 10) N(50, 10) N(70, 10) -20 10 40 70 100 130 0 0,01 0,02 0,03 0,04  Si cambiamos el valor medio µ la curva se traslada. N(40, 5) N(40, 10) N(40, 15) -40 0 40 80 120 0 0,02 0,04 0,06 0,08  Si σ aumenta, mayor dispersión y la curva se aplana, menor concentración alrededor de μ.  Si σ disminuye, menor dispersión, más concentración alrededor de μ.
  • 104. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS CÁLCULO DE PROBABILIDADES CON X→N(μ,σ) Para calcular probabilidades tendremos que evaluar la función de Distribución, es decir, necesitaremos calcular:                x x dxex 2 · 2 1 X · ·2 1 xXPF    F(x) no se puede obtener explícitamente, hay que obtenerla por aproximación mediante “Métodos numéricos de integración”. Para subsanar este inconveniente podemos: 1) Tipificar 2) Usar software estadístico
  • 105. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS CÁLCULO DE PROBABILIDADES CON X→N(μ,σ) Para calcular probabilidades con la Normal, utilizaremos unas Tablas Estadísticas, donde vienen los valores de la Función de Distribución de la N(0, 1). Previamente, habrá que tipificar la variable N(,) que estemos tratando, es decir, pasar a una N(0, 1) )1,0(),( N X ZNX      
  • 106. DISTRIBUCIÓN NORMAL EJEMPLO Sea X→N (60,5) , calcula las siguientes probabilidades: P(X >50) = P X-m s > 50-60 5 æ è ç ö ø ÷= P Z > 50-60 5 æ è ç ö ø ÷= P(Z > -2) = P(Z < 2) P(X=60) 0 60)P(X Probabilidad puntual de una variable continua P(X >50) Tipificación N(0,1) es simétrica respecto a la media
  • 108. P(55< X <62) = P 55-60 5 < Z < 62-60 5 æ è ç ö ø ÷= P(-1< Z <0.4) = P(55 < X < 62) DISTRIBUCIÓN NORMAL EJEMPLO Tipificación P (a < x < b)= F(b)-F(a)  1)P(Z0.4)P(Z1)P(Z0.4)P(Z N(0,1) es simétrica respecto a la media
  • 110. DISTRIBUCIÓN NORMAL EJERCICIO PROPUESTO En una determinada ciudad, la cuota por contribuyente del impuesto municipal de vehículos de tracción mecánica sigue una distribución normal con media 30€ y desviación típica 12 €. ¿Qué porcentaje de contribuyentes paga una cuota comprendida entre 12€ y 24€?
  • 111. Hipótesis: todas las variables están idénticamente distribuidas, es decir, todas tienen la misma función de distribución, la misma ley de probabilidad. En particular tienen la misma esperanza, µ, y la misma desviación, σ. Sean, X1,X2,X3,...,Xn, una sucesión de n variables aleatorias independientes Bajo estas condiciones: Suma= n=∞ Aprox. Para n≥30 la aproximación es mejor )n,N(n Xi i=1 n å Promedio= n=∞ Aprox.       n  ,NXi i=1 n å / n TEOREMA CENTRAL DEL LÍMITE
  • 112. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS APROXIMACIONES Aproximación de una Binomial por una Normal Si n es suficientemente grande y np(1-p)>5, entonces: Aproximación de una Poisson por una Normal ),()(  NP n    Si n es suficientemente grande y λ >10, entonces: Aproximamos por el teorema central del límite B(n, p) n ¾ ®¾ ¥ ¾ ®¾¾¾ N np, np(1- p)( )
  • 113. APROXIMACIONES EJEMPLO El porcentaje de fumadores en la población de estudiantes universitarios es del 35% en el caso de los varones y del 45% en el caso de las mujeres. Calcular la probabilidad de que en un Colegio Mayor masculino con 225 estudiantes halla exactamente 80 fumadores. X=”Nº de fumadores varones de entre 225 estudiantes ” )35.0;225(BX  Como n=225 es suficientemente grande y np(1-p)=51.19 > 5, entonces: B(225;0.35)¾ ®¾ N 78.75, 51.19( )
  • 114. EJERCICIO PROPUESTO APROXIMACIONES Si en una centralita telefónica se atienden una media de 6 llamadas por hora, calcular la probabilidad de que en un periodo de 3 horas: a) Se atiendan más de 100 llamadas telefónicas. b) El número de llamadas telefónicas esté comprendido entre 80 y 100, ambos valores inclusive.