SlideShare una empresa de Scribd logo
1 de 97
Descargar para leer sin conexión
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 1
Combinatoria
1 Principios b´asicos
La combinatoria es una disciplina que se ocupa de estudiar t´ecnicas de conteo y enumeraci´on de
conjuntos, en especial cuando la cantidad de elementos que poseen es muy grande (de modo que una
lista extensiva ser´ıa imposible o impr´actica). Aplicada a la teor´ıa de probabilidades permite en muchos
casos determinar la cantidad de elementos de un espacio muestral finito y la cantidad de elementos de
alg´un evento de inter´es.
Presentamos dos reglas b´asicas de la combinatoria:
Principio de la multiplicaci´on
Supongamos que un experimento consta de dos etapas. Si como resultado de la primera etapa pueden
darse n resultados posibles y si, independientemente del resultado particular de la primera etapa, la
segunda etapa puede dar lugar a m resultados posibles, entonces la cantidad de posibles resultados
del experimento es n · m
El principio se extiende de manera natural a un experimento en r etapas, donde la i-´esima etapa
tiene una cantidad ni de posibles resultados (independientemente de los resultados particulares
de las etapas anteriores), donde i = 1, 2, · · · , r. Entonces la cantidad de posibles resultados del
experimento es
r
i=1
ni
Ejemplo: Una caja contiene 5 cartas distintas de una baraja espa˜nola. Se extraen dos cartas al azar.
Si se realiza la extracci´on con reposici´on ¿ De cu´antas maneras distintas es posible realizarlo? Rta: 5·
5 = 25 maneras distintas.
Si se realiza la extracci´on sin reposici´on ¿ De cu´antas maneras distintas es posible realizarlo? Rta: 5·
4 = 20 maneras distintas.
Principio de la adici´on
Un experimento puede llevarse a cabo de dos formas. Cuando se lo realiza de una forma conduce
a n resultados posibles. Cuando se lo realiza de la otra forma conduce a m resultados posibles.
Entonces eligiendo una u otra forma para realizarlo, el experimento da lugar a n + m resultados
posibles.
El principio de la adici´on tambi´en se generaliza a un experimento que se realiza de una entre r maneras
posibles, siendo ni la cantidad de posibles resultados cuando se lo realiza de la i-´esima forma, donde
i = 1, 2, · · · , r. Entonces la cantidad de posibles resultados del experimento es
r
i=1
ni
Ejemplo: Para viajar de Buenos Aires a San Pablo se puede optar por tres compa˜n´ıas a´ereas o por
cinco empresas de omnibus ¿ Cu´antas maneras diferentes existen para contratar el viaje? Rta: 3 +
5 = 8 maneras distintas.
2 Variaciones
Se tienen n objetos diferentes y se quiere ordenar k de ellos en fila, siendo k ≤ n. Cada posible
ordenamiento se denomina una variaci´on de los n objetos tomados de a k. Para calcular la cantidad
total de variaciones utilizamos el principio de la multiplicaci´on: Para el primer lugar de la fila hay
n posibles maneras de llenarlo con un objeto. Independientemente de cu´al sea el objeto que ocupe
el primero lugar, para llenar el segundo lugar de la fila disponemos ahora de n − 1 objetos dado que
uno de los objetos ya fue utilizado para cubrir el primer lugar. Independientemente de cu´ales hayan
sido los objetos que llenan los dos primeros lugares de la fila, para cubrir el tercer lugar disponemos de
n − 2 objetos pues dos ya han sido utilizados. As´ı sicesivamente de modo que aplicando el principio
Prof.J.Gast´on Argeri 1
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 2
de la multiplicaci´on, la cantidad total de posibles variaciones de n tomados de a k resulta ser:
(n)k = n · (n − 1) · (n − 2) · · · · · [n − (k − 1)] =
n!
(n − k)!
Ejemplo: En un club se postulan cinco miembros, digamos A,B,C,D y E, para ocupar las posiciones de
presidente y secretario. Para identificar todas las posibles maneras de elegir entre ellos un presidente
y un secretario, formamos las variaciones de 5 tomadas de a 2. En este caso la ”fila” tiene en primer
lugar al presidente y en segundo lugar al secretario. El listado de las 5 · 4 = 20 variaciones es el
siguiente:
AB AC AD AE
BA BC BD BE
CA CB CD CE
DA DB DC DE
EA EB EC ED
3 Permutaciones
Un caso particular de variaciones de n objetos tomados de a k se presenta cuando k = n. En tal
caso las variaciones reciben el nombre de permutaciones de n objetos y corresponden a las diferentes
maneras de ordenar en fila n objetos diferentes. La cantidad de permutaciones de n objetos resulta
entonces ser:
n · (n − 1) · (n − 2) · · · · · [n − (n − 1)] = n!
Ejemplo: La cantidad de n´umeros de cuatro cifras que pueden formarse a partir de los d´ıgitos
3, 5, 6, 8 sin repetir ninguno de ellos resulta ser 4! = 24. Damos un listado de dichos n´umeros:
3568 5368 5638 5683
3586 5386 5836 5863
3658 6358 6538 6583
3685 6385 6835 6853
3856 8356 8536 8563
3865 8365 8635 8653
4 Combinaciones
Dados n objetos diferentes, cada conjunto formado por k de los n elementos se dice una combinaci´on
de los n elementos tomados de a k. La diferencia entre variaciones y combinaciones reside en el hecho
que las combinaciones no tienen en cuenta el orden relativo entre los elementos (ya no podemos pensar
en un ”fila”). Por ejemplo, si se tienen cuatro objetos A,B,C y D las posibles combinaciones de a 2
son:
AB AC AD
BC BD
CD
Comp´arese esto con las posibles variaciones de 4 tomados de a 2:
AB BA AC CA AD DA
BC CB BD DB
CD DC
Para determinar la cantidad de combinaciones de n tomados de a k procedemos de modo indirecto del
modo siguiente: Anotemos provisoriamente x a dicha cantidad. Para una dada combinaci´on existen
k! maneras diferentes de ordenar sus elementos en una fila. Adem´as, combinaciones diferentes dar´an
Prof.J.Gast´on Argeri 2
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 3
lugar a filas con diferentes configuraciones, dado que diferir´an en al menos uno de los objetos presentes.
De esta manera, tomando todas las posibles combinaciones y ordenando en fila los k objetos en cada
una de ellas, obtendremos la totalidad de posibles ordenamientos en fila de k de los n objetos, es
decir la totalidad de variaciones de n tomados de a k. Por lo tanto: x · k! = n!
(n−k)!
Despejando x resulta que la cantidad de posibles combinaciones de n objetos tomados de a k,
n´umero que representaremos con el s´ımbolo n
k
es:
n
k
=
n!
k!(n − k)!
Este n´umero se denomina n´umero combinatorio n sobre k.
En el ejemplo precedente n = 4 , k = 2 de modo que la cantidad de posibles combinaciones es
4
2
= 4!
2!2!
= 4!
4
= 3! = 6
Propiedad 1
n
k
=
n
n − k
Dem:
La demostraci´on queda a cargo del lector.
Propiedad 2
n
j − 1
+
n
j
=
n + 1
j
Dem:
n
j−1
+ n
j
= n!
(j−1)!(n−j+1)!
+ n!
j!(n−j)!
=
= n!
(j−1)!(n−j)!(n−j+1)
+ n!
(j−1)!j(n−j)!
=
= n!
(j−1)!(n−j)!
1
n−j+1
+ 1
j
=
= n!
(j−1)!(n−j)!
· j+n−j+1
j(n−j+1)
=
= n!(n+1)
(j−1)!j(n−j)!(n+1−j)
= (n+1)!
j!(n+1−j)!
= n+1
j
5 Binomio de Newton
Dados n´umeros a, b ∈ R sabemos que el desarrollo del cuadrado del binomio a + b viene dado por:
(a + b)2
= a2
+ 2ab + b2
Podemos reescribir este desarrollo como:
(a + b)2
=
2
0
a0
b2
+
2
1
a1
b1
+
2
2
a2
b0
=
2
k=0
2
k
ak
b2−k
An´alogamente para el desarrollo del cubo de un binomio:
(a + b)3
= a3
+ 3a2
b + 3ab2
+ b3
Prof.J.Gast´on Argeri 3
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 4
que tambi´en puede reescribirse como:
(a + b)3
=
3
0
a0
b3
+
3
1
a1
b2
+
3
2
a2
b1
+
3
3
a3
b0
=
3
k=0
3
k
ak
b3−k
La f´ormula del binomio de Newton generaliza lo anterior al desarrollo de cualquier potencia natural
de un binomio y se expresa de la siguiente manera.
Teorema 1 (F´ormula del binomio de Newton)
Para cualesquiera n´umeros a, b ∈ R y cualquier n´umero n ∈ N se verifica:
(a + b)n
=
n
k=0
n
k
ak
bn−k
Dem:
Por inducci´on respecto de n demostraremos que la proposici´on
p(n) : ∀a, b ∈ R, (a + b)n
=
n
k=0
n
k
ak
bn−k
es verdadera para todo n´umero natural n.
Paso base: Probemos que p(1) es V.
p(1) : ∀a, b ∈ R, (a + b)1
=
1
k=0
1
k
ak
b1−k
El miembro izquierdo de la igualdad es simplemente a + b. El miembro derecho es:
1
0
a0
b1
+
1
1
a1
b0
= b + a
de modo que p(1) es verdadera.
(HI)Hip´otesis inductiva: Supongamos que p(n) es verdadera.
Ahora probaremos que necesariamente p(n + 1) es verdadera, bajo el supuesto (HI). Para ello
Prof.J.Gast´on Argeri 4
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 5
procedemos as´ı:
(a + b)n+1 = (a + b)(a + b)n = (a + b)
n
k=0
n
k
akbn−k =
= a
n
k=0
n
k
akbn−k + b
n
k=0
n
k
akbn−k =
=
n
k=0
n
k
ak+1bn−k +
n
k=0
n
k
akbn−k+1 =
=
n+1
j=1
n
j−1
ajbn−j+1 +
n
j=0
n
j
ajbn−j+1 =
= n
n
an+1 +
n
j=1
n
j−1
ajbn−j+1 + n
0
bn+1 +
n
j=1
n
j
ajbn−j+1 =
= n
0
bn+1 +
n
j=1
n
j−1
+ n
j
ajbn−j+1 + n
n
an+1 =
= n
0
bn+1 +
n
j=1
n+1
j
ajbn−j+1 + n
n
an+1 =
= n+1
0
a0bn+1 +
n
j=1
n+1
j
ajbn−j+1 + n+1
n+1
an+1b0 =
=
n+1
j=0
n+1
j
ajbn+1−j
que muestra que p(n + 1) es verdadera. Luego, por inducci´on completa p(n) es verdadera para
todo n ∈ N
6 Permutaciones con repetici´on
Supongamos que queremos determinar cu´antas palabras de cuatro letras pueden formarse con las le-
tras de la palabra AZAR. Aqu´ı entendemos por ”palabra” cualquier secuencia que utilice las cuatro
letras de AZAR, tenga o no significado en alg´un lenguaje. Para averiguar cu´antas pueden formarse,
digamos x (a determinar), consideremos el siguiente razonamiento: Si bien la palabra AZAR posee
s´olo tres letras diferentes, a saber A,Z,R, moment´aneamente distingamos las dos apariciones de la
letra A, por ejemplo podr´ıamos ”pintar” de dos colores diferentes las dos letras A. En tal caso ya
sabemos que la cantidad de posibles ordenamientos de las cuatro letras distintas es 4!. Ahora bien,
cada ordenamiento de los x (que no distinguen entre ambas A) da lugar de manera natural a 2!
ordenamientos (que s´ı distinguen entre ambas A), por simple permutaci´on de las dos letras A entre
s´ı. Por lo tanto podemos afirmar que: x · 2! = 4! Se deduce que: x = 4!
2!
El mismo tipo de razonamiento se generaliza cuando hay varias letras (objetos) repetidas. For-
malmente: Si se tienen r objetos diferentes de los cuales se va a repetir el primero n1 veces,
el segundo n2 veces, · · · , el r-´esimo nr veces, la cantidad total de configuraciones en fila de
n = n1 + · · · + nr objetos con las repeticiones especificadas anteriormente es:
(n1 + n2 + · · · + nr)!
n1! n2! · · · nr!
Prof.J.Gast´on Argeri 5
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 6
El n´umero anterior se denomina coeficiente multinomial y suele anotarse tambi´en como
n
n1, n2, · · · , nr
=
(n1 + n2 + · · · + nr)!
n1! n2! · · · nr!
Por ejemplo, con las letras de la palabra AZAR pueden formarse 4!
2!
= 12 palabras diferentes. Para
convencernos las listamos todas:
AZAR AZRA AAZR
AARZ ARZA ARAZ
ZAAR ZARA ZRAA
RAAZ RAZA RZAA
Teorema 2 (Teorema multinomial) Para cualesquiera n´umeros x1, x2, · · · , xr ∈ R y cualquier
n´umero n ∈ N se verifica
(x1 + x2 + · · · + xr)n
=
0≤k1,··· ,kr≤n
k1+···+kr=n
n
k1, · · · , kr
xk1
1 · · · xkr
r
7 Distribuci´on de bolillas en urnas
Diversos problemas de ´ındole combinatorio pueden representarse mediante problemas ”modelo” basa-
dos en disposiciones de bolillas en urnas.
7.1 Disposiciones de n bolillas distintas en r urnas distintas
7.1.1 M´as de una bolilla es admisible por urna
En este caso simplemente se trata de un experimento en n etapas: La primera etapa consiste en
ubicar la primera bolilla en alguna de las r posibles urnas. La segunda etapa consiste en colocar la
segunda bolilla en alguna de las r urnas a´un disponibles, etc. De manera que la cantidad de posibles
disposiciones es en total
r · r · · · r
n
= rn
7.1.2 A lo sumo una bolilla es admisible por urna
Este caso exige que n ≤ r. Para la primera bolilla hay r posibles urnas donde ubicarla, para la
segunda bolilla hay s´olo r − 1 urnas vac´ıas para ubicarla, para la tercer bolilla hay s´olo r − 2 urnas
vac´ıas disponibles, etc. De modo que la cantidad total de posibles disposiciones es r · (r − 1) · (r −
2) · · · [r − (n − 1)] es decir igual al n´umero de variaciones de r tomados de a n.
7.2 Disposiciones de n bolillas id´enticas en r urnas distintas
7.2.1 No pueden quedar urnas vac´ıas
En este caso debe ser n ≥ r pues de lo contrario necesariamente quedar´ıan urnas vac´ıas. Podemos
asimilar este problema de combinatoria representando las bolillas indistinguibles por asteriscos ”∗” y
las separaciones entre urnas mediante barras ”|” As´ı por ejemplo una configuraci´on con tres urnas y
cinco bolillas podr´ıa representarse por: ∗ ∗ | ∗ | ∗ ∗ Esto quiere simbolizar de alg´un modo que en la
primera urna hay exactamente dos bolillas, en la segunda urna exactamente una bolilla y en la tercera
urna exactamente dos bolillas.
Si disponemos las bolillas en una hilera, ubicar las n bolillas id´enticas en las r urnas diferentes
equivale a ubicar r − 1 separadores ”|” en los n − 1 espacios entre bolillas consecutivas. Esto
Prof.J.Gast´on Argeri 6
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 7
puede realizarse de n−1
r−1
maneras distintas.
Ejemplo: Distribuir seis bolillas id´enticas en tres urnas diferentes, sin permitir urnas vac´ıas. Listamos
las posibilidades:
∗| ∗ | ∗ ∗ ∗ ∗ ∗| ∗ ∗| ∗ ∗∗ ∗| ∗ ∗ ∗ | ∗ ∗ ∗| ∗ ∗ ∗ ∗|∗ ∗ ∗ | ∗ | ∗ ∗∗
∗ ∗ | ∗ ∗| ∗ ∗ ∗ ∗ | ∗ ∗ ∗ |∗ ∗ ∗ ∗| ∗ | ∗ ∗ ∗ ∗ ∗| ∗ ∗|∗ ∗ ∗ ∗ ∗ | ∗ |∗
Ejemplo: Hallar todas las descomposiciones del n´umero 8 como suma de tres n´umeros naturales.
Considerar que el orden relativo de los tres t´erminos en la descomposici´on es relevante.
Se tendr´an las siguientes posibles descomposiciones:
1|1|111111 1|11|11111 1|111|1111 1|1111|111 1|11111|11 1|111111|1 11|1|11111
1 + 1 + 6 1 + 2 + 5 1 + 3 + 4 1 + 4 + 3 1 + 5 + 2 1 + 6 + 1 2 + 1 + 5
11|11|1111 11|111|111 11|1111|11 11|11111|1 111|1|1111 111|11|111 111|111|11
2 + 2 + 4 2 + 3 + 3 2 + 4 + 2 2 + 5 + 1 3 + 1 + 4 3 + 2 + 3 3 + 3 + 2
111|1111|1 1111|1|111 1111|11|11 1111|111|1 11111|1|11 11111|11|1 111111|1|1
3 + 4 + 1 4 + 1 + 3 4 + 2 + 2 4 + 3 + 1 5 + 1 + 2 5 + 2 + 1 6 + 1 + 1
Es decir un total de 8−1
3−1
= 7
2
= 7!
2!5!
= 21 descomposiciones.
7.2.2 Pueden quedar urnas vac´ıas
Tambi´en aqu´ı podemos pensar en bolillas ∗ y separadores entre urnas |, pero a diferencia de la
situaci´on previa, en este caso los separadores pueden quedar contiguos, como por ejemplo en la con-
figuraci´on siguiente: ∗ ∗ || ∗ | ∗ ∗ ∗ | que corresponde a n = 6 bolillas id´enticas en r = 5 urnas
distintas, donde hay 2 bolillas en la primer urna, la segunda urna est´a vac´ıa, 1 bolilla en la tercer
urna, 3 bolillas en la cuarta urna y la quinta urna est´a vac´ıa.
Se trata pues de disponer en fila n s´ımbolos ∗ y r − 1 s´ımbolos | Es decir en un total de
n + r − 1 lugares. Luego, la cantidad de posibles disposiciones es n+r−1
n
= n+r−1
r−1
puesto
que basta con elegir los lugares que ser´an ocupados por ∗ (o equivalentemente elegir los lugares a ser
ocupados por |).
Ejemplo: Se desea invertir un capital de $20.000 en cuatro posibilidades de inversi´on (negocios). Se
desea adem´as que las inversi´on se realice en m´ultiplos de $1.000
a) Si se quiere invertir la totalidad del capital, ¿ de cu´antas formas diferentes puede realizarse?
Si ∗ representa una inversi´on de $1.000 el problema se asimila al de n = 20 bolillas y
r = 4 urnas y donde pueden quedar urnas vac´ıas (negocios en los cuales se decide no invertir
ningun monto). Entonces la cantidad total de maneras posibles de invertir el capital de $20.000 es
20+4−1
20
= 23
20
= 1.771
b) Si se quiere invertir la totalidad o parte del capital, ¿ de cu´antas formas diferentes puede realizarse?
El an´alisis es similar al anterior s´olo que ahora no es obligatorio invertir todo el capital disponible.
Podemos entonces pensar que la parte del capital que se decida no invertir es un ”quinto negocio
posible”. De este modo se trata de un problema de disposici´on de n = 20 bolillas en r = 5 urnas y
donde no pueden quedar urnas vac´ıas. Hay un total de 20+5−1
20
= 24
20
= 10.626 posibles maneras
de invertir el capital (Una de dichas maneras consiste en no invertirlo en absoluto).
Prof.J.Gast´on Argeri 7
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 8
Teor´ıa axiom´atica de probabilidades
8 Experimentos aleatorios - Espacio muestral - Eventos
Denominaremos experimento aleatorio a todo proceso (procedimiento, experimento, etc.) que con-
duzca a un resultado que cumpla con las siguientes caracter´ısticas:
• El proceso es repetible en id´enticas condiciones una cantidad ilimitada de veces. Cada realizaci´on
particular del proceso conduce a un ´unico resultado.
• Se conoce a priori (es decir previamente a cualquier realizaci´on particular) todos los posibles
resultados del experimento.
• El resultado del experimento est´a sujeto al azar. Es decir que es imposible determinar a priori
(es decir previamente a cualquier realizaci´on particular) cu´al de todos los resultados posibles del
experimento ocurrir´a.
Definici´on 1 Llamaremos espacio muestral asociado a un experimento aleatorio a cualquier conjunto
que caracterice todos los posibles resultados de dicho experimento. El espacio muestral frecuentemente
se anota mediante la letra griega omega may´uscula Ω.
En este contexto caracterizar significa que cada elemento del espacio muestral se corresponde con uno
y s´olo un posible resultado del experimento y a todo posible resultado del experimento le corresponde
uno y s´olo un elemento del espacio muestral. En este sentido podr´ıamos decir que un espacio muestral
es una forma de ”codificar” los posibles resultados del experimento.
Ejemplo:
1) Se arroja un dado una vez y se observa el n´umero que sale. Claramente es un experimento
aleatorio pues cada realizaci´on particular conduce a un ´unico n´umero saliente (es imposible que
arrojemos el dado y salgan simult´aneamente dos o m´as n´umeros) y adem´as:
• El experimento es reproducible en id´enticas condiciones una cantidad arbitraria de veces
(Al menos una versi´on idealizada del experimento, por ejemplo con un dado imaginario que
nunca se desgasta o deforma).
• Antes de arrojar el dado se sabe de antemano que los posibles resultados son los n´umeros
1, 2, 3, 4, 5, 6.
• El resultado del lanzamiento es al azar puesto que es imposible determinar el n´umero que
saldr´a, con anterioridad al lanzamiento.
Un espacio muestral asociado a este experimento puede ser Ω = {1, 2, 3, 4, 5, 6}
2) Se arroja un dado dos veces y se anota el puntaje total (suma de los n´umeros obtenidos en ambos
lanzamientos). En este caso un espacio muestral es Ω = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}
3) Se arroja un dado hasta obtener por primera vez un 1 y se registra la cantidad de lanzamientos
necesarios. En este ejemplo un espacio muestral es Ω = N
4) Desde una distancia de 3 metros se arroja un dardo a un blanco circular de radio 0, 25 metros.
Suponiendo que el dardo da en el blanco, se registra la distancia desde el punto de impacto hasta
el centro del blanco. En este caso un espacio muestral es Ω = [0 ; 0, 25]
Un conjunto infinito A se dice numerable si sus elementos pueden ponerse en correspondencia 1-1
con los n´umeros naturales, es decir si existe alguna funci´on N
f
→ A con las propiedades siguientes:
Prof.J.Gast´on Argeri 8
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 9
i) ∀a ∈ A , ∃n ∈ N tal que a = f(n)
ii) ∀m, n ∈ N m = n ⇒ f(m) = f(n)
En tal caso la funci´on f determina una ”enumeraci´on” de A. Si en lugar de f(n) anotamos
an entonces los elementos de A son precisamente los de la secuencia infinita a1, a2, a3, · · · . Es
decir A = {a1, a2, a3, · · · }. Un conjunto que o bien sea finito o bien sea infinito numerable se dice
un conjuto a lo sumo numerable. Si se omite la condici´on ii) pero conservando la i), se dice que f es
una funci´on suryectiva o sobre A. Se puede demostrar que A es a lo sumo numerable sii existe alguna
funci´on de N sobre A.
Ejemplo: Mostremos que los siguientes conjuntos infinitos son numerables: N, Z, 2N, Q
• Basta considerarla funci´on identidad N
f
→ N
• Por ejemplo tomando la funci´on N
f
→ Z dada por f(n) = (−1)n n
2
• Tomando N
f
→ 2N dada por f(n) = 2n
• En este caso es m´as engorroso encontrar una f´ormula expl´ıtica para una fuci´on de N sobre Q.
Es m´as secillo presentar un gr´afico ilustrativo de tal funci´on:
0

1/1 // 1/2
||zzzzzzzz
1/3 // 1/4
||zzzzzzzz
1/5 // · · ·
}}{{{{{{{{{
2/1 // 2/2
zzzzzzzz
2/3
||zzzzzzzz
2/4
zzzzzzzz
2/5
||zzzzzzzz
· · ·
3/1

3/2oo 3/3
zzzzzzzz
3/4
||zzzzzzzz
3/5
=={{{{{{{{{
· · ·
}}{{{{{{{{{
4/1 // 4/2
zzzzzzzz
4/3
||zzzzzzzz
4/4
zzzzzzzz
4/5
||zzzzzzzz
· · ·
5/1

5/2oo 5/3
zzzzzzzz
5/4
}}{{{{{{{{{{
5/5
=={{{{{{{{{
· · ·
~~||||||||||
...
// ...
=={{{{{{{{{{ ...
...
=={{{{{{{{{{ ...
Vamos a distinguir dos tipos de espacios muestrales de acuerdo a su cardinalidad (es decir su cantidad
de elementos):
Ω



Finito o infinito numerable
Infinito no numerable
En los ejemplos 1) y 2) los espacios muestrales considerados son finitos. En el ejemplo 3) el espacio
muestral es infinito numerable. En el ejemplo 4) el espacio muestral es infinito no numerable.
Moment´aneamente llamaremos evento o suceso a cualquier subconjunto del espacio muestral Ω. M´as
adelante precisaremos este concepto. Dos eventos de particular inter´es son el evento Ω (denominado
evento seguro o cierto) y el evento ∅ (denominado evento vac´ıo o imposible). Los elementos ω ∈ Ω del
Prof.J.Gast´on Argeri 9
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 10
espacio muestral dan lugar a los denominados eventos simples, que son los eventos de la forma {ω}.
Todo evento no simple se dice compuesto. Los eventos suelen anotarse empleando las primeras letras
del alfabeto en may´usculas: A, B, C, D, etc.
Ejemplo:
1) Lanzamiento de un dado. Podemos considerar los siguientes eventos:
A = ”sale n´umero par” = {2, 4, 6}
B = ”sale m´ultiplo de tres” = {3, 6}
C = ”sale 3” = {3} (suceso elemental)
2) Lanzamiento de dos dados. Podemos considerar los siguientes eventos:
A = ”el puntaje total excede 8” = {9, 10, 11, 12}
B = ”sale un par y un impar” = {3, 5, 7, 9, 11}
3) Arrojar una moneda hasta obtener ”cara” por primera vez y registrar la cantidad de lanzamientos
que fueron necesarios. Eventos que podr´ıan interesarnos:
A = ”se requiere a lo sumo 5 lanzamientos” = {1, 2, 3, 4, 5}
B = ”se requiere una cantidad impar de lanzamientos” = {3, 5, 7, 9, 11, 13, · · · }
3) Lanzamiento del dardo descrito anteriormente. Un evento en el que podemos estar interesados
es A = {x ∈ Ω : x ≤ 0, 2}
Consideremos un evento A en el contexto de un experimento aleatorio. Supongamos que la realizaci´on
del experimento conduce a un resultado ω ∈ Ω. Cuando ω ∈ A se dice que el resultado del
experimento es favorable a A o que ha ocurrido A en dicha realizaci´on. Caso contrario se dice
que el resultado ω es desfavorable a A o que no ha ocurrido A en dicha realizaci´on. Notemos
que el hecho de que ocurra cierto evento no quita la posibilidad que ocurran tambi´en, en la misma
realizaci´on, otros eventos.
Ejemplo: Un experimento consiste en lanzar una moneda dos veces de modo que
Ω = {(C, C), (C, S), (S, C), (S, S)}
donde C = ”sale cara” , S = ”sale ceca”, entonces si en determinada realizaci´on es ω = (C, C) y si
A = ”la primera moneda sale cara” = {(C, C), (C, S)} y B = ”la segunda moneda sale ceca” =
{(C, C), (S, C)}, entonces han ocurrido tanto el evento A como el evento B. Es decir que el
resultado del experimento ha sido favorable tanto al evento A como al evento B.
9 ´Algebra de eventos
Sean A, B eventos. A partir de ellos construimos nuevos eventos del modo siguiente:
• El complemento de A es el evento Ac = {ω ∈ Ω : ω ∈ A}. Es el evento que ocurre cada vez
que no ocurre A. Los resultados favorables a Ac son los desfavorables al A y viceversa. El
complemento de A tambi´en suele anotarse A .
• La uni´on de A con B es el evento A ∪ B = {ω ∈ Ω : ω ∈ A ∨ ω ∈ B}. Es el evento
que ocurre cuando al menos uno de los dos sucesos A, B ocurre. Es decir que A ∪ B ocurre
sii o bien ocurre A pero no ocurre B, o bien ocurre B pero no ocurre A, o bien ocurren
simult´aneamente tanto A como B.
Prof.J.Gast´on Argeri 10
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 11
• La intersecci´on de A con B es el evento A ∩ B = {ω ∈ Ω : ω ∈ A ∧ ω ∈ B}. Es
el evento que ocurre cuando A y B ocurren simult´aneamente. La intersecci´on de A con
B tambi´en suele anotarse AB
• La diferencia de A con B es el evento A  B = {ω ∈ Ω : ω ∈ A ∧ ω ∈ B}. Es el
evento que ocurre cuando ocurre A y simult´aneamente no ocurre B.
Ejemplo: En el ´ultimo ejemplo se tiene:
Ac = {(S, C), (S, S)}
A ∪ B = {(C, C), (C, S), (S, S)}
A ∩ B = {(C, S)}
A  B = {(C, S)} y B  A = {(S, C)}
M´as generalmente, sean A1, A2, · · · , An eventos.
• La uni´on de tales eventos es el evento
n
i=1
Ai = A1 ∪ · · · ∪ An = {ω ∈ Ω : ω ∈ A1 ∨ · · · ∨ ω ∈ An}
• La intersecci´on de tales eventos es el evento
n
i=1
Ai = A1 ∩ · · · ∩ An = {ω ∈ Ω : ω ∈ A1 ∧ · · · ∧ ω ∈ An}
Dicha intersecci´on tambi´en se anota A1A2 · · · An
M´as generalmente a´un necesitaremos definir uniones e intersecciones de una cantidad numerable de
eventos: Sea {An} una sucesi´on de eventos.
• La uni´on de dichos eventos es el evento que ocurre cuando ocurre al menos uno de los eventos
de la sucesi´on:
∞
n=1
An = {ω ∈ Ω : ∃n ∈ N , ω ∈ An}
• La intersecci´on de dichos eventos es el evento que ocurre cuando ocurren simult´aneamente todos
y cada uno de los eventos de la sucesi´on:
∞
n=1
An = {ω ∈ Ω : ∀n ∈ N , ω ∈ An}
Ejemplo: Un experimento aleatorio consistente en arrojar una moneda tantas veces como sea necesario
hasta obtener por primera vez ”cara”. Podemos considerar:
Ω = {C, SC, SSC, SSSC, SSSSC, · · · }
Consideremos los siguientes eventos: An = ”sale C en el lanzamiento 2n-´esimo”
En este caso:
∞
n=1
An = ”sale C en una cantidad par de lanzamientos”
Prof.J.Gast´on Argeri 11
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 12
Definici´on 2 Los eventos A y B se dicen incompatibles o (mutuamente) excluyentes o disjuntos
si es imposible que ocurran simult´aneamente. Es decir que cada vez que ocurre A no ocurre B y
cada vez que ocurre B no ocurre A. Para destacar tal situaci´on nosotros anotaremos el evento uni´on
A ∪ B como A B.
M´as generalmente dada una sucesi´on {An} de eventos, se dice que dichos eventos son dos a dos
incompatibles o (mutuamente) excluyentes o disjuntos dos a dos sii se verifica:
∀m, n ∈ N , m = n ⇒ Am ∩ An = ∅
Para destacar tal situaci´on anotaremos la uni´on
∞
n=1
An como ∞
n=1 An
Dados eventos A, B se dice que A est´a contenido o incluido en B o tambi´en que B contiene o
incluye a A sii cada vez que ocurre A tambi´en ocurre B (pero no necesariamente a la inversa). Tal
relaci´on entre eventos se simboliza A ⊆ B o tambi´en B ⊇ A. En otras palabras: A ⊆ B sii todo
resultado favorable a A es tambi´en favorable a B. En la pr´actica para demostrar que A ⊆ B es
frecuente tomar un elemento gen´erico (es decir, no un elemento particular) de A y demostrar que
necesariamente tambi´en pertenece a B. Naturalmente, dos eventos son iguales sii A ⊆ B y B ⊆ A.
Por lo tanto una manera de probar la igualdad entre dos eventos consiste en probar que cada uno de
ellos est´a contenido en el otro.
Damos a continuaci´on un listado de propiedades muy sencillas cuyas demostraciones formales omiti-
mos:
A ⊆ A
A ⊆ B ∧ B ⊆ C ⇒ A ⊆ C
A ∩ A = A ; A ∪ A = A
A ∪ B = B ∪ A ; A ∩ B = B ∩ A
A ∪ (B ∪ C) = (A ∪ B) ∪ C ; A ∩ (B ∩ C) = (A ∩ B) ∩ C
∅ ⊆ A ⊆ Ω
A ∩ B ⊆ A ⊆ A ∪ B
∅ ∩ A = ∅ ; ∅ ∪ A = A
Ω ∩ A = A ; Ω ∪ A = Ω
(Ac)c
= A
(A ∪ B)c
= Ac ∩ Bc ; (A ∩ B)c
= Ac ∪ Bc
A ∪ B = A ∪ (B  A)
B = (B ∩ A) (B  A)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) ; A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
n
i=1
Ai = A1
n
i=2
Ac
1 · · · Ac
n−1An
∞
n=1
An
c
=
∞
n=1
Ac
n ;
∞
n=1
An
c
=
∞
n=1
Ac
n
Prof.J.Gast´on Argeri 12
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 13
10 Algebras y σ-´algebras de subconjuntos de Ω - Espacio de prob-
abilidad
Todos hemos en alg´un momento realizado mediciones. Como ejemplo concreto supongamos que de-
seamos medir ´areas de rect´angulos. Como se sabe, el ´area de un rect´angulo es un n´umero positivo
igual al producto base × altura. Supongamos ahora que construimos figuras planas a partir de una
cantidad finita de rect´angulos. Podemos asignar un ´area a cada una de tales figuras del modo sigu-
iente: Primero descomponemos la figura en una uni´on finita de rect´angulos disjuntos dos a dos y
luego sumamos las ´areas de tales rect´angulos. Finalmente, supongamos que todos los rect´angulos
que consideramos est´an contenidos dentro de un ”gran” rect´angulo que llamamos Ω. Cada vez que
podamos medir el ´area de cierta figura contenida en Ω tambi´en podremos medir el ´area de la ”figura
complementaria”, es decir la figura que se obtiene a partir de todos los puntos de Ω que no pertenecen
a la figura original. En otros t´erminos, si podemos medir el ´area de una figura tambi´en podemos medir
el ´area de su complemento. Queda tambi´en claro que si hemos podido asignar un ´area A(F ) a la
figura F ⊆ Ω entonces tendremos A(F c) = A(Ω) − A(F ). Es decir que hay una cantidad de
propiedades b´asicas que esperamos de todo n´umero que represente una manera de medir. Para reflejar
estas propiedades elementales es necesario determinar una cierta clase de conjuntos, que podr´ıamos
denominar ”medibles” que ser´an precisamente aquellos a los cuales asignaremos una medida. En
nuestro ejemplo precedente, no queda claro en absoluto c´omo podr´ıamos medir el ´area de un c´ırculo
contenido en Ω, pero s´ı podremos asignar ´areas de modo sencillo tomando como conjuntos medibles la
clase de todos los subconjuntos de Ω que sean o bien rect´angulos, o bien uniones finitas de rect´angulos
o bien sus complementos sean uniones finitas de rect´angulos. Una clase de subconjuntos de Ω con
estas car´acter´ısticas es lo que denominaremos un ´algebra de subconjuntos de Ω.
Definici´on 3 Dados un conjunto no vac´ıo Ω y una clase A de subconjuntos de Ω, diremos que
A es un ´algebra de subconjuntos de Ω sii satisface las siguiente condiciones:
i) Ω ∈ A
ii) ∀A ∈ A , Ac ∈ A
iii) ∀n ∈ N , ∀A1, · · · , An ∈ A ,
n
i=1
Ai ∈ A
Ejemplo: Sea Ω cualquier rect´angulo no vac´ıo. Definamos, como vimos anteriormente, la siguiente
clase de subconjuntos de Ω:
A = {A ⊆ Ω : A es uni´on finita de rect´angulos}
Veamos que A tiene las propiedades de un ´algebra de subconjuntos de Ω:
i) Ω ∈ A pues Ω es uni´on finita de rect´angulos ya que es un rect´angulo.
ii) Supongamos que A ∈ A. Queremos ver que Ac es tambi´en uni´on finita de rect´angulos.
En primer lugar notemos que si R ⊆ Ω es un rect´angulo entonces Rc = Ω  R es uni´on finita
de rect´angulos (Esto le resultar´a evidente cuando dibuje el gran rect´angulo Ω y un rect´angulo
arbitrario R contenido en ´el).
Adem´as, si B =
n
i=1
Ri y C =
m
j=1
R∗
j son uniones finitas de rect´angulos entonces:
B ∩ C =
1≤i≤n
1≤j≤m
Ri ∩ R∗
j
de modo que B ∩ C es uni´on finita de rect´angulos (notar que Ri ∩ R∗
j es un rect´angulo).
Esto se extiende a la intersecci´on de un n´umero finito de uniones finitas de rect´angulos. Por lo
Prof.J.Gast´on Argeri 13
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 14
tanto podemos afirmar que la intersecci´on de un n´umero finito de miembros de A es tambi´en
miembro de A.
Como A ∈ A podemos escribir A =
n
i=1
Ri donde los Ri son ciertos subrect´angulos de Ω.
Entonces:
Ac
=
n
i=1
Ri
c
=
n
i=1
Rc
i
y dado que los Rc
i son uniones finitas de rect´angulos, la intersecci´on de ellos tambi´en lo es. Por
lo tanto Ac es uni´on finita de rect´angulos de modo que Ac ∈ A.
iii) Fijemos n ∈ N y sean A1, · · · , An ∈ A. Sabemos que cada Ai es uni´on finita de rect´angulos.
Pero entonces evidentemente A =
n
i=1
Ai tambi´en es uni´on finita de rect´angulos, de donde re-
sulta que A ∈ A.
Consideremos ahora un ejemplo que nos servir´a para generalizar la definici´on de ´algebra de subcon-
juntos de Ω.
Ejemplo: Supongamos que se tiene una secuencia {Rn} de rect´angulos contenidos en el gran
rect´angulo Ω. M´as a´un, supongamos que los Rn son disjuntos dos a dos. Parece intuitivamente
claro que tambi´en se le puede asignar un ´area al conjunto
∞
n=1
Rn, de la manera siguiente:
Cada Rn tiene asignada un ´area A(Rn)
Podemos asignar ´area al conjunto R1 R2 como A(R1 R2) = A(R1) + A(R2)
Podemos asignar ´area al conjunto R1 R2 R3 como A(R1 R2 R3) = A(R1)+A(R2)+
A(R3)
etc. En genral: A
n
i=1
Ri =
n
i=1
A(Ri)
De este modo vemos c´omo asignar un ´area al conjunto Sn =
n
i=1
Ri, cualquiera sea n ∈ N. Natu-
ralmente los n´umeros A(S1), A(S2), A(S3), · · · forman una sucesi´on creciente de n´umeros reales
positivos. Adem´as, dado que todos los Sn ⊆ Ω resulta A(Sn) ≤ A(Ω). Un resultado matem´atico
asegura que toda sucesi´on de n´umeros reales que sea creciente y acotada superiormente, posee un
l´ımite finito. Por lo tanto existe y es finito el n´umero:
lim
n →∞
A(Sn)
Resulta entonces natural definir
A
∞
n=1
Rn = lim
n →∞
A
n
i=1
Ri = lim
n →∞
A(Sn) =
= lim
n →∞
n
i=1
A(Ri) =
∞
n=1
A(Rn)
Este ejemplo muestra que podemos ampliar la definici´on de ´algebra de conjuntos para permitir que
no s´olo las uniones finitas de conjuntos medibles sean medibles, sino tambi´en las uniones infinitas
numerables. Esto conduce a la definici´on siguiente.
Prof.J.Gast´on Argeri 14
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 15
Definici´on 4 Una clase Σ de subconjuntos de un conjunto no vac´ıo Ω se dice una σ-´algebra de
subconjuntos de Ω sii verifica las siguientes condiciones:
i) Ω ∈ Σ
ii) ∀A ∈ Σ , Ac ∈ Σ
iii) ∀ {An} sucesi´on en Σ ,
∞
n=1
An ∈ Σ
Ejemplo: Consideremos un conjunto no vac´ıo Ω. La clase que consta de todos los subconjuntos de
Ω se denomina el conjunto de ”partes” de Ω y se suele anotar P(Ω). Claramente es una σ-´algebra
de subconjuntos de Ω. De hecho es la m´as grande de todas.
Propiedad 3 Sea Σ una σ-´algebra de subconjuntos de Ω. Entonces ∅ ∈ Σ
Dem:
Puesto que Ω ∈ Σ resulta ∅ = Ωc ∈ Σ
Propiedad 4 Sea Σ una σ-´algebra de subconjuntos de Ω. Supongamos que Ω es finito o infinito
numerable. Se verifica:
∀ω ∈ Ω , {ω} ∈ Σ ⇒ Σ = P(Ω)
Dem:
Sea A ⊆ Ω. Puesto que Ω es finito o infinito numerable, lo mismo es cierto de A. Dado que:
A =
ω∈A
{ω} resulta inmediatamente que A ∈ Σ puesto que la uni´on anterior es a lo sumo
numerable y cada {ω} pertenece a Σ
Propiedad 5 Sea Σ una σ-´algebra de subconjuntos de Ω y sean A1, · · · , An ∈ Σ. Entonces
n
i=1
Ai ∈ Σ
Dem:
Definamos An+1 = An+2 = · · · = ∅. Entonces la secesi´on {Ai} est´a en Σ. Se tiene pues:
n
i=1
Ai =
∞
i=1
Ai ∈ Σ
Propiedad 6 Sea Σ una σ-´algebra de subconjuntos de Ω y sea {An} una sucesi´on en Σ.
Entonces
∞
n=1
An ∈ Σ
Dem:
∞
n=1
An =
∞
n=1
Ac
n
c
∈ Σ dado que cada Ac
n ∈ Σ
Propiedad 7 Sea Σ una σ-´algebra de subconjuntos de Ω y sean A1, · · · , An ∈ Σ.
Entonces
n
i=1
Ai ∈ Σ
Dem:
Definamos An+1 = An+2 = · · · = Ω. Tenemos as´ı una sucesi´on {An} en Σ. Por la propiedad
anterior resulta:
n
i=1
Ai =
∞
i=1
Ai ∈ Σ
Prof.J.Gast´on Argeri 15
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 16
Propiedad 8 Sean Ω un conjunto no vac´ıo y {Σi}i∈I una familia no vac´ıa, donde cada Σi es
una σ-´algebra de subconjuntos de Ω. Entonces
i∈I
Σi es una σ-´algebra de subconjuntos de Ω.
Dem: Anotemos Σ =
i∈I
Σi. Debemos probar que Σ satisface los axiomas de σ-´algebra de
subconjuntos de Ω. Sabiendo que cada Σi satisface dichos axiomas, se deduce que:
• Ω ∈ Σ pues ∀i ∈ I , Ω ∈ Σi
• Si A ∈ Σ entonces ∀i ∈ I , A ∈ Σi. Luego: ∀i ∈ I , Ac ∈ Σi. Entonces Ac ∈ Σ
• Sea {An} sucesi´on en Σ. Entonces ∀i ∈ I , {An} es una sucesi´on en Σi. Por lo tanto
∀i ∈ I ,
∞
n=1
An ∈ Σi. Luego:
∞
n=1
An ∈ Σ
Propiedad 9 Dados un conjunto no vac´ıo Ω y un subconjunto G de P(Ω), existe una m´ınima
σ-´algebra de subconjuntos de Ω que contiene a G
Dem: Basta considerar la familia de todas las σ-´algebras de subconjuntos de Ω que contienen a
G (una de ellas es P(Ω)) y aplicarle la propiedad anterior
Estamos ahora en condiciones de definir la noci´on axiom´atica de probabilidad.
Definici´on 5 Sean Ω un conjunto no vac´ıo y Σ una σ-´algebra de subconjuntos de Ω. Una medida
de probabilidad o funci´on de probabilidad o simplemente una probabilidad sobre Σ es una funci´on
P : Σ → R que verifica los siguientes axiomas:
i) ∀A ∈ Σ , P (A) ≥ 0
ii) P (Ω) = 1
iii) Para toda sucesi´on {An} de elementos de Σ disjuntos dos a dos se cumple:
P
∞
n=1
An =
∞
n=1
P (An)
Nota: Parte del supuesto en esta igualdad es que la serie en el miembro de la derecha sea
convergente.
Un espacio de probabilidad es una terna ordenada (Ω, Σ, P ) donde P es una probabilidad sobre Σ.
Ejemplo: Sea Ω un conjunto no vac´ıo a lo sumo numerable, que podemos anotar Ω = {ωn}. Sea
Σ una σ-´algebra de subconjuntos de Ω tal que ∀n , {ωn} ∈ Σ. Como vimos antes esto implica que
Σ = P(Ω). Si P es una probabilidad sobre Σ notemos que:
• Las probabilidades pn = P ({ωn}) determinan la probabilidad de cualquier evento aleatorio.
En efecto: Sea A ⊆ Ω. Entonces A =
ωn∈A
{ωn}. Por lo tanto:
P (A) = P
ωn∈A
{ωn} =
ωn∈A
P ({ωn}) =
ωn∈A
pn
• Dada una sucesi´on {pn} de n´umeros reales tal que:
a) ∀n , pn ≥ 0
b)
∞
n=1
pn = 1
existe una ´unica probabilidad P sobre Σ tal que P ({ωn}) = pn
Prof.J.Gast´on Argeri 16
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 17
11 Espacios de equiprobabilidad
Si Ω = {ω1, · · · , ωN } es finito y si definimos ∀n ∈ {1, · · · , N} , pn = 1
N
entonces se cumplen
las condiciones a) y b) del item anterior, de manera que queda definida una ´unica probabilidad sobre
Σ = P(Ω) tal que ∀n ∈ {1, · · · , N} , P {ωn} = 1
N
= 1
#(Ω)
. Esta manera de asignar probabili-
dades sobre un espacio muestral finito es lo que se conoce como espacio de equiprobabilidad. En
un espacio de equiprobabilidad se tiene para cuanlquier evento A ⊆ Ω
P (A) = P
ω∈A
{ω} =
ω∈A
P ({ω}) =
ω∈A
1
#(Ω)
=
#(A)
#(Ω)
Esta manera de asignar probabilidades en un espacio muestral finito suele resumirse del modo siguiente:
P (A) =
# {resultados favorables al evento A}
# {resultados posibles del experimento}
En la pr´actica cuando asociamos determinado espacio muestral Ω a un experimento aleatorio con una
cantidad finita de resultados posibles, la asignaci´on de probabilidades a dichos eventos elementales no
siempre se reduce a considerar resultados equiprobables. Volviendo a uno de nuestros primeros ejem-
plos: Se lanzan dos dados ”normales” y se anota el puntaje total obtenido. En este caso podr´ıamos
tomar como espacio muestral Ω = {2, 3, 4, · · · , 12}. Sin embargo no es correcto asignar probabili-
dades del modo siguiente:
∀n ∈ {2, · · · , 12} , P ({n}) =
1
11
¿ Qu´e inconvenientes observa acerca de esta asignaci´on de probabilidad?
El mismo experimento aleatorio podr´ıa modelizarse mediante el siguiente espacio muestral:
Ω = {(i, j) : 1 ≤ i, j ≤ 6}
Con este espacio muestral s´ı es adecuada la asignaci´on de probabilidad en forma equiprobable:
∀(i, j) tal que 1 ≤ i, j ≤ 6 , P ({(i, j)}) =
1
36
Calculemos en este ejemplo la probabilidad de que el puntaje total obtenido sea 7. En este caso
A = {(i, j) : 1 ≤ i, j ≤ 6 ; i + j = 7} = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}. Por lo
tanto P (A) = #(A)
#(Ω)
= 6
36
= 1
6
Ejemplo: Una urna contiene 3 bolillas blancas y 2 bolillas negras. Se extraen al azar dos bolillas sin
reposici´on. Calculemos P (A) y P (C) siendo:
A = ”ambas bolillas son blancas” y C = ”ambas bolillas son negras”
Una posible representaci´on del espacio muestral asociado a este experimento aleatorio podr´ıa ser Ω =
{BB, BN, NB, NN}. Sin embargo, dada esta representaci´on es evidente que no resulta natural
considerar los cuatro posibles resultados como equiprobables puesto que hay m´as bolillas blancas que
negras. De hecho, si utiliz´aramos el artificio de numerar las bolillas blancas como B1, B2, B3 y
numerar las bolillas negras como N1, N2 resulta claro que el resultado A se da en m´as casos que el
resultado C. De hecho:
A = {(B1, B2), (B1, B3), (B2, B1), (B2, B3), (B3, B1), (B3, B2)} tiene 6 elementos
C = {(N1, N2), (N2, N1)} tiene 2 elementos
Lo natural entonces es elegir una representaci´on del espacio muestral en la que resulte natural la
equiprobabilidad. Tal representaci´on podr´ıa ser la siguiente:
Ω = {(x, y) : x, y ∈ {B1, B2, B3, N1, N2} , x = y}
Prof.J.Gast´on Argeri 17
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 18
Con este espacio muestral es natural plantear equiprobabilidad. Se tiene:
P (A) = #(A)
#(Ω)
= 3·2
5·4
= 3
10
= 0, 3
P (C) = #(C)
#(Ω)
= 2·1
5·4
= 1
10
= 0, 1
Otra posible representaci´on del espacio muestral es la siguiente, que prescinde del orden en que se
extraen las bolillas:
Ω = {{x, y} : x, y ∈ {B1, B2, B3, N1, N2} , x = y}
Tambi´en en este caso es natural la equiprobabilidad. Se tiene:
P (A) = #(A)
#(Ω)
=
(3
2)
(5
2)
= 3
10
= 0, 3
P (C) = #(C)
#(Ω)
=
(2
2)
(5
2)
= 1
10
= 0, 1
Como era de esperar, se obtienen las mismas probabilidades que cuando se tiene en cuenta el orden de
extracci´on. Ejemplo: Nuevamente consideremos una urna con 3 bolillas blancas y dos bolillas negras.
Se extraen al azar dos bolillas, pero esta vez con reposici´on. Calculemos las probabilidades de los
mismos eventos A y C del ejemplo anterior.
En este caso conviene representar el espacio muestral como:
Ω = {(x, y) : x, y ∈ {B1, B2, B3, N1, N2}}
Entonces:
P (A) = #(A)
#(Ω)
= 3·3
5·5
= 9
25
= 0, 36
P (C) = #(C)
#(Ω)
= 2·2
5·5
= 4
25
= 0, 16
12 Propiedades de una probabilidad
Una cantidad de resultados ´utiles se desprenden de la definici´on axiom´atica de probabilidad dada en
el par´agrafo anterior.
Propiedad 10 P (∅) = 0
Dem:
Definamos ∀n , An = ∅. Claramente estos eventos son dos a dos disjuntos, de manera que:
P (∅) = P
∞
n=1
An =
∞
n=1
P (An) =
∞
n=1
P (∅)
Puesto que la serie a la derecha de la ´ultima igualdad es convergente, necesariamente su t´ermino
general debe tender a 0. Pero dicho t´ermino general, siendo constantemente igual a P (∅), tiende a
P (∅). Por lo tanto: P (∅) = 0
Propiedad 11 Sean A1, · · · , An ∈ Σ dos a dos disjuntos. Entonces:
P
n
i=1
Ai =
n
i=1
P (Ai)
Prof.J.Gast´on Argeri 18
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 19
Dem:
Definamos An+1 = An+2 = · · · = ∅. Se tiene:
P
n
i=1
Ai = P
∞
i=1
Ai =
∞
i=1
P (Ai) =
n
i=1
P (Ai)
Propiedad 12 Sean A, B ∈ Σ tales que A ⊆ B. Se verifica:
P (B  A) = P (B) − P (A)
Dem:
Podemos escribir B = A (B  A) siendo la uni´on disjunta. Por lo tanto: P (B) = P (A (B  A)) =
P (A) + P (B  A). Despejando se tiene: P (B  A) = P (B) − P (A)
Propiedad 13 Sean A, B ∈ Σ (no necesariamente disjuntos). Se verifica:
P (A ∪ B) = P (A) + P (B) − P (AB)
Dem:
Primeramente notemos que BAc = B  AB. Ahora bien, por la propiedad anterior y teniendo en
cuenta que AB ⊆ B se tiene:
P (BAc) = P (B  AB) = P (B) − P (AB). Luego:
P (A ∪ B) = P (A BAc
) = P (A) + P (BAc
) = P (A) + P (B) − P (AB)
Corolario 1 Para cualesquiera eventos A, B ∈ Σ se verifica la siguiente desigualdad:
P (A ∪ B) ≤ P (A) + P (B)
Dem: P (A ∪ B) = P (A) + P (B) − P (AB) ≤ P (A) + P (B) pues P (AB) ≥ 0
Propiedad 14 Dados A, B, C ∈ Σ se verifica:
P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (AB) − P (AC) − P (BC) + P (ABC)
Dem:
P (A ∪ B ∪ C) = P (A ∪ B) + P (C) − P ((A ∪ B) C) =
= P (A) + P (B) − P (AB) + P (C) − P (AC ∪ BC) =
= P (A) + P (B) + P (C) − P (AB) − (P (AC) + P (BC) − P (ACBC)) =
= P (A) + P (B) + P (C) − P (AB) − (P (AC) + P (BC) − P (ABC)) =
= P (A) + P (B) + P (C) − P (AB) − P (AC) − P (BC) + P (ABC)
Propiedad 15 Sea (Ω, Σ, P ) un espacio de probabilidad. Dados A1, · · · , An ∈ Σ se cumple:
P (A1 ∪ · · · ∪ An) =
n
i=1
P (Ai) −
1≤i1i2≤n
P (Ai1 Ai2 ) + · · ·
+ (−1)r+1
1≤i1i2···ir≤n
P (Ai1 Ai2 · · · Air ) + · · · +
+ .................................................... +
+ (−1)n+1 P (A1A2 · · · An)
(1)
Prof.J.Gast´on Argeri 19
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 20
Dem:
Por inducci´on sobre n.
• Paso base: n = 2 ya fue demostrada.
• Hip´otesis inductiva (HI): Suponemos v´alida (1) para n.
• Supongamos A1, · · · , An+1 ∈ Σ.
P (A1 ∪ · · · ∪ An+1) = P (A1 ∪ · · · ∪ An) + P (An+1) − P ((A1 ∪ · · · ∪ An)An+1) =
=
n
i=1
P (Ai) −
1≤i1i2≤n
P (Ai1 Ai2 ) + · · ·
+ (−1)r+1
1≤i1i2···ir≤n
P (Ai1 Ai2 · · · Air ) + · · · +
+ (−1)n+1 P (A1A2 · · · An) + P (An+1) − P (A1An+1 ∪ · · · ∪ AnAn+1) =
=
n+1
i=1
P (Ai) −
1≤i1i2≤n
P (Ai1 Ai2 ) + · · ·
+ (−1)r+1
1≤i1i2···ir≤n
P (Ai1 Ai2 · · · Air ) + · · · +
+ (−1)n+1 P (A1A2 · · · An) − {
n
i=1
P (AiAn+1) −
1≤i1i2≤n
P (Ai1 Ai2 An+1) + · · ·
+ (−1)n+1P (A1A2 · · · AnAn+1)}
=
n+1
i=1
P (Ai) −
1≤i1i2≤n+1
P (Ai1 Ai2 ) + · · ·
+ (−1)r+1
1≤i1i2···ir≤n+1
P (Ai1 Ai2 · · · Air ) + · · · +
+ (−1)n+2 P (A1A2 · · · An+1)
Propiedad 16 Dados A, B ∈ Σ con A ⊆ B se tiene P (A) ≤ P (B)
Dem:
Como A ⊆ B resulta B = A BAc. Luego: P (B) = P (A) + P (BAc) ≥ P (A)
Corolario 2 Para todo A ∈ Σ es P (A) ≤ 1
Dem:
Como A ⊆ Ω y dado que P (Ω) = 1 resulta P (A) ≤ P (Ω) = 1
Propiedad 17 Para cualquier A ∈ Σ se verifica:
P (Ac) = 1 − P (A) ; P (A) = 1 − P (Ac)
Dem:
Puesto que Ω = A Ac resulta 1 = P (Ω) = P (A) + P (Ac)
Prof.J.Gast´on Argeri 20
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 21
13 Propiedades de continuidad
Propiedad 18 Sea {An} una sucesi´on en Σ. Supongamos dicha sucesi´on de eventos es creciente,
es decir: A1 ⊆ A2 ⊆ A3 ⊆ · · · . Se verifica:
P
∞
n=1
An = lim
n →∞
P (An)
Dem:
Definamos los siguientes eventos:
B1 = A1
B2 = A2  A1
B3 = A3  A2
· · · · · · · · ·
Bn = An  An−1
· · · · · · · · ·
Se tiene as´ı una sucesi´on {Bn} en Σ tal que:
n
i=1
Ai =
n
i=1
Bi y
∞
i=1
Ai =
∞
i=1
Bi
Por conveniencia definamos tambi´en Ao = ∅. Entonces:
P
n
i=1
Ai = P
n
i=1
Bi =
n
i=1
P (Bi) =
=
n
i=1
P (Ai  Ai−1) =
n
i=1
(P (Ai) − P (Ai−1)) =
= P (An) − P (Ao) = P (An) − P (∅) = P (An)
Luego:
lim
n →∞
P (An) = lim
n →∞
n
i=1
P (Bi) =
∞
i=1
P (Bi) =
= P
∞
i=1
Bi = P
∞
i=1
Ai
Propiedad 19 Sea {An} una sucesi´on en Σ. Supongamos dicha sucesi´on de eventos es decreciente,
es decir: A1 ⊇ A2 ⊇ A3 ⊇ · · · . Se verifica:
P
∞
n=1
An = lim
n →∞
P (An)
Dem:
Notemos que dado que los An decrecen entonces los Ac
n crecen.
P
∞
n=1
An = 1 − P
∞
n=1
An
c
=
= 1 − P
∞
n=1
Ac
n = 1 − lim
n →∞
P (Ac
n) =
= lim
n →∞
1 − P (Ac
n) = lim
n →∞
P (An)
Prof.J.Gast´on Argeri 21
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 22
Probabilidad condicional - Sucesos independientes
14 Probabilidad condicional
Seguramente al lector no se le habr´a pasado por alto, cuando definimos los axiomas de una probabili-
dad, la relaci´on intuitiva que existe entre ´estos y lo que se conoce como el enfoque ”frecuentista” de
las probabilidades, que pasamos a explicar someramente.
Supongamos, en el contexto de un experimento aleatorio concreto, que se desea asignar probabilidad a
cierto evento A. El enfoque frecuentista consiste en repetir el experimento un n´umero finito y grande
de veces, digamos N veces. A continuaci´on determina lo que se conoce como frecuencia relativa del
evento A en esas N realizaciones del experimento. Dicha frecuencia relativa, que anotaremos fA,
se define por:
fA =
n´umero de veces que ha ocurrido A en las N realizaciones
n´umero total N de realizaciones
Intuitivamente fA es un reflejo de la chance de ocurrencia de A en dichas repeticiones del
experimento. En otro cap´ıtulo formalizaremos esta idea intuitiva. Por el momento nos conformamos
con admitirla como natural y motivadora. Esta frecuencia relativa posee las siguientes propiedades:
Dados eventos A, B se verifica
i) fA ≥ 0
ii) fΩ = 1
iii) Si A y B son disjuntos entonces fA∪B = fA + fB
Las propiedades anteriores nos hacen recordar propiedades an´alogas a las de la definici´on axiom´atica
de probabilidad.
Basados intuitivamente en esta idea frecuentista vamos a introducir el concepto de probabilidad condi-
cional. La importancia de este concepto se debe a dos motivos principales:
• Frecuentemente estamos interesados en calcular probabilidades cuando disponemos de alguna
informaci´on parcial adicional acerca del resultado del experimento. En tal caso dichas probabil-
idades se dicen condicionales (a la informaci´on adicional).
• A´un en situaciones en las cuales no disponemos de tal informaci´on parcial adicional, es frecuente
el uso de la probabilidad condicional como herramienta que permite calcular las probabilidades
deseadas de un modo m´as sencillo.
Para fijar ideas consideremos el ejemplo que sigue.
Ejemplo: Se arrojan dos dados normales, de manera que cada uno de los 36 resultados posibles son
equiprobables. Supongamos que se observa adem´as que el primer dado es un 3. Con esta informaci´on
adicional, ¿ cu´al es la probabilidad de que el puntaje total obtenido sea 8 ?
Primeramente observemos que ”el primer dado es un 3” es un evento, que podemos anotar H. Dado
que ha ocurrido H, el experimento se limita a arrojar el segundo dado y determinar el n´umero que
sale. Sabemos que los posibles resultados de este experimento parcial seran s´olo seis y definir´an un
espacio muestral parcial: ΩH = {(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6)}. Es natural considerar
estos seis resultados como equiprobables, es decir que podemos definir una probabilidad PH de modo
que ∀j ∈ {1, · · · , 6} , PH ({(3, j)}) = 1/6. Esta probabilidad sobre el espacio muestral Ω∗ puede
pensarse como una probabilidad ”condicional a H” en el espacio muestral Ω asociado al experimento
original, definiendo:
• La probabilidad condicional de {(3, j)} como 1/6. Anotamos P ({(3, j)} |H) = 1/6
Prof.J.Gast´on Argeri 22
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 23
• La probabilidad condicional de {(i, j)} como 0 si i = 3. Anotamos P ({(i, j)} |H) = 0 si
i = 3
Por lo tanto, la probabilidad condicional de obtener puntaje total 8 ser´a
P (”se obtiene puntaje 8”|H) = P ({(3, 5)} |H) = 1/6
Ejemplo: M´as generalmente consideremos dos eventos E y H en el contexto de un experimento
aleatorio. Queremos asignar una probabilidad al evento E bajo el supuesto o condici´on que haya
ocurrido H. Intuitivamente lo que podr´ıamos hacer es repetir el experimento un gran n´umero N de
veces y contar en cu´antas de ellas ha ocurrido H, digamos NH veces, y luego contar en cu´antas de
estas NH ha ocurrido tambi´en E, digamos NEH veces. Entonces podr´ıamos considerar el n´umero:
NEH
NH
Equivalentemente, dividiendo numerador y denominador por N se obtiene: NEH/N
NH /N
= fEH
fH
Dado que las frecuencias relativas son base intuitiva para las probabilidades, este cociente motiva la
definici´on siguiente.
Definici´on 6 Sean (Ω, Σ, P ) un espacio de probabilidad y H ∈ Σ tal que P (H)  0. Dado un
evento E ∈ Σ se define la probabilidad de E condicional a F como:
P (E|F ) =
P (EF )
P (F )
Ejemplo: Se lanza dos veces una moneda normal. Calculemos:
a) La probabilidad de que ambas salgan cara.
b) La probabilidad condicional de que ambas salgan cara dado que la primera sale cara.
Para responder a) consideramos el espacio muestral Ω = {CC, CS, SC, SS} y naturalmente
asignamos probabilidades uniformemente, de modo que cada uno de los cuatro resultados elementales
tiene probabilidad 1/4. Luego:
P (”ambas salen cara”) = P ({CC}) =
1
4
Para responder a b) utilizamos la definici´on de probabilidad condicional. Sean E = ”ambas salen cara” y
H = ”la primera sale cara”. Entonces:
P (E|H) =
P (EF )
P (F )
=
P ({CC})
P ({CC, CS})
=
1/4
1/2
=
1
2
Propiedad 20 Sean (Ω, Σ, P ) un espacio de probabilidad y H ∈ Σ tal que P (H)  0.
Sea Σ
P (·|H)
−→ R la funci´on que asigna a cada E ∈ Σ el n´umero real P (E|H). Entonces
(Ω, Σ, P (·|H)) es un espacio de probabilidad.
Dem:
La demostraci´on se propone como ejercicio al final del cap´ıtulo
Propiedad 21 Sean Σ una σ-´algebra de subconjuntos de Ω y H ∈ Σ. Sea ΣH la siguiente clase
de subconjuntos de H:
ΣH = {EH : E ∈ Σ}
Entonces ΣH es una σ-´algebra de subconjuntos de H.
Dem:
i) Dado que H ∈ Σ y H = HH resulta H ∈ ΣH
Prof.J.Gast´on Argeri 23
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 24
ii) Supongamos que B ∈ ΣH. Luego, existe cierto E ∈ Σ tal que B = EH. Dado que tanto
E como H son miembros de Σ tambi´en lo es B. Luego, tambi´en Bc ∈ Σ. Entonces el
complemento de B relativo a H es H  B = BcH. Por ende este complemento pertenece a
ΣH, siendo este complemento la intersecci´on entre H y un miembro de Σ.
iii) Sea {Bn} una sucesi´on en ΣH. Luego, existe una sucesi´on {En} en Σ tal que ∀n , Bn =
EnH. Luego:
∞
n=1
Bn =
∞
n=1
EnH =
∞
n=1
En ∩ H
Sea E =
∞
n=1
En. Dado que los En son miembros de Σ resulta E ∈ Σ. Pero como
∞
n=1
Bn = EH resulta que
∞
n=1
Bn ∈ ΣH
Definici´on 7 La σ-´algebra ΣH definida arriba se denomina la relativizaci´on de Σ a H o la
reducci´on de Σ a H.
Propiedad 22 Dados (Ω, Σ, P ) espacio de probabilidad y H ∈ Σ tal que P (H)  0, la funci´on
Σh
PH
−→ R definida por
PH(B) =
P (B)
P (H)
es una probabilidad sobre (H, ΣH). M´as a´un, se verifica: ∀E ∈ Σ , PH(EH) = P (E|H)
Dem:
La demostraci´on se propone como ejercicio al final del cap´ıtulo
Definici´on 8 Se dice que el espacio de probabilidad (H, ΣH, PH) se ha obtenido reduciendo a H el
espacio de probabilidad (Ω, Σ, P ).
La idea es la siguiente: Calcular en Σ probabilidades condicionalmente a H equivale a calcular en
ΣH probabilidades sin condicionar. En determinados ejemplos es m´as sencillo calcular probabilidades
condicionales por definici´on mientras que en otros es m´as f´acil calcularlas trabajando directamente
sobre el espacio muestral reducido.
Teorema 3 (Regla del producto)
Sea (Ω, Σ, P ) espacio de probabilidad.
i) Si A, B ∈ Σ con P (B)  0 entonces P (AB) = P (A|B) · P (B)
ii) M´as generalmente, dados A1, · · · , An+1 ∈ Σ con P (A1 · · · An)  0 se verifica:
P (A1 · · · An+1) = P (A1) · P (A2|A1) · P (A3|A1A2) · · · · · P (An+1|A1A2 · · · An)
Dem:
Por inducci´on sobre n.
Paso base: n = 1
Este caso corresponde a demostrar i). Sean A1, A2 ∈ Σ con P (A)  0. Se tiene:
Como P (A2|A1) =
P (A1A2)
P (A1)
se deduce P (A1A2) = P (A1)P (A2|A1)
Prof.J.Gast´on Argeri 24
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 25
Hip´otesis inductiva: Suponemos la propiedad v´alida para n
Ahora queremos demostrar que vale para n + 1. Sean A1, · · · , An+2 ∈ Σ. Se tiene:
P (A1A2 · · · An+1
A
An+2
B
) = P (A1 · · · An+1
A
)P (An+2
B
| A1 · · · An+1
A
)
HI
=
HI
= P (A1)P (A2|A1) · · · P (An+1|A1 · · · An)P (An+2|A1 · · · An+1)
Esto demuestra que la propiedad es verdadera para n + 1 bajo el supuesto que sea verdadera para
n. Luego, por inducci´on es v´alida para todo n ∈ N
Ejemplo: Una urna contiene inicialmente r bolillas rojas y b bolillas blancas. Se realiza el siguiente
experimento aleatorio: Se extrae una bolilla al azar y se completa la urna con c bolillas de ese mismo
color. Se extrae nuevamente una bolilla al azar y se completa la urna con c bolillas del mismo
color, etc. Se quiere calcular la probabilidad de que las tres primeras extracciones resulten en bolillas
rojas. Para resolverlo, dado que el experimento se lleva a cabo en tres etapas y cada etapa afecta la
composici´on de la urna de extracci´on, es adecuado condicionar una extracci´on a los resultados de las
extracciones previas.
Definamos Ri = ”la i-´esima extracci´on resulta bolilla roja” (i = 1, 2, 3). Entonces lo que pretende-
mos calcular es precisamente P (R1R2R3). Planteamos la regla del producto:
P (R1R2R3) = P (R1)P (R2|R1)P (R3|R1R2)
Por la composici´on inicial de la urna es claro que
P (R1) =
r
r + b
Por la composici´on de la urna inmediatamente luego que ha ocurrido R1 es claro que
P (R2|R1) =
r + c
r + c + b
Por la composici´on de la urna inmediatamente luego que han ocurrido R1, R2 se tiene an´alogamente
P (R3|R1R2) =
r + 2c
r + 2c + b
Por lo tanto:
P (R1R2R3) =
r
r + b
·
r + c
r + c + b
·
r + 2c
r + 2c + b
Definici´on 9 Sea (Ω, Σ, P ) un espacio de probabilidad. Una sucesi´on {An} en Σ se dice una
partici´on de Ω sii se verifican:
i) ∀n ∈ N , P (An)  0
ii) Ω =
∞
n=1
An
iii) ∀n, n ∈ N , n = m ⇒ An ∩ Am = ∅
Ejemplo: Consideremos un espacio de equiprobabilidad Ω = {1, 2, · · · , 12}. Es decir: ∀i ∈
Ω , P ({i}) = 1/n  0. Una posible partici´on de Ω es {A1, A2, A3} donde
A1 = {1, 3, 5, 7, 9, 11} ; A2 = {6, 12} ; A3 = {2, 4, 8, 10}
Prof.J.Gast´on Argeri 25
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 26
Teorema 4 (Teorema de la probabilidad total)
Sean (Ω, Σ, P ) un espacio de probabilidad y {Hn} una partici´on de Ω. Entonces para cualquier
B ∈ Σ se verifica:
P (B) =
∞
n=1
P (B|Hn)P (Hn)
Dem:
Dado que {Hn} es una partici´on de Ω, sabemos que
∞
n=1
An = Ω. Por lo tanto
B = B ∩ Ω = B ∩
∞
n=1
Hn =
∞
n=1
BHn
Adem´as esta uni´on es disjunta dos a dos:
n = m ⇒ (BHn)(BHm) = BHnHm = B∅ = ∅
Luego:
P (B) =
∞
n=1
P (BHn)
Pero como ∀n ∈ N , P (Hn)  0 podemos escribir P (BHn) = P (B|Hn)P (Hn). Entonces:
P (B) =
∞
n=1
P (BHn) =
∞
n=1
P (B|Hn)P (Hn)
Nota: El teorema de la probabilidad total es tambi´en v´alido para particiones finitas.
Ejemplo: Una caja C1 contiene n1 fichas marcadas con un 1 y n2 fichas marcadas con un 2.
Se extrae una ficha al azar. Si sale 1 se extrae una bolilla al azar de una urna U1 que contiene
r1 bolillas rojas y b1 bolillas blancas. En cambio, si sale 2 se extrae una bolilla al azar de una urna
U2 que contiene r2 bolillas rojas y b2 bolillas blancas. Calcular la probabilidad de extraer una
bolilla roja.
La composici´on de la urna de la que se extrae la bolilla depende de la primera etapa del experimento
(extracci´on de ficha). Por lo tanto es de esperar que necesitemos condicionar al resultado de la primera
etapa. Definamos F1 = ”sale ficha 1” y F2 = ”sale ficha 2”. Entonces {F1, F2} es claramente una
partici´on de Ω. Definamos tambi´en R = ”sale bolilla roja”. Por lo tanto:
P (R) =
2
n=1
P (R|Fn)P (Fn) = P (R|F1)P (F1) + P (R|F2)P (F2)
Es claro que
P (F1) = n1
n1+n2
; P (F2) = n2
n1+n2
Tambi´en es claro que:
P (R|F1) = r1
r1+b1
; P (R|F2) = r2
r2+b2
Por lo tanto:
P (R) =
r1
r1 + b1
·
n1
n1 + n2
+
r2
r2 + b2
·
n2
n1 + n2
Teorema 5 (Regla de Bayes)
Sean (Ω, Σ, P ) un espacio de probabilidad y {Hn} una partici´on de Ω. Para cualquier B ∈ Σ tal
que P (B)  0 y para cualquier j ∈ N se verifica:
P (Hj|B) =
P (B|Hj)P (Hj)
∞
n=1
P (B|Hn)P (Hn)
Prof.J.Gast´on Argeri 26
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 27
Dem:
Se tiene:
P (Hj|B) =
P (BHj)
P (B)
=
P (B|Hj)P (Hj)
∞
n=1
P (B|Hn)P (Hn)
Nota: La regla de Bayes tambi´en es v´alida para particiones finitas.
Ejemplo: Una caja contiene N = n1 + n2 + n3 fichas, de las cuales n1 est´an numeradas con
”1”, n2 est´an numeradas con ”2” y n3 est´an numeradas con ”3”. Se dispone adem´as de tres urnas
U1, U2, U3. La urna Ui contiene ri bolillas rojas y bi bolillas blancas (i = 1, 2, 3). Se extrae al
azar una ficha de la caja. Acto seguido se elige al azar una bolilla de la urna rotulada con el mismo
n´umero que la ficha extraida. Sabiendo que la bolilla extraida fue roja, ¿ cu´al es la probabilidad de
que haya provenido de la urna U2 ?
Sean
Fi = ”sale ficha i” ; i = 1, 2, 3
R = ”sale bolilla roja” y B = ”sale bolilla blanca”
Se pretende calcular P (F2|R). Ac´a se quiere averiguar la probabilidad de un evento que ocurri´o
en una etapa previa del experimento basados en infromaci´on de una etapa posterior. Es natural
entonces ”revertir” este condicionamiento, para lo cual utilizamos el teorema de Bayes. Notemos que
{F1, F2, F3} es una partici´on de Ω. Entonces:
P (F2|R) = P (R|F2)P (F2)
P (R|F1)P (F1)+P (R|F2)P (F2)+P (R|F3)P (F3)
=
=
r2
r2+b2
·
n2
n1+n2+n3
r1
r1+b1
·
n1
n1+n2+n3
+
r2
r2+b2
·
n2
n1+n2+n3
+
r3
r3+b3
·
n3
n1+n2+n3
=
=
r2n2
r2+b2
r1n1
r1+b1
+
r2n2
r2+b2
+
r3n3
r3+b3
Ejemplo: Un procedimiento llamado fluoroscop´ıa card´ıaca (FC) se utiliza para determinar si existe
calcificaci´on en las arterias coronarias. El test permite detectar si hay 0,1,2,´o 3 arterias coronarias
calcificadas. Anotemos:
T +
i : la FC detecta i arterias calcificadas (i = 0, 1, 2, 3)
D+ : hay enfermedad coronaria ; D− : no hay enfermedad coronaria
Supongamos que se conocen los datos de la siguiente tabla
i P (T +
i |D+) P (T +
i |D−)
0 0.41 0.96
1 0.24 0.02
2 0.20 0.02
3 0.15 0.00
a) Si P (D+) = 0.05 calcular P (D+|T +
i ) para i = 0, 1, 2, 3
b) Si P (D+) = 0.92 calcular P (D+|T +
i ) para i = 0, 1, 2, 3
En ambos casos el c´alculo se reduce a utilizar la regla de Bayes:
P (D+
|T +
i ) =
P (T +
i |D+)P (D+)
P (T +
i |D+)P (D+) + P (T +
i |D−)P (D−)
Prof.J.Gast´on Argeri 27
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 28
donde P (D−) = 1 − P (D+)
Se obtienen los resultados siguientes:
i P (D+|T +
i ) cuando P (D+) = 0.05 P (D+|T +
i ) cuando P (D+) = 0.92
0 0.022 0.831
1 0.387 0.993
2 0.345 0.991
3 1.000 1.000
15 Independencia estoc´astica
Sean A, B eventos con P (A)  0 y P (B)  0. Intuitivamente podemos decir que dichos eventos
son independientes (entre s´ı) si el hecho que ocurra A no influye sobre la chance de ocurrir B y
rec´ıprocamente, el hecho que ocurra B no influye sobre la chance de ocurrir A. Es decir si la
ocurrencia de A ni afecta ni es afectada por la ocurrencia de B. Podemos expresar esta idea intuitiva
diciendo que A y B son independientes sii P (B|A) = P (B) y P (A|B) = P (A). Expresando
mediante intersecciones podemos reducir estas dos condiciones a una sola, con la ventaja adicional
de no requerir que los eventos tengan probabilidades positivas. Esta idea es la base de la siguiente
definici´on.
Definici´on 10 Los eventos A y B se dicen independientes sii P (AB) = P (A) · P (B)
Nota: No debe confundirse la noci´on de independencia con la de eventos excluyentes. De hecho, si
A y B son mutuamente excluyentes y si P (A)  0 y P (B)  0, entonces A y B distan mucho
de ser independientes pues P (AB) = P (∅) = 0 = P (A)P (B)
Ejemplo: Se elige al azar una carta de un mazo de 52 cartas francesas. Consideremos los eventos
A : ”sale un as” ; C : ”sale una carta de corazones”
Analicemos la independencia entre ellos:
P (A) = 4
52
P (C) = 13
52
P (AC) = 1
52
P (AC) = 1
52
= 4
52
· 13
52
= P (A)P (C)
Por lo tanto A y C son independientes.
Ejemplo: Se arrojan dos dados equilibrados, uno blanco y otro rojo. Consideremos los eventos
A : ”puntaje total 6” ; B : ”el dado rojo sale 4”
Analicemos la independencia entre ellos:
P (A) = 5
36
P (B) = 1
6
P (AB) = 1
36
P (AB) = 1
36
= 5
36
· 1
36
= P (A)P (B)
Por lo tanto A y C no son independientes.
Propiedad 23 Los eventos A y B son independientes sii los eventos A y B son independientes
Dem:
⇒) Supongamos A y B independientes. Luego: P (AB) = P (A)P (B). Entonces:
P (AB ) = P (AB) = P (A)−P (AB) = P (A)−P (A)P (B) = P (A)(1−P (B)) = P (A)P (B )
Prof.J.Gast´on Argeri 28
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 29
Luego, A y B son independientes.
⇐) Si ahora suponemos A y B independientes, podemos aplicarles la parte ⇒) ya demostrada.
Se deduce que A y (B ) = B son independientes
Corolario 3 Los eventos A y B son independientes sii A y B son independientes
Generalicemos la noci´on de independencia a tres eventos A, B, C. Imaginemos que C represente la
presencia de cierta enfermedad y que A y B representen la presencia de dos s´ıntomas cl´ınicos.
Supongamos que dichos s´ıntomas se presentan independientemente (que un paciente presente un
s´ıntoma no lo hace m´as ni menos proclive a presentar el otro s´ıntoma). Supongamos tambi´en que
A y C sean independientes y que B y C sean independientes. Podr´ıa sin embargo ocurrir
que la presencia simult´anea de ambos s´ıntomas s´ı aumentara (o disminuyera) la chance de tener la
enfermedad. En tal caso los eventos AB y C no ser´ıan independientes. Esto motiva la siguientes
definici´on.
Definici´on 11 Los eventos A, B, C se dicen independientes sii se verifican
P (AB) = P (A)P (B) , P (AC) = P (A)P (C) , P (BC) = P (B)P (C)
P (ABC) = P (A)P (B)P (C)
Ejemplo: Sea Ω = {1, 2, 3, 4} un espacio de equiprobabilidad. Definamos los eventos:
A = {1, 4} , B = {2, 4} , C = {3, 4}
Entonces:
P (A) = 1
2
, P (B) = 1
2
, P (C) = 1
2
P (AB) = 1
4
= P (A)P (B) , P (AC) = 1
4
= P (A)P (C) , P (BC) = 1
4
= P (B)P (C)
P (ABC) = 1
4
= 1
8
= P (A)P (B)P (C)
Luego A, B, C no son independientes.
Ejemplo: Sea Ω = {1, 2, 3, 4, 5, 6, 7, 8} un espacio de equiprobabilidad. Definamos los eventos:
A = {1, 2, 3, 4} , B = {1, 2, 7, 8} , C = {1, 5, 6, 7}
Entonces:
P (A) = 1
2
, P (B) = 1
2
, P (C) = 1
2
P (AB) = 1
4
= P (A)P (B) , P (BC) = 1
4
= P (B)P (C) , P (AC) = 1
8
= 1
4
= P (A)P (C)
P (ABC) = 1
8
= P (A)P (B)P (C)
Luego A, B, C no son independientes.
Definici´on 12 Se dice que los eventos A1, · · · , An son independientes sii para cualquier secuencia
estrictamente creciente 1 ≤ i1  · · ·  ir ≤ n de enteros, se verifica
P (Ai1 · · · Air ) =
r
j=1
P (Aij )
Prof.J.Gast´on Argeri 29
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 30
Nota: Vemos que en general es necesario verificar n
2
+ n
3
+ · · · + n
n
= 2n − (n + 1) condiciones
para asegurar la independencia de n eventos.
Propiedad 24 Supongamos que A1, · · · , An son independientes. Sean B1, · · · , Bn eventos tales
que
Bi = Ai ´o Bi = Ai (i = 1, · · · , n)
Entonces B1, · · · , Bn son independientes.
Prof.J.Gast´on Argeri 30
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 31
Variables aleatorias - Distribuciones de probabilidad
16 Funciones
Sea Ω
X
→ C una funci´on. Recordemos que esto significa que X establece una correspondencia entre
elementos de Ω y elementos de C con la caracter´ıstica que a cada elemento de Ω le asigna uno y s´olo
un elemento de C. Si dicha correspondencia asigna al elemento ω ∈ Ω el elemento c ∈ C decimos
que c es el valor de X en ω o la imagen de ω por X, situaci´on que se anota X(ω) = c.
El conjunto Ω se denomina dominio de la funci´on y suele anotarse Dom(X). La imagen o rango (o
a veces el recorrido) de X es el conjunto de todos los valores de X, es decir el conjunto formado por
todos los valores X(ω) cuando ω recorre Ω. Anotaremos la imagen de X como RX. Es decir:
RX = {X(ω) : ω ∈ Ω} = {c ∈ C : ∃ω ∈ Ω , c = X(ω)}
Dado B ⊆ C definimos la imagen inversa de B por X como el conjunto de todos los elementos de
Ω cuyas im´agenes por X pertenecen a B. Si anotamos X−1(B) a la imagen inversa de B por
X esta definici´on establece que
X−1
(B) = {ω ∈ Ω : X(ω) ∈ B}
Ejemplo: Sea R
X
→ R dada por X(t) = t2. En este caso la imagen o rango de X es RX = [0, ∞).
Por otra parte:
X−1 ({4}) = {2, −2} , X−1 ([4, ∞)) = (−∞, −2] ∪ [2, ∞)
X−1 ({0}) = {0} , X−1 ({0, 2, 4, 7}) = 0, ±
√
2, ±2, ±
√
7
X−1 ((−∞, 0)) = ∅ , X−1 (R) = R
Ejemplo: Sea {ω1, ω2, ω3, ω4}
X
→ R dada mediante la siguiente tabla de valores:
ω X(ω)
ω1 2
ω2 1
ω3 1
ω4 0
Entonces por ejemplo:
X−1 ({2}) = {ω1} X−1 ({1}) = {ω2, ω3}
X−1 ({0}) = {ω4} X−1 ((−∞, 0]) = {ω4}
X−1 ((−∞, 1]) = {ω2, ω3, ω4} X−1 ((−∞, −1]) = ∅
Dado A ⊆ R se denomina funci´on indicadora o funci´on caracter´ıstica de A a la funci´on IA : R →
R dada por
IA(x) =



1 si x ∈ A
0 si x ∈ A
17 Variables aleatorias y funciones de distribuci´on
Cuando se realiza un experimento aleatorio existen diversas caracter´ısticas observables o medibles. No
obstante ello, generalmente el experimentador centra su inter´es en algunas de estas caracter´ısticas. Por
ejemplo, si el experimento consiste en lanzar un dado N = 10 veces, podr´ıamos interesarnos en las
siguientes caracter´ısticas: ”cantidad de dados que salen 3”, ”puntaje total obtenido”, ”m´ınimo n´umero
obtenido”,etc. Cada una de estas caracter´ısticas relaciona cada posible resultado del experimento
con un n´umero real. As´ı por ejemplo podemos considerar que ”puntaje total obtenido” relaciona el
resultado ω = (1, 5, 4, 3, 4, 6, 5, 1, 2, 2) con el n´umero real 1+5+4+3+4+6+5+1+2+2 = 33.
Esto motiva la siguiente definici´on.
Prof.J.Gast´on Argeri 31
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 32
Definici´on 13 Se denomina variable aleatoria (va) sobre un espacio de probabilidad (Ω, Σ, P ) a
toda funci´on X : Ω → R con la siguiente propiedad:
∀a ∈ R , X−1
((−∞, a]) ∈ Σ (2)
Las variables aleatorias suelen designarse mediante las ´ultimas letras del abecedario y en may´usculas:
· · · , P, · · · , X, Y, Z. Tambi´en se las designa mediante alguna de estas letras junto con uno o m´as
sub´ındices, por ejemplo: X1, X2, S12
Nota: Dados un n´umero real a y una variables aleatoria X, puesto que seg´un la definici´on X es
una funci´on de Ω en R, tiene sentido calcular la imagen inversa de B = (−∞, a] por X, que es
precisamente:
X−1
((−∞, a]) = {ω ∈ Ω : X(ω) ∈ (−∞, a]} = {ω ∈ Ω : X(ω) ≤ a}
En el contexto de variables aleatorias es frecuente una notaci´on alternativa y mucho m´as frecuente
para las im´agenes inversas por X. En general, para B ⊆ R la imagen inversa de B por X se anota
tambi´en {X ∈ B}. Es decir:
{X ∈ B} = {ω ∈ Ω : X(ω) ∈ B} = X−1
(B)
Por lo tanto la definici´on establece que una funci´on X : Ω → R es una variable aleatoria sobre
(Ω, Σ, P ) sii se cumple
∀x ∈ R , {X ≤ x} ∈ Σ
Tengamos presente que cuando el espacio de probabilidad es finito (es decir cuando #(Ω) es finito)
y Σ = P(Ω) es la σ-´algebra de todos los subconjuntos de Ω, entonces la condici´on (2) es superflua
puesto que se satisface autom´aticamente. Lo mismo ocurre cuando Ω = {ω1, ω2, · · · } es infinito
numerable y cada {ωn} ∈ Σ puesto que:
{X ≤ x} = {ωn : X(ωn) ≤ x} =
∞
n=1
X(ωn)≤x
{ωn}
Siendo la uni´on a lo sumo numerable y cada {ω} ∈ Σ se deduce que {X ≤ x} ∈ Σ.
Luego, en los casos donde el espacio de probabilidad es discreto, la noci´on de variable aleatoria coincide
con la de funci´on X : Ω → R.
Definici´on 14 Sea X v.a. definida sobre un espacio de probabilidad (Ω, Σ, P ). Se dice que X es
discreta sii existe A ∈ Σ, A a lo sumo numerable y tal que P (X ∈ A) = 1.
Observemos que cuando el espacio muestral es finito cualquier variable aleatoria es discreta, pues basta
tomar A = Ω.
Propiedad 25 Dada una v.a. discreta X existe un m´ınimo A ∈ Σ con la propiedad que P (X ∈
A) = 1
Dem:
Siendo X discreta, sea A ∈ Σ tal que A es a lo sumo numerable y P (X ∈ A) = 1. Definamos
SX = {x ∈ R : P (X = x)  0}. Entonces:
A = SX (A  SX)
de manera que 1 = PX(A) = PX(SX) + PX(A  SX). Mostraremos que PX(A  SX) = 0. En
efecto: Anotemos B = A  SX. En primer lugar, como B ⊆ Sc
X resulta ∀x ∈ B , PX ({x}) = 0.
Dado que A es a lo sumo numerable resulta B a lo sumo numerable. Luego:
PX(B) = PX
x∈B
{x} =
x∈B
PX ({x}) = 0
Prof.J.Gast´on Argeri 32
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 33
Es decir que hemos demostrado que si A es a lo sumo numerable y P (X ∈ A) = 1 entonces
P (A  SX) = 0
En particular: PX(SX) = 1. Es decir P (X ∈ SX) = 1.
Supongamos ahora que SX ⊆ A. Entonces existir´ıa xo ∈ SX con xo ∈ A. Luego: P (X = xo) 
0. Entonces PX(X ∈ A {xo}) = PX(A) + P (X = xo)  PX(A) = 1. Absurdo. Entonces
necesariamente es SX ⊆ A. Esto demuestra que:
P (X ∈ SX) = 1
Si A es a lo sumo numerable y P (X ∈ A) = 1 entonces SX ⊆ A
Por lo tanto SX es el m´ınimo conjunto buscado
Definici´on 15 Dada una variable aleatoria discreta X se denomina soporte (o rango esencial o
simplemente rango) de X al m´ınimo A tal que P (X ∈ A) = 1. Anotaremos RX al rango de X.
Cuando un experimento conduce a medir cantidades como ”peso”, ”altura”, ”temperatura”, ”du-
raci´on”, etc, es de esperar que dichas variables aleatorias no est´en restringidas a un rango a lo sumo
numerable. Una posible clasificaci´on de las variables aleatorias es la siguiente:
variables aleatorias



discretas
continuas
mixtas
Son discretas aquellas variables aleatorias cuyo rango es a lo sumo numerable. Son continuas aquellas
que poseen una ”densidad” (concepto que precisaremos m´as adelante). Las mixtas son aquellas que
ni son discretas ni son continuas.
Ejemplo: Se lanza una moneda tantas veces como sea necesario hasta que sale ”cara”. En este caso
Ω = {C, SC, SSC, SSSC, · · · } y consideramos Σ = P(Ω).
Sea X = ”lanzamientos necesarios hasta obtener cara”. Esta va. discreta tiene rango RX = N. Para
familiarizarnos con la notaci´on de imagen inversa vemos como ejemplo que:
{X ≤ 0} = ∅ , {X ≤ 5} = {C, SC, SSC, SSSC, SSSSC}
Ejemplo: Se lanza una moneda. Se tiene Ω = {C, S}. Consideramos Σ = P(Ω). Sea X =
”cantidad de caras obtenidas”. Entonces RX = {0, 1}. En este caso:
{X ≤ x} =



∅ si x  0
{S} si 0 ≤ x  1
{C, S} si x ≥ 1
Recordemos que una bola abierta en Rn es el conjunto de todos los puntos de Rn que distan de un
punto fijo xo ∈ Rn (llamado el centro de dicha bola) en menos que una cantidad  0 (el radio de
la bola). Es decir
B (xo) = {x ∈ Rn
: x − xo  }
Un subconjunto A ⊆ Rn se dice abierto sii para cada x = (x1, · · · , xn) ∈ A existe al menos una
n−bola abierta en Rn centrada en x y completamente contenida en A. Formalmente: A ⊆ Rn es
abierto sii se verifica
∀x ∈ A , ∃  0 , ∀y ∈ Rn
, y − x  ⇒ y ∈ A
Definici´on 16 Se denomina σ-´algebra de Borel en R a la m´ınima σ-´algebra de subconjuntos de
R que contiene a todos los conjuntos de la forma (−∞, x] con x ∈ R. Anotaremos B a esta
σ-´algebra de subconjuntos de R.
Prof.J.Gast´on Argeri 33
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 34
Propiedad 26 Dada una variable aleatoria discreta X, se verifica:
∀B ∈ B , P (X ∈ B) =
x∈B∩RX
P (X = x)
Dem:
Como B = (B ∩ RX) B ∩ Rc
X se deduce que:
PX(B) = PX(B ∩ RX) + PX(B ∩ Rc
X)
Pero como PX(RX) = 1 entonces PX(Rc
X) = 0. Luego: PX(B ∩ Rc
X) = 0, de manera que
PX(B) = PX(B ∩ RX) =
x∈B∩RX
P (X = x)
Definici´on 17 Sea (Ω, Σ, P ) un espacio de probabilidad. Consideremos una variable aleatoria
X : Ω → R. La funci´on PX : B → R dada por E −→ P (X ∈ E) se denomina funci´on de
distribuci´on de X.
Propiedad 27 La funci´on de distribuci´on PX de una variable aleatoria X es una funci´on de
probabilidad sobre (R, B).
Dem: En lo que sigue B, Bn ∈ B
PX(R) = P (X ∈ R) = P (Ω) = 1
PX(B) = P (X ∈ B) ≥ 0 pues P es una probabilidad y {X ∈ B} ∈ Σ
Supongamos {Bn} sucesi´on en B, tal que n = m ⇒ Bn ∩ Bm = ∅. Entonces:
PX
∞
n=1
Bn = P X ∈
∞
n=1
Bn = P X−1
∞
n=1
Bn =
= P
∞
n=1
X−1(Bn) =
∞
n=1
P X−1(Bn) =
∞
n=1
P (X ∈ Bn)
puesto que los eventos {X ∈ Bn} son disjuntos dos a dos.
Definici´on 18 Sean X e Y variables aleatorias definidas sobre un mismo espacio de probabilidad.
Se dice que X e Y son equidistribuidas o id´enticamente distribuidas sii ambas poseen la misma
funci´on de distribuci´on, i.e. ∀B ∈ B , PX(B) = PY (B)
Nota: El hecho de ser X e Y equidistribuidas no significa que sean iguales. Esto se ver´a m´as
adelante. Ejemplo: Un fabricante produce un art´ıculo en dos variedades A y B. Desea recabar
informaci´on acerca de la preferencia de los consumidores. Para ello seleccionar´a al azar 30 clientes a
quienes se les preguntar´a si prefieren A o B. Se trata de un experimento aleatorio en el cual el espacio
muestral Ω puede definirse como el conjunto de todas las 30-uplas de 1’s y/o 0’s, donde un 1 en la
i-´esima coordenada de la 30-upla indica que el i-´esimo cliente encuestado prefiere la variedad A sobre
la B. Supongamos que estos 230 posibles resultados de la encuesta sean equiprobables. Consideremos
X = ”cantidad de consumidores que prefieren A”. Se tiene RX = {0, 1, · · · , 30}. Calculemos para
cada 0 ≤ k ≤ 30, las probabilidades siguientes:
P (X = k) = #{X=k}
#(Ω)
=
(30
k )
230
(k = 0, 1, · · · , 30)
P (X ≤ k) =
k
j=0
P (X = j)
Grafiquemos los valores de X sobre el eje de abscisas y las probabilidades halladas anteriormente
sobre el eje de ordenadas:
Prof.J.Gast´on Argeri 34
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 35
k
P(X=k)
0 5 10 15 20 25 30
0.00.020.040.060.080.100.120.14
kP(X=k)
0 5 10 15 20 25 30
0.00.20.40.60.81.0
Definici´on 19 Dada una variable aleatoria X : Ω → R se denomina funci´on de distribuci´on
acumulada (fda) de X a la funci´on designada FX y definida por:
FX : R → R dada por FX(x) = P (X ≤ x)
Nota: Para indicar que la variable aleatoria posee fda F anotamos X ∼ F .
Ejemplo: Se arroja tres veces una moneda normal. Sea X = cantidad de caras obtenidas. Entonces
RX = {0, 1, 2, 3}. La funci´on de distribuci´on acumulada de X es
FX(x) =



0 si x  0
1/8 si 0 ≤ x  1
1/2 si 1 ≤ x  2
7/8 si 2 ≤ x  3
1 si x ≤ 3
Distribucion binomial acumulada
x
F(x)
-1 0 1 2 3 4
0.00.20.40.60.81.0
)
)
)
)
Prof.J.Gast´on Argeri 35
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 36
Ejemplo: Se arroja una moneda normal hasta que sale cara.
Sea X = ”cantidad de lanzamientos antes que salga cara”. Se tiene RX = {0, 1, 2, 3, · · · }. La fda
de X es:
FX(x) =



0 si x  0
1/2 si 0 ≤ x  1
1/2 + 1/4 si 1 ≤ x  2
1/2 + 1/4 + 1/8 si 2 ≤ x  3
...
...
...
k+1
i=1
1
2
i
si k ≤ x  k + 1
...
...
...
Propiedad 28 Sea X una variable aleatoria con funci´on de distribuci´on acumulada FX. Se cumple:
i) ∀x ∈ R , 0 ≤ FX(x) ≤ 1
ii) FX es no decreciente, es decir: ∀x, y ∈ R , x  y ⇒ FX(x) ≤ FX(y)
iii) FX es continua por la derecha, es decir: ∀x ∈ R , lim
t → x+
FX(t) = FX(x)
iv) lim
x →−∞
FX(x) = 0 y lim
x →∞
FX(x) = 1
Dem:
i) Evidente pues FX(x) = P (X ≤ x) es una probabilidad.
ii) Sean x, y ∈ R con x  y. Entonces {X ≤ x} ⊆ {X ≤ y}. Por lo tanto FX(x) =
P (X ≤ x) ≤ P (X ≤ y) = FX(y)
iii) Siendo FX no decreciente sabemos que para todo x ∈ R , lim
t → x+
FX(t) existe (es finito). Como
x + 1
n
es una sucesi´on de t´erminos a la derecha de x y tal que lim
n →∞
x + 1
n
= x, en-
tonces lim
t → x+
FX(t) = lim
n →∞
FX x + 1
n
. Pero: {X ≤ x} =
∞
n=1
X ≤ x + 1
n
. Como esta
intersecci´on es decreciente, pues X ≤ x + 1
n+1
⊆ X ≤ x + 1
n
, entonces por propiedad
de una funci´on de probabilidad es P (X ≤ x) = lim
n →∞
P X ≤ x + 1
n
. Luego:
FX(x) = P (X ≤ x) = lim
n →∞
P X ≤ x +
1
n
= lim
n →∞
FX x +
1
n
= lim
t → x+
FX(t)
iv) Dado que Ω = {X ∈ R} =
∞
n=1
{X ≤ n} y siendo la uni´on creciente, por propiedad de una
funci´on de probabilidad se tiene lim
n →∞
FX(n) = lim
n →∞
P (X ≤ n) = P (Ω) = 1. Pero siendo
FX no decreciente y acotada resulta lim
x →∞
FX(x) = lim
n →∞
FX(n). Entonces:
lim
x →∞
FX(x) = lim
n →∞
FX(n) = 1
La demostraci´on del otro l´ımite es an´aloga y queda a cargo de ustedes.
Teorema 6 Sea F : R → R una funci´on. Se cumple:
F satisface las propiedades siguientes:
i) F es no decreciente en R.
Prof.J.Gast´on Argeri 36
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 37
ii) F es continua a derecha en R
iii) lim
x →−∞
F (x) = 0 y lim
x →∞
F (x) = 1
si y s´olo si F es la funci´on de distribuci´on de probabilidad acumulada de cierta variable aleatoria.
Dem: ⇐) Ya se demostr´o (Prop. anterior)
⇒) La demostraci´on excede el alcance y los objetivos de este curso de modo que la omitimos. S´olo
comentar´e que es necesario demostrar que existe cierto espacio de probabilidad (Ω, Σ, P ) y cierta
variable aleatoria X en dicho espacio, tal que FX = F
Ejemplo: Consideremos la funci´on
F (x) =
1 − e− x si x ≥ 0
0 si x  0
El teorema anterior permite demostrar la existencia de una variable aleatoria X (definida en cierto
espacio de probabilidad) tal que F = FX. En efecto:
F es no decreciente.
F es continua a derecha en R. De hecho F continua en R
Se tiene
lim
x →−∞
F (x) = lim
x →−∞
0 = 0 y lim
x →∞
F (x) = lim
x →∞
1 − e− x
= 1
La gr´afica de F tiene el siguiente aspecto:
x
F(x)
-2 0 2 4 6 8 10
0.00.20.40.60.81.0
Propiedad 29 Sean X una variable aleatoria, xo ∈ R. Se cumple:
i) FX(xo) − FX(xo−) = P (X = xo)
ii) FX es continua a izquierda en xo sii P (X = xo) = 0
iii) FX posee una cantidad a lo sumo numerable de discontinuidades.
Prof.J.Gast´on Argeri 37
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 38
Dem:
i) Utilizando las propiedades de continuidad de una probabilidad resulta:
FX(xo−) = lim
x → xo−
FX(x) = lim
x → xo−
P (X ≤ x) = lim
n →∞
P (X ≤ xo − 1/n) =
= P
∞
n=1
{X ≤ xo − 1/n} = P (X  xo)
Por lo tanto: P (X = xo) = P (X ≤ xo) − P (X  xo) = FX(xo) − FX(xo−)
ii) Evidente a partir de i).
iii) Si FX es discontinua en xo entonces P (X = xo)  0. Anotemos A = {x0 ∈ R : P (X = xo)  0}.
Queremos ver que A es a lo sumo numerable. Pero:
A =
∞
k=1
Ak donde Ak = {x0 ∈ R : P (X = xo)  1/k}
Bastar´a entonces mostrar que los Ak son finitos. Supongamos por el absurdo que existiera k tal
que Ak fuera infinito. Entonces existir´ıa una sucesi´on de t´erminos todos distintos {xn} tal que
∀n , xn ∈ Ak. Luego:
P (A) ≥ P
∞
n=1
{xn} =
∞
n=1
P ({xn}) = ∞
dado que la serie posee t´ermino general que no tiende a cero. Absurdo. Luego los Ak son todos
finitos, con lo cual A es a lo sumo numerable
Propiedad 30 Sea X una variable aleatoria y sea FX su fda. Dados a, b ∈ R , a ≤ b, se cumple:
i) P (a  X ≤ b) = FX(b) − FX(a)
ii) P (a ≤ X ≤ b) = FX(b) − FX(a−)
iii) P (a  X  b) = FX(b−) − FX(a)
iv) P (a ≤ X  b) = FX(b−) − FX(a−)
Dem:
Demostremos i):
{a  X ≤ b} = {X ≤ b}  {X ≤ a}
Entonces
P (a  X ≤ b) = P (X ≤ b) − P (X ≤ a) = FX(b) − FX(a)
Definici´on 20 Para n ∈ N, se denomina sucesi´on de n ensayos de Bernoulli a todo experimento
aleatorio que consiste en repetir n veces un ensayo sujeto a las siguientes condiciones:
• Las n repeticiones son independientes entre s´ı.
• Cada ensayo tiene s´olo dos posibles resultados, digamos E (”´exito”) y F (”fracaso”).
• La probabilidad de E es la misma en cada uno de los n ensayos.
Prof.J.Gast´on Argeri 38
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 39
Es frecuente denotar la probabilidad de fracaso en cada ensayo individual por q. De modo que
p+q = 1, es decir q = 1−p. El espacio muestral asociado a una sucesi´on de n ensayos de Bernoulli
es Ω = {(ω1, · · · , ωn) : ωi ∈ {E, F } , 1 ≤ i ≤ n}. As´ı, el experimento consta de 2n posibles
resultados. Notemos que, salvo cuando p = 1/2, los eventos elementales no son equiprobables. De
hecho:
P ({ω}) = pr
· qn−r
sii ω posee exactamente r ´exitos
Ejemplo: Se arroja 5 veces un dado normal. En cada lanzamiento llamemos E = ”sale 3”, de modo
que F = ”no sale 3”. Se trata de una sucesi´on de n = 5 ensayos de Bernoulli con probabilidad de
´exito p = 1/6 en cada ensayo. Entonces, por ejemplo:
P ({(3, 1, 1, 3, 6)}) =
1
6
2
·
5
6
3
Ejemplo: Se arroja 5 veces un dado normal. En cada lanzamiento llamemos E = ”sale m´ultiplo de 3”,
de modo que F = ”no sale m´ultiplo de 3”. Se trata de una sucesi´on de n = 5 ensayos de Bernoulli
con probabilidad de ´exito p = 1/3 en cada ensayo. Entonces, por ejemplo:
P ({(3, 1, 1, 3, 6)}) =
1
3
3
·
2
3
2
Ejemplo: Dada un sucesi´on de n ensayos de Bernoulli, con probabilidad de ´exito p en cada ensayo,
sea X = ”cantidad de ´exitos en los n ensayos”. Esta variable aleatoria tiene RX = {0, 1, 2, · · · , n}.
El evento {X = k} estar´a formado por todos aquellos resultados elementales que consten exac-
tamente de k ”´exitos” y n − k ”fracasos”. Dado que cada uno de ellos tiene probabilidad
individual pk(1 − p)n−k, para calcular la probabilidad de {X = k} bastar´a multiplicar dicha
probabilidad individual por la cantidad total de resultados elementales que consten de exactamente
k ”´exitos” y n − k ”fracasos”, es decir n
k
. Entonces se tiene: P (X = k) = n
k
pk(1 − p)n−k
(k = 0, 1, · · · , n)
Ejemplo: Consideremos un ensayo aleatorio con dos resultados posibles ”´exito” y ”fracaso”, donde la
probabilidad de ”´exito” es 0  p  1. Nuestro experimento aleatorio consiste en repetir el ensayo en
forma independiente hasta obtener el primer ”´exito”. El espacio muestral puede representarse como
Ω = {E, F E, F F E, F F F E, · · · }. Los resultados elementales no son equiprobables. De hecho:
P





F · · · F
k
E




 = (1 − p)k
p
Sea X = ”cantidad de ensayos hasta obtener ´exito”, de modo que RX = N. Se tiene: P (X = k) =
(1 − p)k−1p , k = 1, 2, · · · Hallemos la fda de la variable aleatoria X. Para x ≥ 0 se tiene:
FX(x) = P (X ≤ x) =
[x]
k=1
(1 − p)k−1
p = p ·
1 − q[x]
1 − q
= 1 − q[x]
donde [x] simboliza la ”parte entera de x”, es decir el mayor entero que es menor o igual que x. Por
ejemplo: [4] = 4 , [4, 1] = 4 , [3, 9] = 3. Entonces:
FX(x) =
0 si x  1
1 − q[x] si x ≥ 1
Definici´on 21 Dada una variable aleatoria X se denomina funci´on de probabilidad puntual o funci´on
de masa de probabilidad (fmp) de X a la funci´on
pX : R → R dada por pX(x) = P (X = x)
Prof.J.Gast´on Argeri 39
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 40
Nota: Cuando la variable aleatoria X es discreta, con rango RX = {xn}, la fmp pX de
X queda un´ıvocamente determinada conociendo los valores pn = pX(xn). Por este motivo nos
referiremos indistintamente a pX o a {pn} cuando X sea discreta. Ejemplo: Consideremos
una sucesi´on de n ensayos de Bernoulli con probabilidad de ´exito p en cada ensayo. Sea X =
”cantidad de ´exitos en los n ensayos”. En este caso RX = {0, 1, · · · , n}. La fmp de X es:
pX(x) =
n
x
px(1 − p)n−x si x ∈ {0, 1, · · · , n}
0 si x ∈ {0, 1, · · · , n}
Grafiquemos esta fdp en el caso n = 10, para p = 1/2 y luego para p = 1/4
p=0.5
x
fdp(x)
0 2 4 6 8 10
0.00.050.100.150.200.250.30
p=0.25
x
fdp(x)
0 2 4 6 8 10
0.00.050.100.150.200.250.30
Propiedad 31 Para toda variable aleatoria X se cumple: ∀x ∈ R , pX(x) = FX(x) − FX(x−)
Dem: Podemos escribir {X  x} =
∞
n=1
X ≤ x − 1
n
. Esta uni´on es creciente de manera que
por propiedades de las funciones de probabilidad vale: P (X  x) = lim
n →∞
P X ≤ x − 1
n
=
lim
n →∞
FX x − 1
n
= FX(x−). Entonces pX(x) = P (X = x) = P (X ≤ x) − P (X  x) =
FX(x) − FX(x−)
Nota: Obs´ervese que FX(xo)−FX(xo−) representa el valor del ”salto” de la fda de X en el punto
x = xo. Cuando FX es continua en xo entonces no hay salto all´ı y en consecuencia la fmp de X es
nula en x = xo.
Propiedad 32 Sean X e Y variables aleatorias definidas sobre un mismo espacio de probabilidad.
Se verifica: X e Y son id´enticamente distribuidas sii ∀x ∈ R , FX(x) = FY (x)
Dem: ⇒) Supongamos X e Y id´enticamente distribuidas. Sea x ∈ R arbitrario. Entonces
(−∞, x] ∈ B de modo que FX(x) = P (X ∈ (−∞, x]) = P (Y ∈ (−∞, x]) = FY (x). Luego,
X e Y poseen la misma fda.
⇐) Supongamos que FX = FY . Consideremos la clase G de todos los miembros de B donde
PX coincide con PY , es decir:
G = {B ∈ B : PX(B) = PY (B)} = {B ∈ B : P (X ∈ B) = P (Y ∈ B)}
Prof.J.Gast´on Argeri 40
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 41
Por construcci´on es G ⊆ B. Adem´as por hip´otesis, tomando B = (−∞, x] se tiene PX(B) =
FX(x) = FY (x) = PY (B), de modo que G contiene a todos los subconjuntos de R de la forma
(−∞, x] con x ∈ R. Pero dado que B es la m´ınima σ-´algebra de subconjuntos de R que contiene
a todos los conjuntos de la forma (−∞, x], resulta G ⊇ B. Por lo tanto: G = B. Esto significa que
∀B ∈ B , PX(B) = PY (B)
Ejemplo: Se arroja una moneda normal 3 veces. Sean X = ”cantidad de caras obtenidas” e Y =
”cantidad de cecas obtenidas”. Veamos que X e Y son id´enticamente distribuidas. En efecto, dado
que en cada ensayo la probabilidad de cara es igual a la probabilidad de ceca, se tiene:
FX(x) =
[x]
k=0
3
k
1
2
3
= FY (x)
Observemos, de paso, que X = Y . Por ejemplo, para ω = (C, C, S) es X(Ω) = 2 en tanto que
Y (ω) = 1
Propiedad 33 Sea X una variable aleatoria discreta con rango RX = {xn}. La fmp de X verifica
las propiedades siguientes:
i) ∀x ∈ R , pX(x) ≥ 0
ii)
∞
n=1
pX(xn) = 1
Dem:
Ω = {X ∈ RX} =
∞
n=1
{X = xn} siendo la uni´on disjunta. Por lo tanto: 1 = P (Ω) =
∞
n=1
P ({X = xn}) =
∞
n=1
pX(xn)
Propiedad 34 Sea X una variable aleatoria discreta con rango RX = {xn}. La fmp de X determina
un´ıvocamente su fda. En efecto:
FX(x) = P (X ≤ x) = P



∞
n=1
xn≤x
{X = xn}


 =
∞
n=1
xn≤x
P (X = xn) =
∞
n=1
xn≤x
pX(xn)
Ejemplo: Se lanzan dos dados. Consideremos la variable aleatoria Xi = ”n´umero del dado i” (i =
1, 2). Sea X = ”m´aximo n´umero en los dos dados”. Es decir: X = max {X1, X2}. Hallemos la
fmp y la fda de X.
Hallemos primeramente las fmp de X1 y X2. Se tiene: RX1 = RX2 = {1, 2, · · · , 6} y por
equiprobabilidad vale:
pX1 (k) = pX2 (k) = 1/6 (k = 1, 2, · · · , 6)
Por lo tanto:
FX1 (x) = FX2 (x) =
6
k=1
k≤x
1
6
=
[x]
6
Observemos ahora que
{X ≤ x} = {X1 ≤ x} ∩ {X2 ≤ x}
Por lo tanto y teniendo en cuenta la independencia de ambos lanzamientos:
FX(x) = P (X ≤ x) = P ({X1 ≤ x} ∩ {X2 ≤ x}) =
= P (X1 ≤ x)P (X2 ≤ x) = FX1 (x)FX2 (x) = [x]
6
2
= [x]2
36
Prof.J.Gast´on Argeri 41
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 42
Luego, para k = 1, 2, · · · , 6 se tiene:
pX(k) = P (X ≤ k) − P (X ≤ k − 1) = FX(k) − FX(k − 1) =
k2 − (k − 1)2
36
=
2k − 1
36
Generalicemos esta situaci´on para el experimento que consiste en arrojar una dado normal n-veces.
Definamos:
Xi = ”n´umero obtenido en el i-´esimo lanzamiento”
X = ”m´aximo n´umero obtenido en los n lanzamientos”
Como antes: {X ≤ k} =
n
i=1
{Xi ≤ k} Por lo tanto, teniendo en cuenta la independencia de los
n lanzamientos, resulta:
P (X ≤ x) = P
n
i=1
{Xi ≤ x} =
n
i=1
P (Xi ≤ x) =
=
n
i=1
FXi (x) =
n
i=1
[x]
6
= [x]
6
n
Luego, para k = 1, 2, · · · , 6 se tiene:
pX(k) = FX(k) − FX(k − 1) =
k
6
n
−
k − 1
6
n
=
kn − (k − 1)n
6n
La propiedad anterior no es v´alida para variables aleatorias no discretas. De hecho, existen fda que son
funciones continuas en todo R. Si X una tal variable aleatoria entonces ∀x ∈ R , FX(x) = FX(x−).
Por lo tanto:
P (X = x) = P (X ≤ x) − P (X  x) = FX(x) − FX(x−) = 0
Es decir, para variables aleatorias continuas la fmp carece por completo de inter´es dado que es
id´enticamente nula.
Propiedad 35 Sea {pn} una sucesi´on tal que:
i) ∀n ∈ N , pn ≥ 0
ii)
∞
x=1
pn = 1
Entonces {pn} es una fmp.
Dem:
Definamos F (x) =
∞
n=1
n≤x
pn. Dejo a cargo de ustedes verificar que F satisface las condiciones para
ser una fda (Teorema 1)
Motivaremos ahora la noci´on de variable aleatoria continua.
Ejemplo: Consideremos una poblaci´on formada por un gran n´umero N = 1000 de personas. Supong-
amos que nos interesa la distribuci´on de la variable aleatoria X que mide la altura de un individuo
seleccionado al azar dentro de esta poblaci´on. Supongamos para fijar ideas que las alturas se miden
en cm y que se encuentran en el intervalo [150, 190] Dado el gran n´umero de personas en la poblaci´on
podemos tener una idea aproximada de la distribuci´on de alturas dividiendo el intervalo [150, 190]
Prof.J.Gast´on Argeri 42
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 43
en cuatro subintervalos de igual longitud [150, 160) , [160, 170) , [170, 180) , [180, 190) y de-
terminando las frecuencias, es decir la cantidad de individuos cuyas alturas caen en el respectivo
subintervalo. Para fijar ideas, supongamos que tales frecuencias resulten como muestra la tabla:
Intervalo f(frecuencia) fr(frecuencia relativa) fr/(longitud subintervalo)
[150, 160) 80 0.10 0.01
[160, 170) 150 0.25 0.025
[170, 180) 500 0.50 0.05
[180, 190) 150 0.15 0.015
Si tomamos el extremo izquierdo de cada subintervalo como representativo de un valor en dicho subin-
tervalo, la tabla anterior provee una variable aleatoria discreta D que aproxima a la variable aleatoria
X y que toma los cuatro valores 150, 160, 170, 180 con probabilidades dadas por la columna fr y
que podemos resumir en esta otra tabla:
k pD(k) pD(k)/(long.subintervalo)
150 0.10 0.01
160 0.25 0.025
170 0.50 0.05
180 0.15 0.015
Para obtener una variable aleatoria discreta cuya distribuci´on represente m´as fielmente la distribuci´on
de X podemos refinar nuestra partici´on del intervalo original [150, 190] y recalcular la fmp de la
variable discreta obtenida. Siguiendo de este modo, aumentando cada vez la cantidad de subinterva-
los y reduciendo la longitud de los mismos (norma tendiendo a cero) e imaginando que la poblaci´on
es tan grande que puede suponerse ”infinita” y por ende este proceso podr´ıa segir indefinidamente,
obtendr´ıamos por lo general una situaci´on como se muestra en los gr´aficos siguientes, en la que se
grafica pD/(long.subintervalo) versus x para particiones con norma cada vez menor. Comente-
mos algunas caracter´ısticas interesantes acerca de estos gr´aficos:
• Permiten ”reconstruir” la fmp de la v.a.discreta simplemente hallando el ´area de cada rect´angulo.
• Dado que hemos considerado ´unicamente particiones regulares, los rect´angulos m´as altos y los
m´as bajos permiten visualizar los valores m´as probables y los menos probables de la variable
discreta y, como la discreta aproxima a la v.a. X, tambi´en podemos localizar los intervalos
donde X cae con mayor y con menor probabilidad.
• Cuidado: Las alturas de los rect´angulos no dan probabilidades sino probabilidades por unidad
de longitud.
• Si la variable aleatoria X es discreta, el proceso deja de ser informativo dado que a partir de
cierto momento habr´a una enorme cantidad de subintervalos donde fr/L (L la long. del
subintervalo) ser´a nula y algunos otros (a lo sumo tantos como valores tome la v.a. X) donde
fr/L ser´a muy grande (pues L tiende a cero en tanto que fr permanecer´a fija). En el l´ımite
podr´ıamos decir que las gr´aficas tienden a ser nulas salvo en una cantidad a lo sumo numerable
de ”picos infinitos”.
• La suma de las ´areas de los rect´angulos es 1
• Las gr´aficas de las alturas de los rect´angulos se asemejan cada vez m´as a la gr´afica de una
funci´on, digamos f(x), de argumento continuo.
Prof.J.Gast´on Argeri 43
UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 44
150 160 170 180 190
0.00.010.030.05
x
150 160 170 180 190
0.00.010.030.05
x
150 160 170 180 190
0.00.010.030.05
x
150 160 170 180 190
0.00.010.030.05
x
Este ejemplo motiva la definici´on que sigue.
Definici´on 22 Se dice que una variable aleatoria X es continua (o m´as precisamente absolutamente
continua) sii existe al menos una funci´on fX : R → R tal que:
i) ∀x ∈ R , fX(x) ≥ 0
ii) ∀A ∈ B , P (X ∈ A) =
A
fX(x) dx
Una tal funci´on fX se denomina una funci´on de densidad de probabilidad (fdp) de X o de FX.
Nota:
• Dado que la integral involucrada en esta definici´on puede ser impropia, se presupone su conver-
gencia.
• Tomando A = (−∞, x] se tiene que FX(x) =
x
−∞
fX(t) dt
En particular, si fX sea una funci´on continua en el intervalo (a, b) resulta FX derivable en
(a, b) y vale ∀x ∈ (a, b) , FX(x) = fX(x).
• Observemos que
∞
−∞
fX(x) dx = P (X ∈ R) = 1. Es decir, el ´area bajo la curva y =
fX(x) es igual a 1. Esto implica que una fdp, a diferencia de una fda, no puede ser mon´otona
puesto que para la convergencia de esta integral impropia es necesario que se verifique:
lim
x →−∞
fX(x) = 0 y lim
x →∞
fX(x) = 0
• Si X es variable aleatoria continua entonces para cualquier intervalo I ⊆ R de extremos a y
b se tiene
P (X ∈ I) = FX(b) − FX(a) =
b
−∞
fX(x) dx −
a
−∞
fX(x) dx =
b
a
fX(x) dx
Prof.J.Gast´on Argeri 44
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria
Combinatoria

Más contenido relacionado

La actualidad más candente

072 076-fracciones algebraicas unidad 6
072 076-fracciones algebraicas unidad 6  072 076-fracciones algebraicas unidad 6
072 076-fracciones algebraicas unidad 6
Oscarito Ayala
 
Conjuntos relaciones-funciones
Conjuntos relaciones-funcionesConjuntos relaciones-funciones
Conjuntos relaciones-funciones
2964HaPg
 
Estructuras algebraicas ejercicios adicionales
Estructuras algebraicas ejercicios adicionalesEstructuras algebraicas ejercicios adicionales
Estructuras algebraicas ejercicios adicionales
andreagache
 

La actualidad más candente (16)

072 076-fracciones algebraicas unidad 6
072 076-fracciones algebraicas unidad 6  072 076-fracciones algebraicas unidad 6
072 076-fracciones algebraicas unidad 6
 
Leyes de conjuntos
Leyes de conjuntosLeyes de conjuntos
Leyes de conjuntos
 
1 estructuras
1 estructuras1 estructuras
1 estructuras
 
5 estructuras-algebraicas
5 estructuras-algebraicas5 estructuras-algebraicas
5 estructuras-algebraicas
 
Divisibilidad en IN
Divisibilidad en INDivisibilidad en IN
Divisibilidad en IN
 
Leyes del álgebra en las proposiciones o algebra declarativa
Leyes del álgebra en las proposiciones o algebra declarativaLeyes del álgebra en las proposiciones o algebra declarativa
Leyes del álgebra en las proposiciones o algebra declarativa
 
Conjuntos relaciones-funciones
Conjuntos relaciones-funcionesConjuntos relaciones-funciones
Conjuntos relaciones-funciones
 
Estructuras algebraicas ejercicios adicionales
Estructuras algebraicas ejercicios adicionalesEstructuras algebraicas ejercicios adicionales
Estructuras algebraicas ejercicios adicionales
 
3 Operaciones Binarias
3  Operaciones Binarias3  Operaciones Binarias
3 Operaciones Binarias
 
Razones y Proporciones
Razones y ProporcionesRazones y Proporciones
Razones y Proporciones
 
Induc2
Induc2Induc2
Induc2
 
Ley de conjuntos
Ley de conjuntosLey de conjuntos
Ley de conjuntos
 
Estructuras
EstructurasEstructuras
Estructuras
 
Combinatoria
Combinatoria Combinatoria
Combinatoria
 
Teoría de Conjuntos
Teoría de ConjuntosTeoría de Conjuntos
Teoría de Conjuntos
 
Diapositivas de estructuras algebraicas
Diapositivas de estructuras algebraicasDiapositivas de estructuras algebraicas
Diapositivas de estructuras algebraicas
 

Similar a Combinatoria

InduccióN.Ppt
InduccióN.PptInduccióN.Ppt
InduccióN.Ppt
cgrinblat
 
Técnicas de conteo
Técnicas de conteoTécnicas de conteo
Técnicas de conteo
Pepé Torres
 

Similar a Combinatoria (20)

U 1 conjuntos y probabilidad (2)
U 1 conjuntos y probabilidad (2)U 1 conjuntos y probabilidad (2)
U 1 conjuntos y probabilidad (2)
 
Ejercicios detallados del obj 8 mat ii 179
Ejercicios detallados del obj 8 mat ii  179 Ejercicios detallados del obj 8 mat ii  179
Ejercicios detallados del obj 8 mat ii 179
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Introduccion a la Probabilidad.pptx
Introduccion a la Probabilidad.pptxIntroduccion a la Probabilidad.pptx
Introduccion a la Probabilidad.pptx
 
Temas de probabilidad
Temas de probabilidadTemas de probabilidad
Temas de probabilidad
 
Experimental
ExperimentalExperimental
Experimental
 
Induccion utfsm
Induccion utfsmInduccion utfsm
Induccion utfsm
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Induccion matematica
Induccion matematicaInduccion matematica
Induccion matematica
 
InduccióN.Ppt
InduccióN.PptInduccióN.Ppt
InduccióN.Ppt
 
Analisis libro gerardo____5toao
Analisis libro gerardo____5toaoAnalisis libro gerardo____5toao
Analisis libro gerardo____5toao
 
Binomio de Newton
Binomio de NewtonBinomio de Newton
Binomio de Newton
 
El Principio De Inducción
El Principio De InducciónEl Principio De Inducción
El Principio De Inducción
 
117 4 31102012113144
117 4 31102012113144117 4 31102012113144
117 4 31102012113144
 
Técnicas de conteo
Técnicas de conteoTécnicas de conteo
Técnicas de conteo
 
Axiomas De Peano
Axiomas De PeanoAxiomas De Peano
Axiomas De Peano
 
Axiomas De Peano
Axiomas De PeanoAxiomas De Peano
Axiomas De Peano
 
Sucesiones progresiones
Sucesiones progresionesSucesiones progresiones
Sucesiones progresiones
 
5c64c5002dcd7def69c3982201f64574
5c64c5002dcd7def69c3982201f645745c64c5002dcd7def69c3982201f64574
5c64c5002dcd7def69c3982201f64574
 

Último

FICHA DE LA VIRGEN DE FÁTIMA.pdf educación religiosa primaria de menores
FICHA DE LA VIRGEN DE FÁTIMA.pdf educación religiosa primaria de menoresFICHA DE LA VIRGEN DE FÁTIMA.pdf educación religiosa primaria de menores
FICHA DE LA VIRGEN DE FÁTIMA.pdf educación religiosa primaria de menores
Santosprez2
 
Diseño Universal de Aprendizaje en Nuevos Escenarios JS2 Ccesa007.pdf
Diseño Universal de Aprendizaje en Nuevos Escenarios  JS2  Ccesa007.pdfDiseño Universal de Aprendizaje en Nuevos Escenarios  JS2  Ccesa007.pdf
Diseño Universal de Aprendizaje en Nuevos Escenarios JS2 Ccesa007.pdf
Demetrio Ccesa Rayme
 
PLAN LECTOR QUINTO 2023 educación primaria de menores Quinto grado
PLAN LECTOR QUINTO 2023  educación primaria de menores Quinto gradoPLAN LECTOR QUINTO 2023  educación primaria de menores Quinto grado
PLAN LECTOR QUINTO 2023 educación primaria de menores Quinto grado
Santosprez2
 
Bitacora de Inteligencia Artificial y Herramientas Digitales HD4 Ccesa007.pdf
Bitacora de Inteligencia Artificial  y Herramientas Digitales HD4  Ccesa007.pdfBitacora de Inteligencia Artificial  y Herramientas Digitales HD4  Ccesa007.pdf
Bitacora de Inteligencia Artificial y Herramientas Digitales HD4 Ccesa007.pdf
Demetrio Ccesa Rayme
 
Ediciones Previas Proyecto de Innovacion Pedagogica ORIGAMI 3D Ccesa007.pdf
Ediciones Previas Proyecto de Innovacion Pedagogica ORIGAMI 3D  Ccesa007.pdfEdiciones Previas Proyecto de Innovacion Pedagogica ORIGAMI 3D  Ccesa007.pdf
Ediciones Previas Proyecto de Innovacion Pedagogica ORIGAMI 3D Ccesa007.pdf
Demetrio Ccesa Rayme
 

Último (20)

FICHA DE LA VIRGEN DE FÁTIMA.pdf educación religiosa primaria de menores
FICHA DE LA VIRGEN DE FÁTIMA.pdf educación religiosa primaria de menoresFICHA DE LA VIRGEN DE FÁTIMA.pdf educación religiosa primaria de menores
FICHA DE LA VIRGEN DE FÁTIMA.pdf educación religiosa primaria de menores
 
Época colonial: vestimenta, costumbres y juegos de la época
Época colonial: vestimenta, costumbres y juegos de la épocaÉpoca colonial: vestimenta, costumbres y juegos de la época
Época colonial: vestimenta, costumbres y juegos de la época
 
Diseño Universal de Aprendizaje en Nuevos Escenarios JS2 Ccesa007.pdf
Diseño Universal de Aprendizaje en Nuevos Escenarios  JS2  Ccesa007.pdfDiseño Universal de Aprendizaje en Nuevos Escenarios  JS2  Ccesa007.pdf
Diseño Universal de Aprendizaje en Nuevos Escenarios JS2 Ccesa007.pdf
 
Síndrome piramidal 2024 según alvarez, farrera y wuani
Síndrome piramidal 2024 según alvarez, farrera y wuaniSíndrome piramidal 2024 según alvarez, farrera y wuani
Síndrome piramidal 2024 según alvarez, farrera y wuani
 
Lecciones 07 Esc. Sabática. Motivados por la esperanza
Lecciones 07 Esc. Sabática. Motivados por la esperanzaLecciones 07 Esc. Sabática. Motivados por la esperanza
Lecciones 07 Esc. Sabática. Motivados por la esperanza
 
GOBIERNO DE MANUEL ODRIA EL OCHENIO.pptx
GOBIERNO DE MANUEL ODRIA   EL OCHENIO.pptxGOBIERNO DE MANUEL ODRIA   EL OCHENIO.pptx
GOBIERNO DE MANUEL ODRIA EL OCHENIO.pptx
 
PLAN LECTOR QUINTO 2023 educación primaria de menores Quinto grado
PLAN LECTOR QUINTO 2023  educación primaria de menores Quinto gradoPLAN LECTOR QUINTO 2023  educación primaria de menores Quinto grado
PLAN LECTOR QUINTO 2023 educación primaria de menores Quinto grado
 
Bitacora de Inteligencia Artificial y Herramientas Digitales HD4 Ccesa007.pdf
Bitacora de Inteligencia Artificial  y Herramientas Digitales HD4  Ccesa007.pdfBitacora de Inteligencia Artificial  y Herramientas Digitales HD4  Ccesa007.pdf
Bitacora de Inteligencia Artificial y Herramientas Digitales HD4 Ccesa007.pdf
 
tema 6 2eso 2024. Ciencias Sociales. El final de la Edad Media en la Penínsul...
tema 6 2eso 2024. Ciencias Sociales. El final de la Edad Media en la Penínsul...tema 6 2eso 2024. Ciencias Sociales. El final de la Edad Media en la Penínsul...
tema 6 2eso 2024. Ciencias Sociales. El final de la Edad Media en la Penínsul...
 
novelas-cortas--3.pdf Analisis introspectivo y retrospectivo, sintesis
novelas-cortas--3.pdf Analisis introspectivo y retrospectivo, sintesisnovelas-cortas--3.pdf Analisis introspectivo y retrospectivo, sintesis
novelas-cortas--3.pdf Analisis introspectivo y retrospectivo, sintesis
 
04.UNIDAD DE APRENDIZAJE III CICLO-Cuidamos nuestro medioambiente (1).docx
04.UNIDAD DE APRENDIZAJE III CICLO-Cuidamos nuestro medioambiente (1).docx04.UNIDAD DE APRENDIZAJE III CICLO-Cuidamos nuestro medioambiente (1).docx
04.UNIDAD DE APRENDIZAJE III CICLO-Cuidamos nuestro medioambiente (1).docx
 
Los caminos del saber matematicas 7°.pdf
Los caminos del saber matematicas 7°.pdfLos caminos del saber matematicas 7°.pdf
Los caminos del saber matematicas 7°.pdf
 
ciclos biogeoquimicas y flujo de materia ecosistemas
ciclos biogeoquimicas y flujo de materia ecosistemasciclos biogeoquimicas y flujo de materia ecosistemas
ciclos biogeoquimicas y flujo de materia ecosistemas
 
EL CARDENALITO Lengua y Literatura de 6 grado
EL CARDENALITO Lengua y Literatura de 6 gradoEL CARDENALITO Lengua y Literatura de 6 grado
EL CARDENALITO Lengua y Literatura de 6 grado
 
TÉCNICAS OBSERVACIONALES Y TEXTUALES.pdf
TÉCNICAS OBSERVACIONALES Y TEXTUALES.pdfTÉCNICAS OBSERVACIONALES Y TEXTUALES.pdf
TÉCNICAS OBSERVACIONALES Y TEXTUALES.pdf
 
Realitat o fake news? – Què causa el canvi climàtic? - Modificacions dels pat...
Realitat o fake news? – Què causa el canvi climàtic? - Modificacions dels pat...Realitat o fake news? – Què causa el canvi climàtic? - Modificacions dels pat...
Realitat o fake news? – Què causa el canvi climàtic? - Modificacions dels pat...
 
ACERTIJO CÁLCULOS MATEMÁGICOS EN LA CARRERA OLÍMPICA. Por JAVIER SOLIS NOYOLA
ACERTIJO CÁLCULOS MATEMÁGICOS EN LA CARRERA OLÍMPICA. Por JAVIER SOLIS NOYOLAACERTIJO CÁLCULOS MATEMÁGICOS EN LA CARRERA OLÍMPICA. Por JAVIER SOLIS NOYOLA
ACERTIJO CÁLCULOS MATEMÁGICOS EN LA CARRERA OLÍMPICA. Por JAVIER SOLIS NOYOLA
 
En un aposento alto himno _letra y acordes.pdf
En un aposento alto himno _letra y acordes.pdfEn un aposento alto himno _letra y acordes.pdf
En un aposento alto himno _letra y acordes.pdf
 
ACERTIJO SOPA DE LETRAS OLÍMPICA. Por JAVIER SOLIS NOYOLA
ACERTIJO SOPA DE LETRAS OLÍMPICA. Por JAVIER SOLIS NOYOLAACERTIJO SOPA DE LETRAS OLÍMPICA. Por JAVIER SOLIS NOYOLA
ACERTIJO SOPA DE LETRAS OLÍMPICA. Por JAVIER SOLIS NOYOLA
 
Ediciones Previas Proyecto de Innovacion Pedagogica ORIGAMI 3D Ccesa007.pdf
Ediciones Previas Proyecto de Innovacion Pedagogica ORIGAMI 3D  Ccesa007.pdfEdiciones Previas Proyecto de Innovacion Pedagogica ORIGAMI 3D  Ccesa007.pdf
Ediciones Previas Proyecto de Innovacion Pedagogica ORIGAMI 3D Ccesa007.pdf
 

Combinatoria

  • 1. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 1 Combinatoria 1 Principios b´asicos La combinatoria es una disciplina que se ocupa de estudiar t´ecnicas de conteo y enumeraci´on de conjuntos, en especial cuando la cantidad de elementos que poseen es muy grande (de modo que una lista extensiva ser´ıa imposible o impr´actica). Aplicada a la teor´ıa de probabilidades permite en muchos casos determinar la cantidad de elementos de un espacio muestral finito y la cantidad de elementos de alg´un evento de inter´es. Presentamos dos reglas b´asicas de la combinatoria: Principio de la multiplicaci´on Supongamos que un experimento consta de dos etapas. Si como resultado de la primera etapa pueden darse n resultados posibles y si, independientemente del resultado particular de la primera etapa, la segunda etapa puede dar lugar a m resultados posibles, entonces la cantidad de posibles resultados del experimento es n · m El principio se extiende de manera natural a un experimento en r etapas, donde la i-´esima etapa tiene una cantidad ni de posibles resultados (independientemente de los resultados particulares de las etapas anteriores), donde i = 1, 2, · · · , r. Entonces la cantidad de posibles resultados del experimento es r i=1 ni Ejemplo: Una caja contiene 5 cartas distintas de una baraja espa˜nola. Se extraen dos cartas al azar. Si se realiza la extracci´on con reposici´on ¿ De cu´antas maneras distintas es posible realizarlo? Rta: 5· 5 = 25 maneras distintas. Si se realiza la extracci´on sin reposici´on ¿ De cu´antas maneras distintas es posible realizarlo? Rta: 5· 4 = 20 maneras distintas. Principio de la adici´on Un experimento puede llevarse a cabo de dos formas. Cuando se lo realiza de una forma conduce a n resultados posibles. Cuando se lo realiza de la otra forma conduce a m resultados posibles. Entonces eligiendo una u otra forma para realizarlo, el experimento da lugar a n + m resultados posibles. El principio de la adici´on tambi´en se generaliza a un experimento que se realiza de una entre r maneras posibles, siendo ni la cantidad de posibles resultados cuando se lo realiza de la i-´esima forma, donde i = 1, 2, · · · , r. Entonces la cantidad de posibles resultados del experimento es r i=1 ni Ejemplo: Para viajar de Buenos Aires a San Pablo se puede optar por tres compa˜n´ıas a´ereas o por cinco empresas de omnibus ¿ Cu´antas maneras diferentes existen para contratar el viaje? Rta: 3 + 5 = 8 maneras distintas. 2 Variaciones Se tienen n objetos diferentes y se quiere ordenar k de ellos en fila, siendo k ≤ n. Cada posible ordenamiento se denomina una variaci´on de los n objetos tomados de a k. Para calcular la cantidad total de variaciones utilizamos el principio de la multiplicaci´on: Para el primer lugar de la fila hay n posibles maneras de llenarlo con un objeto. Independientemente de cu´al sea el objeto que ocupe el primero lugar, para llenar el segundo lugar de la fila disponemos ahora de n − 1 objetos dado que uno de los objetos ya fue utilizado para cubrir el primer lugar. Independientemente de cu´ales hayan sido los objetos que llenan los dos primeros lugares de la fila, para cubrir el tercer lugar disponemos de n − 2 objetos pues dos ya han sido utilizados. As´ı sicesivamente de modo que aplicando el principio Prof.J.Gast´on Argeri 1
  • 2. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 2 de la multiplicaci´on, la cantidad total de posibles variaciones de n tomados de a k resulta ser: (n)k = n · (n − 1) · (n − 2) · · · · · [n − (k − 1)] = n! (n − k)! Ejemplo: En un club se postulan cinco miembros, digamos A,B,C,D y E, para ocupar las posiciones de presidente y secretario. Para identificar todas las posibles maneras de elegir entre ellos un presidente y un secretario, formamos las variaciones de 5 tomadas de a 2. En este caso la ”fila” tiene en primer lugar al presidente y en segundo lugar al secretario. El listado de las 5 · 4 = 20 variaciones es el siguiente: AB AC AD AE BA BC BD BE CA CB CD CE DA DB DC DE EA EB EC ED 3 Permutaciones Un caso particular de variaciones de n objetos tomados de a k se presenta cuando k = n. En tal caso las variaciones reciben el nombre de permutaciones de n objetos y corresponden a las diferentes maneras de ordenar en fila n objetos diferentes. La cantidad de permutaciones de n objetos resulta entonces ser: n · (n − 1) · (n − 2) · · · · · [n − (n − 1)] = n! Ejemplo: La cantidad de n´umeros de cuatro cifras que pueden formarse a partir de los d´ıgitos 3, 5, 6, 8 sin repetir ninguno de ellos resulta ser 4! = 24. Damos un listado de dichos n´umeros: 3568 5368 5638 5683 3586 5386 5836 5863 3658 6358 6538 6583 3685 6385 6835 6853 3856 8356 8536 8563 3865 8365 8635 8653 4 Combinaciones Dados n objetos diferentes, cada conjunto formado por k de los n elementos se dice una combinaci´on de los n elementos tomados de a k. La diferencia entre variaciones y combinaciones reside en el hecho que las combinaciones no tienen en cuenta el orden relativo entre los elementos (ya no podemos pensar en un ”fila”). Por ejemplo, si se tienen cuatro objetos A,B,C y D las posibles combinaciones de a 2 son: AB AC AD BC BD CD Comp´arese esto con las posibles variaciones de 4 tomados de a 2: AB BA AC CA AD DA BC CB BD DB CD DC Para determinar la cantidad de combinaciones de n tomados de a k procedemos de modo indirecto del modo siguiente: Anotemos provisoriamente x a dicha cantidad. Para una dada combinaci´on existen k! maneras diferentes de ordenar sus elementos en una fila. Adem´as, combinaciones diferentes dar´an Prof.J.Gast´on Argeri 2
  • 3. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 3 lugar a filas con diferentes configuraciones, dado que diferir´an en al menos uno de los objetos presentes. De esta manera, tomando todas las posibles combinaciones y ordenando en fila los k objetos en cada una de ellas, obtendremos la totalidad de posibles ordenamientos en fila de k de los n objetos, es decir la totalidad de variaciones de n tomados de a k. Por lo tanto: x · k! = n! (n−k)! Despejando x resulta que la cantidad de posibles combinaciones de n objetos tomados de a k, n´umero que representaremos con el s´ımbolo n k es: n k = n! k!(n − k)! Este n´umero se denomina n´umero combinatorio n sobre k. En el ejemplo precedente n = 4 , k = 2 de modo que la cantidad de posibles combinaciones es 4 2 = 4! 2!2! = 4! 4 = 3! = 6 Propiedad 1 n k = n n − k Dem: La demostraci´on queda a cargo del lector. Propiedad 2 n j − 1 + n j = n + 1 j Dem: n j−1 + n j = n! (j−1)!(n−j+1)! + n! j!(n−j)! = = n! (j−1)!(n−j)!(n−j+1) + n! (j−1)!j(n−j)! = = n! (j−1)!(n−j)! 1 n−j+1 + 1 j = = n! (j−1)!(n−j)! · j+n−j+1 j(n−j+1) = = n!(n+1) (j−1)!j(n−j)!(n+1−j) = (n+1)! j!(n+1−j)! = n+1 j 5 Binomio de Newton Dados n´umeros a, b ∈ R sabemos que el desarrollo del cuadrado del binomio a + b viene dado por: (a + b)2 = a2 + 2ab + b2 Podemos reescribir este desarrollo como: (a + b)2 = 2 0 a0 b2 + 2 1 a1 b1 + 2 2 a2 b0 = 2 k=0 2 k ak b2−k An´alogamente para el desarrollo del cubo de un binomio: (a + b)3 = a3 + 3a2 b + 3ab2 + b3 Prof.J.Gast´on Argeri 3
  • 4. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 4 que tambi´en puede reescribirse como: (a + b)3 = 3 0 a0 b3 + 3 1 a1 b2 + 3 2 a2 b1 + 3 3 a3 b0 = 3 k=0 3 k ak b3−k La f´ormula del binomio de Newton generaliza lo anterior al desarrollo de cualquier potencia natural de un binomio y se expresa de la siguiente manera. Teorema 1 (F´ormula del binomio de Newton) Para cualesquiera n´umeros a, b ∈ R y cualquier n´umero n ∈ N se verifica: (a + b)n = n k=0 n k ak bn−k Dem: Por inducci´on respecto de n demostraremos que la proposici´on p(n) : ∀a, b ∈ R, (a + b)n = n k=0 n k ak bn−k es verdadera para todo n´umero natural n. Paso base: Probemos que p(1) es V. p(1) : ∀a, b ∈ R, (a + b)1 = 1 k=0 1 k ak b1−k El miembro izquierdo de la igualdad es simplemente a + b. El miembro derecho es: 1 0 a0 b1 + 1 1 a1 b0 = b + a de modo que p(1) es verdadera. (HI)Hip´otesis inductiva: Supongamos que p(n) es verdadera. Ahora probaremos que necesariamente p(n + 1) es verdadera, bajo el supuesto (HI). Para ello Prof.J.Gast´on Argeri 4
  • 5. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 5 procedemos as´ı: (a + b)n+1 = (a + b)(a + b)n = (a + b) n k=0 n k akbn−k = = a n k=0 n k akbn−k + b n k=0 n k akbn−k = = n k=0 n k ak+1bn−k + n k=0 n k akbn−k+1 = = n+1 j=1 n j−1 ajbn−j+1 + n j=0 n j ajbn−j+1 = = n n an+1 + n j=1 n j−1 ajbn−j+1 + n 0 bn+1 + n j=1 n j ajbn−j+1 = = n 0 bn+1 + n j=1 n j−1 + n j ajbn−j+1 + n n an+1 = = n 0 bn+1 + n j=1 n+1 j ajbn−j+1 + n n an+1 = = n+1 0 a0bn+1 + n j=1 n+1 j ajbn−j+1 + n+1 n+1 an+1b0 = = n+1 j=0 n+1 j ajbn+1−j que muestra que p(n + 1) es verdadera. Luego, por inducci´on completa p(n) es verdadera para todo n ∈ N 6 Permutaciones con repetici´on Supongamos que queremos determinar cu´antas palabras de cuatro letras pueden formarse con las le- tras de la palabra AZAR. Aqu´ı entendemos por ”palabra” cualquier secuencia que utilice las cuatro letras de AZAR, tenga o no significado en alg´un lenguaje. Para averiguar cu´antas pueden formarse, digamos x (a determinar), consideremos el siguiente razonamiento: Si bien la palabra AZAR posee s´olo tres letras diferentes, a saber A,Z,R, moment´aneamente distingamos las dos apariciones de la letra A, por ejemplo podr´ıamos ”pintar” de dos colores diferentes las dos letras A. En tal caso ya sabemos que la cantidad de posibles ordenamientos de las cuatro letras distintas es 4!. Ahora bien, cada ordenamiento de los x (que no distinguen entre ambas A) da lugar de manera natural a 2! ordenamientos (que s´ı distinguen entre ambas A), por simple permutaci´on de las dos letras A entre s´ı. Por lo tanto podemos afirmar que: x · 2! = 4! Se deduce que: x = 4! 2! El mismo tipo de razonamiento se generaliza cuando hay varias letras (objetos) repetidas. For- malmente: Si se tienen r objetos diferentes de los cuales se va a repetir el primero n1 veces, el segundo n2 veces, · · · , el r-´esimo nr veces, la cantidad total de configuraciones en fila de n = n1 + · · · + nr objetos con las repeticiones especificadas anteriormente es: (n1 + n2 + · · · + nr)! n1! n2! · · · nr! Prof.J.Gast´on Argeri 5
  • 6. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 6 El n´umero anterior se denomina coeficiente multinomial y suele anotarse tambi´en como n n1, n2, · · · , nr = (n1 + n2 + · · · + nr)! n1! n2! · · · nr! Por ejemplo, con las letras de la palabra AZAR pueden formarse 4! 2! = 12 palabras diferentes. Para convencernos las listamos todas: AZAR AZRA AAZR AARZ ARZA ARAZ ZAAR ZARA ZRAA RAAZ RAZA RZAA Teorema 2 (Teorema multinomial) Para cualesquiera n´umeros x1, x2, · · · , xr ∈ R y cualquier n´umero n ∈ N se verifica (x1 + x2 + · · · + xr)n = 0≤k1,··· ,kr≤n k1+···+kr=n n k1, · · · , kr xk1 1 · · · xkr r 7 Distribuci´on de bolillas en urnas Diversos problemas de ´ındole combinatorio pueden representarse mediante problemas ”modelo” basa- dos en disposiciones de bolillas en urnas. 7.1 Disposiciones de n bolillas distintas en r urnas distintas 7.1.1 M´as de una bolilla es admisible por urna En este caso simplemente se trata de un experimento en n etapas: La primera etapa consiste en ubicar la primera bolilla en alguna de las r posibles urnas. La segunda etapa consiste en colocar la segunda bolilla en alguna de las r urnas a´un disponibles, etc. De manera que la cantidad de posibles disposiciones es en total r · r · · · r n = rn 7.1.2 A lo sumo una bolilla es admisible por urna Este caso exige que n ≤ r. Para la primera bolilla hay r posibles urnas donde ubicarla, para la segunda bolilla hay s´olo r − 1 urnas vac´ıas para ubicarla, para la tercer bolilla hay s´olo r − 2 urnas vac´ıas disponibles, etc. De modo que la cantidad total de posibles disposiciones es r · (r − 1) · (r − 2) · · · [r − (n − 1)] es decir igual al n´umero de variaciones de r tomados de a n. 7.2 Disposiciones de n bolillas id´enticas en r urnas distintas 7.2.1 No pueden quedar urnas vac´ıas En este caso debe ser n ≥ r pues de lo contrario necesariamente quedar´ıan urnas vac´ıas. Podemos asimilar este problema de combinatoria representando las bolillas indistinguibles por asteriscos ”∗” y las separaciones entre urnas mediante barras ”|” As´ı por ejemplo una configuraci´on con tres urnas y cinco bolillas podr´ıa representarse por: ∗ ∗ | ∗ | ∗ ∗ Esto quiere simbolizar de alg´un modo que en la primera urna hay exactamente dos bolillas, en la segunda urna exactamente una bolilla y en la tercera urna exactamente dos bolillas. Si disponemos las bolillas en una hilera, ubicar las n bolillas id´enticas en las r urnas diferentes equivale a ubicar r − 1 separadores ”|” en los n − 1 espacios entre bolillas consecutivas. Esto Prof.J.Gast´on Argeri 6
  • 7. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 7 puede realizarse de n−1 r−1 maneras distintas. Ejemplo: Distribuir seis bolillas id´enticas en tres urnas diferentes, sin permitir urnas vac´ıas. Listamos las posibilidades: ∗| ∗ | ∗ ∗ ∗ ∗ ∗| ∗ ∗| ∗ ∗∗ ∗| ∗ ∗ ∗ | ∗ ∗ ∗| ∗ ∗ ∗ ∗|∗ ∗ ∗ | ∗ | ∗ ∗∗ ∗ ∗ | ∗ ∗| ∗ ∗ ∗ ∗ | ∗ ∗ ∗ |∗ ∗ ∗ ∗| ∗ | ∗ ∗ ∗ ∗ ∗| ∗ ∗|∗ ∗ ∗ ∗ ∗ | ∗ |∗ Ejemplo: Hallar todas las descomposiciones del n´umero 8 como suma de tres n´umeros naturales. Considerar que el orden relativo de los tres t´erminos en la descomposici´on es relevante. Se tendr´an las siguientes posibles descomposiciones: 1|1|111111 1|11|11111 1|111|1111 1|1111|111 1|11111|11 1|111111|1 11|1|11111 1 + 1 + 6 1 + 2 + 5 1 + 3 + 4 1 + 4 + 3 1 + 5 + 2 1 + 6 + 1 2 + 1 + 5 11|11|1111 11|111|111 11|1111|11 11|11111|1 111|1|1111 111|11|111 111|111|11 2 + 2 + 4 2 + 3 + 3 2 + 4 + 2 2 + 5 + 1 3 + 1 + 4 3 + 2 + 3 3 + 3 + 2 111|1111|1 1111|1|111 1111|11|11 1111|111|1 11111|1|11 11111|11|1 111111|1|1 3 + 4 + 1 4 + 1 + 3 4 + 2 + 2 4 + 3 + 1 5 + 1 + 2 5 + 2 + 1 6 + 1 + 1 Es decir un total de 8−1 3−1 = 7 2 = 7! 2!5! = 21 descomposiciones. 7.2.2 Pueden quedar urnas vac´ıas Tambi´en aqu´ı podemos pensar en bolillas ∗ y separadores entre urnas |, pero a diferencia de la situaci´on previa, en este caso los separadores pueden quedar contiguos, como por ejemplo en la con- figuraci´on siguiente: ∗ ∗ || ∗ | ∗ ∗ ∗ | que corresponde a n = 6 bolillas id´enticas en r = 5 urnas distintas, donde hay 2 bolillas en la primer urna, la segunda urna est´a vac´ıa, 1 bolilla en la tercer urna, 3 bolillas en la cuarta urna y la quinta urna est´a vac´ıa. Se trata pues de disponer en fila n s´ımbolos ∗ y r − 1 s´ımbolos | Es decir en un total de n + r − 1 lugares. Luego, la cantidad de posibles disposiciones es n+r−1 n = n+r−1 r−1 puesto que basta con elegir los lugares que ser´an ocupados por ∗ (o equivalentemente elegir los lugares a ser ocupados por |). Ejemplo: Se desea invertir un capital de $20.000 en cuatro posibilidades de inversi´on (negocios). Se desea adem´as que las inversi´on se realice en m´ultiplos de $1.000 a) Si se quiere invertir la totalidad del capital, ¿ de cu´antas formas diferentes puede realizarse? Si ∗ representa una inversi´on de $1.000 el problema se asimila al de n = 20 bolillas y r = 4 urnas y donde pueden quedar urnas vac´ıas (negocios en los cuales se decide no invertir ningun monto). Entonces la cantidad total de maneras posibles de invertir el capital de $20.000 es 20+4−1 20 = 23 20 = 1.771 b) Si se quiere invertir la totalidad o parte del capital, ¿ de cu´antas formas diferentes puede realizarse? El an´alisis es similar al anterior s´olo que ahora no es obligatorio invertir todo el capital disponible. Podemos entonces pensar que la parte del capital que se decida no invertir es un ”quinto negocio posible”. De este modo se trata de un problema de disposici´on de n = 20 bolillas en r = 5 urnas y donde no pueden quedar urnas vac´ıas. Hay un total de 20+5−1 20 = 24 20 = 10.626 posibles maneras de invertir el capital (Una de dichas maneras consiste en no invertirlo en absoluto). Prof.J.Gast´on Argeri 7
  • 8. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 8 Teor´ıa axiom´atica de probabilidades 8 Experimentos aleatorios - Espacio muestral - Eventos Denominaremos experimento aleatorio a todo proceso (procedimiento, experimento, etc.) que con- duzca a un resultado que cumpla con las siguientes caracter´ısticas: • El proceso es repetible en id´enticas condiciones una cantidad ilimitada de veces. Cada realizaci´on particular del proceso conduce a un ´unico resultado. • Se conoce a priori (es decir previamente a cualquier realizaci´on particular) todos los posibles resultados del experimento. • El resultado del experimento est´a sujeto al azar. Es decir que es imposible determinar a priori (es decir previamente a cualquier realizaci´on particular) cu´al de todos los resultados posibles del experimento ocurrir´a. Definici´on 1 Llamaremos espacio muestral asociado a un experimento aleatorio a cualquier conjunto que caracterice todos los posibles resultados de dicho experimento. El espacio muestral frecuentemente se anota mediante la letra griega omega may´uscula Ω. En este contexto caracterizar significa que cada elemento del espacio muestral se corresponde con uno y s´olo un posible resultado del experimento y a todo posible resultado del experimento le corresponde uno y s´olo un elemento del espacio muestral. En este sentido podr´ıamos decir que un espacio muestral es una forma de ”codificar” los posibles resultados del experimento. Ejemplo: 1) Se arroja un dado una vez y se observa el n´umero que sale. Claramente es un experimento aleatorio pues cada realizaci´on particular conduce a un ´unico n´umero saliente (es imposible que arrojemos el dado y salgan simult´aneamente dos o m´as n´umeros) y adem´as: • El experimento es reproducible en id´enticas condiciones una cantidad arbitraria de veces (Al menos una versi´on idealizada del experimento, por ejemplo con un dado imaginario que nunca se desgasta o deforma). • Antes de arrojar el dado se sabe de antemano que los posibles resultados son los n´umeros 1, 2, 3, 4, 5, 6. • El resultado del lanzamiento es al azar puesto que es imposible determinar el n´umero que saldr´a, con anterioridad al lanzamiento. Un espacio muestral asociado a este experimento puede ser Ω = {1, 2, 3, 4, 5, 6} 2) Se arroja un dado dos veces y se anota el puntaje total (suma de los n´umeros obtenidos en ambos lanzamientos). En este caso un espacio muestral es Ω = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12} 3) Se arroja un dado hasta obtener por primera vez un 1 y se registra la cantidad de lanzamientos necesarios. En este ejemplo un espacio muestral es Ω = N 4) Desde una distancia de 3 metros se arroja un dardo a un blanco circular de radio 0, 25 metros. Suponiendo que el dardo da en el blanco, se registra la distancia desde el punto de impacto hasta el centro del blanco. En este caso un espacio muestral es Ω = [0 ; 0, 25] Un conjunto infinito A se dice numerable si sus elementos pueden ponerse en correspondencia 1-1 con los n´umeros naturales, es decir si existe alguna funci´on N f → A con las propiedades siguientes: Prof.J.Gast´on Argeri 8
  • 9. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 9 i) ∀a ∈ A , ∃n ∈ N tal que a = f(n) ii) ∀m, n ∈ N m = n ⇒ f(m) = f(n) En tal caso la funci´on f determina una ”enumeraci´on” de A. Si en lugar de f(n) anotamos an entonces los elementos de A son precisamente los de la secuencia infinita a1, a2, a3, · · · . Es decir A = {a1, a2, a3, · · · }. Un conjunto que o bien sea finito o bien sea infinito numerable se dice un conjuto a lo sumo numerable. Si se omite la condici´on ii) pero conservando la i), se dice que f es una funci´on suryectiva o sobre A. Se puede demostrar que A es a lo sumo numerable sii existe alguna funci´on de N sobre A. Ejemplo: Mostremos que los siguientes conjuntos infinitos son numerables: N, Z, 2N, Q • Basta considerarla funci´on identidad N f → N • Por ejemplo tomando la funci´on N f → Z dada por f(n) = (−1)n n 2 • Tomando N f → 2N dada por f(n) = 2n • En este caso es m´as engorroso encontrar una f´ormula expl´ıtica para una fuci´on de N sobre Q. Es m´as secillo presentar un gr´afico ilustrativo de tal funci´on: 0 1/1 // 1/2 ||zzzzzzzz 1/3 // 1/4 ||zzzzzzzz 1/5 // · · · }}{{{{{{{{{ 2/1 // 2/2 zzzzzzzz 2/3 ||zzzzzzzz 2/4 zzzzzzzz 2/5 ||zzzzzzzz · · · 3/1 3/2oo 3/3 zzzzzzzz 3/4 ||zzzzzzzz 3/5 =={{{{{{{{{ · · · }}{{{{{{{{{ 4/1 // 4/2 zzzzzzzz 4/3 ||zzzzzzzz 4/4 zzzzzzzz 4/5 ||zzzzzzzz · · · 5/1 5/2oo 5/3 zzzzzzzz 5/4 }}{{{{{{{{{{ 5/5 =={{{{{{{{{ · · · ~~|||||||||| ... // ... =={{{{{{{{{{ ... ... =={{{{{{{{{{ ... Vamos a distinguir dos tipos de espacios muestrales de acuerdo a su cardinalidad (es decir su cantidad de elementos): Ω    Finito o infinito numerable Infinito no numerable En los ejemplos 1) y 2) los espacios muestrales considerados son finitos. En el ejemplo 3) el espacio muestral es infinito numerable. En el ejemplo 4) el espacio muestral es infinito no numerable. Moment´aneamente llamaremos evento o suceso a cualquier subconjunto del espacio muestral Ω. M´as adelante precisaremos este concepto. Dos eventos de particular inter´es son el evento Ω (denominado evento seguro o cierto) y el evento ∅ (denominado evento vac´ıo o imposible). Los elementos ω ∈ Ω del Prof.J.Gast´on Argeri 9
  • 10. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 10 espacio muestral dan lugar a los denominados eventos simples, que son los eventos de la forma {ω}. Todo evento no simple se dice compuesto. Los eventos suelen anotarse empleando las primeras letras del alfabeto en may´usculas: A, B, C, D, etc. Ejemplo: 1) Lanzamiento de un dado. Podemos considerar los siguientes eventos: A = ”sale n´umero par” = {2, 4, 6} B = ”sale m´ultiplo de tres” = {3, 6} C = ”sale 3” = {3} (suceso elemental) 2) Lanzamiento de dos dados. Podemos considerar los siguientes eventos: A = ”el puntaje total excede 8” = {9, 10, 11, 12} B = ”sale un par y un impar” = {3, 5, 7, 9, 11} 3) Arrojar una moneda hasta obtener ”cara” por primera vez y registrar la cantidad de lanzamientos que fueron necesarios. Eventos que podr´ıan interesarnos: A = ”se requiere a lo sumo 5 lanzamientos” = {1, 2, 3, 4, 5} B = ”se requiere una cantidad impar de lanzamientos” = {3, 5, 7, 9, 11, 13, · · · } 3) Lanzamiento del dardo descrito anteriormente. Un evento en el que podemos estar interesados es A = {x ∈ Ω : x ≤ 0, 2} Consideremos un evento A en el contexto de un experimento aleatorio. Supongamos que la realizaci´on del experimento conduce a un resultado ω ∈ Ω. Cuando ω ∈ A se dice que el resultado del experimento es favorable a A o que ha ocurrido A en dicha realizaci´on. Caso contrario se dice que el resultado ω es desfavorable a A o que no ha ocurrido A en dicha realizaci´on. Notemos que el hecho de que ocurra cierto evento no quita la posibilidad que ocurran tambi´en, en la misma realizaci´on, otros eventos. Ejemplo: Un experimento consiste en lanzar una moneda dos veces de modo que Ω = {(C, C), (C, S), (S, C), (S, S)} donde C = ”sale cara” , S = ”sale ceca”, entonces si en determinada realizaci´on es ω = (C, C) y si A = ”la primera moneda sale cara” = {(C, C), (C, S)} y B = ”la segunda moneda sale ceca” = {(C, C), (S, C)}, entonces han ocurrido tanto el evento A como el evento B. Es decir que el resultado del experimento ha sido favorable tanto al evento A como al evento B. 9 ´Algebra de eventos Sean A, B eventos. A partir de ellos construimos nuevos eventos del modo siguiente: • El complemento de A es el evento Ac = {ω ∈ Ω : ω ∈ A}. Es el evento que ocurre cada vez que no ocurre A. Los resultados favorables a Ac son los desfavorables al A y viceversa. El complemento de A tambi´en suele anotarse A . • La uni´on de A con B es el evento A ∪ B = {ω ∈ Ω : ω ∈ A ∨ ω ∈ B}. Es el evento que ocurre cuando al menos uno de los dos sucesos A, B ocurre. Es decir que A ∪ B ocurre sii o bien ocurre A pero no ocurre B, o bien ocurre B pero no ocurre A, o bien ocurren simult´aneamente tanto A como B. Prof.J.Gast´on Argeri 10
  • 11. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 11 • La intersecci´on de A con B es el evento A ∩ B = {ω ∈ Ω : ω ∈ A ∧ ω ∈ B}. Es el evento que ocurre cuando A y B ocurren simult´aneamente. La intersecci´on de A con B tambi´en suele anotarse AB • La diferencia de A con B es el evento A B = {ω ∈ Ω : ω ∈ A ∧ ω ∈ B}. Es el evento que ocurre cuando ocurre A y simult´aneamente no ocurre B. Ejemplo: En el ´ultimo ejemplo se tiene: Ac = {(S, C), (S, S)} A ∪ B = {(C, C), (C, S), (S, S)} A ∩ B = {(C, S)} A B = {(C, S)} y B A = {(S, C)} M´as generalmente, sean A1, A2, · · · , An eventos. • La uni´on de tales eventos es el evento n i=1 Ai = A1 ∪ · · · ∪ An = {ω ∈ Ω : ω ∈ A1 ∨ · · · ∨ ω ∈ An} • La intersecci´on de tales eventos es el evento n i=1 Ai = A1 ∩ · · · ∩ An = {ω ∈ Ω : ω ∈ A1 ∧ · · · ∧ ω ∈ An} Dicha intersecci´on tambi´en se anota A1A2 · · · An M´as generalmente a´un necesitaremos definir uniones e intersecciones de una cantidad numerable de eventos: Sea {An} una sucesi´on de eventos. • La uni´on de dichos eventos es el evento que ocurre cuando ocurre al menos uno de los eventos de la sucesi´on: ∞ n=1 An = {ω ∈ Ω : ∃n ∈ N , ω ∈ An} • La intersecci´on de dichos eventos es el evento que ocurre cuando ocurren simult´aneamente todos y cada uno de los eventos de la sucesi´on: ∞ n=1 An = {ω ∈ Ω : ∀n ∈ N , ω ∈ An} Ejemplo: Un experimento aleatorio consistente en arrojar una moneda tantas veces como sea necesario hasta obtener por primera vez ”cara”. Podemos considerar: Ω = {C, SC, SSC, SSSC, SSSSC, · · · } Consideremos los siguientes eventos: An = ”sale C en el lanzamiento 2n-´esimo” En este caso: ∞ n=1 An = ”sale C en una cantidad par de lanzamientos” Prof.J.Gast´on Argeri 11
  • 12. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 12 Definici´on 2 Los eventos A y B se dicen incompatibles o (mutuamente) excluyentes o disjuntos si es imposible que ocurran simult´aneamente. Es decir que cada vez que ocurre A no ocurre B y cada vez que ocurre B no ocurre A. Para destacar tal situaci´on nosotros anotaremos el evento uni´on A ∪ B como A B. M´as generalmente dada una sucesi´on {An} de eventos, se dice que dichos eventos son dos a dos incompatibles o (mutuamente) excluyentes o disjuntos dos a dos sii se verifica: ∀m, n ∈ N , m = n ⇒ Am ∩ An = ∅ Para destacar tal situaci´on anotaremos la uni´on ∞ n=1 An como ∞ n=1 An Dados eventos A, B se dice que A est´a contenido o incluido en B o tambi´en que B contiene o incluye a A sii cada vez que ocurre A tambi´en ocurre B (pero no necesariamente a la inversa). Tal relaci´on entre eventos se simboliza A ⊆ B o tambi´en B ⊇ A. En otras palabras: A ⊆ B sii todo resultado favorable a A es tambi´en favorable a B. En la pr´actica para demostrar que A ⊆ B es frecuente tomar un elemento gen´erico (es decir, no un elemento particular) de A y demostrar que necesariamente tambi´en pertenece a B. Naturalmente, dos eventos son iguales sii A ⊆ B y B ⊆ A. Por lo tanto una manera de probar la igualdad entre dos eventos consiste en probar que cada uno de ellos est´a contenido en el otro. Damos a continuaci´on un listado de propiedades muy sencillas cuyas demostraciones formales omiti- mos: A ⊆ A A ⊆ B ∧ B ⊆ C ⇒ A ⊆ C A ∩ A = A ; A ∪ A = A A ∪ B = B ∪ A ; A ∩ B = B ∩ A A ∪ (B ∪ C) = (A ∪ B) ∪ C ; A ∩ (B ∩ C) = (A ∩ B) ∩ C ∅ ⊆ A ⊆ Ω A ∩ B ⊆ A ⊆ A ∪ B ∅ ∩ A = ∅ ; ∅ ∪ A = A Ω ∩ A = A ; Ω ∪ A = Ω (Ac)c = A (A ∪ B)c = Ac ∩ Bc ; (A ∩ B)c = Ac ∪ Bc A ∪ B = A ∪ (B A) B = (B ∩ A) (B A) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) ; A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) n i=1 Ai = A1 n i=2 Ac 1 · · · Ac n−1An ∞ n=1 An c = ∞ n=1 Ac n ; ∞ n=1 An c = ∞ n=1 Ac n Prof.J.Gast´on Argeri 12
  • 13. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 13 10 Algebras y σ-´algebras de subconjuntos de Ω - Espacio de prob- abilidad Todos hemos en alg´un momento realizado mediciones. Como ejemplo concreto supongamos que de- seamos medir ´areas de rect´angulos. Como se sabe, el ´area de un rect´angulo es un n´umero positivo igual al producto base × altura. Supongamos ahora que construimos figuras planas a partir de una cantidad finita de rect´angulos. Podemos asignar un ´area a cada una de tales figuras del modo sigu- iente: Primero descomponemos la figura en una uni´on finita de rect´angulos disjuntos dos a dos y luego sumamos las ´areas de tales rect´angulos. Finalmente, supongamos que todos los rect´angulos que consideramos est´an contenidos dentro de un ”gran” rect´angulo que llamamos Ω. Cada vez que podamos medir el ´area de cierta figura contenida en Ω tambi´en podremos medir el ´area de la ”figura complementaria”, es decir la figura que se obtiene a partir de todos los puntos de Ω que no pertenecen a la figura original. En otros t´erminos, si podemos medir el ´area de una figura tambi´en podemos medir el ´area de su complemento. Queda tambi´en claro que si hemos podido asignar un ´area A(F ) a la figura F ⊆ Ω entonces tendremos A(F c) = A(Ω) − A(F ). Es decir que hay una cantidad de propiedades b´asicas que esperamos de todo n´umero que represente una manera de medir. Para reflejar estas propiedades elementales es necesario determinar una cierta clase de conjuntos, que podr´ıamos denominar ”medibles” que ser´an precisamente aquellos a los cuales asignaremos una medida. En nuestro ejemplo precedente, no queda claro en absoluto c´omo podr´ıamos medir el ´area de un c´ırculo contenido en Ω, pero s´ı podremos asignar ´areas de modo sencillo tomando como conjuntos medibles la clase de todos los subconjuntos de Ω que sean o bien rect´angulos, o bien uniones finitas de rect´angulos o bien sus complementos sean uniones finitas de rect´angulos. Una clase de subconjuntos de Ω con estas car´acter´ısticas es lo que denominaremos un ´algebra de subconjuntos de Ω. Definici´on 3 Dados un conjunto no vac´ıo Ω y una clase A de subconjuntos de Ω, diremos que A es un ´algebra de subconjuntos de Ω sii satisface las siguiente condiciones: i) Ω ∈ A ii) ∀A ∈ A , Ac ∈ A iii) ∀n ∈ N , ∀A1, · · · , An ∈ A , n i=1 Ai ∈ A Ejemplo: Sea Ω cualquier rect´angulo no vac´ıo. Definamos, como vimos anteriormente, la siguiente clase de subconjuntos de Ω: A = {A ⊆ Ω : A es uni´on finita de rect´angulos} Veamos que A tiene las propiedades de un ´algebra de subconjuntos de Ω: i) Ω ∈ A pues Ω es uni´on finita de rect´angulos ya que es un rect´angulo. ii) Supongamos que A ∈ A. Queremos ver que Ac es tambi´en uni´on finita de rect´angulos. En primer lugar notemos que si R ⊆ Ω es un rect´angulo entonces Rc = Ω R es uni´on finita de rect´angulos (Esto le resultar´a evidente cuando dibuje el gran rect´angulo Ω y un rect´angulo arbitrario R contenido en ´el). Adem´as, si B = n i=1 Ri y C = m j=1 R∗ j son uniones finitas de rect´angulos entonces: B ∩ C = 1≤i≤n 1≤j≤m Ri ∩ R∗ j de modo que B ∩ C es uni´on finita de rect´angulos (notar que Ri ∩ R∗ j es un rect´angulo). Esto se extiende a la intersecci´on de un n´umero finito de uniones finitas de rect´angulos. Por lo Prof.J.Gast´on Argeri 13
  • 14. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 14 tanto podemos afirmar que la intersecci´on de un n´umero finito de miembros de A es tambi´en miembro de A. Como A ∈ A podemos escribir A = n i=1 Ri donde los Ri son ciertos subrect´angulos de Ω. Entonces: Ac = n i=1 Ri c = n i=1 Rc i y dado que los Rc i son uniones finitas de rect´angulos, la intersecci´on de ellos tambi´en lo es. Por lo tanto Ac es uni´on finita de rect´angulos de modo que Ac ∈ A. iii) Fijemos n ∈ N y sean A1, · · · , An ∈ A. Sabemos que cada Ai es uni´on finita de rect´angulos. Pero entonces evidentemente A = n i=1 Ai tambi´en es uni´on finita de rect´angulos, de donde re- sulta que A ∈ A. Consideremos ahora un ejemplo que nos servir´a para generalizar la definici´on de ´algebra de subcon- juntos de Ω. Ejemplo: Supongamos que se tiene una secuencia {Rn} de rect´angulos contenidos en el gran rect´angulo Ω. M´as a´un, supongamos que los Rn son disjuntos dos a dos. Parece intuitivamente claro que tambi´en se le puede asignar un ´area al conjunto ∞ n=1 Rn, de la manera siguiente: Cada Rn tiene asignada un ´area A(Rn) Podemos asignar ´area al conjunto R1 R2 como A(R1 R2) = A(R1) + A(R2) Podemos asignar ´area al conjunto R1 R2 R3 como A(R1 R2 R3) = A(R1)+A(R2)+ A(R3) etc. En genral: A n i=1 Ri = n i=1 A(Ri) De este modo vemos c´omo asignar un ´area al conjunto Sn = n i=1 Ri, cualquiera sea n ∈ N. Natu- ralmente los n´umeros A(S1), A(S2), A(S3), · · · forman una sucesi´on creciente de n´umeros reales positivos. Adem´as, dado que todos los Sn ⊆ Ω resulta A(Sn) ≤ A(Ω). Un resultado matem´atico asegura que toda sucesi´on de n´umeros reales que sea creciente y acotada superiormente, posee un l´ımite finito. Por lo tanto existe y es finito el n´umero: lim n →∞ A(Sn) Resulta entonces natural definir A ∞ n=1 Rn = lim n →∞ A n i=1 Ri = lim n →∞ A(Sn) = = lim n →∞ n i=1 A(Ri) = ∞ n=1 A(Rn) Este ejemplo muestra que podemos ampliar la definici´on de ´algebra de conjuntos para permitir que no s´olo las uniones finitas de conjuntos medibles sean medibles, sino tambi´en las uniones infinitas numerables. Esto conduce a la definici´on siguiente. Prof.J.Gast´on Argeri 14
  • 15. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 15 Definici´on 4 Una clase Σ de subconjuntos de un conjunto no vac´ıo Ω se dice una σ-´algebra de subconjuntos de Ω sii verifica las siguientes condiciones: i) Ω ∈ Σ ii) ∀A ∈ Σ , Ac ∈ Σ iii) ∀ {An} sucesi´on en Σ , ∞ n=1 An ∈ Σ Ejemplo: Consideremos un conjunto no vac´ıo Ω. La clase que consta de todos los subconjuntos de Ω se denomina el conjunto de ”partes” de Ω y se suele anotar P(Ω). Claramente es una σ-´algebra de subconjuntos de Ω. De hecho es la m´as grande de todas. Propiedad 3 Sea Σ una σ-´algebra de subconjuntos de Ω. Entonces ∅ ∈ Σ Dem: Puesto que Ω ∈ Σ resulta ∅ = Ωc ∈ Σ Propiedad 4 Sea Σ una σ-´algebra de subconjuntos de Ω. Supongamos que Ω es finito o infinito numerable. Se verifica: ∀ω ∈ Ω , {ω} ∈ Σ ⇒ Σ = P(Ω) Dem: Sea A ⊆ Ω. Puesto que Ω es finito o infinito numerable, lo mismo es cierto de A. Dado que: A = ω∈A {ω} resulta inmediatamente que A ∈ Σ puesto que la uni´on anterior es a lo sumo numerable y cada {ω} pertenece a Σ Propiedad 5 Sea Σ una σ-´algebra de subconjuntos de Ω y sean A1, · · · , An ∈ Σ. Entonces n i=1 Ai ∈ Σ Dem: Definamos An+1 = An+2 = · · · = ∅. Entonces la secesi´on {Ai} est´a en Σ. Se tiene pues: n i=1 Ai = ∞ i=1 Ai ∈ Σ Propiedad 6 Sea Σ una σ-´algebra de subconjuntos de Ω y sea {An} una sucesi´on en Σ. Entonces ∞ n=1 An ∈ Σ Dem: ∞ n=1 An = ∞ n=1 Ac n c ∈ Σ dado que cada Ac n ∈ Σ Propiedad 7 Sea Σ una σ-´algebra de subconjuntos de Ω y sean A1, · · · , An ∈ Σ. Entonces n i=1 Ai ∈ Σ Dem: Definamos An+1 = An+2 = · · · = Ω. Tenemos as´ı una sucesi´on {An} en Σ. Por la propiedad anterior resulta: n i=1 Ai = ∞ i=1 Ai ∈ Σ Prof.J.Gast´on Argeri 15
  • 16. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 16 Propiedad 8 Sean Ω un conjunto no vac´ıo y {Σi}i∈I una familia no vac´ıa, donde cada Σi es una σ-´algebra de subconjuntos de Ω. Entonces i∈I Σi es una σ-´algebra de subconjuntos de Ω. Dem: Anotemos Σ = i∈I Σi. Debemos probar que Σ satisface los axiomas de σ-´algebra de subconjuntos de Ω. Sabiendo que cada Σi satisface dichos axiomas, se deduce que: • Ω ∈ Σ pues ∀i ∈ I , Ω ∈ Σi • Si A ∈ Σ entonces ∀i ∈ I , A ∈ Σi. Luego: ∀i ∈ I , Ac ∈ Σi. Entonces Ac ∈ Σ • Sea {An} sucesi´on en Σ. Entonces ∀i ∈ I , {An} es una sucesi´on en Σi. Por lo tanto ∀i ∈ I , ∞ n=1 An ∈ Σi. Luego: ∞ n=1 An ∈ Σ Propiedad 9 Dados un conjunto no vac´ıo Ω y un subconjunto G de P(Ω), existe una m´ınima σ-´algebra de subconjuntos de Ω que contiene a G Dem: Basta considerar la familia de todas las σ-´algebras de subconjuntos de Ω que contienen a G (una de ellas es P(Ω)) y aplicarle la propiedad anterior Estamos ahora en condiciones de definir la noci´on axiom´atica de probabilidad. Definici´on 5 Sean Ω un conjunto no vac´ıo y Σ una σ-´algebra de subconjuntos de Ω. Una medida de probabilidad o funci´on de probabilidad o simplemente una probabilidad sobre Σ es una funci´on P : Σ → R que verifica los siguientes axiomas: i) ∀A ∈ Σ , P (A) ≥ 0 ii) P (Ω) = 1 iii) Para toda sucesi´on {An} de elementos de Σ disjuntos dos a dos se cumple: P ∞ n=1 An = ∞ n=1 P (An) Nota: Parte del supuesto en esta igualdad es que la serie en el miembro de la derecha sea convergente. Un espacio de probabilidad es una terna ordenada (Ω, Σ, P ) donde P es una probabilidad sobre Σ. Ejemplo: Sea Ω un conjunto no vac´ıo a lo sumo numerable, que podemos anotar Ω = {ωn}. Sea Σ una σ-´algebra de subconjuntos de Ω tal que ∀n , {ωn} ∈ Σ. Como vimos antes esto implica que Σ = P(Ω). Si P es una probabilidad sobre Σ notemos que: • Las probabilidades pn = P ({ωn}) determinan la probabilidad de cualquier evento aleatorio. En efecto: Sea A ⊆ Ω. Entonces A = ωn∈A {ωn}. Por lo tanto: P (A) = P ωn∈A {ωn} = ωn∈A P ({ωn}) = ωn∈A pn • Dada una sucesi´on {pn} de n´umeros reales tal que: a) ∀n , pn ≥ 0 b) ∞ n=1 pn = 1 existe una ´unica probabilidad P sobre Σ tal que P ({ωn}) = pn Prof.J.Gast´on Argeri 16
  • 17. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 17 11 Espacios de equiprobabilidad Si Ω = {ω1, · · · , ωN } es finito y si definimos ∀n ∈ {1, · · · , N} , pn = 1 N entonces se cumplen las condiciones a) y b) del item anterior, de manera que queda definida una ´unica probabilidad sobre Σ = P(Ω) tal que ∀n ∈ {1, · · · , N} , P {ωn} = 1 N = 1 #(Ω) . Esta manera de asignar probabili- dades sobre un espacio muestral finito es lo que se conoce como espacio de equiprobabilidad. En un espacio de equiprobabilidad se tiene para cuanlquier evento A ⊆ Ω P (A) = P ω∈A {ω} = ω∈A P ({ω}) = ω∈A 1 #(Ω) = #(A) #(Ω) Esta manera de asignar probabilidades en un espacio muestral finito suele resumirse del modo siguiente: P (A) = # {resultados favorables al evento A} # {resultados posibles del experimento} En la pr´actica cuando asociamos determinado espacio muestral Ω a un experimento aleatorio con una cantidad finita de resultados posibles, la asignaci´on de probabilidades a dichos eventos elementales no siempre se reduce a considerar resultados equiprobables. Volviendo a uno de nuestros primeros ejem- plos: Se lanzan dos dados ”normales” y se anota el puntaje total obtenido. En este caso podr´ıamos tomar como espacio muestral Ω = {2, 3, 4, · · · , 12}. Sin embargo no es correcto asignar probabili- dades del modo siguiente: ∀n ∈ {2, · · · , 12} , P ({n}) = 1 11 ¿ Qu´e inconvenientes observa acerca de esta asignaci´on de probabilidad? El mismo experimento aleatorio podr´ıa modelizarse mediante el siguiente espacio muestral: Ω = {(i, j) : 1 ≤ i, j ≤ 6} Con este espacio muestral s´ı es adecuada la asignaci´on de probabilidad en forma equiprobable: ∀(i, j) tal que 1 ≤ i, j ≤ 6 , P ({(i, j)}) = 1 36 Calculemos en este ejemplo la probabilidad de que el puntaje total obtenido sea 7. En este caso A = {(i, j) : 1 ≤ i, j ≤ 6 ; i + j = 7} = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}. Por lo tanto P (A) = #(A) #(Ω) = 6 36 = 1 6 Ejemplo: Una urna contiene 3 bolillas blancas y 2 bolillas negras. Se extraen al azar dos bolillas sin reposici´on. Calculemos P (A) y P (C) siendo: A = ”ambas bolillas son blancas” y C = ”ambas bolillas son negras” Una posible representaci´on del espacio muestral asociado a este experimento aleatorio podr´ıa ser Ω = {BB, BN, NB, NN}. Sin embargo, dada esta representaci´on es evidente que no resulta natural considerar los cuatro posibles resultados como equiprobables puesto que hay m´as bolillas blancas que negras. De hecho, si utiliz´aramos el artificio de numerar las bolillas blancas como B1, B2, B3 y numerar las bolillas negras como N1, N2 resulta claro que el resultado A se da en m´as casos que el resultado C. De hecho: A = {(B1, B2), (B1, B3), (B2, B1), (B2, B3), (B3, B1), (B3, B2)} tiene 6 elementos C = {(N1, N2), (N2, N1)} tiene 2 elementos Lo natural entonces es elegir una representaci´on del espacio muestral en la que resulte natural la equiprobabilidad. Tal representaci´on podr´ıa ser la siguiente: Ω = {(x, y) : x, y ∈ {B1, B2, B3, N1, N2} , x = y} Prof.J.Gast´on Argeri 17
  • 18. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 18 Con este espacio muestral es natural plantear equiprobabilidad. Se tiene: P (A) = #(A) #(Ω) = 3·2 5·4 = 3 10 = 0, 3 P (C) = #(C) #(Ω) = 2·1 5·4 = 1 10 = 0, 1 Otra posible representaci´on del espacio muestral es la siguiente, que prescinde del orden en que se extraen las bolillas: Ω = {{x, y} : x, y ∈ {B1, B2, B3, N1, N2} , x = y} Tambi´en en este caso es natural la equiprobabilidad. Se tiene: P (A) = #(A) #(Ω) = (3 2) (5 2) = 3 10 = 0, 3 P (C) = #(C) #(Ω) = (2 2) (5 2) = 1 10 = 0, 1 Como era de esperar, se obtienen las mismas probabilidades que cuando se tiene en cuenta el orden de extracci´on. Ejemplo: Nuevamente consideremos una urna con 3 bolillas blancas y dos bolillas negras. Se extraen al azar dos bolillas, pero esta vez con reposici´on. Calculemos las probabilidades de los mismos eventos A y C del ejemplo anterior. En este caso conviene representar el espacio muestral como: Ω = {(x, y) : x, y ∈ {B1, B2, B3, N1, N2}} Entonces: P (A) = #(A) #(Ω) = 3·3 5·5 = 9 25 = 0, 36 P (C) = #(C) #(Ω) = 2·2 5·5 = 4 25 = 0, 16 12 Propiedades de una probabilidad Una cantidad de resultados ´utiles se desprenden de la definici´on axiom´atica de probabilidad dada en el par´agrafo anterior. Propiedad 10 P (∅) = 0 Dem: Definamos ∀n , An = ∅. Claramente estos eventos son dos a dos disjuntos, de manera que: P (∅) = P ∞ n=1 An = ∞ n=1 P (An) = ∞ n=1 P (∅) Puesto que la serie a la derecha de la ´ultima igualdad es convergente, necesariamente su t´ermino general debe tender a 0. Pero dicho t´ermino general, siendo constantemente igual a P (∅), tiende a P (∅). Por lo tanto: P (∅) = 0 Propiedad 11 Sean A1, · · · , An ∈ Σ dos a dos disjuntos. Entonces: P n i=1 Ai = n i=1 P (Ai) Prof.J.Gast´on Argeri 18
  • 19. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 19 Dem: Definamos An+1 = An+2 = · · · = ∅. Se tiene: P n i=1 Ai = P ∞ i=1 Ai = ∞ i=1 P (Ai) = n i=1 P (Ai) Propiedad 12 Sean A, B ∈ Σ tales que A ⊆ B. Se verifica: P (B A) = P (B) − P (A) Dem: Podemos escribir B = A (B A) siendo la uni´on disjunta. Por lo tanto: P (B) = P (A (B A)) = P (A) + P (B A). Despejando se tiene: P (B A) = P (B) − P (A) Propiedad 13 Sean A, B ∈ Σ (no necesariamente disjuntos). Se verifica: P (A ∪ B) = P (A) + P (B) − P (AB) Dem: Primeramente notemos que BAc = B AB. Ahora bien, por la propiedad anterior y teniendo en cuenta que AB ⊆ B se tiene: P (BAc) = P (B AB) = P (B) − P (AB). Luego: P (A ∪ B) = P (A BAc ) = P (A) + P (BAc ) = P (A) + P (B) − P (AB) Corolario 1 Para cualesquiera eventos A, B ∈ Σ se verifica la siguiente desigualdad: P (A ∪ B) ≤ P (A) + P (B) Dem: P (A ∪ B) = P (A) + P (B) − P (AB) ≤ P (A) + P (B) pues P (AB) ≥ 0 Propiedad 14 Dados A, B, C ∈ Σ se verifica: P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (AB) − P (AC) − P (BC) + P (ABC) Dem: P (A ∪ B ∪ C) = P (A ∪ B) + P (C) − P ((A ∪ B) C) = = P (A) + P (B) − P (AB) + P (C) − P (AC ∪ BC) = = P (A) + P (B) + P (C) − P (AB) − (P (AC) + P (BC) − P (ACBC)) = = P (A) + P (B) + P (C) − P (AB) − (P (AC) + P (BC) − P (ABC)) = = P (A) + P (B) + P (C) − P (AB) − P (AC) − P (BC) + P (ABC) Propiedad 15 Sea (Ω, Σ, P ) un espacio de probabilidad. Dados A1, · · · , An ∈ Σ se cumple: P (A1 ∪ · · · ∪ An) = n i=1 P (Ai) − 1≤i1i2≤n P (Ai1 Ai2 ) + · · · + (−1)r+1 1≤i1i2···ir≤n P (Ai1 Ai2 · · · Air ) + · · · + + .................................................... + + (−1)n+1 P (A1A2 · · · An) (1) Prof.J.Gast´on Argeri 19
  • 20. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 20 Dem: Por inducci´on sobre n. • Paso base: n = 2 ya fue demostrada. • Hip´otesis inductiva (HI): Suponemos v´alida (1) para n. • Supongamos A1, · · · , An+1 ∈ Σ. P (A1 ∪ · · · ∪ An+1) = P (A1 ∪ · · · ∪ An) + P (An+1) − P ((A1 ∪ · · · ∪ An)An+1) = = n i=1 P (Ai) − 1≤i1i2≤n P (Ai1 Ai2 ) + · · · + (−1)r+1 1≤i1i2···ir≤n P (Ai1 Ai2 · · · Air ) + · · · + + (−1)n+1 P (A1A2 · · · An) + P (An+1) − P (A1An+1 ∪ · · · ∪ AnAn+1) = = n+1 i=1 P (Ai) − 1≤i1i2≤n P (Ai1 Ai2 ) + · · · + (−1)r+1 1≤i1i2···ir≤n P (Ai1 Ai2 · · · Air ) + · · · + + (−1)n+1 P (A1A2 · · · An) − { n i=1 P (AiAn+1) − 1≤i1i2≤n P (Ai1 Ai2 An+1) + · · · + (−1)n+1P (A1A2 · · · AnAn+1)} = n+1 i=1 P (Ai) − 1≤i1i2≤n+1 P (Ai1 Ai2 ) + · · · + (−1)r+1 1≤i1i2···ir≤n+1 P (Ai1 Ai2 · · · Air ) + · · · + + (−1)n+2 P (A1A2 · · · An+1) Propiedad 16 Dados A, B ∈ Σ con A ⊆ B se tiene P (A) ≤ P (B) Dem: Como A ⊆ B resulta B = A BAc. Luego: P (B) = P (A) + P (BAc) ≥ P (A) Corolario 2 Para todo A ∈ Σ es P (A) ≤ 1 Dem: Como A ⊆ Ω y dado que P (Ω) = 1 resulta P (A) ≤ P (Ω) = 1 Propiedad 17 Para cualquier A ∈ Σ se verifica: P (Ac) = 1 − P (A) ; P (A) = 1 − P (Ac) Dem: Puesto que Ω = A Ac resulta 1 = P (Ω) = P (A) + P (Ac) Prof.J.Gast´on Argeri 20
  • 21. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 21 13 Propiedades de continuidad Propiedad 18 Sea {An} una sucesi´on en Σ. Supongamos dicha sucesi´on de eventos es creciente, es decir: A1 ⊆ A2 ⊆ A3 ⊆ · · · . Se verifica: P ∞ n=1 An = lim n →∞ P (An) Dem: Definamos los siguientes eventos: B1 = A1 B2 = A2 A1 B3 = A3 A2 · · · · · · · · · Bn = An An−1 · · · · · · · · · Se tiene as´ı una sucesi´on {Bn} en Σ tal que: n i=1 Ai = n i=1 Bi y ∞ i=1 Ai = ∞ i=1 Bi Por conveniencia definamos tambi´en Ao = ∅. Entonces: P n i=1 Ai = P n i=1 Bi = n i=1 P (Bi) = = n i=1 P (Ai Ai−1) = n i=1 (P (Ai) − P (Ai−1)) = = P (An) − P (Ao) = P (An) − P (∅) = P (An) Luego: lim n →∞ P (An) = lim n →∞ n i=1 P (Bi) = ∞ i=1 P (Bi) = = P ∞ i=1 Bi = P ∞ i=1 Ai Propiedad 19 Sea {An} una sucesi´on en Σ. Supongamos dicha sucesi´on de eventos es decreciente, es decir: A1 ⊇ A2 ⊇ A3 ⊇ · · · . Se verifica: P ∞ n=1 An = lim n →∞ P (An) Dem: Notemos que dado que los An decrecen entonces los Ac n crecen. P ∞ n=1 An = 1 − P ∞ n=1 An c = = 1 − P ∞ n=1 Ac n = 1 − lim n →∞ P (Ac n) = = lim n →∞ 1 − P (Ac n) = lim n →∞ P (An) Prof.J.Gast´on Argeri 21
  • 22. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 22 Probabilidad condicional - Sucesos independientes 14 Probabilidad condicional Seguramente al lector no se le habr´a pasado por alto, cuando definimos los axiomas de una probabili- dad, la relaci´on intuitiva que existe entre ´estos y lo que se conoce como el enfoque ”frecuentista” de las probabilidades, que pasamos a explicar someramente. Supongamos, en el contexto de un experimento aleatorio concreto, que se desea asignar probabilidad a cierto evento A. El enfoque frecuentista consiste en repetir el experimento un n´umero finito y grande de veces, digamos N veces. A continuaci´on determina lo que se conoce como frecuencia relativa del evento A en esas N realizaciones del experimento. Dicha frecuencia relativa, que anotaremos fA, se define por: fA = n´umero de veces que ha ocurrido A en las N realizaciones n´umero total N de realizaciones Intuitivamente fA es un reflejo de la chance de ocurrencia de A en dichas repeticiones del experimento. En otro cap´ıtulo formalizaremos esta idea intuitiva. Por el momento nos conformamos con admitirla como natural y motivadora. Esta frecuencia relativa posee las siguientes propiedades: Dados eventos A, B se verifica i) fA ≥ 0 ii) fΩ = 1 iii) Si A y B son disjuntos entonces fA∪B = fA + fB Las propiedades anteriores nos hacen recordar propiedades an´alogas a las de la definici´on axiom´atica de probabilidad. Basados intuitivamente en esta idea frecuentista vamos a introducir el concepto de probabilidad condi- cional. La importancia de este concepto se debe a dos motivos principales: • Frecuentemente estamos interesados en calcular probabilidades cuando disponemos de alguna informaci´on parcial adicional acerca del resultado del experimento. En tal caso dichas probabil- idades se dicen condicionales (a la informaci´on adicional). • A´un en situaciones en las cuales no disponemos de tal informaci´on parcial adicional, es frecuente el uso de la probabilidad condicional como herramienta que permite calcular las probabilidades deseadas de un modo m´as sencillo. Para fijar ideas consideremos el ejemplo que sigue. Ejemplo: Se arrojan dos dados normales, de manera que cada uno de los 36 resultados posibles son equiprobables. Supongamos que se observa adem´as que el primer dado es un 3. Con esta informaci´on adicional, ¿ cu´al es la probabilidad de que el puntaje total obtenido sea 8 ? Primeramente observemos que ”el primer dado es un 3” es un evento, que podemos anotar H. Dado que ha ocurrido H, el experimento se limita a arrojar el segundo dado y determinar el n´umero que sale. Sabemos que los posibles resultados de este experimento parcial seran s´olo seis y definir´an un espacio muestral parcial: ΩH = {(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6)}. Es natural considerar estos seis resultados como equiprobables, es decir que podemos definir una probabilidad PH de modo que ∀j ∈ {1, · · · , 6} , PH ({(3, j)}) = 1/6. Esta probabilidad sobre el espacio muestral Ω∗ puede pensarse como una probabilidad ”condicional a H” en el espacio muestral Ω asociado al experimento original, definiendo: • La probabilidad condicional de {(3, j)} como 1/6. Anotamos P ({(3, j)} |H) = 1/6 Prof.J.Gast´on Argeri 22
  • 23. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 23 • La probabilidad condicional de {(i, j)} como 0 si i = 3. Anotamos P ({(i, j)} |H) = 0 si i = 3 Por lo tanto, la probabilidad condicional de obtener puntaje total 8 ser´a P (”se obtiene puntaje 8”|H) = P ({(3, 5)} |H) = 1/6 Ejemplo: M´as generalmente consideremos dos eventos E y H en el contexto de un experimento aleatorio. Queremos asignar una probabilidad al evento E bajo el supuesto o condici´on que haya ocurrido H. Intuitivamente lo que podr´ıamos hacer es repetir el experimento un gran n´umero N de veces y contar en cu´antas de ellas ha ocurrido H, digamos NH veces, y luego contar en cu´antas de estas NH ha ocurrido tambi´en E, digamos NEH veces. Entonces podr´ıamos considerar el n´umero: NEH NH Equivalentemente, dividiendo numerador y denominador por N se obtiene: NEH/N NH /N = fEH fH Dado que las frecuencias relativas son base intuitiva para las probabilidades, este cociente motiva la definici´on siguiente. Definici´on 6 Sean (Ω, Σ, P ) un espacio de probabilidad y H ∈ Σ tal que P (H) 0. Dado un evento E ∈ Σ se define la probabilidad de E condicional a F como: P (E|F ) = P (EF ) P (F ) Ejemplo: Se lanza dos veces una moneda normal. Calculemos: a) La probabilidad de que ambas salgan cara. b) La probabilidad condicional de que ambas salgan cara dado que la primera sale cara. Para responder a) consideramos el espacio muestral Ω = {CC, CS, SC, SS} y naturalmente asignamos probabilidades uniformemente, de modo que cada uno de los cuatro resultados elementales tiene probabilidad 1/4. Luego: P (”ambas salen cara”) = P ({CC}) = 1 4 Para responder a b) utilizamos la definici´on de probabilidad condicional. Sean E = ”ambas salen cara” y H = ”la primera sale cara”. Entonces: P (E|H) = P (EF ) P (F ) = P ({CC}) P ({CC, CS}) = 1/4 1/2 = 1 2 Propiedad 20 Sean (Ω, Σ, P ) un espacio de probabilidad y H ∈ Σ tal que P (H) 0. Sea Σ P (·|H) −→ R la funci´on que asigna a cada E ∈ Σ el n´umero real P (E|H). Entonces (Ω, Σ, P (·|H)) es un espacio de probabilidad. Dem: La demostraci´on se propone como ejercicio al final del cap´ıtulo Propiedad 21 Sean Σ una σ-´algebra de subconjuntos de Ω y H ∈ Σ. Sea ΣH la siguiente clase de subconjuntos de H: ΣH = {EH : E ∈ Σ} Entonces ΣH es una σ-´algebra de subconjuntos de H. Dem: i) Dado que H ∈ Σ y H = HH resulta H ∈ ΣH Prof.J.Gast´on Argeri 23
  • 24. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 24 ii) Supongamos que B ∈ ΣH. Luego, existe cierto E ∈ Σ tal que B = EH. Dado que tanto E como H son miembros de Σ tambi´en lo es B. Luego, tambi´en Bc ∈ Σ. Entonces el complemento de B relativo a H es H B = BcH. Por ende este complemento pertenece a ΣH, siendo este complemento la intersecci´on entre H y un miembro de Σ. iii) Sea {Bn} una sucesi´on en ΣH. Luego, existe una sucesi´on {En} en Σ tal que ∀n , Bn = EnH. Luego: ∞ n=1 Bn = ∞ n=1 EnH = ∞ n=1 En ∩ H Sea E = ∞ n=1 En. Dado que los En son miembros de Σ resulta E ∈ Σ. Pero como ∞ n=1 Bn = EH resulta que ∞ n=1 Bn ∈ ΣH Definici´on 7 La σ-´algebra ΣH definida arriba se denomina la relativizaci´on de Σ a H o la reducci´on de Σ a H. Propiedad 22 Dados (Ω, Σ, P ) espacio de probabilidad y H ∈ Σ tal que P (H) 0, la funci´on Σh PH −→ R definida por PH(B) = P (B) P (H) es una probabilidad sobre (H, ΣH). M´as a´un, se verifica: ∀E ∈ Σ , PH(EH) = P (E|H) Dem: La demostraci´on se propone como ejercicio al final del cap´ıtulo Definici´on 8 Se dice que el espacio de probabilidad (H, ΣH, PH) se ha obtenido reduciendo a H el espacio de probabilidad (Ω, Σ, P ). La idea es la siguiente: Calcular en Σ probabilidades condicionalmente a H equivale a calcular en ΣH probabilidades sin condicionar. En determinados ejemplos es m´as sencillo calcular probabilidades condicionales por definici´on mientras que en otros es m´as f´acil calcularlas trabajando directamente sobre el espacio muestral reducido. Teorema 3 (Regla del producto) Sea (Ω, Σ, P ) espacio de probabilidad. i) Si A, B ∈ Σ con P (B) 0 entonces P (AB) = P (A|B) · P (B) ii) M´as generalmente, dados A1, · · · , An+1 ∈ Σ con P (A1 · · · An) 0 se verifica: P (A1 · · · An+1) = P (A1) · P (A2|A1) · P (A3|A1A2) · · · · · P (An+1|A1A2 · · · An) Dem: Por inducci´on sobre n. Paso base: n = 1 Este caso corresponde a demostrar i). Sean A1, A2 ∈ Σ con P (A) 0. Se tiene: Como P (A2|A1) = P (A1A2) P (A1) se deduce P (A1A2) = P (A1)P (A2|A1) Prof.J.Gast´on Argeri 24
  • 25. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 25 Hip´otesis inductiva: Suponemos la propiedad v´alida para n Ahora queremos demostrar que vale para n + 1. Sean A1, · · · , An+2 ∈ Σ. Se tiene: P (A1A2 · · · An+1 A An+2 B ) = P (A1 · · · An+1 A )P (An+2 B | A1 · · · An+1 A ) HI = HI = P (A1)P (A2|A1) · · · P (An+1|A1 · · · An)P (An+2|A1 · · · An+1) Esto demuestra que la propiedad es verdadera para n + 1 bajo el supuesto que sea verdadera para n. Luego, por inducci´on es v´alida para todo n ∈ N Ejemplo: Una urna contiene inicialmente r bolillas rojas y b bolillas blancas. Se realiza el siguiente experimento aleatorio: Se extrae una bolilla al azar y se completa la urna con c bolillas de ese mismo color. Se extrae nuevamente una bolilla al azar y se completa la urna con c bolillas del mismo color, etc. Se quiere calcular la probabilidad de que las tres primeras extracciones resulten en bolillas rojas. Para resolverlo, dado que el experimento se lleva a cabo en tres etapas y cada etapa afecta la composici´on de la urna de extracci´on, es adecuado condicionar una extracci´on a los resultados de las extracciones previas. Definamos Ri = ”la i-´esima extracci´on resulta bolilla roja” (i = 1, 2, 3). Entonces lo que pretende- mos calcular es precisamente P (R1R2R3). Planteamos la regla del producto: P (R1R2R3) = P (R1)P (R2|R1)P (R3|R1R2) Por la composici´on inicial de la urna es claro que P (R1) = r r + b Por la composici´on de la urna inmediatamente luego que ha ocurrido R1 es claro que P (R2|R1) = r + c r + c + b Por la composici´on de la urna inmediatamente luego que han ocurrido R1, R2 se tiene an´alogamente P (R3|R1R2) = r + 2c r + 2c + b Por lo tanto: P (R1R2R3) = r r + b · r + c r + c + b · r + 2c r + 2c + b Definici´on 9 Sea (Ω, Σ, P ) un espacio de probabilidad. Una sucesi´on {An} en Σ se dice una partici´on de Ω sii se verifican: i) ∀n ∈ N , P (An) 0 ii) Ω = ∞ n=1 An iii) ∀n, n ∈ N , n = m ⇒ An ∩ Am = ∅ Ejemplo: Consideremos un espacio de equiprobabilidad Ω = {1, 2, · · · , 12}. Es decir: ∀i ∈ Ω , P ({i}) = 1/n 0. Una posible partici´on de Ω es {A1, A2, A3} donde A1 = {1, 3, 5, 7, 9, 11} ; A2 = {6, 12} ; A3 = {2, 4, 8, 10} Prof.J.Gast´on Argeri 25
  • 26. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 26 Teorema 4 (Teorema de la probabilidad total) Sean (Ω, Σ, P ) un espacio de probabilidad y {Hn} una partici´on de Ω. Entonces para cualquier B ∈ Σ se verifica: P (B) = ∞ n=1 P (B|Hn)P (Hn) Dem: Dado que {Hn} es una partici´on de Ω, sabemos que ∞ n=1 An = Ω. Por lo tanto B = B ∩ Ω = B ∩ ∞ n=1 Hn = ∞ n=1 BHn Adem´as esta uni´on es disjunta dos a dos: n = m ⇒ (BHn)(BHm) = BHnHm = B∅ = ∅ Luego: P (B) = ∞ n=1 P (BHn) Pero como ∀n ∈ N , P (Hn) 0 podemos escribir P (BHn) = P (B|Hn)P (Hn). Entonces: P (B) = ∞ n=1 P (BHn) = ∞ n=1 P (B|Hn)P (Hn) Nota: El teorema de la probabilidad total es tambi´en v´alido para particiones finitas. Ejemplo: Una caja C1 contiene n1 fichas marcadas con un 1 y n2 fichas marcadas con un 2. Se extrae una ficha al azar. Si sale 1 se extrae una bolilla al azar de una urna U1 que contiene r1 bolillas rojas y b1 bolillas blancas. En cambio, si sale 2 se extrae una bolilla al azar de una urna U2 que contiene r2 bolillas rojas y b2 bolillas blancas. Calcular la probabilidad de extraer una bolilla roja. La composici´on de la urna de la que se extrae la bolilla depende de la primera etapa del experimento (extracci´on de ficha). Por lo tanto es de esperar que necesitemos condicionar al resultado de la primera etapa. Definamos F1 = ”sale ficha 1” y F2 = ”sale ficha 2”. Entonces {F1, F2} es claramente una partici´on de Ω. Definamos tambi´en R = ”sale bolilla roja”. Por lo tanto: P (R) = 2 n=1 P (R|Fn)P (Fn) = P (R|F1)P (F1) + P (R|F2)P (F2) Es claro que P (F1) = n1 n1+n2 ; P (F2) = n2 n1+n2 Tambi´en es claro que: P (R|F1) = r1 r1+b1 ; P (R|F2) = r2 r2+b2 Por lo tanto: P (R) = r1 r1 + b1 · n1 n1 + n2 + r2 r2 + b2 · n2 n1 + n2 Teorema 5 (Regla de Bayes) Sean (Ω, Σ, P ) un espacio de probabilidad y {Hn} una partici´on de Ω. Para cualquier B ∈ Σ tal que P (B) 0 y para cualquier j ∈ N se verifica: P (Hj|B) = P (B|Hj)P (Hj) ∞ n=1 P (B|Hn)P (Hn) Prof.J.Gast´on Argeri 26
  • 27. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 27 Dem: Se tiene: P (Hj|B) = P (BHj) P (B) = P (B|Hj)P (Hj) ∞ n=1 P (B|Hn)P (Hn) Nota: La regla de Bayes tambi´en es v´alida para particiones finitas. Ejemplo: Una caja contiene N = n1 + n2 + n3 fichas, de las cuales n1 est´an numeradas con ”1”, n2 est´an numeradas con ”2” y n3 est´an numeradas con ”3”. Se dispone adem´as de tres urnas U1, U2, U3. La urna Ui contiene ri bolillas rojas y bi bolillas blancas (i = 1, 2, 3). Se extrae al azar una ficha de la caja. Acto seguido se elige al azar una bolilla de la urna rotulada con el mismo n´umero que la ficha extraida. Sabiendo que la bolilla extraida fue roja, ¿ cu´al es la probabilidad de que haya provenido de la urna U2 ? Sean Fi = ”sale ficha i” ; i = 1, 2, 3 R = ”sale bolilla roja” y B = ”sale bolilla blanca” Se pretende calcular P (F2|R). Ac´a se quiere averiguar la probabilidad de un evento que ocurri´o en una etapa previa del experimento basados en infromaci´on de una etapa posterior. Es natural entonces ”revertir” este condicionamiento, para lo cual utilizamos el teorema de Bayes. Notemos que {F1, F2, F3} es una partici´on de Ω. Entonces: P (F2|R) = P (R|F2)P (F2) P (R|F1)P (F1)+P (R|F2)P (F2)+P (R|F3)P (F3) = = r2 r2+b2 · n2 n1+n2+n3 r1 r1+b1 · n1 n1+n2+n3 + r2 r2+b2 · n2 n1+n2+n3 + r3 r3+b3 · n3 n1+n2+n3 = = r2n2 r2+b2 r1n1 r1+b1 + r2n2 r2+b2 + r3n3 r3+b3 Ejemplo: Un procedimiento llamado fluoroscop´ıa card´ıaca (FC) se utiliza para determinar si existe calcificaci´on en las arterias coronarias. El test permite detectar si hay 0,1,2,´o 3 arterias coronarias calcificadas. Anotemos: T + i : la FC detecta i arterias calcificadas (i = 0, 1, 2, 3) D+ : hay enfermedad coronaria ; D− : no hay enfermedad coronaria Supongamos que se conocen los datos de la siguiente tabla i P (T + i |D+) P (T + i |D−) 0 0.41 0.96 1 0.24 0.02 2 0.20 0.02 3 0.15 0.00 a) Si P (D+) = 0.05 calcular P (D+|T + i ) para i = 0, 1, 2, 3 b) Si P (D+) = 0.92 calcular P (D+|T + i ) para i = 0, 1, 2, 3 En ambos casos el c´alculo se reduce a utilizar la regla de Bayes: P (D+ |T + i ) = P (T + i |D+)P (D+) P (T + i |D+)P (D+) + P (T + i |D−)P (D−) Prof.J.Gast´on Argeri 27
  • 28. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 28 donde P (D−) = 1 − P (D+) Se obtienen los resultados siguientes: i P (D+|T + i ) cuando P (D+) = 0.05 P (D+|T + i ) cuando P (D+) = 0.92 0 0.022 0.831 1 0.387 0.993 2 0.345 0.991 3 1.000 1.000 15 Independencia estoc´astica Sean A, B eventos con P (A) 0 y P (B) 0. Intuitivamente podemos decir que dichos eventos son independientes (entre s´ı) si el hecho que ocurra A no influye sobre la chance de ocurrir B y rec´ıprocamente, el hecho que ocurra B no influye sobre la chance de ocurrir A. Es decir si la ocurrencia de A ni afecta ni es afectada por la ocurrencia de B. Podemos expresar esta idea intuitiva diciendo que A y B son independientes sii P (B|A) = P (B) y P (A|B) = P (A). Expresando mediante intersecciones podemos reducir estas dos condiciones a una sola, con la ventaja adicional de no requerir que los eventos tengan probabilidades positivas. Esta idea es la base de la siguiente definici´on. Definici´on 10 Los eventos A y B se dicen independientes sii P (AB) = P (A) · P (B) Nota: No debe confundirse la noci´on de independencia con la de eventos excluyentes. De hecho, si A y B son mutuamente excluyentes y si P (A) 0 y P (B) 0, entonces A y B distan mucho de ser independientes pues P (AB) = P (∅) = 0 = P (A)P (B) Ejemplo: Se elige al azar una carta de un mazo de 52 cartas francesas. Consideremos los eventos A : ”sale un as” ; C : ”sale una carta de corazones” Analicemos la independencia entre ellos: P (A) = 4 52 P (C) = 13 52 P (AC) = 1 52 P (AC) = 1 52 = 4 52 · 13 52 = P (A)P (C) Por lo tanto A y C son independientes. Ejemplo: Se arrojan dos dados equilibrados, uno blanco y otro rojo. Consideremos los eventos A : ”puntaje total 6” ; B : ”el dado rojo sale 4” Analicemos la independencia entre ellos: P (A) = 5 36 P (B) = 1 6 P (AB) = 1 36 P (AB) = 1 36 = 5 36 · 1 36 = P (A)P (B) Por lo tanto A y C no son independientes. Propiedad 23 Los eventos A y B son independientes sii los eventos A y B son independientes Dem: ⇒) Supongamos A y B independientes. Luego: P (AB) = P (A)P (B). Entonces: P (AB ) = P (AB) = P (A)−P (AB) = P (A)−P (A)P (B) = P (A)(1−P (B)) = P (A)P (B ) Prof.J.Gast´on Argeri 28
  • 29. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 29 Luego, A y B son independientes. ⇐) Si ahora suponemos A y B independientes, podemos aplicarles la parte ⇒) ya demostrada. Se deduce que A y (B ) = B son independientes Corolario 3 Los eventos A y B son independientes sii A y B son independientes Generalicemos la noci´on de independencia a tres eventos A, B, C. Imaginemos que C represente la presencia de cierta enfermedad y que A y B representen la presencia de dos s´ıntomas cl´ınicos. Supongamos que dichos s´ıntomas se presentan independientemente (que un paciente presente un s´ıntoma no lo hace m´as ni menos proclive a presentar el otro s´ıntoma). Supongamos tambi´en que A y C sean independientes y que B y C sean independientes. Podr´ıa sin embargo ocurrir que la presencia simult´anea de ambos s´ıntomas s´ı aumentara (o disminuyera) la chance de tener la enfermedad. En tal caso los eventos AB y C no ser´ıan independientes. Esto motiva la siguientes definici´on. Definici´on 11 Los eventos A, B, C se dicen independientes sii se verifican P (AB) = P (A)P (B) , P (AC) = P (A)P (C) , P (BC) = P (B)P (C) P (ABC) = P (A)P (B)P (C) Ejemplo: Sea Ω = {1, 2, 3, 4} un espacio de equiprobabilidad. Definamos los eventos: A = {1, 4} , B = {2, 4} , C = {3, 4} Entonces: P (A) = 1 2 , P (B) = 1 2 , P (C) = 1 2 P (AB) = 1 4 = P (A)P (B) , P (AC) = 1 4 = P (A)P (C) , P (BC) = 1 4 = P (B)P (C) P (ABC) = 1 4 = 1 8 = P (A)P (B)P (C) Luego A, B, C no son independientes. Ejemplo: Sea Ω = {1, 2, 3, 4, 5, 6, 7, 8} un espacio de equiprobabilidad. Definamos los eventos: A = {1, 2, 3, 4} , B = {1, 2, 7, 8} , C = {1, 5, 6, 7} Entonces: P (A) = 1 2 , P (B) = 1 2 , P (C) = 1 2 P (AB) = 1 4 = P (A)P (B) , P (BC) = 1 4 = P (B)P (C) , P (AC) = 1 8 = 1 4 = P (A)P (C) P (ABC) = 1 8 = P (A)P (B)P (C) Luego A, B, C no son independientes. Definici´on 12 Se dice que los eventos A1, · · · , An son independientes sii para cualquier secuencia estrictamente creciente 1 ≤ i1 · · · ir ≤ n de enteros, se verifica P (Ai1 · · · Air ) = r j=1 P (Aij ) Prof.J.Gast´on Argeri 29
  • 30. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 30 Nota: Vemos que en general es necesario verificar n 2 + n 3 + · · · + n n = 2n − (n + 1) condiciones para asegurar la independencia de n eventos. Propiedad 24 Supongamos que A1, · · · , An son independientes. Sean B1, · · · , Bn eventos tales que Bi = Ai ´o Bi = Ai (i = 1, · · · , n) Entonces B1, · · · , Bn son independientes. Prof.J.Gast´on Argeri 30
  • 31. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 31 Variables aleatorias - Distribuciones de probabilidad 16 Funciones Sea Ω X → C una funci´on. Recordemos que esto significa que X establece una correspondencia entre elementos de Ω y elementos de C con la caracter´ıstica que a cada elemento de Ω le asigna uno y s´olo un elemento de C. Si dicha correspondencia asigna al elemento ω ∈ Ω el elemento c ∈ C decimos que c es el valor de X en ω o la imagen de ω por X, situaci´on que se anota X(ω) = c. El conjunto Ω se denomina dominio de la funci´on y suele anotarse Dom(X). La imagen o rango (o a veces el recorrido) de X es el conjunto de todos los valores de X, es decir el conjunto formado por todos los valores X(ω) cuando ω recorre Ω. Anotaremos la imagen de X como RX. Es decir: RX = {X(ω) : ω ∈ Ω} = {c ∈ C : ∃ω ∈ Ω , c = X(ω)} Dado B ⊆ C definimos la imagen inversa de B por X como el conjunto de todos los elementos de Ω cuyas im´agenes por X pertenecen a B. Si anotamos X−1(B) a la imagen inversa de B por X esta definici´on establece que X−1 (B) = {ω ∈ Ω : X(ω) ∈ B} Ejemplo: Sea R X → R dada por X(t) = t2. En este caso la imagen o rango de X es RX = [0, ∞). Por otra parte: X−1 ({4}) = {2, −2} , X−1 ([4, ∞)) = (−∞, −2] ∪ [2, ∞) X−1 ({0}) = {0} , X−1 ({0, 2, 4, 7}) = 0, ± √ 2, ±2, ± √ 7 X−1 ((−∞, 0)) = ∅ , X−1 (R) = R Ejemplo: Sea {ω1, ω2, ω3, ω4} X → R dada mediante la siguiente tabla de valores: ω X(ω) ω1 2 ω2 1 ω3 1 ω4 0 Entonces por ejemplo: X−1 ({2}) = {ω1} X−1 ({1}) = {ω2, ω3} X−1 ({0}) = {ω4} X−1 ((−∞, 0]) = {ω4} X−1 ((−∞, 1]) = {ω2, ω3, ω4} X−1 ((−∞, −1]) = ∅ Dado A ⊆ R se denomina funci´on indicadora o funci´on caracter´ıstica de A a la funci´on IA : R → R dada por IA(x) =    1 si x ∈ A 0 si x ∈ A 17 Variables aleatorias y funciones de distribuci´on Cuando se realiza un experimento aleatorio existen diversas caracter´ısticas observables o medibles. No obstante ello, generalmente el experimentador centra su inter´es en algunas de estas caracter´ısticas. Por ejemplo, si el experimento consiste en lanzar un dado N = 10 veces, podr´ıamos interesarnos en las siguientes caracter´ısticas: ”cantidad de dados que salen 3”, ”puntaje total obtenido”, ”m´ınimo n´umero obtenido”,etc. Cada una de estas caracter´ısticas relaciona cada posible resultado del experimento con un n´umero real. As´ı por ejemplo podemos considerar que ”puntaje total obtenido” relaciona el resultado ω = (1, 5, 4, 3, 4, 6, 5, 1, 2, 2) con el n´umero real 1+5+4+3+4+6+5+1+2+2 = 33. Esto motiva la siguiente definici´on. Prof.J.Gast´on Argeri 31
  • 32. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 32 Definici´on 13 Se denomina variable aleatoria (va) sobre un espacio de probabilidad (Ω, Σ, P ) a toda funci´on X : Ω → R con la siguiente propiedad: ∀a ∈ R , X−1 ((−∞, a]) ∈ Σ (2) Las variables aleatorias suelen designarse mediante las ´ultimas letras del abecedario y en may´usculas: · · · , P, · · · , X, Y, Z. Tambi´en se las designa mediante alguna de estas letras junto con uno o m´as sub´ındices, por ejemplo: X1, X2, S12 Nota: Dados un n´umero real a y una variables aleatoria X, puesto que seg´un la definici´on X es una funci´on de Ω en R, tiene sentido calcular la imagen inversa de B = (−∞, a] por X, que es precisamente: X−1 ((−∞, a]) = {ω ∈ Ω : X(ω) ∈ (−∞, a]} = {ω ∈ Ω : X(ω) ≤ a} En el contexto de variables aleatorias es frecuente una notaci´on alternativa y mucho m´as frecuente para las im´agenes inversas por X. En general, para B ⊆ R la imagen inversa de B por X se anota tambi´en {X ∈ B}. Es decir: {X ∈ B} = {ω ∈ Ω : X(ω) ∈ B} = X−1 (B) Por lo tanto la definici´on establece que una funci´on X : Ω → R es una variable aleatoria sobre (Ω, Σ, P ) sii se cumple ∀x ∈ R , {X ≤ x} ∈ Σ Tengamos presente que cuando el espacio de probabilidad es finito (es decir cuando #(Ω) es finito) y Σ = P(Ω) es la σ-´algebra de todos los subconjuntos de Ω, entonces la condici´on (2) es superflua puesto que se satisface autom´aticamente. Lo mismo ocurre cuando Ω = {ω1, ω2, · · · } es infinito numerable y cada {ωn} ∈ Σ puesto que: {X ≤ x} = {ωn : X(ωn) ≤ x} = ∞ n=1 X(ωn)≤x {ωn} Siendo la uni´on a lo sumo numerable y cada {ω} ∈ Σ se deduce que {X ≤ x} ∈ Σ. Luego, en los casos donde el espacio de probabilidad es discreto, la noci´on de variable aleatoria coincide con la de funci´on X : Ω → R. Definici´on 14 Sea X v.a. definida sobre un espacio de probabilidad (Ω, Σ, P ). Se dice que X es discreta sii existe A ∈ Σ, A a lo sumo numerable y tal que P (X ∈ A) = 1. Observemos que cuando el espacio muestral es finito cualquier variable aleatoria es discreta, pues basta tomar A = Ω. Propiedad 25 Dada una v.a. discreta X existe un m´ınimo A ∈ Σ con la propiedad que P (X ∈ A) = 1 Dem: Siendo X discreta, sea A ∈ Σ tal que A es a lo sumo numerable y P (X ∈ A) = 1. Definamos SX = {x ∈ R : P (X = x) 0}. Entonces: A = SX (A SX) de manera que 1 = PX(A) = PX(SX) + PX(A SX). Mostraremos que PX(A SX) = 0. En efecto: Anotemos B = A SX. En primer lugar, como B ⊆ Sc X resulta ∀x ∈ B , PX ({x}) = 0. Dado que A es a lo sumo numerable resulta B a lo sumo numerable. Luego: PX(B) = PX x∈B {x} = x∈B PX ({x}) = 0 Prof.J.Gast´on Argeri 32
  • 33. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 33 Es decir que hemos demostrado que si A es a lo sumo numerable y P (X ∈ A) = 1 entonces P (A SX) = 0 En particular: PX(SX) = 1. Es decir P (X ∈ SX) = 1. Supongamos ahora que SX ⊆ A. Entonces existir´ıa xo ∈ SX con xo ∈ A. Luego: P (X = xo) 0. Entonces PX(X ∈ A {xo}) = PX(A) + P (X = xo) PX(A) = 1. Absurdo. Entonces necesariamente es SX ⊆ A. Esto demuestra que: P (X ∈ SX) = 1 Si A es a lo sumo numerable y P (X ∈ A) = 1 entonces SX ⊆ A Por lo tanto SX es el m´ınimo conjunto buscado Definici´on 15 Dada una variable aleatoria discreta X se denomina soporte (o rango esencial o simplemente rango) de X al m´ınimo A tal que P (X ∈ A) = 1. Anotaremos RX al rango de X. Cuando un experimento conduce a medir cantidades como ”peso”, ”altura”, ”temperatura”, ”du- raci´on”, etc, es de esperar que dichas variables aleatorias no est´en restringidas a un rango a lo sumo numerable. Una posible clasificaci´on de las variables aleatorias es la siguiente: variables aleatorias    discretas continuas mixtas Son discretas aquellas variables aleatorias cuyo rango es a lo sumo numerable. Son continuas aquellas que poseen una ”densidad” (concepto que precisaremos m´as adelante). Las mixtas son aquellas que ni son discretas ni son continuas. Ejemplo: Se lanza una moneda tantas veces como sea necesario hasta que sale ”cara”. En este caso Ω = {C, SC, SSC, SSSC, · · · } y consideramos Σ = P(Ω). Sea X = ”lanzamientos necesarios hasta obtener cara”. Esta va. discreta tiene rango RX = N. Para familiarizarnos con la notaci´on de imagen inversa vemos como ejemplo que: {X ≤ 0} = ∅ , {X ≤ 5} = {C, SC, SSC, SSSC, SSSSC} Ejemplo: Se lanza una moneda. Se tiene Ω = {C, S}. Consideramos Σ = P(Ω). Sea X = ”cantidad de caras obtenidas”. Entonces RX = {0, 1}. En este caso: {X ≤ x} =    ∅ si x 0 {S} si 0 ≤ x 1 {C, S} si x ≥ 1 Recordemos que una bola abierta en Rn es el conjunto de todos los puntos de Rn que distan de un punto fijo xo ∈ Rn (llamado el centro de dicha bola) en menos que una cantidad 0 (el radio de la bola). Es decir B (xo) = {x ∈ Rn : x − xo } Un subconjunto A ⊆ Rn se dice abierto sii para cada x = (x1, · · · , xn) ∈ A existe al menos una n−bola abierta en Rn centrada en x y completamente contenida en A. Formalmente: A ⊆ Rn es abierto sii se verifica ∀x ∈ A , ∃ 0 , ∀y ∈ Rn , y − x ⇒ y ∈ A Definici´on 16 Se denomina σ-´algebra de Borel en R a la m´ınima σ-´algebra de subconjuntos de R que contiene a todos los conjuntos de la forma (−∞, x] con x ∈ R. Anotaremos B a esta σ-´algebra de subconjuntos de R. Prof.J.Gast´on Argeri 33
  • 34. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 34 Propiedad 26 Dada una variable aleatoria discreta X, se verifica: ∀B ∈ B , P (X ∈ B) = x∈B∩RX P (X = x) Dem: Como B = (B ∩ RX) B ∩ Rc X se deduce que: PX(B) = PX(B ∩ RX) + PX(B ∩ Rc X) Pero como PX(RX) = 1 entonces PX(Rc X) = 0. Luego: PX(B ∩ Rc X) = 0, de manera que PX(B) = PX(B ∩ RX) = x∈B∩RX P (X = x) Definici´on 17 Sea (Ω, Σ, P ) un espacio de probabilidad. Consideremos una variable aleatoria X : Ω → R. La funci´on PX : B → R dada por E −→ P (X ∈ E) se denomina funci´on de distribuci´on de X. Propiedad 27 La funci´on de distribuci´on PX de una variable aleatoria X es una funci´on de probabilidad sobre (R, B). Dem: En lo que sigue B, Bn ∈ B PX(R) = P (X ∈ R) = P (Ω) = 1 PX(B) = P (X ∈ B) ≥ 0 pues P es una probabilidad y {X ∈ B} ∈ Σ Supongamos {Bn} sucesi´on en B, tal que n = m ⇒ Bn ∩ Bm = ∅. Entonces: PX ∞ n=1 Bn = P X ∈ ∞ n=1 Bn = P X−1 ∞ n=1 Bn = = P ∞ n=1 X−1(Bn) = ∞ n=1 P X−1(Bn) = ∞ n=1 P (X ∈ Bn) puesto que los eventos {X ∈ Bn} son disjuntos dos a dos. Definici´on 18 Sean X e Y variables aleatorias definidas sobre un mismo espacio de probabilidad. Se dice que X e Y son equidistribuidas o id´enticamente distribuidas sii ambas poseen la misma funci´on de distribuci´on, i.e. ∀B ∈ B , PX(B) = PY (B) Nota: El hecho de ser X e Y equidistribuidas no significa que sean iguales. Esto se ver´a m´as adelante. Ejemplo: Un fabricante produce un art´ıculo en dos variedades A y B. Desea recabar informaci´on acerca de la preferencia de los consumidores. Para ello seleccionar´a al azar 30 clientes a quienes se les preguntar´a si prefieren A o B. Se trata de un experimento aleatorio en el cual el espacio muestral Ω puede definirse como el conjunto de todas las 30-uplas de 1’s y/o 0’s, donde un 1 en la i-´esima coordenada de la 30-upla indica que el i-´esimo cliente encuestado prefiere la variedad A sobre la B. Supongamos que estos 230 posibles resultados de la encuesta sean equiprobables. Consideremos X = ”cantidad de consumidores que prefieren A”. Se tiene RX = {0, 1, · · · , 30}. Calculemos para cada 0 ≤ k ≤ 30, las probabilidades siguientes: P (X = k) = #{X=k} #(Ω) = (30 k ) 230 (k = 0, 1, · · · , 30) P (X ≤ k) = k j=0 P (X = j) Grafiquemos los valores de X sobre el eje de abscisas y las probabilidades halladas anteriormente sobre el eje de ordenadas: Prof.J.Gast´on Argeri 34
  • 35. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 35 k P(X=k) 0 5 10 15 20 25 30 0.00.020.040.060.080.100.120.14 kP(X=k) 0 5 10 15 20 25 30 0.00.20.40.60.81.0 Definici´on 19 Dada una variable aleatoria X : Ω → R se denomina funci´on de distribuci´on acumulada (fda) de X a la funci´on designada FX y definida por: FX : R → R dada por FX(x) = P (X ≤ x) Nota: Para indicar que la variable aleatoria posee fda F anotamos X ∼ F . Ejemplo: Se arroja tres veces una moneda normal. Sea X = cantidad de caras obtenidas. Entonces RX = {0, 1, 2, 3}. La funci´on de distribuci´on acumulada de X es FX(x) =    0 si x 0 1/8 si 0 ≤ x 1 1/2 si 1 ≤ x 2 7/8 si 2 ≤ x 3 1 si x ≤ 3 Distribucion binomial acumulada x F(x) -1 0 1 2 3 4 0.00.20.40.60.81.0 ) ) ) ) Prof.J.Gast´on Argeri 35
  • 36. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 36 Ejemplo: Se arroja una moneda normal hasta que sale cara. Sea X = ”cantidad de lanzamientos antes que salga cara”. Se tiene RX = {0, 1, 2, 3, · · · }. La fda de X es: FX(x) =    0 si x 0 1/2 si 0 ≤ x 1 1/2 + 1/4 si 1 ≤ x 2 1/2 + 1/4 + 1/8 si 2 ≤ x 3 ... ... ... k+1 i=1 1 2 i si k ≤ x k + 1 ... ... ... Propiedad 28 Sea X una variable aleatoria con funci´on de distribuci´on acumulada FX. Se cumple: i) ∀x ∈ R , 0 ≤ FX(x) ≤ 1 ii) FX es no decreciente, es decir: ∀x, y ∈ R , x y ⇒ FX(x) ≤ FX(y) iii) FX es continua por la derecha, es decir: ∀x ∈ R , lim t → x+ FX(t) = FX(x) iv) lim x →−∞ FX(x) = 0 y lim x →∞ FX(x) = 1 Dem: i) Evidente pues FX(x) = P (X ≤ x) es una probabilidad. ii) Sean x, y ∈ R con x y. Entonces {X ≤ x} ⊆ {X ≤ y}. Por lo tanto FX(x) = P (X ≤ x) ≤ P (X ≤ y) = FX(y) iii) Siendo FX no decreciente sabemos que para todo x ∈ R , lim t → x+ FX(t) existe (es finito). Como x + 1 n es una sucesi´on de t´erminos a la derecha de x y tal que lim n →∞ x + 1 n = x, en- tonces lim t → x+ FX(t) = lim n →∞ FX x + 1 n . Pero: {X ≤ x} = ∞ n=1 X ≤ x + 1 n . Como esta intersecci´on es decreciente, pues X ≤ x + 1 n+1 ⊆ X ≤ x + 1 n , entonces por propiedad de una funci´on de probabilidad es P (X ≤ x) = lim n →∞ P X ≤ x + 1 n . Luego: FX(x) = P (X ≤ x) = lim n →∞ P X ≤ x + 1 n = lim n →∞ FX x + 1 n = lim t → x+ FX(t) iv) Dado que Ω = {X ∈ R} = ∞ n=1 {X ≤ n} y siendo la uni´on creciente, por propiedad de una funci´on de probabilidad se tiene lim n →∞ FX(n) = lim n →∞ P (X ≤ n) = P (Ω) = 1. Pero siendo FX no decreciente y acotada resulta lim x →∞ FX(x) = lim n →∞ FX(n). Entonces: lim x →∞ FX(x) = lim n →∞ FX(n) = 1 La demostraci´on del otro l´ımite es an´aloga y queda a cargo de ustedes. Teorema 6 Sea F : R → R una funci´on. Se cumple: F satisface las propiedades siguientes: i) F es no decreciente en R. Prof.J.Gast´on Argeri 36
  • 37. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 37 ii) F es continua a derecha en R iii) lim x →−∞ F (x) = 0 y lim x →∞ F (x) = 1 si y s´olo si F es la funci´on de distribuci´on de probabilidad acumulada de cierta variable aleatoria. Dem: ⇐) Ya se demostr´o (Prop. anterior) ⇒) La demostraci´on excede el alcance y los objetivos de este curso de modo que la omitimos. S´olo comentar´e que es necesario demostrar que existe cierto espacio de probabilidad (Ω, Σ, P ) y cierta variable aleatoria X en dicho espacio, tal que FX = F Ejemplo: Consideremos la funci´on F (x) = 1 − e− x si x ≥ 0 0 si x 0 El teorema anterior permite demostrar la existencia de una variable aleatoria X (definida en cierto espacio de probabilidad) tal que F = FX. En efecto: F es no decreciente. F es continua a derecha en R. De hecho F continua en R Se tiene lim x →−∞ F (x) = lim x →−∞ 0 = 0 y lim x →∞ F (x) = lim x →∞ 1 − e− x = 1 La gr´afica de F tiene el siguiente aspecto: x F(x) -2 0 2 4 6 8 10 0.00.20.40.60.81.0 Propiedad 29 Sean X una variable aleatoria, xo ∈ R. Se cumple: i) FX(xo) − FX(xo−) = P (X = xo) ii) FX es continua a izquierda en xo sii P (X = xo) = 0 iii) FX posee una cantidad a lo sumo numerable de discontinuidades. Prof.J.Gast´on Argeri 37
  • 38. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 38 Dem: i) Utilizando las propiedades de continuidad de una probabilidad resulta: FX(xo−) = lim x → xo− FX(x) = lim x → xo− P (X ≤ x) = lim n →∞ P (X ≤ xo − 1/n) = = P ∞ n=1 {X ≤ xo − 1/n} = P (X xo) Por lo tanto: P (X = xo) = P (X ≤ xo) − P (X xo) = FX(xo) − FX(xo−) ii) Evidente a partir de i). iii) Si FX es discontinua en xo entonces P (X = xo) 0. Anotemos A = {x0 ∈ R : P (X = xo) 0}. Queremos ver que A es a lo sumo numerable. Pero: A = ∞ k=1 Ak donde Ak = {x0 ∈ R : P (X = xo) 1/k} Bastar´a entonces mostrar que los Ak son finitos. Supongamos por el absurdo que existiera k tal que Ak fuera infinito. Entonces existir´ıa una sucesi´on de t´erminos todos distintos {xn} tal que ∀n , xn ∈ Ak. Luego: P (A) ≥ P ∞ n=1 {xn} = ∞ n=1 P ({xn}) = ∞ dado que la serie posee t´ermino general que no tiende a cero. Absurdo. Luego los Ak son todos finitos, con lo cual A es a lo sumo numerable Propiedad 30 Sea X una variable aleatoria y sea FX su fda. Dados a, b ∈ R , a ≤ b, se cumple: i) P (a X ≤ b) = FX(b) − FX(a) ii) P (a ≤ X ≤ b) = FX(b) − FX(a−) iii) P (a X b) = FX(b−) − FX(a) iv) P (a ≤ X b) = FX(b−) − FX(a−) Dem: Demostremos i): {a X ≤ b} = {X ≤ b} {X ≤ a} Entonces P (a X ≤ b) = P (X ≤ b) − P (X ≤ a) = FX(b) − FX(a) Definici´on 20 Para n ∈ N, se denomina sucesi´on de n ensayos de Bernoulli a todo experimento aleatorio que consiste en repetir n veces un ensayo sujeto a las siguientes condiciones: • Las n repeticiones son independientes entre s´ı. • Cada ensayo tiene s´olo dos posibles resultados, digamos E (”´exito”) y F (”fracaso”). • La probabilidad de E es la misma en cada uno de los n ensayos. Prof.J.Gast´on Argeri 38
  • 39. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 39 Es frecuente denotar la probabilidad de fracaso en cada ensayo individual por q. De modo que p+q = 1, es decir q = 1−p. El espacio muestral asociado a una sucesi´on de n ensayos de Bernoulli es Ω = {(ω1, · · · , ωn) : ωi ∈ {E, F } , 1 ≤ i ≤ n}. As´ı, el experimento consta de 2n posibles resultados. Notemos que, salvo cuando p = 1/2, los eventos elementales no son equiprobables. De hecho: P ({ω}) = pr · qn−r sii ω posee exactamente r ´exitos Ejemplo: Se arroja 5 veces un dado normal. En cada lanzamiento llamemos E = ”sale 3”, de modo que F = ”no sale 3”. Se trata de una sucesi´on de n = 5 ensayos de Bernoulli con probabilidad de ´exito p = 1/6 en cada ensayo. Entonces, por ejemplo: P ({(3, 1, 1, 3, 6)}) = 1 6 2 · 5 6 3 Ejemplo: Se arroja 5 veces un dado normal. En cada lanzamiento llamemos E = ”sale m´ultiplo de 3”, de modo que F = ”no sale m´ultiplo de 3”. Se trata de una sucesi´on de n = 5 ensayos de Bernoulli con probabilidad de ´exito p = 1/3 en cada ensayo. Entonces, por ejemplo: P ({(3, 1, 1, 3, 6)}) = 1 3 3 · 2 3 2 Ejemplo: Dada un sucesi´on de n ensayos de Bernoulli, con probabilidad de ´exito p en cada ensayo, sea X = ”cantidad de ´exitos en los n ensayos”. Esta variable aleatoria tiene RX = {0, 1, 2, · · · , n}. El evento {X = k} estar´a formado por todos aquellos resultados elementales que consten exac- tamente de k ”´exitos” y n − k ”fracasos”. Dado que cada uno de ellos tiene probabilidad individual pk(1 − p)n−k, para calcular la probabilidad de {X = k} bastar´a multiplicar dicha probabilidad individual por la cantidad total de resultados elementales que consten de exactamente k ”´exitos” y n − k ”fracasos”, es decir n k . Entonces se tiene: P (X = k) = n k pk(1 − p)n−k (k = 0, 1, · · · , n) Ejemplo: Consideremos un ensayo aleatorio con dos resultados posibles ”´exito” y ”fracaso”, donde la probabilidad de ”´exito” es 0 p 1. Nuestro experimento aleatorio consiste en repetir el ensayo en forma independiente hasta obtener el primer ”´exito”. El espacio muestral puede representarse como Ω = {E, F E, F F E, F F F E, · · · }. Los resultados elementales no son equiprobables. De hecho: P      F · · · F k E      = (1 − p)k p Sea X = ”cantidad de ensayos hasta obtener ´exito”, de modo que RX = N. Se tiene: P (X = k) = (1 − p)k−1p , k = 1, 2, · · · Hallemos la fda de la variable aleatoria X. Para x ≥ 0 se tiene: FX(x) = P (X ≤ x) = [x] k=1 (1 − p)k−1 p = p · 1 − q[x] 1 − q = 1 − q[x] donde [x] simboliza la ”parte entera de x”, es decir el mayor entero que es menor o igual que x. Por ejemplo: [4] = 4 , [4, 1] = 4 , [3, 9] = 3. Entonces: FX(x) = 0 si x 1 1 − q[x] si x ≥ 1 Definici´on 21 Dada una variable aleatoria X se denomina funci´on de probabilidad puntual o funci´on de masa de probabilidad (fmp) de X a la funci´on pX : R → R dada por pX(x) = P (X = x) Prof.J.Gast´on Argeri 39
  • 40. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 40 Nota: Cuando la variable aleatoria X es discreta, con rango RX = {xn}, la fmp pX de X queda un´ıvocamente determinada conociendo los valores pn = pX(xn). Por este motivo nos referiremos indistintamente a pX o a {pn} cuando X sea discreta. Ejemplo: Consideremos una sucesi´on de n ensayos de Bernoulli con probabilidad de ´exito p en cada ensayo. Sea X = ”cantidad de ´exitos en los n ensayos”. En este caso RX = {0, 1, · · · , n}. La fmp de X es: pX(x) = n x px(1 − p)n−x si x ∈ {0, 1, · · · , n} 0 si x ∈ {0, 1, · · · , n} Grafiquemos esta fdp en el caso n = 10, para p = 1/2 y luego para p = 1/4 p=0.5 x fdp(x) 0 2 4 6 8 10 0.00.050.100.150.200.250.30 p=0.25 x fdp(x) 0 2 4 6 8 10 0.00.050.100.150.200.250.30 Propiedad 31 Para toda variable aleatoria X se cumple: ∀x ∈ R , pX(x) = FX(x) − FX(x−) Dem: Podemos escribir {X x} = ∞ n=1 X ≤ x − 1 n . Esta uni´on es creciente de manera que por propiedades de las funciones de probabilidad vale: P (X x) = lim n →∞ P X ≤ x − 1 n = lim n →∞ FX x − 1 n = FX(x−). Entonces pX(x) = P (X = x) = P (X ≤ x) − P (X x) = FX(x) − FX(x−) Nota: Obs´ervese que FX(xo)−FX(xo−) representa el valor del ”salto” de la fda de X en el punto x = xo. Cuando FX es continua en xo entonces no hay salto all´ı y en consecuencia la fmp de X es nula en x = xo. Propiedad 32 Sean X e Y variables aleatorias definidas sobre un mismo espacio de probabilidad. Se verifica: X e Y son id´enticamente distribuidas sii ∀x ∈ R , FX(x) = FY (x) Dem: ⇒) Supongamos X e Y id´enticamente distribuidas. Sea x ∈ R arbitrario. Entonces (−∞, x] ∈ B de modo que FX(x) = P (X ∈ (−∞, x]) = P (Y ∈ (−∞, x]) = FY (x). Luego, X e Y poseen la misma fda. ⇐) Supongamos que FX = FY . Consideremos la clase G de todos los miembros de B donde PX coincide con PY , es decir: G = {B ∈ B : PX(B) = PY (B)} = {B ∈ B : P (X ∈ B) = P (Y ∈ B)} Prof.J.Gast´on Argeri 40
  • 41. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 41 Por construcci´on es G ⊆ B. Adem´as por hip´otesis, tomando B = (−∞, x] se tiene PX(B) = FX(x) = FY (x) = PY (B), de modo que G contiene a todos los subconjuntos de R de la forma (−∞, x] con x ∈ R. Pero dado que B es la m´ınima σ-´algebra de subconjuntos de R que contiene a todos los conjuntos de la forma (−∞, x], resulta G ⊇ B. Por lo tanto: G = B. Esto significa que ∀B ∈ B , PX(B) = PY (B) Ejemplo: Se arroja una moneda normal 3 veces. Sean X = ”cantidad de caras obtenidas” e Y = ”cantidad de cecas obtenidas”. Veamos que X e Y son id´enticamente distribuidas. En efecto, dado que en cada ensayo la probabilidad de cara es igual a la probabilidad de ceca, se tiene: FX(x) = [x] k=0 3 k 1 2 3 = FY (x) Observemos, de paso, que X = Y . Por ejemplo, para ω = (C, C, S) es X(Ω) = 2 en tanto que Y (ω) = 1 Propiedad 33 Sea X una variable aleatoria discreta con rango RX = {xn}. La fmp de X verifica las propiedades siguientes: i) ∀x ∈ R , pX(x) ≥ 0 ii) ∞ n=1 pX(xn) = 1 Dem: Ω = {X ∈ RX} = ∞ n=1 {X = xn} siendo la uni´on disjunta. Por lo tanto: 1 = P (Ω) = ∞ n=1 P ({X = xn}) = ∞ n=1 pX(xn) Propiedad 34 Sea X una variable aleatoria discreta con rango RX = {xn}. La fmp de X determina un´ıvocamente su fda. En efecto: FX(x) = P (X ≤ x) = P    ∞ n=1 xn≤x {X = xn}    = ∞ n=1 xn≤x P (X = xn) = ∞ n=1 xn≤x pX(xn) Ejemplo: Se lanzan dos dados. Consideremos la variable aleatoria Xi = ”n´umero del dado i” (i = 1, 2). Sea X = ”m´aximo n´umero en los dos dados”. Es decir: X = max {X1, X2}. Hallemos la fmp y la fda de X. Hallemos primeramente las fmp de X1 y X2. Se tiene: RX1 = RX2 = {1, 2, · · · , 6} y por equiprobabilidad vale: pX1 (k) = pX2 (k) = 1/6 (k = 1, 2, · · · , 6) Por lo tanto: FX1 (x) = FX2 (x) = 6 k=1 k≤x 1 6 = [x] 6 Observemos ahora que {X ≤ x} = {X1 ≤ x} ∩ {X2 ≤ x} Por lo tanto y teniendo en cuenta la independencia de ambos lanzamientos: FX(x) = P (X ≤ x) = P ({X1 ≤ x} ∩ {X2 ≤ x}) = = P (X1 ≤ x)P (X2 ≤ x) = FX1 (x)FX2 (x) = [x] 6 2 = [x]2 36 Prof.J.Gast´on Argeri 41
  • 42. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 42 Luego, para k = 1, 2, · · · , 6 se tiene: pX(k) = P (X ≤ k) − P (X ≤ k − 1) = FX(k) − FX(k − 1) = k2 − (k − 1)2 36 = 2k − 1 36 Generalicemos esta situaci´on para el experimento que consiste en arrojar una dado normal n-veces. Definamos: Xi = ”n´umero obtenido en el i-´esimo lanzamiento” X = ”m´aximo n´umero obtenido en los n lanzamientos” Como antes: {X ≤ k} = n i=1 {Xi ≤ k} Por lo tanto, teniendo en cuenta la independencia de los n lanzamientos, resulta: P (X ≤ x) = P n i=1 {Xi ≤ x} = n i=1 P (Xi ≤ x) = = n i=1 FXi (x) = n i=1 [x] 6 = [x] 6 n Luego, para k = 1, 2, · · · , 6 se tiene: pX(k) = FX(k) − FX(k − 1) = k 6 n − k − 1 6 n = kn − (k − 1)n 6n La propiedad anterior no es v´alida para variables aleatorias no discretas. De hecho, existen fda que son funciones continuas en todo R. Si X una tal variable aleatoria entonces ∀x ∈ R , FX(x) = FX(x−). Por lo tanto: P (X = x) = P (X ≤ x) − P (X x) = FX(x) − FX(x−) = 0 Es decir, para variables aleatorias continuas la fmp carece por completo de inter´es dado que es id´enticamente nula. Propiedad 35 Sea {pn} una sucesi´on tal que: i) ∀n ∈ N , pn ≥ 0 ii) ∞ x=1 pn = 1 Entonces {pn} es una fmp. Dem: Definamos F (x) = ∞ n=1 n≤x pn. Dejo a cargo de ustedes verificar que F satisface las condiciones para ser una fda (Teorema 1) Motivaremos ahora la noci´on de variable aleatoria continua. Ejemplo: Consideremos una poblaci´on formada por un gran n´umero N = 1000 de personas. Supong- amos que nos interesa la distribuci´on de la variable aleatoria X que mide la altura de un individuo seleccionado al azar dentro de esta poblaci´on. Supongamos para fijar ideas que las alturas se miden en cm y que se encuentran en el intervalo [150, 190] Dado el gran n´umero de personas en la poblaci´on podemos tener una idea aproximada de la distribuci´on de alturas dividiendo el intervalo [150, 190] Prof.J.Gast´on Argeri 42
  • 43. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 43 en cuatro subintervalos de igual longitud [150, 160) , [160, 170) , [170, 180) , [180, 190) y de- terminando las frecuencias, es decir la cantidad de individuos cuyas alturas caen en el respectivo subintervalo. Para fijar ideas, supongamos que tales frecuencias resulten como muestra la tabla: Intervalo f(frecuencia) fr(frecuencia relativa) fr/(longitud subintervalo) [150, 160) 80 0.10 0.01 [160, 170) 150 0.25 0.025 [170, 180) 500 0.50 0.05 [180, 190) 150 0.15 0.015 Si tomamos el extremo izquierdo de cada subintervalo como representativo de un valor en dicho subin- tervalo, la tabla anterior provee una variable aleatoria discreta D que aproxima a la variable aleatoria X y que toma los cuatro valores 150, 160, 170, 180 con probabilidades dadas por la columna fr y que podemos resumir en esta otra tabla: k pD(k) pD(k)/(long.subintervalo) 150 0.10 0.01 160 0.25 0.025 170 0.50 0.05 180 0.15 0.015 Para obtener una variable aleatoria discreta cuya distribuci´on represente m´as fielmente la distribuci´on de X podemos refinar nuestra partici´on del intervalo original [150, 190] y recalcular la fmp de la variable discreta obtenida. Siguiendo de este modo, aumentando cada vez la cantidad de subinterva- los y reduciendo la longitud de los mismos (norma tendiendo a cero) e imaginando que la poblaci´on es tan grande que puede suponerse ”infinita” y por ende este proceso podr´ıa segir indefinidamente, obtendr´ıamos por lo general una situaci´on como se muestra en los gr´aficos siguientes, en la que se grafica pD/(long.subintervalo) versus x para particiones con norma cada vez menor. Comente- mos algunas caracter´ısticas interesantes acerca de estos gr´aficos: • Permiten ”reconstruir” la fmp de la v.a.discreta simplemente hallando el ´area de cada rect´angulo. • Dado que hemos considerado ´unicamente particiones regulares, los rect´angulos m´as altos y los m´as bajos permiten visualizar los valores m´as probables y los menos probables de la variable discreta y, como la discreta aproxima a la v.a. X, tambi´en podemos localizar los intervalos donde X cae con mayor y con menor probabilidad. • Cuidado: Las alturas de los rect´angulos no dan probabilidades sino probabilidades por unidad de longitud. • Si la variable aleatoria X es discreta, el proceso deja de ser informativo dado que a partir de cierto momento habr´a una enorme cantidad de subintervalos donde fr/L (L la long. del subintervalo) ser´a nula y algunos otros (a lo sumo tantos como valores tome la v.a. X) donde fr/L ser´a muy grande (pues L tiende a cero en tanto que fr permanecer´a fija). En el l´ımite podr´ıamos decir que las gr´aficas tienden a ser nulas salvo en una cantidad a lo sumo numerable de ”picos infinitos”. • La suma de las ´areas de los rect´angulos es 1 • Las gr´aficas de las alturas de los rect´angulos se asemejan cada vez m´as a la gr´afica de una funci´on, digamos f(x), de argumento continuo. Prof.J.Gast´on Argeri 43
  • 44. UNQ/Dip.CyT/Probabilidades y Estad´ıstica/Primer Cuatrimestre de 2007 p´ag. 44 150 160 170 180 190 0.00.010.030.05 x 150 160 170 180 190 0.00.010.030.05 x 150 160 170 180 190 0.00.010.030.05 x 150 160 170 180 190 0.00.010.030.05 x Este ejemplo motiva la definici´on que sigue. Definici´on 22 Se dice que una variable aleatoria X es continua (o m´as precisamente absolutamente continua) sii existe al menos una funci´on fX : R → R tal que: i) ∀x ∈ R , fX(x) ≥ 0 ii) ∀A ∈ B , P (X ∈ A) = A fX(x) dx Una tal funci´on fX se denomina una funci´on de densidad de probabilidad (fdp) de X o de FX. Nota: • Dado que la integral involucrada en esta definici´on puede ser impropia, se presupone su conver- gencia. • Tomando A = (−∞, x] se tiene que FX(x) = x −∞ fX(t) dt En particular, si fX sea una funci´on continua en el intervalo (a, b) resulta FX derivable en (a, b) y vale ∀x ∈ (a, b) , FX(x) = fX(x). • Observemos que ∞ −∞ fX(x) dx = P (X ∈ R) = 1. Es decir, el ´area bajo la curva y = fX(x) es igual a 1. Esto implica que una fdp, a diferencia de una fda, no puede ser mon´otona puesto que para la convergencia de esta integral impropia es necesario que se verifique: lim x →−∞ fX(x) = 0 y lim x →∞ fX(x) = 0 • Si X es variable aleatoria continua entonces para cualquier intervalo I ⊆ R de extremos a y b se tiene P (X ∈ I) = FX(b) − FX(a) = b −∞ fX(x) dx − a −∞ fX(x) dx = b a fX(x) dx Prof.J.Gast´on Argeri 44