1. 1
Medidas sobre distribuciones
discretas. La distribución binomial
01. Medidas sobre distribuciones discretas
01.1. La función de densidad:
Para cualquier variable aleatoria, X, su función de distribución viene definida por
[ ]xXpxF ≤=)(
que, si es discreta, se puede expresar por
∑≤
=
xk
kpxF )(
donde es kp la función de densidad, que obviamente ha de cumplir la condición de
probabilidad igual a 1 para el espacio muestral:
∑
∞
∞−
=1kp (*)
La función de densidad permite definir el tipo de distribución en estudio, así, por
ejemplo, la distribución binomial queda definida por una función de densidad dada
por:
kk
k pp
k
n
p )1( −
=
01.2. Momentos:
Para estudiar las características de una distribución de la variable aleatoria es
necesario estudiar los momentos de la distribución.
Los momentos iniciales están definidos por
k
r
r pkM ∑
∞
∞−
= (momento inicial de orden r, r=0,1,…)
El momento inicial de orden cero es la unidad, por (*), pues
10
0 ∑∑
∞
∞−
∞
∞−
=== kk ppkM
Al momento inicial de orden 1 se le denomina Esperanza Matemática o bien Media
de la distribución:
[ ] ∑∑
∞
−∞=
∞
−∞=
==≡≡
k
k
k
k pkpkMMkE .1
1
Se llama desviación respecto de la media a la variable Mk − .
2. 2
A partir de la Media o Esperanza Matemática se definen los llamados momentos
centrales de la distribución:
[ ] ∑
∞
−∞=
−=−=
k
k
rr
k pMxMxE )()(α (momento central de orden r, r=0,1,…)
El momento central de orden cero coincide, obviamente, con la unidad, al igual que
el momento inicial de orden cero:
[ ] 1)()( 00
0 ==−=−= ∑∑
∞
−∞=
∞
−∞= k
k
k
k ppMkMxEα
El momento central de orden 1 es nulo:
[ ] ∑ ∑∑
∞
−∞=
∞
=
∞
−∞=
=−=−=−=−=
k k
kk
k
k MMpMpxpMxMxE
1
11
1 0.)()(α
El momento central de orden 2 se denomina Varianza:
∑
∞
−∞=
−==
k
kpMx .)( 2
2
2
ασ
La raíz cuadrada de la varianza es lo que denominamos desviación típica o
desviación standard: 2ασ =
- Relaciones entre los momentos centrales y los momentos iniciales:
El momento central de orden 2 (la varianza) se relaciona con los momentos
iniciales de orden 1 (media) y de orden 2, mediante la relación:
2
2
2
2 MM −== σα
puesto que:
∑ ∑ ∑∑ = = ==
−=+−=−==
n
k
n
k
n
k
kkk
n
k
k MMpMpkMpkpMk
1 1 1
2
2
22
1
2
2
2
.2..)(ασ
El momento central de orden 3 viene relacionado con los momentos iniciales por la
expresión:
3
233 2.3 MMMM +−=α
puesto que:
( )
3
23
1
3
1
2
1
2
1
3
1
3
3
2..3
....3.3..
MMMM
pMpMkpMkpkpMk
n
k
k
n
k
k
n
k
k
n
k
k
n
k
k
+−=
=−+−=−= ∑∑∑∑∑ =====
α
Y el momento central de orden 4:
4
2
2
344 36.4 MMMMMM −+−=α
ya que se tiene:
( )
42
234
1 1
43
1
22
1
3
1
4
1
4
4
3.6.4
..4...6.4..
MMMMMM
pMpkMpMkpMkpkpMk
n
k
n
k
kk
n
k
k
n
k
k
n
k
k
n
k
k
−+−=
=+−+−=−= ∑ ∑∑∑∑∑ = =====
α
3. 3
01.3. La moda:
La moda se define como el valor que presenta un máximo de la distribución, si
existe, y se obtiene, en las distribuciones discretas de probabilidad, como aquel
valor, k0, tal que su probabilidad es máxima. Es decir:
)1()()1()(mod 00000 +≥∧−≥→ kpkpkpkpak
01.4. El cálculo de los momentos. La función característica:
Para calcular los momentos, tanto iniciales como centrales, es necesario resolver
sumas de cierta dificultad en muchos casos, como es el de la distribución binomial.
Para solventar el problema de estos cálculos, Alexander M. Lyapunov (1857-1918)
introdujo en 1904 un método que llamó de las funciones características, y que
consiste en definir una cierta función a partir de la cual se extraen de forma sencilla
los correspondientes momentos. Esta cierta función, fácil de integrar, permitiría
obtener todos los momentos (media, desviación standard, etc) de forma inmediata.
Es la llamada función característica de la distribución:
[ ] ∑
∞
∞−
== k
itkitx
peeEt)(ϕ
Si calculamos sus derivadas para t=0, tenemos:
)0('..)0('..)(' 11 ϕϕϕ iMiMpkipekit kk
itk
−=→==→= ∑∑
∞
∞−
∞
∞−
)0("..)0(''..)(" 22
22222
ϕϕϕ −=→==→= ∑∑
∞
∞−
∞
∞−
MMipkipekit kk
itk
en general, se tiene la fórmula siguiente para los momentos iniciales de la
distribución:
)0(.)( )kk
k iM ϕ−=
cuya aplicabilidad depende, en consecuencia, de que las derivadas de la función
característica se obtengan de forma sencilla.
Así, podemos obtener la media y la varianza de forma inmediata:
)0(')0(.)( )11
1 ϕϕ iiMM −=−==
22"22
22
2
)0(')0("))0('()0()( ϕϕϕϕασ +−=−−−=−== iiMM (1.4)
Y el momento central de tercer orden sería:
3'''
3'''33
233
)0('2)0(")0('3)0(
)0('2)0(")0('3)0()(2.3
ϕϕϕϕ
ϕϕϕϕα
iii
iiiMMMM
+−=
=+−−=+−=
Y el momento central de cuarto orden:
4. 4
4
2)3)444222
)33)444
2
2
344
)0('3
)0(")0('6)0()0('4)0()0(')(3)0(")()0(')(6
)0())(0(')(4)0()(36.4
ϕ
ϕϕϕϕϕϕϕϕ
ϕϕϕα
−
−+−=−−−−+
+−−−−=−+−=
iii
iiiMMMMMM
01.5. La simetría y la curtosis de una distribución:
Simetría:
Para medir la simetría de la gráfica de una distribución se utiliza el llamado
coeficiente de simetría de Fisher, que es el cociente de dividir el momento central
de tercer orden por el cubo de la desviación típica:
3
3
σ
α
γ =
Si 0=γ : la gráfica es simétrica.
Si 0>γ : la gráfica tiene asimetría a la derecha.
Si 0<γ : la gráfica tiene asimetría a la izquierda.
Curtosis:
Cuando se pretende medir el grado de aplanamiento o de apuntamiento de la
gráfica se utiliza el coeficiente de curtosis o de Pearson, que consiste en dividir el
momento central de cuarto orden por la cuarta potencia de la desviación típica y
restar 3 al resultado:
34
4
2 −=
σ
α
g
Si 02 =g : la gráfica se dice mesocurtica.
Si 02 >g : la gráfica es leptocurtica.
Si 02 <g : la gráfica platicurtica.
02. La distribución binomial
02.1. Las funciones básicas:
Consideremos el espacio probabilístico ( )pU ,,Φ , donde es U el conjunto de
sucesos elementales, Φ es la sigma álgebra de partes de U, y p es la función de
probabilidad.
Si consideramos un determinado suceso, A, en un experimento aleatorio
cualquiera, nos planteamos que tal suceso puede ocurrir en la realización del
experimento, o bien, puede no ocurrir. Es decir, puede verificar A o A .
5. 5
Si se trata de una distribución de probabilidad discreta, esto es, con probabilidad en
los n puntos n,...,2,1,0 , la probabilidad del suceso A y la de su contrario, A , se
complementan a uno, pues siendo φ== AAUAA IU , , se tiene que
1)()( =+ ApAp
representaremos estas probabilidades por ),(App = y ),(Apq = lo cual nos
indicará que 1=+ qp . La verificación del suceso A la denominaremos “éxito” y la
verificación de A será “fracaso”, con probabilidades respectivas, pues, indicadas
por p y q.
En una repetición del experimento N veces aparecen un cierto número k de éxitos,
siendo el resto, n-k, fracasos. ¿De cuantas maneras pueden aparecer k éxitos en
una muestra de N pruebas? Combinatoriamente sabemos que son todas las
maneras de tomar N de k en k, es decir, las combinaciones de las N pruebas
tomadas de k en k, siendo el suceso x resultante:
AA
kn
AA
k
k
N
xk .......
)(
.......
−−−−−
=
y la probabilidad
kNk
k qp
k
N
kpp −
== )(
Así, la función de densidad es:
≠
==
=
kxsi
kxsikpp
xf k
,0
),(
)(
Y la función de Distribución:
∑∑ ≤
−
≤
==
xk
knk
xk
k qp
k
n
pxF )(
Cumpliéndose, obviamente, que
∑∑ =
−
≤
=+=
==≤≤
n
k
nknk
nk
k qpqp
k
n
pnFbxfa
0
1)()(),1)(0)
(Las sumas desde menos infinito a más infinito quedan reducidas a los valores de k
comprendidos entre 0 y el numero total de pruebas n)
La función característica:
[ ] knk
n
k
itk
n
k
k
itkitk
qp
k
n
epeeEt −
==
∑∑
===
00
)(ϕ
6. 6
02.2. Los momentos de la distribución:
Los momentos iniciales rM se definen por
∑ ∑= =
−
==
n
k
n
k
knkr
k
r
r qp
k
n
kpkM
1 1
y los momentos centrales sα con respecto a la media M:
knk
n
k
s
n
k
k
s
s qp
k
n
MkpMk −
==
∑∑
−=−=
11
)()(α
Media y varianza de la distribución:
La media o esperanza matemática de la distribución se define como el momento de
primer orden de la variable aleatoria k:
[ ] ∑ ∑= =
−
==≡≡
n
k
n
k
knk
k qp
k
n
kpkMkEM
1 1
1
1
La varianza de la distribución se define asimismo como el momento central de
segundo orden respecto de la media:
knk
n
k
n
k
k qp
k
n
MkpMk −
==
∑∑
−=−=≡
1
2
1
2
2
2
)()(ασ
La desviación típica o Standard, σ , es la raiz cuadrada de la varianza.
Para una función, g(x), medible borel, se verifica que la media o esperanza
matemática de g(x) es el momento inicial de primer orden, 1gM , y la varianza es el
momento central de segundo orden, 2gα .
Media de :)(xg
∑ ∑= =
−
==≡
n
k
n
k
knk
kgg qp
k
n
kgpkgMM
1 1
1
1 )()(
Varianza de :)(xg
knk
n
k
n
k
kgg qp
k
n
MkgpMkg −
==
∑∑
−=−=≡
1
2
1
2
2
2
))(())((ασ
Simetría y curtosis:
El coeficiente de simetría de Fisher es 3
3
σ
αγ =
La gráfica de la distribución presentará asimetría a la derecha si ,0>γ y a la
izquierda si es 0<γ . Si el coficiente es nulo indica que la gráfica es simétrica.
El coeficiente curtosis de Pearson es 34
4
22 −=
σ
αg
7. 7
Se llama mesocúrtica a una distribución en la que ,022 =g platicúrtica si es 022 <g ,
y, finalmente, leptocúrtica si es 022 >g .
02.3. La función característica. Cálculo de momentos:
Se define la función característica )(tϕ de una distribución cualquiera como la
esperanza matemática de
itx
e . Su importancia estriba en el hecho de que, desde
sus derivadas, )()
th
ϕ , se obtienen los momentos iniciales, Mh, de la distribución:
[ ] ∑=
==
n
k
k
itkitk
peeEt
1
)(ϕ
Derivando:
)0('....)0('...)(' 11
11
ϕϕϕ iMMipkipekit
n
k
k
n
k
k
itx
−=→==→= ∑∑ ==
)0('')(..)0(''..)('' 2
2
1
2
222
1
22
ϕϕϕ iMMipkipekit
n
k
k
n
k
k
itk
−=→==→= ∑∑ ==
… … … … … …
… … … … … …
)0('')(..)0(''..)(
1
2
1
)
ϕϕϕ h
h
n
k
hk
hh
n
k
k
itkhhh
iMMipkipekit −=→==→= ∑∑ ==
Así, el momento inicial de orden h se obtiene mediante la expresión:
)0()( )hh
h iM ϕ−=
En el caso de la distribución binomial es:
[ ] ( ) ( )
( )nit
n
k
knkit
n
k
knkitk
n
k
knkitk
n
k
k
itkitk
qep
qpe
k
n
qpe
k
n
qp
k
n
epeeE
+=
=
=
=
== ∑∑∑∑ =
−
=
−
=
−
=
.
1111
En definitiva, es ( )nit
qept += .)(ϕ
Veamos los momentos iniciales:
- El momento inicial de orden 1, o Media de la distribución:
( ) npiMnpiqpipnqepeipnt nnitit
=−=→=+=→+= −−
)0('.).(..)0('.....)(' 1
11
ϕϕϕ
- El momento inicial de orden 2:
( ) ( )[ ]
( ) ( )
npqpnpnppnnpnppniM
npnppnnppnn
qepenpiqepeipnn
qepeieqepeipnipnt
nititnitit
nitititnitit
+=−+=+−=−=
→−+−=−−−=
→+++−=
=+++−=
−−
−−
22222222
2
2222
122222
12
)1()0('')(
).1.()0(''
......)1.(
........)1(...)(''
ϕ
ϕ
ϕ
- El momento inicial de orden 3:
8. 8
( ) ( )
( )
→−+−
−+−−=−−−−−−=
→+−−+
++−++=
−
−−
ipnipnipn
ipnipnipnipnnnipnnipn
qepeipnnn
qepepinnqepepint
nitit
nititnitit
..2..3..
..3.3...).2).(1.(.).1.(.3..)0('''
...).2).(1.(
....).1.(3....)('''
33233
22232
3333
222313
ϕ
ϕ
332332223
3 2333)0('''.)( nppnpnnppnnpiM +−+−+=−= ϕ
- El momento inicial de orden 4:
( ) ( )
( ) ( )
→−−−+−−+−+=
→+−−−++−−+
++−++=
−−
−−
432)
44443334
222414)
).3).(2).(1.().2).(1.(6).1.(.7.)0(
...).3).(2).(1.(...).2).(1.(6
....).1.(7....)(
pnnnnpnnnpnnpn
qepepinnnnqepepinnn
qepepinnqepepint
iv
nititnitit
nititnititiv
ϕ
ϕ
=−−−+−−+−+=−= 432)4
4 ).3).(2).(1.().2).(1.(6).1.(.7.)0(.)( pnnnnpnnnpnnpniM iv
ϕ
442434433233222
61161218677 nppnpnpnnppnpnpnnpnp −+−++−++−=
Veamos también los momentos centrales:
Es obvio, como ya se ha dicho, que el momento central de orden cero es 1 y que el
momento central de orden 1 es cero, en cualquier distribución.
La varianza (o momento central de orden 2):
npqnpnpqpn
MMpMpkMpkpMk
n
k
n
k
n
k
kkk
n
k
k
=−+=
=−=+−=−== ∑ ∑ ∑∑ = = ==
222
1 1 1
2
2
22
1
2
2
2
)(
.2..)(ασ
El momento central de orden 3:
( )
32
333222333323322233
22332332223
23
1
3
1
2
1
2
1
3
1
3
3
23
233323332
))1(.(323332.3
....3.3..
npnpnp
pnpnpnpnnppnpnnppnnppn
pnppnnpnppnpnnppnnpMMMM
pMpMkpMkpkpMk
n
k
k
n
k
k
n
k
k
n
k
k
n
k
k
+−=
=++−−+−+−+=+
+−+−+−+−+=+−=
=−+−=−= ∑∑∑∑∑ =====
α
El momento central de orden 4:
( )
( )
( ) 442332222442222
332332224424344
3323322242
234
1 1
43
1
22
1
3
1
4
1
4
4
631267336
233346116
12186773.6.4
..4...6.4..
nppnnppnnppnnppnnpqpnpn
nppnpnnppnnpnpnppnpnpn
nppnpnnppnnpMMMMMM
pMpkMpMkpMkpkpMk
n
k
n
k
kk
n
k
k
n
k
k
n
k
k
n
k
k
−++−−+=−++
++−+−+−−+−+
++−+−+=−+−=
=+−+−=−= ∑ ∑∑∑∑∑ = =====
α
02.4. El cálculo de la moda en la distribución binomial:
Veamos primero el siguiente teorema:
9. 9
Dada la distribución binomial B(n,p), si el número entero )1( 00 nkk ≤≤ es una
moda de la distribución, entonces está acotada superiormente por pn )1( + e
inferiormente por 1)1( −+ pn , es decir, se cumple que
pnkpn )1(1)1( 0 +≤≤−+
Demostración:
)1()()1()(mod 00000 +≥∧−≥→ kpkpkpkpak , por tanto, se cumple que:
a) →−≥+→
+
≥
−
→
+
≥
−−−+−
pknqkqp
kkn
qp
k
n
qp
k
n knkknk
)()1(.
1
11
1
00
1
00
11
00
0000
1)1()1()( 000 −+≥→−−≥→−≥+→ pnkpnpkqnpqpk
b) →≥+−→
+−
≥→
−
≥
−+−−−
qkpknqp
knk
qp
k
n
qp
k
n knkknk
00
1
00
11
00
)1(.
1
11
1
0000
pnkqpkpn )1()()1( 00 +≤→+≥+→
En definitiva:
pnkpn )1(1)1( 0 +≤≤−+
El valor de la moda:
En virtud de este teorema podemos determinar el valor de la moda, según los
casos posibles para la probabilidad de éxito p:
- Si 0=p entonces 001 00 =→≤≤− kk
- Si 1=p entonces nknkn =→+≤≤ 00 1 (pues el máximo valor es n)
- Si 10 << p se pueden dar dos situaciones:
- que Zpn ∈+ ).1( (sea número entero), entonces también Zpn ∈−+ 1)1( ,
por lo cual, de ser pnkpn )1(1)1( 0 +≤≤−+ se deduce que ambas cotas son
modas de la distribución, esto es, 1)1(,).1( 0201 −+=+= pnkpnk
- que Zpn ∉+ ).1( (no sea número entero), entonces el único entero
comprendido entre 1)1( −+ pn y pn )1( + es la parte entera de pn )1( + , por
lo cual, de ser pnkpn )1(1)1( 0 +≤≤−+ , se deduce que [ ]pnEk ).1(0 +=
(parte entera)
02.5. Simetría y curtosis
Coeficiente de simetría de Fisher:
( ) )1(
21
)1()1(
)1(2)1(
)1()1(
22
)1(
23 2322
3
32
3
3
pnp
p
pnppnp
pnppnp
pnppnp
npnpnpnp
pnp
npnpnp
−
−
=
−−
−−−
=
−−
+−−
=
−
+−
==
σ
α
γ
Coeficiente de curtosis de Pearson:
10. 10
)1(
)1(61
)1(
661
)1(
3336631
3
)1(
36631
3
)1(
)1(3)1(6)1(6)1(3)1(
3
)1(
6312673
3
2
22222
222
322322
222
442332222
4
4
22
pnp
pp
pnp
pp
pnp
npnpnpppnp
pnp
npppnp
ppn
ppnpnppnpppnpnp
ppn
nppnnppnnppnnp
g
−
−−
=
−
−−
=
=
−
+−−−++
=−
−
−−++
=
=−
−
−−−−−+−+−
=
=−
−
−++−−+
=−=
σ
α
02.6. La media y desviación típica de la función frecuencia relativa:
Para trabajar algunos temas, como por ejemplo, la demostración de la ley débil de
los grandes números (Teorema de Jacob Bernoulli), es conveniente determinar la
media, y desviación típica con respecta a ella, cuando la variable no es k, número
de éxitos, sino k/n, esto es, la frecuencia relativa del número de éxitos con
respecto al total de la muestra. Se tiene:
pnp
n
pp
k
n
k
n
pp
k
n
n
k
p
n
k
M
n
k
knk
n
k
knk
n
k
kf ==−
=−
== ∑∑∑ =
−
=
−
=
1
)1(
1
)1(
111
n
pp
ppnpnp
n
MM
n
pM
pM
n
k
p
n
k
pMM
n
k
n
k
pM
n
k
f
n
k
kf
n
k
kf
n
k
k
n
k
kff
n
k
kff
)1(
))1((
11
22
222
2
2
22
1
2
11
2
1
2
2
1
2
2
−
=−+−=−=+
+
−
=
+−
=
−=
∑
∑∑∑∑
=
====
σ
02.7. Ejemplos de cálculos en una distribución binomial
1) Sea la binomial B(30,0’2). Cálculos:
- Función de densidad:
30,...,1,0,)8'0()2'0(
30
)( 30
=
= −
k
k
kp kk
- Función de Distribución:
∑≤
−
=
xk
kk
k
xF 30
)8'0()2'0(
30
)(
- Función característica:
( )30
8'0).2'0()( += it
etϕ
11. 11
- Media:
62'0.30 ==M
- Varianza:
8'48'0.2'0.302
==σ
- Desviación típica o estándar:
19089023'28'4 ==σ
- Moda:
[ ] 62'62'62'0.31).1( 0 ==→∉==+ EkZpn
- Coef. de simetría:
...666666666'1
8'4
6'0
8'0.2'0.30
2'0.21
)1(
21
==
−
=
−
−
=
pnp
p
γ
- Coef. de curtosis:
...0083333'0
8'4
04'0
8'0.2'0.30
8'0.2'0.61
)1(
)1(61
22 ==
−
=
−
−−
=
pnp
pp
g
2) Sea la binomial B(9,0’4). Cálculos:
- Función de densidad:
9,...,1,0,)6'0()4'0(
9
)( 9
=
= −
k
k
kp kk
- Función de Distribución:
∑≤
−
=
xk
kk
k
xF 9
)6'0()4'0(
9
)(
- Función característica:
( )9
6'0).4'0()( += it
etϕ
- Media:
6'34'0.9 ==M
- Varianza:
16'26'0.4'0.92
==σ
- Desviación típica o estándar:
12. 12
469693846'116'2 ==σ
- Moda:
4,344'0.10).1( 0201 ==→∈==+ kkZpn (bimodal)
- Coef. de simetría:
136082763'0
16'2
2'0
6'0.4'0.9
4'0.21
)1(
21
==
−
=
−
−
=
pnp
p
γ
- Coef. de curtosis:
203703703'0
16'2
44'0
6'0.4'0.9
6'0.4'0.61
)1(
)1(61
22 −=
−
=
−
=
−
−−
=
pnp
pp
g
3. Bibliografía
Cramer, H.; “Métodos matemáticos de la Estadística”. Ediciones Aguilar.
Frechet, M.; “Recherches theoriques modernes sur la theorie des probabilities”,
Gauthier-Villars, 10ª edic. 1950
Gmurman, V.E. ; “Teoría de las probabilidades y estadística matemática”, Editorial
Mir, Moscú,1983
Gndenko, B. ; “Teoría de probabilidades ». Editorial Mir
Schweizer, B;Sklar, A.; “Probabilistic metric spaces”, North Holland, N.York, 1983
Quesada P,V.; García Perez, A.; “Lecciones de Cálculo de probabilidades”, Diaz de
Santos, Madrid, 1988.
Martín Pliego, F.; Ruiz-Maya Pérez, L.; “Fundamentos de Probabilidad”, Thomson-
Paraninfo, 1998.
S. Chinea, C., “Aleatoriedad y álgebras de sucesos”,
(http://casanchi.com/mat/aleatoria01.pdf )
S. Chinea, C., “De las álgebras de sucesos a los espacios probabilísticos”,
(http://casanchi.com/mat/sucesospro01.pdf )
S. Chinea, C., “Variables aleatorias. Una incursión en los espacios probabilizables”,
(http://casanchi.com/mat/valeatoria01.pdf )
S. Chinea, C., “Distribución de variables aleatorias. La función de distribución”,
(http://casanchi.com/mat/fdistribucion01.pdf )
Carlos S. CHINEA
casanchi@teleline.es