SlideShare una empresa de Scribd logo
1 de 12
Descargar para leer sin conexión
1
Medidas sobre distribuciones
discretas. La distribución binomial
01. Medidas sobre distribuciones discretas
01.1. La función de densidad:
Para cualquier variable aleatoria, X, su función de distribución viene definida por
[ ]xXpxF ≤=)(
que, si es discreta, se puede expresar por
∑≤
=
xk
kpxF )(
donde es kp la función de densidad, que obviamente ha de cumplir la condición de
probabilidad igual a 1 para el espacio muestral:
∑
∞
∞−
=1kp (*)
La función de densidad permite definir el tipo de distribución en estudio, así, por
ejemplo, la distribución binomial queda definida por una función de densidad dada
por:
kk
k pp
k
n
p )1( −





=
01.2. Momentos:
Para estudiar las características de una distribución de la variable aleatoria es
necesario estudiar los momentos de la distribución.
Los momentos iniciales están definidos por
k
r
r pkM ∑
∞
∞−
= (momento inicial de orden r, r=0,1,…)
El momento inicial de orden cero es la unidad, por (*), pues
10
0 ∑∑
∞
∞−
∞
∞−
=== kk ppkM
Al momento inicial de orden 1 se le denomina Esperanza Matemática o bien Media
de la distribución:
[ ] ∑∑
∞
−∞=
∞
−∞=
==≡≡
k
k
k
k pkpkMMkE .1
1
Se llama desviación respecto de la media a la variable Mk − .
2
A partir de la Media o Esperanza Matemática se definen los llamados momentos
centrales de la distribución:
[ ] ∑
∞
−∞=
−=−=
k
k
rr
k pMxMxE )()(α (momento central de orden r, r=0,1,…)
El momento central de orden cero coincide, obviamente, con la unidad, al igual que
el momento inicial de orden cero:
[ ] 1)()( 00
0 ==−=−= ∑∑
∞
−∞=
∞
−∞= k
k
k
k ppMkMxEα
El momento central de orden 1 es nulo:
[ ] ∑ ∑∑
∞
−∞=
∞
=
∞
−∞=
=−=−=−=−=
k k
kk
k
k MMpMpxpMxMxE
1
11
1 0.)()(α
El momento central de orden 2 se denomina Varianza:
∑
∞
−∞=
−==
k
kpMx .)( 2
2
2
ασ
La raíz cuadrada de la varianza es lo que denominamos desviación típica o
desviación standard: 2ασ =
- Relaciones entre los momentos centrales y los momentos iniciales:
El momento central de orden 2 (la varianza) se relaciona con los momentos
iniciales de orden 1 (media) y de orden 2, mediante la relación:
2
2
2
2 MM −== σα
puesto que:
∑ ∑ ∑∑ = = ==
−=+−=−==
n
k
n
k
n
k
kkk
n
k
k MMpMpkMpkpMk
1 1 1
2
2
22
1
2
2
2
.2..)(ασ
El momento central de orden 3 viene relacionado con los momentos iniciales por la
expresión:
3
233 2.3 MMMM +−=α
puesto que:
( )
3
23
1
3
1
2
1
2
1
3
1
3
3
2..3
....3.3..
MMMM
pMpMkpMkpkpMk
n
k
k
n
k
k
n
k
k
n
k
k
n
k
k
+−=
=−+−=−= ∑∑∑∑∑ =====
α
Y el momento central de orden 4:
4
2
2
344 36.4 MMMMMM −+−=α
ya que se tiene:
( )
42
234
1 1
43
1
22
1
3
1
4
1
4
4
3.6.4
..4...6.4..
MMMMMM
pMpkMpMkpMkpkpMk
n
k
n
k
kk
n
k
k
n
k
k
n
k
k
n
k
k
−+−=
=+−+−=−= ∑ ∑∑∑∑∑ = =====
α
3
01.3. La moda:
La moda se define como el valor que presenta un máximo de la distribución, si
existe, y se obtiene, en las distribuciones discretas de probabilidad, como aquel
valor, k0, tal que su probabilidad es máxima. Es decir:
)1()()1()(mod 00000 +≥∧−≥→ kpkpkpkpak
01.4. El cálculo de los momentos. La función característica:
Para calcular los momentos, tanto iniciales como centrales, es necesario resolver
sumas de cierta dificultad en muchos casos, como es el de la distribución binomial.
Para solventar el problema de estos cálculos, Alexander M. Lyapunov (1857-1918)
introdujo en 1904 un método que llamó de las funciones características, y que
consiste en definir una cierta función a partir de la cual se extraen de forma sencilla
los correspondientes momentos. Esta cierta función, fácil de integrar, permitiría
obtener todos los momentos (media, desviación standard, etc) de forma inmediata.
Es la llamada función característica de la distribución:
[ ] ∑
∞
∞−
== k
itkitx
peeEt)(ϕ
Si calculamos sus derivadas para t=0, tenemos:
)0('..)0('..)(' 11 ϕϕϕ iMiMpkipekit kk
itk
−=→==→= ∑∑
∞
∞−
∞
∞−
)0("..)0(''..)(" 22
22222
ϕϕϕ −=→==→= ∑∑
∞
∞−
∞
∞−
MMipkipekit kk
itk
en general, se tiene la fórmula siguiente para los momentos iniciales de la
distribución:
)0(.)( )kk
k iM ϕ−=
cuya aplicabilidad depende, en consecuencia, de que las derivadas de la función
característica se obtengan de forma sencilla.
Así, podemos obtener la media y la varianza de forma inmediata:
)0(')0(.)( )11
1 ϕϕ iiMM −=−==
22"22
22
2
)0(')0("))0('()0()( ϕϕϕϕασ +−=−−−=−== iiMM (1.4)
Y el momento central de tercer orden sería:
3'''
3'''33
233
)0('2)0(")0('3)0(
)0('2)0(")0('3)0()(2.3
ϕϕϕϕ
ϕϕϕϕα
iii
iiiMMMM
+−=
=+−−=+−=
Y el momento central de cuarto orden:
4
4
2)3)444222
)33)444
2
2
344
)0('3
)0(")0('6)0()0('4)0()0(')(3)0(")()0(')(6
)0())(0(')(4)0()(36.4
ϕ
ϕϕϕϕϕϕϕϕ
ϕϕϕα
−
−+−=−−−−+
+−−−−=−+−=
iii
iiiMMMMMM
01.5. La simetría y la curtosis de una distribución:
Simetría:
Para medir la simetría de la gráfica de una distribución se utiliza el llamado
coeficiente de simetría de Fisher, que es el cociente de dividir el momento central
de tercer orden por el cubo de la desviación típica:
3
3
σ
α
γ =
Si 0=γ : la gráfica es simétrica.
Si 0>γ : la gráfica tiene asimetría a la derecha.
Si 0<γ : la gráfica tiene asimetría a la izquierda.
Curtosis:
Cuando se pretende medir el grado de aplanamiento o de apuntamiento de la
gráfica se utiliza el coeficiente de curtosis o de Pearson, que consiste en dividir el
momento central de cuarto orden por la cuarta potencia de la desviación típica y
restar 3 al resultado:
34
4
2 −=
σ
α
g
Si 02 =g : la gráfica se dice mesocurtica.
Si 02 >g : la gráfica es leptocurtica.
Si 02 <g : la gráfica platicurtica.
02. La distribución binomial
02.1. Las funciones básicas:
Consideremos el espacio probabilístico ( )pU ,,Φ , donde es U el conjunto de
sucesos elementales, Φ es la sigma álgebra de partes de U, y p es la función de
probabilidad.
Si consideramos un determinado suceso, A, en un experimento aleatorio
cualquiera, nos planteamos que tal suceso puede ocurrir en la realización del
experimento, o bien, puede no ocurrir. Es decir, puede verificar A o A .
5
Si se trata de una distribución de probabilidad discreta, esto es, con probabilidad en
los n puntos n,...,2,1,0 , la probabilidad del suceso A y la de su contrario, A , se
complementan a uno, pues siendo φ== AAUAA IU , , se tiene que
1)()( =+ ApAp
representaremos estas probabilidades por ),(App = y ),(Apq = lo cual nos
indicará que 1=+ qp . La verificación del suceso A la denominaremos “éxito” y la
verificación de A será “fracaso”, con probabilidades respectivas, pues, indicadas
por p y q.
En una repetición del experimento N veces aparecen un cierto número k de éxitos,
siendo el resto, n-k, fracasos. ¿De cuantas maneras pueden aparecer k éxitos en
una muestra de N pruebas? Combinatoriamente sabemos que son todas las
maneras de tomar N de k en k, es decir, las combinaciones de las N pruebas
tomadas de k en k, siendo el suceso x resultante:
AA
kn
AA
k
k
N
xk .......
)(
.......
−−−−−






=
y la probabilidad
kNk
k qp
k
N
kpp −






== )(
Así, la función de densidad es:



≠
==
=
kxsi
kxsikpp
xf k
,0
),(
)(
Y la función de Distribución:
∑∑ ≤
−
≤






==
xk
knk
xk
k qp
k
n
pxF )(
Cumpliéndose, obviamente, que
∑∑ =
−
≤
=+=





==≤≤
n
k
nknk
nk
k qpqp
k
n
pnFbxfa
0
1)()(),1)(0)
(Las sumas desde menos infinito a más infinito quedan reducidas a los valores de k
comprendidos entre 0 y el numero total de pruebas n)
La función característica:
[ ] knk
n
k
itk
n
k
k
itkitk
qp
k
n
epeeEt −
==
∑∑ 





===
00
)(ϕ
6
02.2. Los momentos de la distribución:
Los momentos iniciales rM se definen por
∑ ∑= =
−






==
n
k
n
k
knkr
k
r
r qp
k
n
kpkM
1 1
y los momentos centrales sα con respecto a la media M:
knk
n
k
s
n
k
k
s
s qp
k
n
MkpMk −
==
∑∑ 





−=−=
11
)()(α
Media y varianza de la distribución:
La media o esperanza matemática de la distribución se define como el momento de
primer orden de la variable aleatoria k:
[ ] ∑ ∑= =
−






==≡≡
n
k
n
k
knk
k qp
k
n
kpkMkEM
1 1
1
1
La varianza de la distribución se define asimismo como el momento central de
segundo orden respecto de la media:
knk
n
k
n
k
k qp
k
n
MkpMk −
==
∑∑ 





−=−=≡
1
2
1
2
2
2
)()(ασ
La desviación típica o Standard, σ , es la raiz cuadrada de la varianza.
Para una función, g(x), medible borel, se verifica que la media o esperanza
matemática de g(x) es el momento inicial de primer orden, 1gM , y la varianza es el
momento central de segundo orden, 2gα .
Media de :)(xg
∑ ∑= =
−






==≡
n
k
n
k
knk
kgg qp
k
n
kgpkgMM
1 1
1
1 )()(
Varianza de :)(xg
knk
n
k
n
k
kgg qp
k
n
MkgpMkg −
==
∑∑ 





−=−=≡
1
2
1
2
2
2
))(())((ασ
Simetría y curtosis:
El coeficiente de simetría de Fisher es 3
3
σ
αγ =
La gráfica de la distribución presentará asimetría a la derecha si ,0>γ y a la
izquierda si es 0<γ . Si el coficiente es nulo indica que la gráfica es simétrica.
El coeficiente curtosis de Pearson es 34
4
22 −=
σ
αg
7
Se llama mesocúrtica a una distribución en la que ,022 =g platicúrtica si es 022 <g ,
y, finalmente, leptocúrtica si es 022 >g .
02.3. La función característica. Cálculo de momentos:
Se define la función característica )(tϕ de una distribución cualquiera como la
esperanza matemática de
itx
e . Su importancia estriba en el hecho de que, desde
sus derivadas, )()
th
ϕ , se obtienen los momentos iniciales, Mh, de la distribución:
[ ] ∑=
==
n
k
k
itkitk
peeEt
1
)(ϕ
Derivando:
)0('....)0('...)(' 11
11
ϕϕϕ iMMipkipekit
n
k
k
n
k
k
itx
−=→==→= ∑∑ ==
)0('')(..)0(''..)('' 2
2
1
2
222
1
22
ϕϕϕ iMMipkipekit
n
k
k
n
k
k
itk
−=→==→= ∑∑ ==
… … … … … …
… … … … … …
)0('')(..)0(''..)(
1
2
1
)
ϕϕϕ h
h
n
k
hk
hh
n
k
k
itkhhh
iMMipkipekit −=→==→= ∑∑ ==
Así, el momento inicial de orden h se obtiene mediante la expresión:
)0()( )hh
h iM ϕ−=
En el caso de la distribución binomial es:
[ ] ( ) ( )
( )nit
n
k
knkit
n
k
knkitk
n
k
knkitk
n
k
k
itkitk
qep
qpe
k
n
qpe
k
n
qp
k
n
epeeE
+=
=





=





=





== ∑∑∑∑ =
−
=
−
=
−
=
.
1111
En definitiva, es ( )nit
qept += .)(ϕ
Veamos los momentos iniciales:
- El momento inicial de orden 1, o Media de la distribución:
( ) npiMnpiqpipnqepeipnt nnitit
=−=→=+=→+= −−
)0('.).(..)0('.....)(' 1
11
ϕϕϕ
- El momento inicial de orden 2:
( ) ( )[ ]
( ) ( )
npqpnpnppnnpnppniM
npnppnnppnn
qepenpiqepeipnn
qepeieqepeipnipnt
nititnitit
nitititnitit
+=−+=+−=−=
→−+−=−−−=
→+++−=
=+++−=
−−
−−
22222222
2
2222
122222
12
)1()0('')(
).1.()0(''
......)1.(
........)1(...)(''
ϕ
ϕ
ϕ
- El momento inicial de orden 3:
8
( ) ( )
( )
→−+−
−+−−=−−−−−−=
→+−−+
++−++=
−
−−
ipnipnipn
ipnipnipnipnnnipnnipn
qepeipnnn
qepepinnqepepint
nitit
nititnitit
..2..3..
..3.3...).2).(1.(.).1.(.3..)0('''
...).2).(1.(
....).1.(3....)('''
33233
22232
3333
222313
ϕ
ϕ
332332223
3 2333)0('''.)( nppnpnnppnnpiM +−+−+=−= ϕ
- El momento inicial de orden 4:
( ) ( )
( ) ( )
→−−−+−−+−+=
→+−−−++−−+
++−++=
−−
−−
432)
44443334
222414)
).3).(2).(1.().2).(1.(6).1.(.7.)0(
...).3).(2).(1.(...).2).(1.(6
....).1.(7....)(
pnnnnpnnnpnnpn
qepepinnnnqepepinnn
qepepinnqepepint
iv
nititnitit
nititnititiv
ϕ
ϕ
=−−−+−−+−+=−= 432)4
4 ).3).(2).(1.().2).(1.(6).1.(.7.)0(.)( pnnnnpnnnpnnpniM iv
ϕ
442434433233222
61161218677 nppnpnpnnppnpnpnnpnp −+−++−++−=
Veamos también los momentos centrales:
Es obvio, como ya se ha dicho, que el momento central de orden cero es 1 y que el
momento central de orden 1 es cero, en cualquier distribución.
La varianza (o momento central de orden 2):
npqnpnpqpn
MMpMpkMpkpMk
n
k
n
k
n
k
kkk
n
k
k
=−+=
=−=+−=−== ∑ ∑ ∑∑ = = ==
222
1 1 1
2
2
22
1
2
2
2
)(
.2..)(ασ
El momento central de orden 3:
( )
32
333222333323322233
22332332223
23
1
3
1
2
1
2
1
3
1
3
3
23
233323332
))1(.(323332.3
....3.3..
npnpnp
pnpnpnpnnppnpnnppnnppn
pnppnnpnppnpnnppnnpMMMM
pMpMkpMkpkpMk
n
k
k
n
k
k
n
k
k
n
k
k
n
k
k
+−=
=++−−+−+−+=+
+−+−+−+−+=+−=
=−+−=−= ∑∑∑∑∑ =====
α
El momento central de orden 4:
( )
( )
( ) 442332222442222
332332224424344
3323322242
234
1 1
43
1
22
1
3
1
4
1
4
4
631267336
233346116
12186773.6.4
..4...6.4..
nppnnppnnppnnppnnpqpnpn
nppnpnnppnnpnpnppnpnpn
nppnpnnppnnpMMMMMM
pMpkMpMkpMkpkpMk
n
k
n
k
kk
n
k
k
n
k
k
n
k
k
n
k
k
−++−−+=−++
++−+−+−−+−+
++−+−+=−+−=
=+−+−=−= ∑ ∑∑∑∑∑ = =====
α
02.4. El cálculo de la moda en la distribución binomial:
Veamos primero el siguiente teorema:
9
Dada la distribución binomial B(n,p), si el número entero )1( 00 nkk ≤≤ es una
moda de la distribución, entonces está acotada superiormente por pn )1( + e
inferiormente por 1)1( −+ pn , es decir, se cumple que
pnkpn )1(1)1( 0 +≤≤−+
Demostración:
)1()()1()(mod 00000 +≥∧−≥→ kpkpkpkpak , por tanto, se cumple que:
a) →−≥+→
+
≥
−
→





+
≥




 −−−+−
pknqkqp
kkn
qp
k
n
qp
k
n knkknk
)()1(.
1
11
1
00
1
00
11
00
0000
1)1()1()( 000 −+≥→−−≥→−≥+→ pnkpnpkqnpqpk
b) →≥+−→
+−
≥→





−
≥




 −+−−−
qkpknqp
knk
qp
k
n
qp
k
n knkknk
00
1
00
11
00
)1(.
1
11
1
0000
pnkqpkpn )1()()1( 00 +≤→+≥+→
En definitiva:
pnkpn )1(1)1( 0 +≤≤−+
El valor de la moda:
En virtud de este teorema podemos determinar el valor de la moda, según los
casos posibles para la probabilidad de éxito p:
- Si 0=p entonces 001 00 =→≤≤− kk
- Si 1=p entonces nknkn =→+≤≤ 00 1 (pues el máximo valor es n)
- Si 10 << p se pueden dar dos situaciones:
- que Zpn ∈+ ).1( (sea número entero), entonces también Zpn ∈−+ 1)1( ,
por lo cual, de ser pnkpn )1(1)1( 0 +≤≤−+ se deduce que ambas cotas son
modas de la distribución, esto es, 1)1(,).1( 0201 −+=+= pnkpnk
- que Zpn ∉+ ).1( (no sea número entero), entonces el único entero
comprendido entre 1)1( −+ pn y pn )1( + es la parte entera de pn )1( + , por
lo cual, de ser pnkpn )1(1)1( 0 +≤≤−+ , se deduce que [ ]pnEk ).1(0 +=
(parte entera)
02.5. Simetría y curtosis
Coeficiente de simetría de Fisher:
( ) )1(
21
)1()1(
)1(2)1(
)1()1(
22
)1(
23 2322
3
32
3
3
pnp
p
pnppnp
pnppnp
pnppnp
npnpnpnp
pnp
npnpnp
−
−
=
−−
−−−
=
−−
+−−
=
−
+−
==
σ
α
γ
Coeficiente de curtosis de Pearson:
10
)1(
)1(61
)1(
661
)1(
3336631
3
)1(
36631
3
)1(
)1(3)1(6)1(6)1(3)1(
3
)1(
6312673
3
2
22222
222
322322
222
442332222
4
4
22
pnp
pp
pnp
pp
pnp
npnpnpppnp
pnp
npppnp
ppn
ppnpnppnpppnpnp
ppn
nppnnppnnppnnp
g
−
−−
=
−
−−
=
=
−
+−−−++
=−
−
−−++
=
=−
−
−−−−−+−+−
=
=−
−
−++−−+
=−=
σ
α
02.6. La media y desviación típica de la función frecuencia relativa:
Para trabajar algunos temas, como por ejemplo, la demostración de la ley débil de
los grandes números (Teorema de Jacob Bernoulli), es conveniente determinar la
media, y desviación típica con respecta a ella, cuando la variable no es k, número
de éxitos, sino k/n, esto es, la frecuencia relativa del número de éxitos con
respecto al total de la muestra. Se tiene:
pnp
n
pp
k
n
k
n
pp
k
n
n
k
p
n
k
M
n
k
knk
n
k
knk
n
k
kf ==−





=−





== ∑∑∑ =
−
=
−
=
1
)1(
1
)1(
111
n
pp
ppnpnp
n
MM
n
pM
pM
n
k
p
n
k
pMM
n
k
n
k
pM
n
k
f
n
k
kf
n
k
kf
n
k
k
n
k
kff
n
k
kff
)1(
))1((
11
22
222
2
2
22
1
2
11
2
1
2
2
1
2
2
−
=−+−=−=+
+





−





=








+−





=





−=
∑
∑∑∑∑
=
====
σ
02.7. Ejemplos de cálculos en una distribución binomial
1) Sea la binomial B(30,0’2). Cálculos:
- Función de densidad:
30,...,1,0,)8'0()2'0(
30
)( 30
=





= −
k
k
kp kk
- Función de Distribución:
∑≤
−






=
xk
kk
k
xF 30
)8'0()2'0(
30
)(
- Función característica:
( )30
8'0).2'0()( += it
etϕ
11
- Media:
62'0.30 ==M
- Varianza:
8'48'0.2'0.302
==σ
- Desviación típica o estándar:
19089023'28'4 ==σ
- Moda:
[ ] 62'62'62'0.31).1( 0 ==→∉==+ EkZpn
- Coef. de simetría:
...666666666'1
8'4
6'0
8'0.2'0.30
2'0.21
)1(
21
==
−
=
−
−
=
pnp
p
γ
- Coef. de curtosis:
...0083333'0
8'4
04'0
8'0.2'0.30
8'0.2'0.61
)1(
)1(61
22 ==
−
=
−
−−
=
pnp
pp
g
2) Sea la binomial B(9,0’4). Cálculos:
- Función de densidad:
9,...,1,0,)6'0()4'0(
9
)( 9
=





= −
k
k
kp kk
- Función de Distribución:
∑≤
−






=
xk
kk
k
xF 9
)6'0()4'0(
9
)(
- Función característica:
( )9
6'0).4'0()( += it
etϕ
- Media:
6'34'0.9 ==M
- Varianza:
16'26'0.4'0.92
==σ
- Desviación típica o estándar:
12
469693846'116'2 ==σ
- Moda:
4,344'0.10).1( 0201 ==→∈==+ kkZpn (bimodal)
- Coef. de simetría:
136082763'0
16'2
2'0
6'0.4'0.9
4'0.21
)1(
21
==
−
=
−
−
=
pnp
p
γ
- Coef. de curtosis:
203703703'0
16'2
44'0
6'0.4'0.9
6'0.4'0.61
)1(
)1(61
22 −=
−
=
−
=
−
−−
=
pnp
pp
g
3. Bibliografía
Cramer, H.; “Métodos matemáticos de la Estadística”. Ediciones Aguilar.
Frechet, M.; “Recherches theoriques modernes sur la theorie des probabilities”,
Gauthier-Villars, 10ª edic. 1950
Gmurman, V.E. ; “Teoría de las probabilidades y estadística matemática”, Editorial
Mir, Moscú,1983
Gndenko, B. ; “Teoría de probabilidades ». Editorial Mir
Schweizer, B;Sklar, A.; “Probabilistic metric spaces”, North Holland, N.York, 1983
Quesada P,V.; García Perez, A.; “Lecciones de Cálculo de probabilidades”, Diaz de
Santos, Madrid, 1988.
Martín Pliego, F.; Ruiz-Maya Pérez, L.; “Fundamentos de Probabilidad”, Thomson-
Paraninfo, 1998.
S. Chinea, C., “Aleatoriedad y álgebras de sucesos”,
(http://casanchi.com/mat/aleatoria01.pdf )
S. Chinea, C., “De las álgebras de sucesos a los espacios probabilísticos”,
(http://casanchi.com/mat/sucesospro01.pdf )
S. Chinea, C., “Variables aleatorias. Una incursión en los espacios probabilizables”,
(http://casanchi.com/mat/valeatoria01.pdf )
S. Chinea, C., “Distribución de variables aleatorias. La función de distribución”,
(http://casanchi.com/mat/fdistribucion01.pdf )
Carlos S. CHINEA
casanchi@teleline.es

Más contenido relacionado

La actualidad más candente

Tarea 10 de probabilidad y estadistica con respuesta
Tarea 10 de probabilidad y estadistica con respuestaTarea 10 de probabilidad y estadistica con respuesta
Tarea 10 de probabilidad y estadistica con respuestaIPN
 
Calculo avanzado-formula de taylor
Calculo avanzado-formula de taylorCalculo avanzado-formula de taylor
Calculo avanzado-formula de taylorFernando Maguna
 
5. probabilidad conjunta ejercicios resueltos
5. probabilidad conjunta   ejercicios resueltos5. probabilidad conjunta   ejercicios resueltos
5. probabilidad conjunta ejercicios resueltosfabebust
 
Distribucion normal
Distribucion normalDistribucion normal
Distribucion normalabemen
 
Gamma presentacion
Gamma presentacionGamma presentacion
Gamma presentacionKerll Eve
 
Distribución Binomial
Distribución BinomialDistribución Binomial
Distribución Binomialsamantharisa
 
PRODUCTO INTERNO Vectores Ortogonales
PRODUCTO INTERNO  Vectores OrtogonalesPRODUCTO INTERNO  Vectores Ortogonales
PRODUCTO INTERNO Vectores Ortogonalesalgebra
 
Biyectiva inyectiva sobreyectiva
Biyectiva inyectiva sobreyectivaBiyectiva inyectiva sobreyectiva
Biyectiva inyectiva sobreyectivaalgebragr4
 
Teoría y Problemas de Funciones de varias Variables ccesa007
Teoría y Problemas de Funciones de varias Variables ccesa007Teoría y Problemas de Funciones de varias Variables ccesa007
Teoría y Problemas de Funciones de varias Variables ccesa007Demetrio Ccesa Rayme
 
Estimación.intervalos de confianza para la media y para las proporciones
Estimación.intervalos de confianza para la media y para las proporcionesEstimación.intervalos de confianza para la media y para las proporciones
Estimación.intervalos de confianza para la media y para las proporcionesHugo Caceres
 

La actualidad más candente (20)

Tarea 10 de probabilidad y estadistica con respuesta
Tarea 10 de probabilidad y estadistica con respuestaTarea 10 de probabilidad y estadistica con respuesta
Tarea 10 de probabilidad y estadistica con respuesta
 
Calculo avanzado-formula de taylor
Calculo avanzado-formula de taylorCalculo avanzado-formula de taylor
Calculo avanzado-formula de taylor
 
Distribuciones de muestreo
Distribuciones de muestreoDistribuciones de muestreo
Distribuciones de muestreo
 
5. probabilidad conjunta ejercicios resueltos
5. probabilidad conjunta   ejercicios resueltos5. probabilidad conjunta   ejercicios resueltos
5. probabilidad conjunta ejercicios resueltos
 
Variables aleatorias
Variables aleatoriasVariables aleatorias
Variables aleatorias
 
Distribucion normal
Distribucion normalDistribucion normal
Distribucion normal
 
Gamma presentacion
Gamma presentacionGamma presentacion
Gamma presentacion
 
Distribución Binomial
Distribución BinomialDistribución Binomial
Distribución Binomial
 
PRODUCTO INTERNO Vectores Ortogonales
PRODUCTO INTERNO  Vectores OrtogonalesPRODUCTO INTERNO  Vectores Ortogonales
PRODUCTO INTERNO Vectores Ortogonales
 
Ecuaciones diferenciales.ppt
Ecuaciones diferenciales.pptEcuaciones diferenciales.ppt
Ecuaciones diferenciales.ppt
 
Ejercicios resueltos
Ejercicios resueltosEjercicios resueltos
Ejercicios resueltos
 
Sucesiones y Series
Sucesiones y Series Sucesiones y Series
Sucesiones y Series
 
Biyectiva inyectiva sobreyectiva
Biyectiva inyectiva sobreyectivaBiyectiva inyectiva sobreyectiva
Biyectiva inyectiva sobreyectiva
 
analisis vectorial semana 2
analisis vectorial semana 2analisis vectorial semana 2
analisis vectorial semana 2
 
prueba de hipotesis
prueba de hipotesisprueba de hipotesis
prueba de hipotesis
 
R48458
R48458R48458
R48458
 
Distribucion uniforme continua
Distribucion uniforme continuaDistribucion uniforme continua
Distribucion uniforme continua
 
Teoría y Problemas de Funciones de varias Variables ccesa007
Teoría y Problemas de Funciones de varias Variables ccesa007Teoría y Problemas de Funciones de varias Variables ccesa007
Teoría y Problemas de Funciones de varias Variables ccesa007
 
Estimación.intervalos de confianza para la media y para las proporciones
Estimación.intervalos de confianza para la media y para las proporcionesEstimación.intervalos de confianza para la media y para las proporciones
Estimación.intervalos de confianza para la media y para las proporciones
 
ejercicios-resueltos-interpolacion-polinomial
ejercicios-resueltos-interpolacion-polinomialejercicios-resueltos-interpolacion-polinomial
ejercicios-resueltos-interpolacion-polinomial
 

Similar a 1 distribucion binomial y sus momentos

Similar a 1 distribucion binomial y sus momentos (20)

Clase 3 mecanica-cuantica
Clase 3 mecanica-cuanticaClase 3 mecanica-cuantica
Clase 3 mecanica-cuantica
 
Fc
FcFc
Fc
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Ejercicios detallados del obj 4 mat iii 733
Ejercicios detallados del obj 4 mat iii  733 Ejercicios detallados del obj 4 mat iii  733
Ejercicios detallados del obj 4 mat iii 733
 
Taller de metodos
Taller de metodosTaller de metodos
Taller de metodos
 
Cap3
Cap3Cap3
Cap3
 
Taller procesos estocásticos
Taller procesos estocásticosTaller procesos estocásticos
Taller procesos estocásticos
 
Pauta prueba parcial 1
Pauta prueba parcial 1Pauta prueba parcial 1
Pauta prueba parcial 1
 
Metodos de la fisica 2
Metodos de la fisica 2Metodos de la fisica 2
Metodos de la fisica 2
 
117_3_25062021012559.pdf
117_3_25062021012559.pdf117_3_25062021012559.pdf
117_3_25062021012559.pdf
 
Longitud de una curva
Longitud de una curvaLongitud de una curva
Longitud de una curva
 
Ptofijonewton2 variables
Ptofijonewton2 variablesPtofijonewton2 variables
Ptofijonewton2 variables
 
Quadratic Sieve, algoritmos y ejemplos
Quadratic Sieve, algoritmos y ejemplosQuadratic Sieve, algoritmos y ejemplos
Quadratic Sieve, algoritmos y ejemplos
 
RESUMEN DE ESTADISTICA II INIDAD 2
RESUMEN DE ESTADISTICA II INIDAD 2RESUMEN DE ESTADISTICA II INIDAD 2
RESUMEN DE ESTADISTICA II INIDAD 2
 
Distribuciones poisson, rayleigh y student
Distribuciones poisson, rayleigh y studentDistribuciones poisson, rayleigh y student
Distribuciones poisson, rayleigh y student
 
Funciones trigonometricas con expansion en series
Funciones trigonometricas con expansion en seriesFunciones trigonometricas con expansion en series
Funciones trigonometricas con expansion en series
 
4) Física Atómica
4) Física Atómica4) Física Atómica
4) Física Atómica
 
117 4 31102012113144
117 4 31102012113144117 4 31102012113144
117 4 31102012113144
 
161exam
161exam161exam
161exam
 
Analisis de experimento
Analisis de experimentoAnalisis de experimento
Analisis de experimento
 

Último

Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticosisabeltrejoros
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPELaura Chacón
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinavergarakarina022
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxdanalikcruz2000
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptELENA GALLARDO PAÚLS
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para eventoDiegoMtsS
 
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxPPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxOscarEduardoSanchezC
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxAna Fernandez
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSjlorentemartos
 
Movimientos Precursores de La Independencia en Venezuela
Movimientos Precursores de La Independencia en VenezuelaMovimientos Precursores de La Independencia en Venezuela
Movimientos Precursores de La Independencia en Venezuelacocuyelquemao
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosCesarFernandez937857
 
Unidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteUnidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteJuan Hernandez
 

Último (20)

Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticos
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPE
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karina
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para evento
 
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxPPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docx
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
Unidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDIUnidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDI
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
 
Movimientos Precursores de La Independencia en Venezuela
Movimientos Precursores de La Independencia en VenezuelaMovimientos Precursores de La Independencia en Venezuela
Movimientos Precursores de La Independencia en Venezuela
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos Básicos
 
Unidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteUnidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parte
 

1 distribucion binomial y sus momentos

  • 1. 1 Medidas sobre distribuciones discretas. La distribución binomial 01. Medidas sobre distribuciones discretas 01.1. La función de densidad: Para cualquier variable aleatoria, X, su función de distribución viene definida por [ ]xXpxF ≤=)( que, si es discreta, se puede expresar por ∑≤ = xk kpxF )( donde es kp la función de densidad, que obviamente ha de cumplir la condición de probabilidad igual a 1 para el espacio muestral: ∑ ∞ ∞− =1kp (*) La función de densidad permite definir el tipo de distribución en estudio, así, por ejemplo, la distribución binomial queda definida por una función de densidad dada por: kk k pp k n p )1( −      = 01.2. Momentos: Para estudiar las características de una distribución de la variable aleatoria es necesario estudiar los momentos de la distribución. Los momentos iniciales están definidos por k r r pkM ∑ ∞ ∞− = (momento inicial de orden r, r=0,1,…) El momento inicial de orden cero es la unidad, por (*), pues 10 0 ∑∑ ∞ ∞− ∞ ∞− === kk ppkM Al momento inicial de orden 1 se le denomina Esperanza Matemática o bien Media de la distribución: [ ] ∑∑ ∞ −∞= ∞ −∞= ==≡≡ k k k k pkpkMMkE .1 1 Se llama desviación respecto de la media a la variable Mk − .
  • 2. 2 A partir de la Media o Esperanza Matemática se definen los llamados momentos centrales de la distribución: [ ] ∑ ∞ −∞= −=−= k k rr k pMxMxE )()(α (momento central de orden r, r=0,1,…) El momento central de orden cero coincide, obviamente, con la unidad, al igual que el momento inicial de orden cero: [ ] 1)()( 00 0 ==−=−= ∑∑ ∞ −∞= ∞ −∞= k k k k ppMkMxEα El momento central de orden 1 es nulo: [ ] ∑ ∑∑ ∞ −∞= ∞ = ∞ −∞= =−=−=−=−= k k kk k k MMpMpxpMxMxE 1 11 1 0.)()(α El momento central de orden 2 se denomina Varianza: ∑ ∞ −∞= −== k kpMx .)( 2 2 2 ασ La raíz cuadrada de la varianza es lo que denominamos desviación típica o desviación standard: 2ασ = - Relaciones entre los momentos centrales y los momentos iniciales: El momento central de orden 2 (la varianza) se relaciona con los momentos iniciales de orden 1 (media) y de orden 2, mediante la relación: 2 2 2 2 MM −== σα puesto que: ∑ ∑ ∑∑ = = == −=+−=−== n k n k n k kkk n k k MMpMpkMpkpMk 1 1 1 2 2 22 1 2 2 2 .2..)(ασ El momento central de orden 3 viene relacionado con los momentos iniciales por la expresión: 3 233 2.3 MMMM +−=α puesto que: ( ) 3 23 1 3 1 2 1 2 1 3 1 3 3 2..3 ....3.3.. MMMM pMpMkpMkpkpMk n k k n k k n k k n k k n k k +−= =−+−=−= ∑∑∑∑∑ ===== α Y el momento central de orden 4: 4 2 2 344 36.4 MMMMMM −+−=α ya que se tiene: ( ) 42 234 1 1 43 1 22 1 3 1 4 1 4 4 3.6.4 ..4...6.4.. MMMMMM pMpkMpMkpMkpkpMk n k n k kk n k k n k k n k k n k k −+−= =+−+−=−= ∑ ∑∑∑∑∑ = ===== α
  • 3. 3 01.3. La moda: La moda se define como el valor que presenta un máximo de la distribución, si existe, y se obtiene, en las distribuciones discretas de probabilidad, como aquel valor, k0, tal que su probabilidad es máxima. Es decir: )1()()1()(mod 00000 +≥∧−≥→ kpkpkpkpak 01.4. El cálculo de los momentos. La función característica: Para calcular los momentos, tanto iniciales como centrales, es necesario resolver sumas de cierta dificultad en muchos casos, como es el de la distribución binomial. Para solventar el problema de estos cálculos, Alexander M. Lyapunov (1857-1918) introdujo en 1904 un método que llamó de las funciones características, y que consiste en definir una cierta función a partir de la cual se extraen de forma sencilla los correspondientes momentos. Esta cierta función, fácil de integrar, permitiría obtener todos los momentos (media, desviación standard, etc) de forma inmediata. Es la llamada función característica de la distribución: [ ] ∑ ∞ ∞− == k itkitx peeEt)(ϕ Si calculamos sus derivadas para t=0, tenemos: )0('..)0('..)(' 11 ϕϕϕ iMiMpkipekit kk itk −=→==→= ∑∑ ∞ ∞− ∞ ∞− )0("..)0(''..)(" 22 22222 ϕϕϕ −=→==→= ∑∑ ∞ ∞− ∞ ∞− MMipkipekit kk itk en general, se tiene la fórmula siguiente para los momentos iniciales de la distribución: )0(.)( )kk k iM ϕ−= cuya aplicabilidad depende, en consecuencia, de que las derivadas de la función característica se obtengan de forma sencilla. Así, podemos obtener la media y la varianza de forma inmediata: )0(')0(.)( )11 1 ϕϕ iiMM −=−== 22"22 22 2 )0(')0("))0('()0()( ϕϕϕϕασ +−=−−−=−== iiMM (1.4) Y el momento central de tercer orden sería: 3''' 3'''33 233 )0('2)0(")0('3)0( )0('2)0(")0('3)0()(2.3 ϕϕϕϕ ϕϕϕϕα iii iiiMMMM +−= =+−−=+−= Y el momento central de cuarto orden:
  • 4. 4 4 2)3)444222 )33)444 2 2 344 )0('3 )0(")0('6)0()0('4)0()0(')(3)0(")()0(')(6 )0())(0(')(4)0()(36.4 ϕ ϕϕϕϕϕϕϕϕ ϕϕϕα − −+−=−−−−+ +−−−−=−+−= iii iiiMMMMMM 01.5. La simetría y la curtosis de una distribución: Simetría: Para medir la simetría de la gráfica de una distribución se utiliza el llamado coeficiente de simetría de Fisher, que es el cociente de dividir el momento central de tercer orden por el cubo de la desviación típica: 3 3 σ α γ = Si 0=γ : la gráfica es simétrica. Si 0>γ : la gráfica tiene asimetría a la derecha. Si 0<γ : la gráfica tiene asimetría a la izquierda. Curtosis: Cuando se pretende medir el grado de aplanamiento o de apuntamiento de la gráfica se utiliza el coeficiente de curtosis o de Pearson, que consiste en dividir el momento central de cuarto orden por la cuarta potencia de la desviación típica y restar 3 al resultado: 34 4 2 −= σ α g Si 02 =g : la gráfica se dice mesocurtica. Si 02 >g : la gráfica es leptocurtica. Si 02 <g : la gráfica platicurtica. 02. La distribución binomial 02.1. Las funciones básicas: Consideremos el espacio probabilístico ( )pU ,,Φ , donde es U el conjunto de sucesos elementales, Φ es la sigma álgebra de partes de U, y p es la función de probabilidad. Si consideramos un determinado suceso, A, en un experimento aleatorio cualquiera, nos planteamos que tal suceso puede ocurrir en la realización del experimento, o bien, puede no ocurrir. Es decir, puede verificar A o A .
  • 5. 5 Si se trata de una distribución de probabilidad discreta, esto es, con probabilidad en los n puntos n,...,2,1,0 , la probabilidad del suceso A y la de su contrario, A , se complementan a uno, pues siendo φ== AAUAA IU , , se tiene que 1)()( =+ ApAp representaremos estas probabilidades por ),(App = y ),(Apq = lo cual nos indicará que 1=+ qp . La verificación del suceso A la denominaremos “éxito” y la verificación de A será “fracaso”, con probabilidades respectivas, pues, indicadas por p y q. En una repetición del experimento N veces aparecen un cierto número k de éxitos, siendo el resto, n-k, fracasos. ¿De cuantas maneras pueden aparecer k éxitos en una muestra de N pruebas? Combinatoriamente sabemos que son todas las maneras de tomar N de k en k, es decir, las combinaciones de las N pruebas tomadas de k en k, siendo el suceso x resultante: AA kn AA k k N xk ....... )( ....... −−−−−       = y la probabilidad kNk k qp k N kpp −       == )( Así, la función de densidad es:    ≠ == = kxsi kxsikpp xf k ,0 ),( )( Y la función de Distribución: ∑∑ ≤ − ≤       == xk knk xk k qp k n pxF )( Cumpliéndose, obviamente, que ∑∑ = − ≤ =+=      ==≤≤ n k nknk nk k qpqp k n pnFbxfa 0 1)()(),1)(0) (Las sumas desde menos infinito a más infinito quedan reducidas a los valores de k comprendidos entre 0 y el numero total de pruebas n) La función característica: [ ] knk n k itk n k k itkitk qp k n epeeEt − == ∑∑       === 00 )(ϕ
  • 6. 6 02.2. Los momentos de la distribución: Los momentos iniciales rM se definen por ∑ ∑= = −       == n k n k knkr k r r qp k n kpkM 1 1 y los momentos centrales sα con respecto a la media M: knk n k s n k k s s qp k n MkpMk − == ∑∑       −=−= 11 )()(α Media y varianza de la distribución: La media o esperanza matemática de la distribución se define como el momento de primer orden de la variable aleatoria k: [ ] ∑ ∑= = −       ==≡≡ n k n k knk k qp k n kpkMkEM 1 1 1 1 La varianza de la distribución se define asimismo como el momento central de segundo orden respecto de la media: knk n k n k k qp k n MkpMk − == ∑∑       −=−=≡ 1 2 1 2 2 2 )()(ασ La desviación típica o Standard, σ , es la raiz cuadrada de la varianza. Para una función, g(x), medible borel, se verifica que la media o esperanza matemática de g(x) es el momento inicial de primer orden, 1gM , y la varianza es el momento central de segundo orden, 2gα . Media de :)(xg ∑ ∑= = −       ==≡ n k n k knk kgg qp k n kgpkgMM 1 1 1 1 )()( Varianza de :)(xg knk n k n k kgg qp k n MkgpMkg − == ∑∑       −=−=≡ 1 2 1 2 2 2 ))(())((ασ Simetría y curtosis: El coeficiente de simetría de Fisher es 3 3 σ αγ = La gráfica de la distribución presentará asimetría a la derecha si ,0>γ y a la izquierda si es 0<γ . Si el coficiente es nulo indica que la gráfica es simétrica. El coeficiente curtosis de Pearson es 34 4 22 −= σ αg
  • 7. 7 Se llama mesocúrtica a una distribución en la que ,022 =g platicúrtica si es 022 <g , y, finalmente, leptocúrtica si es 022 >g . 02.3. La función característica. Cálculo de momentos: Se define la función característica )(tϕ de una distribución cualquiera como la esperanza matemática de itx e . Su importancia estriba en el hecho de que, desde sus derivadas, )() th ϕ , se obtienen los momentos iniciales, Mh, de la distribución: [ ] ∑= == n k k itkitk peeEt 1 )(ϕ Derivando: )0('....)0('...)(' 11 11 ϕϕϕ iMMipkipekit n k k n k k itx −=→==→= ∑∑ == )0('')(..)0(''..)('' 2 2 1 2 222 1 22 ϕϕϕ iMMipkipekit n k k n k k itk −=→==→= ∑∑ == … … … … … … … … … … … … )0('')(..)0(''..)( 1 2 1 ) ϕϕϕ h h n k hk hh n k k itkhhh iMMipkipekit −=→==→= ∑∑ == Así, el momento inicial de orden h se obtiene mediante la expresión: )0()( )hh h iM ϕ−= En el caso de la distribución binomial es: [ ] ( ) ( ) ( )nit n k knkit n k knkitk n k knkitk n k k itkitk qep qpe k n qpe k n qp k n epeeE += =      =      =      == ∑∑∑∑ = − = − = − = . 1111 En definitiva, es ( )nit qept += .)(ϕ Veamos los momentos iniciales: - El momento inicial de orden 1, o Media de la distribución: ( ) npiMnpiqpipnqepeipnt nnitit =−=→=+=→+= −− )0('.).(..)0('.....)(' 1 11 ϕϕϕ - El momento inicial de orden 2: ( ) ( )[ ] ( ) ( ) npqpnpnppnnpnppniM npnppnnppnn qepenpiqepeipnn qepeieqepeipnipnt nititnitit nitititnitit +=−+=+−=−= →−+−=−−−= →+++−= =+++−= −− −− 22222222 2 2222 122222 12 )1()0('')( ).1.()0('' ......)1.( ........)1(...)('' ϕ ϕ ϕ - El momento inicial de orden 3:
  • 8. 8 ( ) ( ) ( ) →−+− −+−−=−−−−−−= →+−−+ ++−++= − −− ipnipnipn ipnipnipnipnnnipnnipn qepeipnnn qepepinnqepepint nitit nititnitit ..2..3.. ..3.3...).2).(1.(.).1.(.3..)0(''' ...).2).(1.( ....).1.(3....)(''' 33233 22232 3333 222313 ϕ ϕ 332332223 3 2333)0('''.)( nppnpnnppnnpiM +−+−+=−= ϕ - El momento inicial de orden 4: ( ) ( ) ( ) ( ) →−−−+−−+−+= →+−−−++−−+ ++−++= −− −− 432) 44443334 222414) ).3).(2).(1.().2).(1.(6).1.(.7.)0( ...).3).(2).(1.(...).2).(1.(6 ....).1.(7....)( pnnnnpnnnpnnpn qepepinnnnqepepinnn qepepinnqepepint iv nititnitit nititnititiv ϕ ϕ =−−−+−−+−+=−= 432)4 4 ).3).(2).(1.().2).(1.(6).1.(.7.)0(.)( pnnnnpnnnpnnpniM iv ϕ 442434433233222 61161218677 nppnpnpnnppnpnpnnpnp −+−++−++−= Veamos también los momentos centrales: Es obvio, como ya se ha dicho, que el momento central de orden cero es 1 y que el momento central de orden 1 es cero, en cualquier distribución. La varianza (o momento central de orden 2): npqnpnpqpn MMpMpkMpkpMk n k n k n k kkk n k k =−+= =−=+−=−== ∑ ∑ ∑∑ = = == 222 1 1 1 2 2 22 1 2 2 2 )( .2..)(ασ El momento central de orden 3: ( ) 32 333222333323322233 22332332223 23 1 3 1 2 1 2 1 3 1 3 3 23 233323332 ))1(.(323332.3 ....3.3.. npnpnp pnpnpnpnnppnpnnppnnppn pnppnnpnppnpnnppnnpMMMM pMpMkpMkpkpMk n k k n k k n k k n k k n k k +−= =++−−+−+−+=+ +−+−+−+−+=+−= =−+−=−= ∑∑∑∑∑ ===== α El momento central de orden 4: ( ) ( ) ( ) 442332222442222 332332224424344 3323322242 234 1 1 43 1 22 1 3 1 4 1 4 4 631267336 233346116 12186773.6.4 ..4...6.4.. nppnnppnnppnnppnnpqpnpn nppnpnnppnnpnpnppnpnpn nppnpnnppnnpMMMMMM pMpkMpMkpMkpkpMk n k n k kk n k k n k k n k k n k k −++−−+=−++ ++−+−+−−+−+ ++−+−+=−+−= =+−+−=−= ∑ ∑∑∑∑∑ = ===== α 02.4. El cálculo de la moda en la distribución binomial: Veamos primero el siguiente teorema:
  • 9. 9 Dada la distribución binomial B(n,p), si el número entero )1( 00 nkk ≤≤ es una moda de la distribución, entonces está acotada superiormente por pn )1( + e inferiormente por 1)1( −+ pn , es decir, se cumple que pnkpn )1(1)1( 0 +≤≤−+ Demostración: )1()()1()(mod 00000 +≥∧−≥→ kpkpkpkpak , por tanto, se cumple que: a) →−≥+→ + ≥ − →      + ≥      −−−+− pknqkqp kkn qp k n qp k n knkknk )()1(. 1 11 1 00 1 00 11 00 0000 1)1()1()( 000 −+≥→−−≥→−≥+→ pnkpnpkqnpqpk b) →≥+−→ +− ≥→      − ≥      −+−−− qkpknqp knk qp k n qp k n knkknk 00 1 00 11 00 )1(. 1 11 1 0000 pnkqpkpn )1()()1( 00 +≤→+≥+→ En definitiva: pnkpn )1(1)1( 0 +≤≤−+ El valor de la moda: En virtud de este teorema podemos determinar el valor de la moda, según los casos posibles para la probabilidad de éxito p: - Si 0=p entonces 001 00 =→≤≤− kk - Si 1=p entonces nknkn =→+≤≤ 00 1 (pues el máximo valor es n) - Si 10 << p se pueden dar dos situaciones: - que Zpn ∈+ ).1( (sea número entero), entonces también Zpn ∈−+ 1)1( , por lo cual, de ser pnkpn )1(1)1( 0 +≤≤−+ se deduce que ambas cotas son modas de la distribución, esto es, 1)1(,).1( 0201 −+=+= pnkpnk - que Zpn ∉+ ).1( (no sea número entero), entonces el único entero comprendido entre 1)1( −+ pn y pn )1( + es la parte entera de pn )1( + , por lo cual, de ser pnkpn )1(1)1( 0 +≤≤−+ , se deduce que [ ]pnEk ).1(0 += (parte entera) 02.5. Simetría y curtosis Coeficiente de simetría de Fisher: ( ) )1( 21 )1()1( )1(2)1( )1()1( 22 )1( 23 2322 3 32 3 3 pnp p pnppnp pnppnp pnppnp npnpnpnp pnp npnpnp − − = −− −−− = −− +−− = − +− == σ α γ Coeficiente de curtosis de Pearson:
  • 10. 10 )1( )1(61 )1( 661 )1( 3336631 3 )1( 36631 3 )1( )1(3)1(6)1(6)1(3)1( 3 )1( 6312673 3 2 22222 222 322322 222 442332222 4 4 22 pnp pp pnp pp pnp npnpnpppnp pnp npppnp ppn ppnpnppnpppnpnp ppn nppnnppnnppnnp g − −− = − −− = = − +−−−++ =− − −−++ = =− − −−−−−+−+− = =− − −++−−+ =−= σ α 02.6. La media y desviación típica de la función frecuencia relativa: Para trabajar algunos temas, como por ejemplo, la demostración de la ley débil de los grandes números (Teorema de Jacob Bernoulli), es conveniente determinar la media, y desviación típica con respecta a ella, cuando la variable no es k, número de éxitos, sino k/n, esto es, la frecuencia relativa del número de éxitos con respecto al total de la muestra. Se tiene: pnp n pp k n k n pp k n n k p n k M n k knk n k knk n k kf ==−      =−      == ∑∑∑ = − = − = 1 )1( 1 )1( 111 n pp ppnpnp n MM n pM pM n k p n k pMM n k n k pM n k f n k kf n k kf n k k n k kff n k kff )1( ))1(( 11 22 222 2 2 22 1 2 11 2 1 2 2 1 2 2 − =−+−=−=+ +      −      =         +−      =      −= ∑ ∑∑∑∑ = ==== σ 02.7. Ejemplos de cálculos en una distribución binomial 1) Sea la binomial B(30,0’2). Cálculos: - Función de densidad: 30,...,1,0,)8'0()2'0( 30 )( 30 =      = − k k kp kk - Función de Distribución: ∑≤ −       = xk kk k xF 30 )8'0()2'0( 30 )( - Función característica: ( )30 8'0).2'0()( += it etϕ
  • 11. 11 - Media: 62'0.30 ==M - Varianza: 8'48'0.2'0.302 ==σ - Desviación típica o estándar: 19089023'28'4 ==σ - Moda: [ ] 62'62'62'0.31).1( 0 ==→∉==+ EkZpn - Coef. de simetría: ...666666666'1 8'4 6'0 8'0.2'0.30 2'0.21 )1( 21 == − = − − = pnp p γ - Coef. de curtosis: ...0083333'0 8'4 04'0 8'0.2'0.30 8'0.2'0.61 )1( )1(61 22 == − = − −− = pnp pp g 2) Sea la binomial B(9,0’4). Cálculos: - Función de densidad: 9,...,1,0,)6'0()4'0( 9 )( 9 =      = − k k kp kk - Función de Distribución: ∑≤ −       = xk kk k xF 9 )6'0()4'0( 9 )( - Función característica: ( )9 6'0).4'0()( += it etϕ - Media: 6'34'0.9 ==M - Varianza: 16'26'0.4'0.92 ==σ - Desviación típica o estándar:
  • 12. 12 469693846'116'2 ==σ - Moda: 4,344'0.10).1( 0201 ==→∈==+ kkZpn (bimodal) - Coef. de simetría: 136082763'0 16'2 2'0 6'0.4'0.9 4'0.21 )1( 21 == − = − − = pnp p γ - Coef. de curtosis: 203703703'0 16'2 44'0 6'0.4'0.9 6'0.4'0.61 )1( )1(61 22 −= − = − = − −− = pnp pp g 3. Bibliografía Cramer, H.; “Métodos matemáticos de la Estadística”. Ediciones Aguilar. Frechet, M.; “Recherches theoriques modernes sur la theorie des probabilities”, Gauthier-Villars, 10ª edic. 1950 Gmurman, V.E. ; “Teoría de las probabilidades y estadística matemática”, Editorial Mir, Moscú,1983 Gndenko, B. ; “Teoría de probabilidades ». Editorial Mir Schweizer, B;Sklar, A.; “Probabilistic metric spaces”, North Holland, N.York, 1983 Quesada P,V.; García Perez, A.; “Lecciones de Cálculo de probabilidades”, Diaz de Santos, Madrid, 1988. Martín Pliego, F.; Ruiz-Maya Pérez, L.; “Fundamentos de Probabilidad”, Thomson- Paraninfo, 1998. S. Chinea, C., “Aleatoriedad y álgebras de sucesos”, (http://casanchi.com/mat/aleatoria01.pdf ) S. Chinea, C., “De las álgebras de sucesos a los espacios probabilísticos”, (http://casanchi.com/mat/sucesospro01.pdf ) S. Chinea, C., “Variables aleatorias. Una incursión en los espacios probabilizables”, (http://casanchi.com/mat/valeatoria01.pdf ) S. Chinea, C., “Distribución de variables aleatorias. La función de distribución”, (http://casanchi.com/mat/fdistribucion01.pdf ) Carlos S. CHINEA casanchi@teleline.es