2. Bernoulli
Los efectos que se derivan a partir de la ecuación de Bernoulli eran conocidos por
los experimentales antes de que Daniel Bernoulli formulase su ecuación, de
hecho, el reto estaba en encontrar la ley que diese cuenta de todo esto
acontecimientos. En su obra Hidrodinámica encontró la ley que explicaba los
fenómenos a partir de la conservación de la energía (hay que hacer notar la
similitud entre la forma de la ley de Bernoulli y la conservación de la energía).
Posteriormente Euler dedujo la ecuación para un líquido sin viscosidad con toda
generalidad (con la única suposición de que la viscosidad era despreciable), de la
que surge naturalmente la ecuación de Bernoulli cuando se considera el caso
estacionario sometido al campo gravitatorio.
Distribución binomial es una distribución de probabilidad discreta que mide el
número de éxitos en una secuencia de n ensayos de Bernoulli independientes
entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos
Binomial. Las respuestas posibles son: si o no, éxito o fracaso, etc. Sólo hay dos
respuestas posibles. En este caso, la probabilidad de que la variable tome
exactamente el valor x cuando hay n ensayos está dada por la fórmula.
P( X x) n Cx p x (1 p) n x
Ejemplo
1. La probabilidad de que una persona tenga gripe es de 0.3 = p. La
probabilidad de que 5 (x) personas de 20 (n) tengan gripe es:
P( X 5) 20 C5 p 5 (1 p) 20 5
P(X = 5) = 15504(0.3)5(1-0.3)(20-5) = 0.1789
3. Recuerde que debe distinguir en los casos de probabilidad acumulada cuando se
dice “al menos” o cuando se dice “cuando mucho”. En el primer caso, al menos es
el límite inferior y el segundo, cuando mucho, es límite superior.
2. Encuentre la probabilidad de que cuando mucho 2 tengan gripe. Se
calcula la probabilidad de 0, de 1 y de 2 y se suman.
P( X 2) P( X 0) P( X 1) P( X 2)
P(X = 0) = 20 C0 p 0 (1 p) 20 0
= 0.00079
P(X = 1) = 0.00684
P(X = 2) = 0.02784
P(X 2) 0.00079 0.00684 0.02784 0.03548
Distribución Poisson
Consideremos un problema que se puede resolver por medio de la distribución
binomial.
Supongamos que inspeccionamos una longitud L de alambre de acero esmaltado,
para encontrar las imperfecciones, que tiene, tales como rebabas, rasgaduras,
roturas, etc. Supondremos que, para cada intervalo pequeño de longitud ∆L, la
probabilidad de
una imperfección a. ∆L, donde a(alfa) es una constante que depende de la calidad
del alambre, y ∆L es suficientemente pequeño para que se pueden despreciar la
probabilidad de hallar dos, o más, imperfecciones en dicho intervalo. Nos interesa
la probabilidad de encontrar x imperfecciones en una longitud L de alambre.
4. Poisson. Se tiene un parámetro que es el valor esperado de ocurrencias en el
intervalo de tiempo o espacio. La probabilidad de que ocurran exactamente un
número de eventos en el tiempo o espacio determinado está dado por:
x
e
P( X x)
x!
Media o valor esperado
2
Varianza
Ejemplo
Encuentre la probabilidad de que se atiendan a 12 personas en una hora si el
valor esperado es de 10 personas atendidas por hora.
1012 e 10
P( X 12) = 0.09478
12!
Distribución Normal
Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su
propio nombre indica su extendida utilización, justificada por la frecuencia o
normalidad con la que ciertos fenómenos tienden a parecerse en su
comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya
gráfica tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n, p), para un
mismo valor de p y valores de n cada vez mayores, se ve que sus polígonos de
frecuencias se aproximan a una curva en "forma de campana".
En resumen, la importancia de la distribución normal se debe principalmente a que
hay muchas variables asociadas a fenómenos naturales que siguen el modelo de
la normal.
5. Normal
Es una distribución de probabilidad de Variable continúa. El matemático Gauss
contribuyó notablemente en el estudio y difusión de esta distribución. La mayoría
de las variables continuas tienen polígonos de frecuencias que permiten visualizar
un aumento gradual hasta llegar a un máximo y luego un descenso igualmente
gradual.
Distribución Gamma
La distribución gamma es una generalización de la distribución exponencial. En
lugar de esperar al primer evento, esperamos hasta el evento número r. De esta
manera, tenemos la distribución G de parámetros λ y r, que tiene función de
densidad dada por: f (x) = (λrG(r) e-λxxr-1si x = 0,0 si x < 0, donde G (r) es la
función gamma dada por G (r) =R80xr-1e-xdx. Generamos valores de dicha
distribución y comparamos sus histogramas de frecuencias y de frecuencias
acumuladas con la función de densidad y de distribución. Comprobamos como los
dos histogramas tienden a las funciones de densidad y de distribución,
respectivamente.
Gamma
En la teoría de probabilidad y estadística, la distribución gamma es una familia de
dos parámetros de continua distribuciones de probabilidad. Tiene un parámetro de
escala θ y una forma de parámetro k. Si k es un número entero, entonces la
distribución representa una distribución de Erlang, es decir, la suma
de k independiente distribuido exponencialmente variables aleatorias, cada una de
ellas tiene una media de θ (lo que equivale a un parámetro de tasa de θ -1).
La distribución gamma es con frecuencia un modelo de probabilidad para los
tiempos de espera; Por ejemplo, en las pruebas de la vida, el tiempo de espera
hasta que la muerte es una variable aleatoria