El documento describe varias distribuciones de probabilidad importantes como la distribución de Bernoulli, binomial, Poisson, normal, gamma y t de Student. Para cada distribución, se proporciona una breve definición y ejemplos ilustrativos. El documento parece ser apuntes de una clase sobre distribuciones de probabilidad.
1. Universidad Tecnológica de
Torreón.
Distribuciones de probabilidad.
-Bernoulli
- Binomial
-Poisson
-Normal
-Gamma
-T de student
Lizbeth Martinez.
2A
2. DISTRIBUCIÓN DE BERNOULLI.
En teoría de probabilidad y estadística, la distribución de Bernoulli (o
distribución dicotómica), nombrada así por el matemático y científico
suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que
toma valor 1 para la probabilidad de éxito p y valor 0 para la
probabilidad de fracaso q = 1 − p. Por lo tanto, si X es una variable
aleatoria con esta distribución.
Consiste en realizar un experimento aleatorio una sola vez y observar si
cierto suceso ocurre o no, siendo p la probabilidad de que esto sea
así (éxito) y q=1-p el que no lo sea (fracaso). Existen muchas situaciones en
las que se presenta una experiencia binomial. Cada uno de los experimentos es
independiente de los restantes (la probabilidad del resultado de un experimento
no depende del resultado del resto). El resultado de cada experimento ha de
admitir sólo dos categorías (a las que se denomina éxito y fracaso). Las
probabilidades de ambas posibilidades han de ser constantes en todos los
experimentos.
-Un experimento que tenga dos resultados. Al primero se le llama éxito y
al otro fracaso. La probabilidad por éxito se denota por p. por
consecuencia la probabilidad de fracaso es 1-p. lo anterior representa un
ensayo de Bernoulli con probabilidad de éxito p. el mas el mas sencillo
de este es el lanzamiento de una moneda. Los posibles resultados son dos
“cara o cruz” si cara se define como éxito, entonces p constituye esa
probabilidad. En una moneda p= ½
N=número de elementos.
P=éxito.
q=fracaso.
X=variable aleatoria
La distribución Bernoulli estada por los únicos dos valores posibles que
deben ser 1 y 0; de no cumplirse esta regla es decir si se quebranta se
estaría ablando de que no es una distribución Bernoulli sino otra de las
tantas distribuciones.
Ejemplo:
X p
1 .5
0 .5
3. Suma 1
Si se lanza una moneda 5 veces ¿Probabilidad de que se obtenga
3 veces cruz?
N=5
P=.5
q=.5
X=3
P= (1) (.5)3 (.5)2
LA DISTRIBUCIÓN BINOMIAL.
La distribución binomial esta asociada a experimentos del siguiente tipo:
- Realizamos n veces cierto experimento en el que consideramos solo la
posibilidad de éxito o fracaso.
- La obtención de éxito o fracaso en cada ocasión es independiente de
la obtención de éxito o
Fracaso en las demás ocasiones.
- La probabilidad de obtener ´éxito o fracaso siempre es la misma en
cada ocasión.
Veámoslo con un ejemplo
Tiramos un dado 7 veces y contamos el numero de cincos que
obtenemos. ¿Cual es la probabilidad de obtener tres cincos?.
Este es un típico ejemplo de distribución binomial, pues estamos
repitiendo 7 veces el experimento de lanzar un dado. ¿Cual es nuestro
´éxito?.
Evidentemente, sacar un 5, que es en lo que nos fijamos.
4. El fracaso, por tanto, seria no sacar 5, sino sacar cualquier otro numero.
Por tanto, Éxito = E = “sacar un 5” = ´ ⇒p(E) =
1
6
Fracaso = F = “no sacar un 5” =⇒p(F) =
5
6
Para calcular la probabilidad que nos piden, observemos que nos dicen
que sacamos 3 cincos y por lo tanto tenemos 3 ´éxitos y 4 fracasos, ¿de
cuantas maneras pueden darse estas posibilidades?.
Podríamos sacar 3 cincos en las 3 primeras tiradas y luego 4 tiradas sin
sacar cinco, es decir: EEEFFFF
Pero también podríamos sacar EFEFFFE, es decir que en realidad estamos
calculando la E es éxito y la F es fracaso.
POISSON
En teoría de probabilidad y estadística, la distribución de Poisson es
una distribución de probabilidad discreta que expresa, a partir de una
frecuencia de ocurrencia media, la probabilidad que ocurra un
determinado número de eventos durante cierto periodo de tiempo.
La función de masa de la distribución de Poisson es donde
k es el número de ocurrencias del evento o fenómeno (la función nos
da la probabilidad de que el evento suceda precisamente k veces).
5. λ es un parámetro positivo que representa el número de veces que se
espera que ocurra el fenómeno durante un intervalo dado. Por
ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por
minuto y estamos interesados en la probabilidad de que
ocurra k veces dentro de un intervalo de 10 minutos, usaremos un
modelo de distribución de Poisson con λ = 10×4 = 40. e es la base de
los logaritmos naturales (e = 2,71828 ...)
Tanto el valor esperado como la varianza de una variable aleatoria con
distribución de Poisson son iguales a λ. Los momentos de orden superior
son polinomios de Touchard en λ cuyos coeficientes tienen una
interpretación combinatoria. De hecho, cuando el valor esperado de la
distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-
ésimo momento iguala al número de partisiones de tamaño n.
La moda de una variable aleatoria de distribución de Poisson con un λ no
entero es igual a , el mayor de los enteros menores que λ (los
símbolos representan la función en la parte entera). Cuando λ es un
entero positivo, las modas son λ y λ − 1.
La función generadora de momentos de la distribución de Poisson con
valor esperado λ es
Las variables aleatorias de Poisson tienen la propiedad de ser
infinitamente visibles.
La divergencia de Kullback- Leibler desde una variable aleatoria de
Poisson de parámetro λ0 a otra de parámetro λ es
DISTRIBUCIÓN NORMAL
Se le llama distribución normal, distribución de Gauss o distribución
gaussiana, a una de las distribuciones de probabilidad de variable
continua que con más frecuencia aparece aproximada en fenómenos
reales.
6. La gráfica de su función de densidad tiene una forma acampanada y es
simétrica respecto de un determinado parámetro. Esta curva se conoce
como campana de Gauss y e es el gráfico de de una función gaussiana.
Ejemplo de alguna grafica seria:
DISTRIBUCIÓN GAMMA
Es una distribución adecuada para modelizar el comportamiento de
variables aleatorias continuas con asimetría positiva. Es decir, variables
que presentan una mayor densidad de sucesos a la izquierda de la
media que a la derecha. En su expresión se encuentran dos parámetros,
siempre positivos, (α) alfa y (β) beta de los que depende su forma y
alcance por la derecha, y también la función Gamma Γ(α), responsable
de la convergencia de la distribución.
Los parámetros de la distribución
El primer parámetro (α) sitúa la máxima intensidad de probabilidad y por
este motivo en algunas fuentes se denomina “la forma” de la distribución:
cuando se toman valores próximos a cero aparece entonces un dibujo
muy similar al de la distribución exponencial. Cuando se toman valores
7. más grandes de (α) el centro de la distribución se desplaza a la derecha
y va apareciendo la forma de una campana de Gauss con asimetría
positiva. Es el segundo parámetro (β) el que determina la forma o
alcance de esta asimetría positiva desplazando la densidad de
probabilidad en la cola de la derecha. Para valores elevados de (β) la
distribución acumula más densidad de probabilidad en el extremo
derecho de la cola, alargando mucho su dibujo y dispersando la
probabilidad a lo largo del plano. Al dispersar la probabilidad la altura
máxima de densidad de probabilidad se va reduciendo; de aquí que se
le denomine “escala”. Valores más pequeños de (β) conducen a una
figura más simétrica y concentrada, con un pico de densidad de
probabilidad más elevado. Una forma de interpretar (β) es “tiempo
promedio entre ocurrencia de un suceso”. Relacionándose con el
parámetro de la Poisson como β=1/λ. Alternativamente λ será el ratio de
ocurrencia: λ=1/β. La expresión también será necesaria más adelante
para poder llevar a cabo el desarrollo matemático.
La distribución gamma se puede caracterizar del modo siguiente: si se
está interesado en la ocurrencia de un evento generado por un proceso
de Poisson de media lambda, la variable que mide el tiempo transcurrido
hasta obtener n ocurrencias del evento sigue una distribución gamma
con parámetros a=n×lambda (escala) y p=n (forma). Se denota
Gamma(a,p).
Por ejemplo, la distribución gamma aparece cuando se realiza el estudio
de la duración de elementos físicos (tiempo de vida).
Esta distribución presenta como propiedad interesante la “falta de
memoria”. Por esta razón, es muy utilizada en las teorías de la fiabilidad,
mantenimiento y fenómenos de espera (por ejemplo en una consulta
médica “tiempo que transcurre hasta la llegada del segundo paciente”),
la teoría de la cola, electricidad, procesos industriales.
T DE STUDENT
En probabilidad y estadística, la distribución t (de Student) es una
distribución de probabilidad que surge del problema
de estimar la media de una población normalmente distribuida cuando
el tamaño de la muestra es pequeño.
8. Aparece de manera natural al realizar la prueba t de Student para la
determinación de las diferencias entre dos medias muéstrales y para la
construcción del intervalo de confianza para la diferencia entre las
medias de dos poblaciones cuando se desconoce la desviación
típica de una población y ésta debe ser estimada a partir de los datos de
una muestra.
Es una distribución de probabilidad que surge del problema de estimar la
media de una población normalmente distribuida cuando el tamaño de
la muestra es pequeño.
Aparece de manera natural al realizar la prueba t de Student para la
determinación de las diferencias entre dos medias muestrales y para la
construcción del intervalo de confianza para la diferencia entre las
medias de dos poblaciones cuando se desconoce la desviación típica
de una población y ésta debe ser estimada a partir de los datos de una
muestra.