Este documento presenta un resumen de trabajo sobre distribuciones de probabilidad realizado por un estudiante llamado Oscar Torres Rivera para su clase de Estadística impartida por el profesor Gerardo Edgar Mata Ortiz. El trabajo explica seis distribuciones comunes: Bernoulli, binomial, Poisson, normal, gamma y t-student.
Variables aleatorias y distribuciones de probabilidadPedro Rodas
Abstract--- En este paper empezamos profundizando la importancia que tiene la probabilidad en el campo de la ingeniería, ya que la probabilidad nos ayuda a modelar experimentos que muchas veces dependen de una aleatoriedad, como parte teórica profundizamos en las formulas básicas de las leyes de la probabilidad que nos harán falta para el desarrollo del problema que será posteriormente descrito, después no enfocamos en encontrar una aplicación práctica del tema “las variables aleatorias y distribuciones de probabilidad”, pero esta aplicación guiada no solo a la teoría de la probabilidad, si no más bien enfocada a lo que es la ingeniería eléctrica, para ello entramos un poco en lo que es una línea de transmisión para en nuestro caso enviar una señal, que al sumarle una señal de ruido nos dará la señal de salida resultante; veremos lo útil que son las funciones de densidad de probabilidad que nos ayudarán a modelar una señal de ruido ya que en la vida real una señal puede estar descrita matemáticamente por una función periódica que nos dará una aproximación muy grande a lo que se pude encontrar n la realidad, habiendo visto esto se procederá a plantear un problema practico y luego a su desarrollo detallado.
Variables aleatorias y distribuciones de probabilidadPedro Rodas
Abstract--- En este paper empezamos profundizando la importancia que tiene la probabilidad en el campo de la ingeniería, ya que la probabilidad nos ayuda a modelar experimentos que muchas veces dependen de una aleatoriedad, como parte teórica profundizamos en las formulas básicas de las leyes de la probabilidad que nos harán falta para el desarrollo del problema que será posteriormente descrito, después no enfocamos en encontrar una aplicación práctica del tema “las variables aleatorias y distribuciones de probabilidad”, pero esta aplicación guiada no solo a la teoría de la probabilidad, si no más bien enfocada a lo que es la ingeniería eléctrica, para ello entramos un poco en lo que es una línea de transmisión para en nuestro caso enviar una señal, que al sumarle una señal de ruido nos dará la señal de salida resultante; veremos lo útil que son las funciones de densidad de probabilidad que nos ayudarán a modelar una señal de ruido ya que en la vida real una señal puede estar descrita matemáticamente por una función periódica que nos dará una aproximación muy grande a lo que se pude encontrar n la realidad, habiendo visto esto se procederá a plantear un problema practico y luego a su desarrollo detallado.
1. Carrera: Procesos Industriales Área
Manufactura
Alumno: Oscar Torres Rivera
Materia: Estadística
Maestro: Lic. Gerardo Edgar Mata
Ortiz
Grado y sección: 2° “C”
2. Introducción
La semana pasada nos tenemos que estar quedando en las instalaciones de la universidad
para realizar la elaboración de unos problemas de probabilidad, mi profesor de estadística
nos ha hecho quedarnos, espor eso que estoy con la elaboración de este trabajo, en este
trabajo viene una breve explicación de lo que son las distribuciones de probabilidades, el
contenido de este trabajo contiene 6 de las distribuciones, esta cada una explicada con sus
respectivos conceptos y definiciones.
lo que la probabilidad hace es medir la frecuencia con la que se obtiene un resultado (o
conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos
los resultados posibles, bajo condiciones suficientemente estables. La teoría de la
probabilidad se usa extensamente en áreas como la estadística, la física, la matemática,
la ciencia y la filosofía para sacar conclusiones sobre la probabilidad discreta de sucesos
potenciales y la mecánica subyacente discreta de sistemas complejos, solo que las
distribuciones son mismas probabilidades pero ya con formulas establecidas, al comenzar a
realizar este trabajo no esperaba encontrar tanta información de la que encontré, además me
estaba presionando mucho, debido a que pensaba que tenia que pasar todos los problemas
del libro de navidi, pero no al leer las instrucciones me di cuenta de que el libro de navidi
era solo para que nos guiáramos en la busca de información, espero que este trabajo sea de
mucho ayuda para aquellos que busquen información sobre este tema.
3. Distribución de Bernoulli
En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica),
nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de
probabilidad discreta, que toma valor 1 para la probabilidad de éxito ( ) y valor 0 para la
probabilidad de fracaso ( ).
Si es una variable aleatoria que mide "número de éxitos", y se realiza un único
experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria
se distribuye como una Bernoulli de parámetro .
La fórmula será:
Su función de probabilidad viene definida por:
Un experimento al cual se aplica la distribución de Bernoulli se conoce como Ensayo de
Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayos repetidos.
Esperanza matemática:
Varianza:
Función generatriz de momentos:
Función característica:
Moda:
0 si q > p (hay más fracasos que éxitos)
1 si q < p (hay más éxitos que fracasos)
0 y 1 si q = p (los dos valores, pues hay igual número de fracasos que de éxitos)
4. Distribución binomial
En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el
número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una
probabilidad fija p de ocurrencia del éxito entre los ensayos.
Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos
resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro,
fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se
repite nveces, de forma independiente, y se trata de calcular la probabilidad de un determinado
número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p,
se escribe:
La distribución binomial es la base del test binomial de significación estadística.
Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los
experimentos es independiente de los restantes (la probabilidad del resultado de un experimento
no depende del resultado del resto). El resultado de cada experimento ha de admitir sólo dos
categorías (a las que se denomina éxito y fracaso). Las probabilidades de ambas posibilidades han
de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p).
Se designa por X a la variable que mide el número de éxitos que se han producido en los n
experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de
probabilidad binomial, y se denota B(n,p).
Su función de probabilidad es
donde
siendo las combinaciones de en ( elementos tomados de
en ).
5. Distribución de Poisson
En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de
probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad
que ocurra un determinado número de eventos durante cierto periodo de tiempo.
Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su
trabajo Recherches sur la probabilité des jugements en matières criminelles et matière
civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).
La función de masa de la distribución de Poisson es
donde
k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que
el evento suceda precisamente k veces).
λ es un parámetro positivo que representa el número de veces que se espera que ocurra el
fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en
promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces
dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ =
10×4 = 40.
e es la base de los logaritmos naturales (e = 2,71828 ...)
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son
iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes
tienen una interpretación combinatorio. De hecho, cuando el valor esperado de la distribución de
Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento iguala al número
de particiones de tamaño n.
La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el
mayor de los enteros menores que λ (los símbolos representan la función parte entera). Cuando
λ es un entero positivo, las modas son λ y λ − 1.
La función generadora de momentos de la distribución de Poisson con valor esperado λ es
6. Distribución normal
En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución
gaussiana, a una de las distribuciones de probabilidad de variable continua que con más
frecuencia aparece aproximada en fenómenos reales.
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un
determinado parámetro. Esta curva se conoce como campana de Gauss y e es el gráfico de de
una función gaussiana.
La importancia de esta distribución radica en que permite modelar numerosos fenómenos
naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de
este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que
en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación
se obtiene como la suma de unas pocas causas independientes.
De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin
explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso
de la estadística en psicología y sociología sea conocido como método correlacional.
Función de densidad
Se dice que una variable aleatoria continua X sigue una distribución normal de parámetros μy σ y
se denota X~N(μ, σ) si su función de densidad está dada por:
2 5
donde μ (mu) es la media y σ (sigma) es la desviación estándar (σ es la varianza).
Se llama distribución normal "estándar" a aquélla en la que sus parámetros toman los
valores μ = 0 y σ = 1. En este caso la función de densidad tiene la siguiente expresión:
Su gráfica se muestra a la derecha y con frecuencia se usan ...tablas para el cálculo de los
valores de su distribución.
7. Es una distribución adecuada para modelizar el comportamiento de variables aleatorias
continuas con asimetría positiva. Es decir, variables que presentan una mayor densidad
de sucesos a la izquierda de la media que a la derecha. En su expresión se encuentran
dos parámetros, siempre positivos, (α) y (β) de los que depende su forma y alcance por la
derecha, y también la función Gamma Γ(α), responsable de la convergencia de la
distribución.
Los parámetros de la distribución
El primer parámetro (α) situa la máxima intensidad de probabilidad y por este motivo en
algunas fuentes se denomina “la forma” de la distribución: cuando se toman valores
próximos a cero aparece entonces un dibujo muy similar al de la distribución exponencial.
Cuando se toman valores más grandes de (α) el centro de la distribución se desplaza a la
derecha y va apareceiendo la forma de una campana de Gauss con asimetría positiva. Es
el segundo parámetro (β) el que determina la forma o alcance de esta asimetría positiva
desplazando la densidad de probabilidad en la cola de la derecha. Para valores elevados
de (β) la distribución acumula más densidad de probabilidad en el extremo derecho de la
cola, alargando mucho su dibujo y dispersando la probabilidad a lo largo del plano. Al
dispersar la probabilidad la altura máxima de densidad de probabilidad se va reduciendo;
de aquí que se le denomine “escala”. Valores más pequeños de (β) conducen a una figura
más simétrica y concentrada, con un pico de densidad de probabilidad más elevado.
Una forma de interpretar (β) es “tiempo promedio entre ocurrencia de un suceso”.
Relacionándose con el parámetro de la Poisson como β=1/λ. Alternativamente λ será el
ratio de ocurrencia: λ=1/β.
La expresión también será necesaria más adelante para poder llevar a cabo el desarrollo
matemático.
8. En probabilidad y estadística, la distribución t (de Student) es una distribución de
probabilidad que surge del problema de estimar la media de una población normalmente
distribuida cuando el tamaño de la muestra es pequeño.
Aparece de manera natural al realizar la prueba t de Student para la determinación de las
diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la
diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una
población y ésta debe ser estimada a partir de los datos de una muestra.
La distribución t de Student es la distribución de probabilidad del cociente
donde
Z tiene una distribución normal de media nula y varianza 1
V tiene una distribución ji-cuadrado con grados de libertad
Z y V son independientes
Si μ es una constante no nula, el cociente es una variable aleatoria que sigue la
distribución t de Student no central con parámetro de no-centralidad .
Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas normalmente,
2
con media μ y varianza σ . Sea
la media muestral. Entonces
sigue una distribución normal de media 0 y varianza 1.
Sin embargo, dado que la desviación estándar no siempre es conocida de
antemano, Gosset estudió un cociente relacionado,
donde