Distribuciones de probabilidad

1.439 visualizaciones

Publicado el

0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
1.439
En SlideShare
0
De insertados
0
Número de insertados
2
Acciones
Compartido
0
Descargas
21
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Distribuciones de probabilidad

  1. 1. Procesos industriales área manufactura. Estadística. Distribuciones de probabilidad. Leonardo García Lamas. Grupo y sección: 2 “a”
  2. 2. DISTRIBUCIÓN DE BERNOULLIEn teoría de probabilidad y estadística, la distribución de Bernoulli (o distribucióndicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, esuna distribución de probabilidad discreta, que toma valor 1 para la probabilidad deéxito p y valor 0 para la probabilidad de fracaso q = 1 − p. Por lo tanto, si X es unavariable aleatoria con esta distribución.Consiste en realizar un experimento aleatorio una sola vez y observar si ciertosuceso ocurre o no, siendo p la probabilidad de que esto sea así (éxito) y q=1-p elque no lo sea (fracaso).ExplicaciónUn experimento que tenga dos resultados. Al primero se le llama éxito y al otrofracaso. La probabilidad por éxito se denota por p. por consecuencia laprobabilidad de fracaso es 1-p. lo anterior representa un ensayo de Bernoulli conprobabilidad de éxito p. el mas el mas sencillo de este es el lanzamiento de unamoneda. Los posibles resultados son dos “cara o cruz” si cara se define comoéxito, entonces p constituye esa probabilidad. En una moneda p= ½N=número de elementos.P=éxito.q=fracaso.X=variable aleatoria.La distribución Bernoulli estada por los únicos dos valores posibles que deben ser1 y 0; de no cumplirse esta regla es decir si se quebranta se estaría ablando deque no es una distribución Bernoulli sino otra de las tantas distribuciones.Ejemplo:X p1 .50 .5Suma 1
  3. 3. Distribución binomialLa distribución binomial esta asociada a experimentos del siguiente tipo:- Realizamos n veces cierto experimento en el que consideramos solo laposibilidad de éxito o fracaso.- La obtención de éxito o fracaso en cada ocasión es independiente de laobtención de éxito o Fracaso en las demás ocasiones.- La probabilidad de obtener ´éxito o fracaso siempre es la misma en cadaocasión.ExplicaciónTiramos un dado 7 veces y contamos el numero de cincos que obtenemos. ¿Cuales la probabilidad de obtener tres cincos?.Este es un típico ejemplo de distribución binomial, pues estamos repitiendo 7veces el experimento de lanzar un dado. ¿Cual es nuestro éxito?Evidentemente, sacar un 5, que es en lo que nos fijamos.El fracaso, por tanto, seria no sacar 5, sino sacar cualquier otro número.Por tanto, Éxito = E = “sacar un 5” =⇒p (E) =16Fracaso = F = “no sacar un 5” =⇒p (F) =56Para calcular la probabilidad que nos piden, observemos que nos dicen quesacamos 3 cincos y por lo tanto tenemos 3 ´éxitos y 4 fracasos, ¿de cuantasmaneras pueden darse estas posibilidades?
  4. 4. Podríamos sacar 3 cincos en las 3 primeras tiradas y luego 4 tiradas sin sacarcinco, es decir: EEEFFFFPero también podríamos sacar EFEFFFE, es decir que en realidad estamoscalculando la E es éxito y la F es fracaso.Distribución de PoissonEn teoría de probabilidad y estadística, la distribución de Poisson es unadistribución de probabilidad discreta que expresa, a partir de una frecuencia deocurrencia media, la probabilidad que ocurra un determinado número de eventosdurante cierto periodo de tiempo.La función de masa de la distribución de Poisson es Donde • k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces). • λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40. • e es la base de los logaritmos naturales (e = 2,71828 ...)Tanto el valor esperado como la varianza de una variable aleatoria con distribuciónde Poisson son iguales a λ. Los momentos de orden superior son polinomios deTouchard en λ cuyos coeficientes tienen una interpretación combinatorio. Dehecho, cuando el valor esperado de la distribución de Poisson es 1, entoncessegún la fórmula de Dobinski, el n-ésimo momento iguala al número de particionesde tamaño n.La moda de una variable aleatoria de distribución de Poisson con un λ no enteroes igual a , el mayor de los enteros menores que λ (los símbolos representanla función parte entera). Cuando λ es un entero positivo, las modas son λ y λ − 1.La función generadora de momentos de la distribución de Poisson con valoresperado λ es
  5. 5. Las variables aleatorias de Poisson tienen la propiedad de ser infinitamentedivisibles.La divergencia Kullback-Leibler desde una variable aleatoria de Poisson deparámetro λ0 a otra de parámetro λ es¿Para qué sirve conocer que algo es Poisson?Porque si se tiene caracterizado el comportamiento probabilístico de un fenómenoaleatorio, podemos contestar preguntas como: 1. ¿Qué probabilidad hay de que lleguen más de 15 clientes al banco en un intervalo de 5 minutos de duración? 2. ¿Qué probabilidad hay de que suceda por lo menos una falla en un tramo de 1km de tubería de gas? 3. ¿Qué probabilidad hay de que en un estanque de cultivo de camarón, haya más de media tonelada? 4. ¿Qué probabilidad hay de que en un área de 1km se encuentren más de 3 brotes de una enfermedad?¿Por qué algunas cosas supimos de antemano que iban a ser Poisson y que otrasno?Porque los fenómenos que son procesos de Poisson en la línea o en el tiempo, enla superficie, o en el espacio, tienen algunas características que matemáticamentela delatan, como son: 1. ¿Que se está contando el número de eventos que suceden en un área (o intervalo de tiempo, o volumen) determinada? 2. ¿Que la probabilidad de que suceda un evento sobre un área muy pequeña, es también muy pequeña?
  6. 6. 3. ¿Que en un mismo lugar (o en el mismo tiempo), no pueden suceder más de uno solo de los eventos que se están contando? 4. ¿Que si se duplica el tamaño de la superficie (intervalo de tiempo, etc.), entonces se duplica la probabilidad de registrar ahí un evento?ExplicaciónLos ejemplos vistos de procesos de Poisson, son homogéneos en el sentido deque la probabilidad de que suceda un evento no varía según la posición sobre elespacio. Existen también procesos de Poisson que son heterogéneos.• Se concluye que los fenómenos aleatorios no son tan impredecibles comose pudiera pensar. Que en efecto, muestran un concepto llamado regularidadestadística, que es la que hace que éstos se puedan estudiar matemáticamente.• Que un observador de un fenómeno aleatorio, no puede esperar más quecuantificar la posibilidad de que el mismo suceda.Distribución normalSe le llama distribución normal, distribución de Gauss o distribución gaussiana, auna de las distribuciones de probabilidad de variable continua que con másfrecuencia aparece aproximada en fenómenos reales.La gráfica de su función de densidad tiene una forma acampanada y es simétricarespecto de un determinado parámetro. Esta curva se conoce como campana deGauss y e es el gráfico de de una función gaussiana. Ejemplo de alguna grafica seria:
  7. 7. Distribución gammaEs una distribución adecuada para modelizar el comportamiento de variablesaleatorias continuas con asimetría positiva. Es decir, variables que presentan unamayor densidad de sucesos a la izquierda de la media que a la derecha. En suexpresión se encuentran dos parámetros, siempre positivos, (α) alfa y (β) beta delos que depende su forma y alcance por la derecha, y también la función GammaΓ (α), responsable de la convergencia de la distribución.Los parámetros de la distribuciónEl primer parámetro (α) sitúa la máxima intensidad de probabilidad y por estemotivo en algunas fuentes se denomina “la forma” de la distribución: cuando setoman valores próximos a cero aparece entonces un dibujo muy similar al de ladistribución exponencial. Cuando se toman valores más grandes de (α) el centrode la distribución se desplaza a la derecha y va apareciendo la forma de unacampana de Gauss con asimetría positiva. Es el segundo parámetro (β) el que determina la forma o alcance de estaasimetría positiva desplazando la densidad de probabilidad en la cola de laderecha. Para valores elevados de (β) la distribución acumula más densidad deprobabilidad en el extremo derecho de la cola, alargando mucho su dibujo ydispersando la probabilidad a lo largo del plano. Al dispersar la probabilidad laaltura máxima de densidad de probabilidad se va reduciendo; de aquí que se ledenomine “escala”. Valores más pequeños de (β) conducen a una figura mássimétrica y concentrada, con un pico de densidad de probabilidad más elevado.Una forma de interpretar (β) es “tiempo promedio entre ocurrencia de un suceso”.Relacionándose con el parámetro de la Poisson como β=1/λ. Alternativamente λserá el ratio de ocurrencia: λ=1/β. La expresión también será necesaria másadelante para poder llevar a cabo el desarrollo matemático.Explicación
  8. 8. La distribución gamma se puede caracterizar del modo siguiente: si se estáinteresado en la ocurrencia de un evento generado por un proceso de Poisson demedia lambda, la variable que mide el tiempo transcurrido hasta obtener nocurrencias del evento sigue una distribución gamma con parámetros a=n×lambda(escala) y p=n (forma). Se denota Gamma(a,p).Por ejemplo, la distribución gamma aparece cuando se realiza el estudio de laduración de elementos físicos (tiempo de vida).Distribución t- studentEn probabilidad y estadística, la distribución t (de Student) es una distribución deprobabilidad que surge del problema de estimar la media de unapoblación normalmente distribuida cuando el tamaño de la muestra es pequeño.Aparece de manera natural al realizar la prueba t de Student para la determinaciónde las diferencias entre dos medias muéstrales y para la construccióndel intervalo de confianza para la diferencia entre las medias de dos poblacionescuando se desconoce la desviación típica de una población y ésta debe serestimada a partir de los datos de una muestra.Explicación Es una distribución de probabilidad que surge del problema de estimar la mediade una población normalmente distribuida cuando el tamaño de la muestra espequeño.Aparece de manera natural al realizar la prueba t de Student para la determinaciónde las diferencias entre dos medias muéstrales y para la construcción del intervalode confianza para la diferencia entre las medias de dos poblaciones cuando sedesconoce la desviación típica de una población y ésta debe ser estimada a partirde los datos de una muestra.

×