Bernoulli concepto.DISTRIBUCIÓN DE BERNOULLIEn teoría de probabilidad y estadística, la distribución deBernoulli (o distri...
ExplicaciónUn experimento que tenga dos resultados. Al primero se lellama éxito y al otro fracaso. La probabilidad por éxi...
q=.5X=3P= (1)         (.5)3 (.5)2Distribución BinomialLa distribución binomial esta asociada a experimentos del siguientet...
- La obtención de éxito o fracaso en cada ocasión es independiente dela obtención de éxito oFracaso en las demás ocasiones...
Podríamos sacar 3 cincos en las 3 primeras tiradas y luego 4 tiradassin sacar cinco, es decir: EEEFFFFPero también podríam...
frecuencia de ocurrencia media, la probabilidad que ocurra undeterminado número de eventos durante cierto periodo de tiemp...
Para qué sirve conocer que algo es Poisson?Porque si se tiene caracterizado el comportamiento probabilístico deun fenómeno...
suceda un evento no varía según la posición sobre el espacio.      Existen también procesos de Poisson que son heterogéneo...
Se le llama distribución normal, distribución de Gauss o distribución gaussiana, auna de las distribuciones de probabilida...
Los parámetros de la distribuciónEl primer parámetro (α) situa la máxima intensidad de probabilidad ypor este motivo en al...
consulta médica “tiempo que transcurre hasta la llegada del segundopaciente”), la teoría de la cola, electricidad, proceso...
Introduccion y conceptos dc
Próxima SlideShare
Cargando en…5
×

Introduccion y conceptos dc

536 visualizaciones

Publicado el

0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
536
En SlideShare
0
De insertados
0
Número de insertados
70
Acciones
Compartido
0
Descargas
6
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Introduccion y conceptos dc

  1. 1. Bernoulli concepto.DISTRIBUCIÓN DE BERNOULLIEn teoría de probabilidad y estadística, la distribución deBernoulli (o distribución dicotómica), nombrada así por elmatemático y científico suizo Jakob Bernoulli, es unadistribución de probabilidad discreta, que toma valor 1 para laprobabilidad de éxito p y valor 0 para la probabilidad defracaso q = 1 − p. Por lo tanto, si X es una variable aleatoriacon esta distribución.Consiste en realizar un experimento aleatorio una sóla vez yobservar si cierto suceso ocurre o no, siendo p la probabilidadde que esto sea así (éxito) y q=1-p el que no lo sea (fracaso).Existen muchas situaciones en las que se presenta unaexperiencia binomial. Cada uno de los experimentos esindependiente de los restantes (la probabilidad del resultadode un experimento no depende del resultado del resto). Elresultado de cada experimento ha de admitir sólo doscategorías (a las que se denomina éxito y fracaso). Lasprobabilidades de ambas posibilidades han de ser constantesen todos los experimentos
  2. 2. ExplicaciónUn experimento que tenga dos resultados. Al primero se lellama éxito y al otro fracaso. La probabilidad por éxito sedenota por p. por consecuencia la probabilidad de fracaso es1-p. lo anterior representa un ensayo de Bernoulli conprobabilidad de éxito p. el mas el mas sencillo de este es ellanzamiento de una moneda. Los posibles resultados son dos“cara o cruz” si cara se define como éxito, entonces pconstituye esa probabilidad. En una moneda p= ½N=número de elementos.P=éxito.q=fracaso.X=variable aleatoria.La distribución Bernoulli estada por los únicos dos valoresposibles que deben ser 1 y 0; de no cumplirse esta regla esdecir si se quebranta se estaría ablando de que no es unadistribución Bernoulli sino otra de las tantas distribuciones.Ejemplo:X p1 .50 .5Suma 1  Si se lanza una moneda 5 veces ¿Probabilidad de que se obtenga 3 veces cruz?N=5P=.5
  3. 3. q=.5X=3P= (1) (.5)3 (.5)2Distribución BinomialLa distribución binomial esta asociada a experimentos del siguientetipo:- Realizamos n veces cierto experimento en el que consideramos solola posibilidad de éxito o fracaso.
  4. 4. - La obtención de éxito o fracaso en cada ocasión es independiente dela obtención de éxito oFracaso en las demás ocasiones.- La probabilidad de obtener ´éxito o fracaso siempre es la misma encada ocasión.Veámoslo con un ejemploTiramos un dado 7 veces y contamos el numero de cincos queobtenemos. ¿Cual es la probabilidad de obtener tres cincos?.Este es un típico ejemplo de distribución binomial, pues estamosrepitiendo 7 veces el experimento de lanzar un dado. ¿Cual es nuestro´éxito?.Evidentemente, sacar un 5, que es en lo que nos fijamos.El fracaso, por tanto, seria no sacar 5, sino sacar cualquier otronumero.Por tanto, Éxito = E = “sacar un 5” = ´ ⇒p(E) =16Fracaso = F = “no sacar un 5” =⇒p(F) =56Para calcular la probabilidad que nos piden, observemos que nosdicen que sacamos 3 cincos y por lo tanto tenemos 3 ´éxitos y 4fracasos, ¿de cuantas maneras pueden darse estas posibilidades?.
  5. 5. Podríamos sacar 3 cincos en las 3 primeras tiradas y luego 4 tiradassin sacar cinco, es decir: EEEFFFFPero también podríamos sacar EFEFFFE, es decir que en realidadestamos calculando la E es exito y la F es fracasoPoissonEn teoría de probabilidad y estadística, la distribución de Poisson esuna distribución de probabilidad discreta que expresa, a partir de una
  6. 6. frecuencia de ocurrencia media, la probabilidad que ocurra undeterminado número de eventos durante cierto periodo de tiempo.La función de masa de la distribución de Poisson es DONDE k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces). λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40. e es la base de los logaritmos naturales (e = 2,71828 ...)Tanto el valor esperado como la varianza de una variable aleatoria condistribución de Poisson son iguales a λ. Los momentos de ordensuperior son polinomios de Touchard en λ cuyos coeficientes tienenuna interpretación combinatoria. De hecho, cuando el valor esperadode la distribución de Poisson es 1, entonces según la fórmula deDobinski, el n-ésimo momento iguala al número de particiones detamaño n.La moda de una variable aleatoria de distribución de Poisson con un λno entero es igual a , el mayor de los enteros menores que λ (lossímbolos representan la función parte entera). Cuando λ es un enteropositivo, las modas son λ y λ − 1.La función generadora de momentos de la distribución de Poisson convalor esperado λ esLas variables aleatorias de Poisson tienen la propiedad deser infinitamente divisibles.La divergencia Kullback-Leibler desde una variable aleatoria dePoisson de parámetro λ0 a otra de parámetro λ es
  7. 7. Para qué sirve conocer que algo es Poisson?Porque si se tiene caracterizado el comportamiento probabilístico deun fenómeno aleatorio, podemos contestar preguntas como: • Qué probabilidad hay de que lleguen más de 15 clientes al banco en un intervalo de 5 minutos de duración? • Qué probabilidad hay de que suceda por lo menos una falla en un tramo de 1km de tubería de gas? • Qué probabilidad hay de que en un estanque de cultivo de camarón, haya más de media tonelada? • Qué probabilidad hay de que en un área de 1km se encuentren más de 3 brotes de una enfermedad?Por qué algunas cosas supimos de antemano que iban a ser Poisson yque otras no?Porque los fenómenos que son procesos de Poisson en la línea o en eltiempo, en la superficie, o en el espacio, tienen algunas característicasque matemáticamente la delatan, como son: • Que se está contando el número de eventos que suceden en un área (o intervalo de tiempo, o volumen) determinada. • Que la probabilidad de que suceda un evento sobre un área muy pequeña, es también muy pequeña. • Que en un mismo lugar (o en el mismo tiempo), no pueden suceder más de uno solo de los eventos que se están contando. • Que si se duplica el tamaño de la superficie (intervalo de tiempo, etc.), entonces se duplica la probabilidad de registrar ahí un evento.Notas y conclusiones • Los ejemplos vistos de procesos de Poisson, son homogéneos en el sentido de que la probabilidad de que
  8. 8. suceda un evento no varía según la posición sobre el espacio. Existen también procesos de Poisson que son heterogéneos. • Se concluye que los fenómenos aleatorios no son tan impredecibles como se pudiera pensar. Que en efecto, muestran un concepto llamado regularidad estadística, que es la que hace que éstos se puedan estudiar matemáticamente. • Que un observador de un fenómeno aleatorio, no puede esperar más que cuantificar la posibilidad de que el mismo suceda.Distribución normal
  9. 9. Se le llama distribución normal, distribución de Gauss o distribución gaussiana, auna de las distribuciones de probabilidad de variable continua que con másfrecuencia aparece aproximada en fenómenos reales.La gráfica de su función de densidad tiene una forma acampanada y es simétricarespecto de un determinado parámetro. Esta curva se conoce como campana deGauss y e es el gráfico de de una función gaussiana.ejemplo de alguna grafica seria: DISTRIBUCIÓN GAMMAEs una distribución adecuada para modelizar el comportamiento devariables aleatorias continuas con asimetría positiva. Es decir,variables que presentan una mayor densidad de sucesos a la izquierdade la media que a la derecha. En su expresión se encuentran dosparámetros, siempre positivos, (α) alfa y (β) beta de los que dependesu forma y alcance por la derecha, y también la función Gamma Γ(α),responsable de la convergencia de la distribución.
  10. 10. Los parámetros de la distribuciónEl primer parámetro (α) situa la máxima intensidad de probabilidad ypor este motivo en algunas fuentes se denomina “la forma” de ladistribución: cuando se toman valores próximos a cero apareceentonces un dibujo muy similar al de la distribución exponencial.Cuando se toman valores más grandes de (α) el centro de ladistribución se desplaza a la derecha y va apareciendo la forma de unacampana de Gauss con asimetría positiva. Es el segundo parámetro(β) el que determina la forma o alcance de esta asimetría positivadesplazando la densidad de probabilidad en la cola de la derecha.Para valores elevados de (β) la distribución acumula más densidad deprobabilidad en el extremo derecho de la cola, alargando mucho sudibujo y dispersando la probabilidad a lo largo del plano. Al dispersar laprobabilidad la altura máxima de densidad de probabilidad se vareduciendo; de aquí que se le denomine “escala”. Valores máspequeños de (β) conducen a una figura más simétrica y concentrada,con un pico de densidad de probabilidad más elevado. Una forma deinterpretar (β) es “tiempo promedio entre ocurrencia de un suceso”.Relacionándose con el parámetro de la Poisson como β=1/λ.Alternativamente λ será el ratio de ocurrencia: λ=1/β. La expresióntambién será necesaria más adelante para poder llevar a cabo eldesarrollo matemático.La distribución gamma se puede caracterizar del modo siguiente: si seestá interesado en la ocurrencia de un evento generado por unproceso de Poisson de media lambda, la variable que mide el tiempotranscurrido hasta obtener n ocurrencias del evento sigue unadistribución gamma con parámetros a=n×lambda (escala) y p=n(forma). Se denota Gamma(a,p).Por ejemplo, la distribución gamma aparece cuando se realiza elestudio de la duración de elementos físicos (tiempo de vida).Esta distribución presenta como propiedad interesante la “falta dememoria”. Por esta razón, es muy utilizada en las teorías de lafiabilidad, mantenimiento y fenómenos de espera (por ejemplo en una
  11. 11. consulta médica “tiempo que transcurre hasta la llegada del segundopaciente”), la teoría de la cola, electricidad, procesos industriales. T STUDENTLa distribución normal es una distribución de probabilidad. Lo quesignifica que podemos decir cuál es la probabilidad de ocurrencia de unevento aleatorio proveniente de una población normal.Por ejemplo, mirando el gráfico 1, podemos decir que la probabilidad deextraer aleatoriamente un caso que se encuentre entre la media y -1desviación estandar es de 34,13%. ¿Cierto? Si lo que se sabe es laprobabilidad de un evento, digamos que sabemos que el caso elegidotenía menos de un 2,15% de probabilidades de ocurrir eso significa quedebe haber obtenido una puntuación Z mayor a 2 o menor que -2.Siguiendo esta lógica y usando el Gráfico 1, ¿Cuál sería la probabilidadde ocurrencia de un caso con una puntuación Z igual 1,5? ¿Cuál sería elpuntaje z de un caso que está encima del 84.26% del resto de lapoblación? ¿Cuál es la probabilidad de ocurrencia de dicho caso?Estas estimaciones pueden hacerse con mucha mayor precisión si seocupan las computadoras o las tablas de probabilidades y puntuacionesZ. Abajo tenemos una de estas tablas (Tabla 1). Esta tabla permiteidentificar el puntaje Z para una probabilidad dada. La probabilidad seobtiene sumando al valor de la columna izquierda el valor delencabezado de la columna. Por ejemplo, la probabilidad del 8% seobtiene al elegir el valor .00 de la columna izquierda y buscar el valor .08en el encabezado de la columna. Se considera este 8% distribuido en losdos extremos de la desviación, 4% en el extremo inferior y 4% en elextremo superior.

×