SlideShare una empresa de Scribd logo
1 de 13
Distribución de probabilidad,
introducción y conceptos
Bernoulli,Binomial,Poisson,Normal,gamma,t de studen

[Escriba aquí una descripción breve del documento. Una descripción breve es un resumen
corto del contenido del documento. Escriba aquí una descripción breve del documento. Una
descripción breve es un resumen corto del contenido del documento.]

TEODORO ALFREDO ROSALES VÁZQUEZ
18/03/2012
Bernoulli concepto.

DISTRIBUCIÓN DE BERNOULLI
En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica), nombrada así por
el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1
para la probabilidad de éxito p y valor 0 para la probabilidad de fracaso q = 1 − p. Por lo tanto, si X es una
variable aleatoria con esta distribución.

Consiste en realizar un experimento aleatorio una sola vez y observar si cierto suceso ocurre o no, siendo p la
probabilidad de que esto sea así (éxito) y q=1-p el que no lo sea (fracaso).

Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es
independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del
resto). El resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina éxito y
fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos


Un experimento que tenga dos resultados. Al primero se le llama éxito y al otro fracaso. La probabilidad por
éxito se denota por p. por consecuencia la probabilidad de fracaso es 1-p. lo anterior representa un ensayo de
Bernoulli con probabilidad de éxito p. el mas el mas sencillo de este es el lanzamiento de una moneda. Los
posibles resultados son dos “cara o cruz” si cara se define como éxito, entonces p constituye esa probabilidad.
En una moneda p= ½


N=número de elementos.
P=éxito.
q=fracaso.
X=variable aleatoria.


La distribución Bernoulli estada por los únicos dos valores posibles que deben ser 1 y 0; de no cumplirse esta
regla es decir si se quebranta se estaría ablando de que no es una distribución Bernoulli sino otra de las tantas
distribuciones.

Ejemplo:

X          p
1          .5
0          .5
Suma        1

   Si se lanza una moneda 5 veces ¿Probabilidad de que se obtenga 3 veces cruz?

N=5
P=.5
q=.5
X=3
P= (1)          (.5)3 (.5)2
La distribución binomial
La distribución binomial esta asociada a experimentos del siguiente tipo:
- Realizamos n veces cierto experimento en el que consideramos solo la posibilidad de éxito o
Fracaso.
- La obtención de éxito o fracaso en cada ocasión es independiente de la obtención de éxito o
Fracaso en las demás ocasiones.
- La probabilidad de obtener ´éxito o fracaso siempre es la misma en cada ocasión.
Veámoslo con un ejemplo
Tiramos un dado 7 veces y contamos el numero de cincos que obtenemos. ¿Cual es la
probabilidad
De obtener tres cincos?.
Este es un típico ejemplo de distribución binomial, pues estamos repitiendo 7 veces el
experimento
De lanzar un dado. ¿Cual es nuestro ´éxito?
Evidentemente, sacar un 5, que es en lo que nos fijamos.
El fracaso, por tanto, seria no sacar 5, sino sacar cualquier otro número.
Por tanto, Éxito = E = “sacar un 5” = ´ ⇒p(E) =
1
6
Fracaso = F = “no sacar un 5” =⇒p(F) =
5
6
Para calcular la probabilidad que nos piden, Fijemonos en que nos dicen que sacamos 3 cincos y
por lo tanto tenemos 3 ´éxitos y 4 fracasos, ¿de cuantas maneras pueden darse estas
posibilidades?.
Podríamos sacar 3 cincos en las 3 primeras tiradas y luego 4 tiradas sin sacar cinco, es decir:
EEEFFFF
Pero también podríamos sacar EFEFFFE, es decir que en realidad estamos calculando de
cuantas
Poisson
En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de
probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad
que ocurra un determinado número de eventos durante cierto periodo de tiempo.
La función de masa de la distribución de Poisson es


Donde
 k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de
que el evento suceda precisamente k veces).
 λ es un parámetro positivo que representa el número de veces que se espera que ocurra el
fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio
4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un
intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.
   e es la base de los logaritmos naturales (e = 2,71828 ...)
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson
son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos
coeficientes tienen una interpretación combinatorio. De hecho, cuando el valor esperado de la
distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento iguala
al número de particiones de tamaño n.
La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el
mayor de los enteros menores que λ (los símbolos representan la función parte entera). Cuando
λ es un entero positivo, las modas son λ y λ − 1.
La función generadora de momentos de la distribución de Poisson con valor esperado λ es


Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.
La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra de
parámetro λ es




Para qué sirve conocer que algo es Poisson?
Porque si se tiene caracterizado el comportamiento probabilístico de un fenómeno aleatorio,
podemos contestar preguntas como:
•   Qué probabilidad hay de que lleguen más de 15 clientes al banco en un intervalo de 5
minutos de duración?
•   Qué probabilidad hay de que suceda por lo menos una falla en un tramo de 1km de tubería
de gas?
•    Qué probabilidad hay de que en un estanque de cultivo de camarón, haya más de media
tonelada?
•    Qué probabilidad hay de que en un área de 1km se encuentren más de 3 brotes de una
enfermedad?
Por qué algunas cosas supimos de antemano que iban a ser Poisson y que otras no?
Porque los fenómenos que son procesos de Poisson en la línea o en el tiempo, en la superficie, o
en el espacio, tienen algunas características que matemáticamente la delatan, como son:
•    Que se está contando el número de eventos que suceden en un área (o intervalo de tiempo,
o volumen) determinada.
•   Que la probabilidad de que suceda un evento sobre un área muy pequeña, es también muy
pequeña.
•   Que en un mismo lugar (o en el mismo tiempo), no pueden suceder más de uno solo de los
eventos que se están contando.
•   Que si se duplica el tamaño de la superficie (intervalo de tiempo, etc.), entonces se duplica la
probabilidad de registrar ahí un evento.
Notas y conclusiones
•   Los ejemplos vistos de procesos de Poisson, son homogéneos en el sentido de que la
probabilidad de que suceda un evento no varía según la posición sobre el espacio. Existen
también procesos de Poisson que son heterogéneos.
•    Se concluye que los fenómenos aleatorios no son tan impredecibles como se pudiera pensar.
Que en efecto, muestran un concepto llamado regularidad estadística, que es la que hace que
éstos se puedan estudiar matemáticamente.
•    Que un observador de un fenómeno aleatorio, no puede esperar más que cuantificar la
posibilidad de que el mismo suceda.
Distribución normal




Se le llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones
de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un
determinado parámetro. Esta curva se conoce como campana de Gauss y e es el gráfico de de una función
gaussiana
EJEMPLO DE UNA GRAFICA SERIA:
DISTRIBUCIÓN GAMMA

Es una distribución adecuada para modelizar el comportamiento de variables aleatorias continuas con
asimetría positiva. Es decir, variables que presentan una mayor densidad de sucesos a la izquierda de la
media que a la derecha. En su expresión se encuentran dos parámetros, siempre positivos, (α) alfa y (β)
beta de los que depende su forma y alcance por la derecha, y también la función Gamma Γ(α), responsable
de la convergencia de la distribución.

Los parámetros de la distribución

El primer parámetro (α) sitúa la máxima intensidad de probabilidad y por este motivo en algunas fuentes se
denomina “la forma” de la distribución: cuando se toman valores próximos a cero aparece entonces un
dibujo muy similar al de la distribución exponencial. Cuando se toman valores más grandes de (α) el centro
de la distribución se desplaza a la derecha y va apareciendo la forma de una campana de Gauss con
asimetría positiva. Es el segundo parámetro (β) el que determina la forma o alcance de esta asimetría
positiva desplazando la densidad de probabilidad en la cola de la derecha. Para valores elevados de (β) la
distribución acumula más densidad de probabilidad en el extremo derecho de la cola, alargando mucho su
dibujo y dispersando la probabilidad a lo largo del plano. Al dispersar la probabilidad la altura máxima de
densidad de probabilidad se va reduciendo; de aquí que se le denomine “escala”. Valores más pequeños de
(β) conducen a una figura más simétrica y concentrada, con un pico de densidad de probabilidad más
elevado. Una forma de interpretar (β) es “tiempo promedio entre ocurrencia de un suceso”.
Relacionándose con el parámetro de la Poisson como β=1/λ. Alternativamente λ será el ratio de ocurrencia:
λ=1/β. La expresión también será necesaria más adelante para poder llevar a cabo el desarrollo
matemático.

La distribución gamma se puede caracterizar del modo siguiente: si se está interesado en la ocurrencia de
un evento generado por un proceso de Poisson de media lambda, la variable que mide el tiempo
transcurrido hasta obtener n ocurrencias del evento sigue una distribución gamma con parámetros
a=nXlambda (escala) y p=n (forma). Se denota Gamma(a,p).

Por ejemplo, la distribución gamma aparece cuando se realiza el estudio de la duración de elementos
físicos (tiempo de vida).

Esta distribución presenta como propiedad interesante la “falta de memoria”. Por esta razón, es muy
utilizada en las teorías de la fiabilidad, mantenimiento y fenómenos de espera (por ejemplo en una

consulta médica “tiempo que transcurre hasta la llegada del segundo paciente”), la teoría de la cola,
electricidad, procesos industriales.

Más contenido relacionado

La actualidad más candente

Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaEmmanuelRuizG
 
Estructura selectiva doble con Java
Estructura selectiva doble con JavaEstructura selectiva doble con Java
Estructura selectiva doble con JavaNora O. Martínez
 
Distribucion de poisson
Distribucion de poissonDistribucion de poisson
Distribucion de poissoncathycontreras
 
CUESTIONARIO DE PROGRAMACION I
CUESTIONARIO DE PROGRAMACION  ICUESTIONARIO DE PROGRAMACION  I
CUESTIONARIO DE PROGRAMACION Ianthonypillajo
 
Manual de PSeInt
Manual de PSeIntManual de PSeInt
Manual de PSeIntCristian C
 
Parcial (estructuras repetitivas"for y while" - herrmanientas case)
Parcial (estructuras repetitivas"for y while" - herrmanientas case)Parcial (estructuras repetitivas"for y while" - herrmanientas case)
Parcial (estructuras repetitivas"for y while" - herrmanientas case)Maria B. Ramos Osorio
 
Procedimientos especiales
Procedimientos especialesProcedimientos especiales
Procedimientos especialesAnel Sosa
 
Diferencias entre distribucion binomial y poisson
Diferencias entre distribucion binomial y poissonDiferencias entre distribucion binomial y poisson
Diferencias entre distribucion binomial y poissonITM
 
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.pptVARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.pptJuanJosGarcaAlvarado2
 
Introduccion al diseño de experimentos
 Introduccion al diseño de experimentos Introduccion al diseño de experimentos
Introduccion al diseño de experimentosIsabel Leon
 
Ejercicio de Estadística: Regresión no lineal
Ejercicio de Estadística: Regresión no linealEjercicio de Estadística: Regresión no lineal
Ejercicio de Estadística: Regresión no linealaprendeconalf
 

La actualidad más candente (20)

Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
 
Estructura selectiva doble con Java
Estructura selectiva doble con JavaEstructura selectiva doble con Java
Estructura selectiva doble con Java
 
Entrada 6
Entrada 6Entrada 6
Entrada 6
 
Distribucion de poisson
Distribucion de poissonDistribucion de poisson
Distribucion de poisson
 
Distribución gamma y exponencial
Distribución gamma y exponencialDistribución gamma y exponencial
Distribución gamma y exponencial
 
Programación 1: arreglos en C
Programación 1: arreglos en CProgramación 1: arreglos en C
Programación 1: arreglos en C
 
CUESTIONARIO DE PROGRAMACION I
CUESTIONARIO DE PROGRAMACION  ICUESTIONARIO DE PROGRAMACION  I
CUESTIONARIO DE PROGRAMACION I
 
Distribuciones de probabilidad.
Distribuciones de probabilidad.Distribuciones de probabilidad.
Distribuciones de probabilidad.
 
Lenguajes de simulación
Lenguajes de simulaciónLenguajes de simulación
Lenguajes de simulación
 
Variables aleatorias y continuas
Variables aleatorias y continuasVariables aleatorias y continuas
Variables aleatorias y continuas
 
Aproximacion normal a la binomial
Aproximacion normal a la binomialAproximacion normal a la binomial
Aproximacion normal a la binomial
 
Distribucion exponencial
Distribucion exponencialDistribucion exponencial
Distribucion exponencial
 
Manual de PSeInt
Manual de PSeIntManual de PSeInt
Manual de PSeInt
 
19. Regresión Logística
19. Regresión Logística19. Regresión Logística
19. Regresión Logística
 
Parcial (estructuras repetitivas"for y while" - herrmanientas case)
Parcial (estructuras repetitivas"for y while" - herrmanientas case)Parcial (estructuras repetitivas"for y while" - herrmanientas case)
Parcial (estructuras repetitivas"for y while" - herrmanientas case)
 
Procedimientos especiales
Procedimientos especialesProcedimientos especiales
Procedimientos especiales
 
Diferencias entre distribucion binomial y poisson
Diferencias entre distribucion binomial y poissonDiferencias entre distribucion binomial y poisson
Diferencias entre distribucion binomial y poisson
 
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.pptVARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.ppt
 
Introduccion al diseño de experimentos
 Introduccion al diseño de experimentos Introduccion al diseño de experimentos
Introduccion al diseño de experimentos
 
Ejercicio de Estadística: Regresión no lineal
Ejercicio de Estadística: Regresión no linealEjercicio de Estadística: Regresión no lineal
Ejercicio de Estadística: Regresión no lineal
 

Similar a Distribución de probabilidad

Definicion de las distribuciones
Definicion de las distribucionesDefinicion de las distribuciones
Definicion de las distribucionesSofia' Becerra
 
Distribucion de probabilidad
Distribucion de probabilidadDistribucion de probabilidad
Distribucion de probabilidadadrikiana
 
Primer documento
Primer documentoPrimer documento
Primer documentoNancy Leal
 
Distribuciones de probabilidad.lm
Distribuciones de probabilidad.lmDistribuciones de probabilidad.lm
Distribuciones de probabilidad.lmLMartiinez
 
Distribuciones de probabilidad.
Distribuciones de probabilidad.Distribuciones de probabilidad.
Distribuciones de probabilidad.LMartiinez
 
parte dos ultimo trabajo segunda unidad
parte dos ultimo trabajo segunda unidadparte dos ultimo trabajo segunda unidad
parte dos ultimo trabajo segunda unidadbere201991
 
Distribución de Bernoulli,poisson,gama,T-studentt
Distribución de Bernoulli,poisson,gama,T-studenttDistribución de Bernoulli,poisson,gama,T-studentt
Distribución de Bernoulli,poisson,gama,T-studenttCarlos Eduardo Candela
 
Introduccion y conceptos dc
Introduccion y conceptos dcIntroduccion y conceptos dc
Introduccion y conceptos dcPaToDoMunos
 
Introducción y conceptos
Introducción y conceptosIntroducción y conceptos
Introducción y conceptosKhriiz Rmz
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidadleonardo19940511
 
Conceptos de distribuciones
Conceptos de distribucionesConceptos de distribuciones
Conceptos de distribucionesMoonsee P'c
 
Distribuciones2 de probabilidad.lm
Distribuciones2 de probabilidad.lmDistribuciones2 de probabilidad.lm
Distribuciones2 de probabilidad.lmLMartiinez
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidadLaksmi Rodriguez
 
probabilidad y diferencia entre Poisson y Bernoulli.
probabilidad y diferencia entre Poisson y Bernoulli.probabilidad y diferencia entre Poisson y Bernoulli.
probabilidad y diferencia entre Poisson y Bernoulli.Belen Dominguez
 
probabilidad de Poisson y Bernoulli, y su comparación.
probabilidad de Poisson y Bernoulli, y su comparación.probabilidad de Poisson y Bernoulli, y su comparación.
probabilidad de Poisson y Bernoulli, y su comparación.Belen Dominguez
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidadzooneerborre
 

Similar a Distribución de probabilidad (20)

Definicion de las distribuciones
Definicion de las distribucionesDefinicion de las distribuciones
Definicion de las distribuciones
 
Distribucion de probabilidad
Distribucion de probabilidadDistribucion de probabilidad
Distribucion de probabilidad
 
Introducción y conceptos
Introducción y conceptosIntroducción y conceptos
Introducción y conceptos
 
Primer documento
Primer documentoPrimer documento
Primer documento
 
Distribuciones de probabilidad.lm
Distribuciones de probabilidad.lmDistribuciones de probabilidad.lm
Distribuciones de probabilidad.lm
 
Distribuciones de probabilidad.
Distribuciones de probabilidad.Distribuciones de probabilidad.
Distribuciones de probabilidad.
 
parte dos ultimo trabajo segunda unidad
parte dos ultimo trabajo segunda unidadparte dos ultimo trabajo segunda unidad
parte dos ultimo trabajo segunda unidad
 
Trabajo Final 2
Trabajo Final 2Trabajo Final 2
Trabajo Final 2
 
Distribución de Bernoulli,poisson,gama,T-studentt
Distribución de Bernoulli,poisson,gama,T-studenttDistribución de Bernoulli,poisson,gama,T-studentt
Distribución de Bernoulli,poisson,gama,T-studentt
 
Introducción y conceptos
Introducción y conceptosIntroducción y conceptos
Introducción y conceptos
 
Introduccion y conceptos dc
Introduccion y conceptos dcIntroduccion y conceptos dc
Introduccion y conceptos dc
 
Introducción y conceptos
Introducción y conceptosIntroducción y conceptos
Introducción y conceptos
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 
Conceptos de distribuciones
Conceptos de distribucionesConceptos de distribuciones
Conceptos de distribuciones
 
Distribuciones2 de probabilidad.lm
Distribuciones2 de probabilidad.lmDistribuciones2 de probabilidad.lm
Distribuciones2 de probabilidad.lm
 
explicando
explicandoexplicando
explicando
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 
probabilidad y diferencia entre Poisson y Bernoulli.
probabilidad y diferencia entre Poisson y Bernoulli.probabilidad y diferencia entre Poisson y Bernoulli.
probabilidad y diferencia entre Poisson y Bernoulli.
 
probabilidad de Poisson y Bernoulli, y su comparación.
probabilidad de Poisson y Bernoulli, y su comparación.probabilidad de Poisson y Bernoulli, y su comparación.
probabilidad de Poisson y Bernoulli, y su comparación.
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 

Más de Universidad Tecnologíca de Torreón (15)

Checklist.
Checklist.Checklist.
Checklist.
 
Prueba de hipotesis
Prueba de hipotesisPrueba de hipotesis
Prueba de hipotesis
 
Distribución de probabilidad.ejemplos
Distribución de probabilidad.ejemplosDistribución de probabilidad.ejemplos
Distribución de probabilidad.ejemplos
 
Distribuciones
DistribucionesDistribuciones
Distribuciones
 
Distribuciones
DistribucionesDistribuciones
Distribuciones
 
Distribución de probabilidad.ejemplos
Distribución de probabilidad.ejemplosDistribución de probabilidad.ejemplos
Distribución de probabilidad.ejemplos
 
Medidas de tendencia y dispersión
Medidas de tendencia y dispersiónMedidas de tendencia y dispersión
Medidas de tendencia y dispersión
 
Mapa mental
Mapa mentalMapa mental
Mapa mental
 
Diagrama de arbol
Diagrama de arbolDiagrama de arbol
Diagrama de arbol
 
Permutaciones
PermutacionesPermutaciones
Permutaciones
 
Metodos de conteo
Metodos de conteoMetodos de conteo
Metodos de conteo
 
Intervalos reales
Intervalos realesIntervalos reales
Intervalos reales
 
Intervalos reales
Intervalos realesIntervalos reales
Intervalos reales
 
Intervalos aparentes
Intervalos aparentesIntervalos aparentes
Intervalos aparentes
 
Intervalos aparentes
Intervalos aparentesIntervalos aparentes
Intervalos aparentes
 

Distribución de probabilidad

  • 1. Distribución de probabilidad, introducción y conceptos Bernoulli,Binomial,Poisson,Normal,gamma,t de studen [Escriba aquí una descripción breve del documento. Una descripción breve es un resumen corto del contenido del documento. Escriba aquí una descripción breve del documento. Una descripción breve es un resumen corto del contenido del documento.] TEODORO ALFREDO ROSALES VÁZQUEZ 18/03/2012
  • 2. Bernoulli concepto. DISTRIBUCIÓN DE BERNOULLI En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito p y valor 0 para la probabilidad de fracaso q = 1 − p. Por lo tanto, si X es una variable aleatoria con esta distribución. Consiste en realizar un experimento aleatorio una sola vez y observar si cierto suceso ocurre o no, siendo p la probabilidad de que esto sea así (éxito) y q=1-p el que no lo sea (fracaso). Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina éxito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos Un experimento que tenga dos resultados. Al primero se le llama éxito y al otro fracaso. La probabilidad por éxito se denota por p. por consecuencia la probabilidad de fracaso es 1-p. lo anterior representa un ensayo de Bernoulli con probabilidad de éxito p. el mas el mas sencillo de este es el lanzamiento de una moneda. Los posibles resultados son dos “cara o cruz” si cara se define como éxito, entonces p constituye esa probabilidad. En una moneda p= ½ N=número de elementos.
  • 3. P=éxito. q=fracaso. X=variable aleatoria. La distribución Bernoulli estada por los únicos dos valores posibles que deben ser 1 y 0; de no cumplirse esta regla es decir si se quebranta se estaría ablando de que no es una distribución Bernoulli sino otra de las tantas distribuciones. Ejemplo: X p 1 .5 0 .5 Suma 1  Si se lanza una moneda 5 veces ¿Probabilidad de que se obtenga 3 veces cruz? N=5 P=.5 q=.5 X=3 P= (1) (.5)3 (.5)2
  • 4. La distribución binomial La distribución binomial esta asociada a experimentos del siguiente tipo: - Realizamos n veces cierto experimento en el que consideramos solo la posibilidad de éxito o Fracaso. - La obtención de éxito o fracaso en cada ocasión es independiente de la obtención de éxito o Fracaso en las demás ocasiones. - La probabilidad de obtener ´éxito o fracaso siempre es la misma en cada ocasión. Veámoslo con un ejemplo Tiramos un dado 7 veces y contamos el numero de cincos que obtenemos. ¿Cual es la probabilidad De obtener tres cincos?. Este es un típico ejemplo de distribución binomial, pues estamos repitiendo 7 veces el experimento De lanzar un dado. ¿Cual es nuestro ´éxito? Evidentemente, sacar un 5, que es en lo que nos fijamos. El fracaso, por tanto, seria no sacar 5, sino sacar cualquier otro número.
  • 5. Por tanto, Éxito = E = “sacar un 5” = ´ ⇒p(E) = 1 6 Fracaso = F = “no sacar un 5” =⇒p(F) = 5 6 Para calcular la probabilidad que nos piden, Fijemonos en que nos dicen que sacamos 3 cincos y por lo tanto tenemos 3 ´éxitos y 4 fracasos, ¿de cuantas maneras pueden darse estas posibilidades?. Podríamos sacar 3 cincos en las 3 primeras tiradas y luego 4 tiradas sin sacar cinco, es decir: EEEFFFF Pero también podríamos sacar EFEFFFE, es decir que en realidad estamos calculando de cuantas
  • 6. Poisson En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo. La función de masa de la distribución de Poisson es Donde  k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces).  λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.  e es la base de los logaritmos naturales (e = 2,71828 ...) Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos
  • 7. coeficientes tienen una interpretación combinatorio. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento iguala al número de particiones de tamaño n. La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el mayor de los enteros menores que λ (los símbolos representan la función parte entera). Cuando λ es un entero positivo, las modas son λ y λ − 1. La función generadora de momentos de la distribución de Poisson con valor esperado λ es Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles. La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra de parámetro λ es Para qué sirve conocer que algo es Poisson?
  • 8. Porque si se tiene caracterizado el comportamiento probabilístico de un fenómeno aleatorio, podemos contestar preguntas como: • Qué probabilidad hay de que lleguen más de 15 clientes al banco en un intervalo de 5 minutos de duración? • Qué probabilidad hay de que suceda por lo menos una falla en un tramo de 1km de tubería de gas? • Qué probabilidad hay de que en un estanque de cultivo de camarón, haya más de media tonelada? • Qué probabilidad hay de que en un área de 1km se encuentren más de 3 brotes de una enfermedad? Por qué algunas cosas supimos de antemano que iban a ser Poisson y que otras no? Porque los fenómenos que son procesos de Poisson en la línea o en el tiempo, en la superficie, o en el espacio, tienen algunas características que matemáticamente la delatan, como son: • Que se está contando el número de eventos que suceden en un área (o intervalo de tiempo, o volumen) determinada.
  • 9. Que la probabilidad de que suceda un evento sobre un área muy pequeña, es también muy pequeña. • Que en un mismo lugar (o en el mismo tiempo), no pueden suceder más de uno solo de los eventos que se están contando. • Que si se duplica el tamaño de la superficie (intervalo de tiempo, etc.), entonces se duplica la probabilidad de registrar ahí un evento. Notas y conclusiones • Los ejemplos vistos de procesos de Poisson, son homogéneos en el sentido de que la probabilidad de que suceda un evento no varía según la posición sobre el espacio. Existen también procesos de Poisson que son heterogéneos. • Se concluye que los fenómenos aleatorios no son tan impredecibles como se pudiera pensar. Que en efecto, muestran un concepto llamado regularidad estadística, que es la que hace que éstos se puedan estudiar matemáticamente. • Que un observador de un fenómeno aleatorio, no puede esperar más que cuantificar la posibilidad de que el mismo suceda.
  • 10. Distribución normal Se le llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss y e es el gráfico de de una función gaussiana
  • 11. EJEMPLO DE UNA GRAFICA SERIA:
  • 12. DISTRIBUCIÓN GAMMA Es una distribución adecuada para modelizar el comportamiento de variables aleatorias continuas con asimetría positiva. Es decir, variables que presentan una mayor densidad de sucesos a la izquierda de la media que a la derecha. En su expresión se encuentran dos parámetros, siempre positivos, (α) alfa y (β) beta de los que depende su forma y alcance por la derecha, y también la función Gamma Γ(α), responsable de la convergencia de la distribución. Los parámetros de la distribución El primer parámetro (α) sitúa la máxima intensidad de probabilidad y por este motivo en algunas fuentes se denomina “la forma” de la distribución: cuando se toman valores próximos a cero aparece entonces un dibujo muy similar al de la distribución exponencial. Cuando se toman valores más grandes de (α) el centro de la distribución se desplaza a la derecha y va apareciendo la forma de una campana de Gauss con asimetría positiva. Es el segundo parámetro (β) el que determina la forma o alcance de esta asimetría positiva desplazando la densidad de probabilidad en la cola de la derecha. Para valores elevados de (β) la distribución acumula más densidad de probabilidad en el extremo derecho de la cola, alargando mucho su dibujo y dispersando la probabilidad a lo largo del plano. Al dispersar la probabilidad la altura máxima de densidad de probabilidad se va reduciendo; de aquí que se le denomine “escala”. Valores más pequeños de (β) conducen a una figura más simétrica y concentrada, con un pico de densidad de probabilidad más
  • 13. elevado. Una forma de interpretar (β) es “tiempo promedio entre ocurrencia de un suceso”. Relacionándose con el parámetro de la Poisson como β=1/λ. Alternativamente λ será el ratio de ocurrencia: λ=1/β. La expresión también será necesaria más adelante para poder llevar a cabo el desarrollo matemático. La distribución gamma se puede caracterizar del modo siguiente: si se está interesado en la ocurrencia de un evento generado por un proceso de Poisson de media lambda, la variable que mide el tiempo transcurrido hasta obtener n ocurrencias del evento sigue una distribución gamma con parámetros a=nXlambda (escala) y p=n (forma). Se denota Gamma(a,p). Por ejemplo, la distribución gamma aparece cuando se realiza el estudio de la duración de elementos físicos (tiempo de vida). Esta distribución presenta como propiedad interesante la “falta de memoria”. Por esta razón, es muy utilizada en las teorías de la fiabilidad, mantenimiento y fenómenos de espera (por ejemplo en una consulta médica “tiempo que transcurre hasta la llegada del segundo paciente”), la teoría de la cola, electricidad, procesos industriales.