Distribuciones probabilísticas en simulación de sistemas
1. Carrera: INGENIERIA INDUSTRIAL
Materia: SIMULACION DE SISTEMAS
Docente: Ing. ROXANA LAUREL RODRIGUEZ
Estudiante: Pinto Maquera Luis Fernando
TRABAJO DE INVESTIACION
12/MAYO/2022
2. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 2 de 21
DISTRIBUCION EXPONENCIALES
La distribución exponencial suele referirse a la cantidad de tiempo que
transcurre hasta que se produce algún evento específico. Por ejemplo, la
cantidad de tiempo (que comienza ahora) hasta que se produzca un terremoto
tiene una distribución exponencial. Otros ejemplos son la duración, en minutos,
de las llamadas telefónicas de larga distancia comerciales y la cantidad de
tiempo, en meses, que dura la batería de un automóvil. También se puede
demostrar que el valor del cambio que se tiene en el bolsillo o en el monedero
sigue una distribución exponencial aproximadamente.
Los valores de una variable aleatoria exponencial se producen de la siguiente
manera. Hay menos valores grandes y más valores pequeños. Por ejemplo, los
estudios de marketing han demostrado que la cantidad de dinero que los
clientes gastan en una visita al supermercado sigue una distribución
exponencial. Hay más gente que gasta pequeñas cantidades de dinero y
menos gente que gasta grandes cantidades de dinero.
Las distribuciones exponenciales se utilizan habitualmente en cálculos de
fiabilidad de productos, es decir, el tiempo que dura un producto.
La variable aleatoria de la distribución exponencial es continua y suele medir el
paso del tiempo, aunque puede utilizarse en otras aplicaciones. Las preguntas
típicas pueden ser: "¿cuál es la probabilidad de que algún evento ocurra en los
próximos xx horas o días, o cuál es la probabilidad de que algún evento ocurra
entre x1x1 horas y x2x2 horas, o cuál es la probabilidad de que el evento dure
más de x1x1 horas para llevarse a cabo" En resumen, la variable aleatoria X es
iguala (a) el tiempo entre eventos o(b) el paso del tiempo para completar una
acción, por ejemplo, esperar a un cliente. La función de densidad de
probabilidad viene dada por:
e(x)=1μe–1μxe(x)=1μe–1μx
donde μ es el tiempo promedio de espera histórico.
y tiene una media y una desviación típica de 1/μ.
Una forma alternativa de la fórmula de la distribución exponencial reconoce lo
que suele llamarse el factor de decaimiento. El factor de decaimiento
simplemente mide la rapidez con la que la probabilidad de un evento disminuye
a medida que la variable aleatoria X aumenta. Cuando se utiliza la notación con
el parámetro de decaimiento m, la función de densidad de probabilidad se
presenta como
3. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 3 de 21
e(x) = me–mxe(x) = me–mx
donde m=1μm=1μ
Para calcular las probabilidades de determinadas funciones de densidad de
probabilidad, se utiliza la función de densidad acumulada. La función de
densidad acumulativa (cdf) es simplemente la integral de la pdf y es:
F(x)=∫∞0[1μe–xμ]=1–e–xμF(x)=∫0∞[1μe–xμ]=1–e–xμ
EJEMPLO 5.3
Supongamos que X = la cantidad de tiempo (en minutos) que un empleado de correos
pasa con un cliente. A partir de los datos históricos, se sabe que el tiempo promedio es
de cuatro minutos.
Dado que μ = 4 minutos, es decir, el tiempo promedio que el dependiente pasa con un
cliente es de 4 minutos. Recuerde que seguimos calculando probabilidad y por tanto nos
tienen que decir los parámetros poblacionales como la media. Para hacer cualquier
cálculo, necesitamos conocer la media de la distribución: el tiempo histórico de
prestación de un servicio, por ejemplo. Conocer la media histórica permite calcular el
parámetro de decaimiento, m.
m=1μm=1μ. Por lo tanto, m=14=0,25m=14=0,25.
Cuando la notación utiliza el parámetro de decaimiento, m, la función de densidad de
probabilidad se presenta como e(x) = me–mxe(x) = me–mx, que es simplemente la
fórmula original con m sustituido por 1μ1μ, o e(x)=1μe–1μxe(x)=1μe–1μx.
Para calcular las probabilidades de una función de densidad de probabilidad
exponencial, tenemos que utilizar la función de densidad acumulada. Como se muestra a
continuación, la curva de la función de densidad acumulada es:
f(x) = 0,25e–0,25x
donde x es al menos cero y m = 0,25.
Por ejemplo, f(5) = 0,25e(–0,25)(5)
= 0,072. Es decir, la función tiene un valor de 0,072
cuando x = 5.
El gráfico es el siguiente:
4. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 4 de 21
Figura 5.13
Observe que el gráfico es una curva descendente. Cuando x = 0,
f(x) = 0,25e(−0,25)(0)
= (0,25)(1) = 0,25 = m. El valor máximo en el eje y es siempre m, uno
dividido entre la media.
DISTRIBUCION NORMAL
La distribución normal es un modelo teórico capaz de aproximar
satisfactoriamente el valor de una variable aleatoria a una situación ideal.
En otras palabras, la distribución normal adapta una variable aleatoria a una
función que depende de la media y la desviación típica. Es decir, la función y
la variable aleatoria tendrán la misma representación pero con ligeras dif
Una variable aleatoria continua puede tomar cualquier número real. Por
ejemplo, las rentabilidades de las acciones, los resultados de un examen, el
coeficiente de inteligencia IQ y los errores estándar son variables aleatorias
continuas.
Una variable aleatoria discreta toma valores naturales. Por ejemplo, el número
de estudiantes en una universidad.
La distribución normal es la base de otras distribuciones como la distribución t
de Student, distribución ji-cuadrada, distribución F de Fisher y otras
distribuciones.
Fórmula de la distribución normal
Dada una variable aleatoria X, decimos que la frecuencia de sus observaciones
puede aproximarse satisfactoriamente a una distribución normal tal que:
5. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 5 de 21
Variable aleatoria X aproximada a una distribución normal.
Donde los parámetros de la distribución son la media o valor central y la
desviación típica:
Parámetros de una distribución normal.
En otras palabras, estamos diciendo que la frecuencia de una variable aleatoria
X puede representarse mediante una distribución normal.
Representación
Función de densidad de probabilidad de una variable aleatoria que sigue una
distribución normal.
Función de densidad de una distribución normal.
Propiedades
Es una distribución simétrica. El valor de la media, la mediana y la moda
coinciden. Matemáticamente,
Media = Mediana = Moda
6. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 6 de 21
Distribución unimodal. Los valores que son más frecuentes o que tienen más
probabilidad de aparecer están alrededor de la media. En otras palabras,
cuando nos alejamos de la media, la probabilidad de aparición de los valores y
su frecuencia descienden.
¿Qué necesitamos para representar una distribución normal?
Una variable aleatoria.
Calcular la media.
Calcular la desviación típica.
Decidir la función que queremos representar: función de densidad de
probabilidad o función de distribución.
Ejemplo teórico
Suponemos que queremos saber si los resultados de un examen pueden
aproximarse satisfactoriamente a una distribución normal.
Sabemos que en este examen participan 476 estudiantes y que los resultados
podrán oscilar entre 0 y 10. Calculamos la media y la desviación típica a partir
de las observaciones (resultados del examen).
Entonces, definimos la variable aleatoria X como los resultados del examen
que depende de cada resultado individual. Matemáticamente,
La
variable aleatoria X representa la variable resultados del examen y puede aproximarse
a una distribución normal de media 4,8 y desviación típica de 3,09.
El resultado de cada estudiante se anota en una tabla. De esta forma,
obtendremos una visión global de los resultados y de su frecuencia.
Resultados Frecuencia
0 20
7. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 7 de 21
1 31
2 44
3 56
4 64
5 66
6 62
7 51
8 39
9 26
8. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 8 de 21
10 16
TOTAL 475
Una vez hecha la tabla, representamos los resultados del examen y las
frecuencias. Si el gráfico se parece a la imagen anterior y cumple con las
propiedades, entonces, la variable resultados del examen puede aproximarse
satisfactoriamente a una distribución normal de media 4,86 y desviación típica
de 2,56.
Histograma de
frecuencias sobre la variable resultados del examen.
¿Los resultados del examen pueden aproximarse a una distribución normal?
Razones para considerar que la variable resultados del examen sigue una
distribución normal:
9. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 9 de 21
Distribución simétrica. Es decir, existe el mismo número de observaciones
tanto a la derecha como a la izquierda del valor central. También, que la media,
la mediana y la moda tienen el mismo valor.
Media = Mediana = Moda = 5
Las observaciones con más frecuencia o probabilidad están alrededor del valor
central. En otras palabras, las observaciones con menos frecuencia o
probabilidad se encuentran lejos del valor central.
La
variable resultados del examen sigue una distribución normal.
La variable resultados del examen sigue una distribución normal.
La distribución normal describe la variable aleatoria mediante una aproximación
que produce errores estándar (las barras encima de cada columna). Estos
10. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 10 de 21
errores son la diferencia entre las observaciones reales (resultados) y la
función de densidad (distribución normal).
DISTRIBUCION BERNOULLI
La distribución de Bernoulli es un modelo teórico utilizado para representar
una variable aleatoria discreta la cual solo puede resultar en dos sucesos
mutuamente excluyentes.
En otras palabras, la distribución de Bernoulli es una distribución aplicada a
una variable aleatoria discreta, la cual solo puede resultar en dos sucesos
posibles: “éxito” y “no éxito”.
Artículos recomendados: espacio muestral, ejemplo de distribución de Bernoulli
y Regla de Laplace.
Experimentos Bernoulli
Un experimento es un acción aleatoria la cual no tenemos forma de predecir,
como el resultado de lanzar un dado. En la distribución de Bernoulli solo
hacemos un único experimento. En el caso que se realicen más de un
11. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 11 de 21
experimento, como en la distribución binomial, los experimentos son
independientes entre sí.
“Éxito” y “y no éxito”
Son experimentos donde la situación final solo puede resultar en dos
resultados o sucesos excluyentes:
El resultado que esperamos que ocurra. Es decir, “éxito”.
El resultado distinto al resultado que esperamos que ocurra. Es decir, “no
éxito”.
Parámetro p
Dada una variable aleatoria discreta Z cuya frecuencia puede aproximarse
satisfactoriamente a una distribución de Bernoulli con un parámetro p.
La frecuencia de la variable aleatoria Z se puede aproximar
satisfactoriamente mediante una distribución de Bernoulli con probabilidad p.
Generalmente se utiliza el parámetro p para indicar la probabilidad de éxito de
la variable aleatoria discreta Z. Entonces:
Posibles resultados de la
variable aleatoria Z.
Si la variable aleatoria Z resulta en el resultado que habíamos definido como
“éxito” al inicio del experimento, (Z=1), entonces, la probabilidad de obtener ese
resultado concreto es (p).
Si la variable Z resulta en un resultado distinto al que habíamos definido como
“no éxito” al inicio del experimento, (Z=0), entonces, la probabilidad de obtener
ese resultado concreto es (1-p).
12. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 12 de 21
Importante
Es importante destacar que el resultado “no éxito” no se refiere al contrario de
“éxito”, sino que se refiere a cualquier caso distinto al que representa a “éxito”
siempre y cuando haya más de dos posibilidades.
Es decir, en el caso de tirar un dado, si la variable “éxito” se refiere a obtener
un cuatro (4) en una tirada, la variable “no éxito” será cualquier resultado
distinto a cuatro (4) que podamos obtener en una tirada.
Espacio muestral: {1,2,3,4,5,6}.
En el caso de una moneda (no trucada), solo podremos obtener dos resultados
posibles: cara o cruz. Entonces, en este caso la variable “no éxito” será
efectivamente el contrario de la variable “éxito”.
Espacio muestral: {1,2}.
Fórmula del parámetro p y la Regla de Laplace:
Para obtener el parámetro p utilizamos la Regla de Laplace:
Regla de Laplace.
Casos posibles: Son todos los resultados posibles que podemos obtener en
un experimento. Por ejemplo, si el experimento es tirar un dado, tendremos
seis (6) casos posibles porque un dado solo tiene seis (6) caras.
Casos probables: Son los resultados que salen en cada experimento de
manera secuencial, es decir, que los resultados son excluyentes: si ocurre un
resultado no pueden ocurrir los otros. En el experimento de tirar un dado, cada
cara del dado es un caso probable. En otras palabras, que salga un dos (2) o
un cinco (5) son ejemplos de casos probables en el experimento de lanzar un
dado.
DISTRIBUCION POISSON
13. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 13 de 21
Esta distribución es una de las más importantes distribuciones de variable
discreta. Sus principales aplicaciones hacen referencia a la modelización de
situaciones en las que nos interesa determinar el número de hechos de cierto
tipo que se pueden producir en un intervalo de tiempo o de espacio, bajo
presupuestos de aleatoriedad y ciertas circunstancias restrictivas. Otro de sus
usos frecuentes es la consideración límite de procesos dicotómicos reiterados
un gran número de veces si la probabilidad de obtener un éxito es muy
pequeña .
Proceso experimental del que se puede hacer derivar
Esta distribución se puede hacer derivar de un proceso experimental de
observación en el que tengamos las siguientes características
Se observa la realización de hechos de cierto tipo durante un cierto
periodo de tiempo o a lo largo de un espacio de observación
Los hechos a observar tienen naturaleza aleatoria ; pueden producirse o
no de una manera no determinística.
La probabilidad de que se produzcan un número x de éxitos en un
intervalo de amplitud t no depende del origen del intervalo (Aunque, sí de
su amplitud)
La probabilidad de que ocurra un hecho en un intervalo infinitésimo es
prácticamente proporcional a la amplitud del intervalo.
La probabilidad de que se produzcan 2 o más hechos en un intervalo
infinitésimo es un infinitésimo de orden superior a dos.
En consecuencia, en un intervalo infinitésimo podrán producirse O ó 1
hecho pero nunca más de uno
Si en estas circunstancias aleatorizamos de forma que la variable
aleatoria X signifique o designe el "número de hechos que se producen en
un intervalo de tiempo o de espacio", la variable X se distribuye con una
distribución de parámetro . Así :
14. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 14 de 21
El parámetro de la distribución es, en principio, el factor de
proporcionalidad para la probabilidad de un hecho en un intervalo
infinitésimo. Se le suele designar como parámetro de intensidad , aunque más
tarde veremos que se corresponde con el número medio de hechos que cabe
esperar que se produzcan en un intervalo unitario (media de la distribución); y
que también coincide con la varianza de la distribución.
Por otro lado es evidente que se trata de un modelo discreto y que el campo
de variación de la variable será el conjunto de los número naturales, incluido
el cero:
Función de cuantía
A partir de las hipótesis del proceso, se obtiene una ecuación diferencial
de definición del mismo que puede integrarse con facilidad para obtener la
función de cuantía de la variable "número de hechos que ocurren en un
intervalo unitario de tiempo o espacio "
Que sería : ir a
programa de cálculo
Cuya representación gráfica
para un modelo de media 11
sería la adjunta .
Obsérvense los valores
próximos en la media y su
forma parecida a la campana
de Gauss , en definitiva , a
la distribución normal
15. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 15 de 21
La función de distribución vendrá dada por :
Función Generatriz de Momentos
Su expresión será
:
dado que tendremos
que
luego :
Para la obtención de la media y la varianza aplicaríamos la F.G.M.;
derivándola sucesivamente e igualando t a cero .
Así.
Una vez obtenida la media , obtendríamos la varianza en
base a :
16. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 16 de 21
haciendo t = 0
por lo que =
así se observa que media y varianza coinciden con el
parámetro del modelo siendo ,
En cuanto a la moda del modelo tendremos que será el valor de la variable
que tenga mayor probabilidad , por tanto si Mo es el valor modal se cumplirá
que :
Y, en particular:
A partir de estas dos desigualdades, es muy sencillo probar que la
moda tiene que verificar: De manera que la moda será la parte
entera del parámetro o dicho de otra forma, la parte entera de la media
Podemos observar cómo el intervalo al que debe pertenecer la moda tiene
una amplitud de una unidad , de manera que la única posibilidad de que una
distribución tenga dos modas será que los extremos de este intervalo sean
números naturales, o lo que es lo mismo que el parámetro sea entero, en
cuyo caso las dos modas serán -1 y .
Teorema de adición.
La distribución de Poisson verifica el teorema de adición para el parámetro .
17. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 17 de 21
"La variable suma de dos o más variables independientes que tengan una
distribución de Poisson de distintos parámetros (de distintas medias) se
distribuirá, también con una distribución de Poisson con parámetro la suma
de los parámetros (con media, la suma de las medias) :
En efecto:
Sean x e y dos variables aleatorias que se distribuyen con dos distribuciones
de Poisson de distintos parámetros siendo además x e y independientes
Así e
Debemos probar que la variable Z= x+y seguirá una Poisson con
parámetro igual a la suma de los de ambas:
En base a las F.G.M para X
Para Y
De manera que la función generatriz de momentos de Z será el producto de
ambas ya que son independientes
:
Siendo la F.G.M de una
Poisson
Convergencia de la distribución binomial a la Poisson
Se puede probar que la distribución binomial tiende a converger a la
distribución de Poisson cuando el parámetro n tiende a infinito y el parámetro
p tiende a ser cero, de manera que el producto de n por p sea una cantidad
18. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 18 de 21
constante. De ocurrir esto la distribución binomial tiende a un modelo de
Poisson de parámetro igual a n por p
Este resultado es importante a la hora del cálculo de probabilidades , o ,
incluso a la hora de inferir características de la distribución binomial cuando
el número de pruebas sea muy grande y la probabilidad de éxito sea
muy pequeña .
El resultado se prueba , comprobando como la función de cuantía de una
distribución binomial con y tiende a una función de cuantía
de una distribución de Poisson con siempre que este producto sea una
cantidad constante ( un valor finito)
En efecto : la función de cuantía de la binomial es
Y llamamos tendremos que:
realizando que es la función de cuantía de una
distribución de Poisson
Estimación Bayesiana sobre muestras de poisson.
Análogamente a como planteábamos el problema de necesitar estimar la
proporción de una característica ,en el caso de un modelo binomial , en alguna
19. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 19 de 21
situación práctica , podemos estar interesados en determinar el parámetro
desconocido de una distribución de Poisson. Por ejemplo podríamos estar
interesados en determinar el número medio de clientes que acuden a una
ventanilla de una oficina pública.
El planteamiento de la estimación podría hacerse utilizando información
suministrada por una experiencia {la observación de cuántos hechos se
producen en un intervalo experimental),conjuntamente con algún otro tipo de
información a priori .En este caso, estaríamos ,como ya comentábamos en el
caso binomial ante un planteamiento bayesiano del problema.
La solución requerirá que dispongamos de una información inicial que
puede especificarse a través de una distribución a priori de probabilidad. De
manera que la función de cuantía de esta distribución a priori (o su f. de
densidad si fuera continua) nos asigne probabilidades a cada posible valor del
parámetro .
Utilizando únicamente la información inicial la estimación sería la media de la
distribución a priori.
Pero realizando una experiencia podremos mejorar la información acerca
de Si observamos la realización de hechos durante un intervalo experimental
y se producen x hechos, para cada posible valor de podremos calcular su
verosimilitud definida como la probabilidad de que se dé ese resultado si el
valor de es el considerado:
Obviamente esta probabilidad condicionada será la función de cuantía de
una distribución de Poisson con . para el valor de la variable x.
Finalmente podemos calcular las probabilidades de cada valor alternativo
de , condicionada al resultado de la experiencia aplicando el teorema de
Bayes:
20. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 20 de 21
Estas probabilidades finales (a posteriori) constituirán la función de cuantía
de la distribución a posteriori que nos dará cuenta de toda la información
disponible (tanto muestral como no muestral) .
La estimación mejorada del parámetro será, entonces, la media de la
distribución a posteriori.
Planteamos un ejemplo:
Tres ejecutivos del Insalud opinan que el número medio de pacientes que
llegan a cierto servicio nocturno de guardia durante una hora es 2 , según el
primero, 3 , según el segundo, y 5 según el tercero.
Sus opiniones pueden ponderarse teniendo en cuenta que el primero tiene el
doble de experiencia profesional que los otros dos.
Para tomar una decisión de asignación de personal en ese servicio quieren
estimar el número medio de pacientes, sin despreciar sus opiniones , por lo
que realiza una experiencia controlando una hora de actividad en el servicio
en la que acuden 3 pacientes .Esta información la van a combinar con la
inicial a través de un proceso Bayesiano :¿cómo lo harían?
La distribución a priori será tal que deberá asignarse el doble de probabilidad
a la alternativa propuesta por el primer experto que a las de los otros dos. Así
que será:
i P( i)
2 0,5
3 0,25
4 0,25
De manera que la estimación inicial de sería,la media de la distribución a
priori:
21. INVESTIGACION Código FM 002
N° PAGINAS
SIMULACION DE SISTEMAS PINTO MAQUERA LUIS FERNANDO 12/05/2022
Página 21 de 21
Realizada la experiencia, las verosimilitudes de las tres alternativas nos
vendrán dadas por la función de cuantía de la distribución de Poisson,
con
i
2 0,180447
3 0,224042
5 0,140374
La función de cuantía de la distribución a posteriori la obtendremos aplicando
el Teorema de Bayes y resultará ser:
i
2 0,497572
3 0,308891
5 0,193536
Esta distribución a posteriori nos dará cuenta de toda la información
disponible acerca del parámetro desconocido, (número medio de pacientes por
hora); tanto de la información subjetiva de los expertos (convenientemente
ponderada) como de la información empírica suministrada por la observación.
A partir de esta distribución a posteriori podemos plantear nos dar un valor
concreto para la estimación de considerando una función de pérdida
cuadrática . La estimación adecuada sería la media de la distribución a
posteriori:
pacientes la hora