SlideShare una empresa de Scribd logo
1 de 93
UCEMA – ITBA MEP
Análisis de Riesgo en Evaluación de Proyectos
Simulación MonteCarlo
Alejandro Bustamante
 La Evaluación de Riesgos es la cuantificación
de la probabilidad de ocurrencia y del
impacto potencial de diferentes fuentes de
riesgo.
 El Análisis de Riesgos es el proceso de:
– identificación de fuentes de riesgo,
– evaluación cuantitativa y cualitativa del
riesgo,
– administración del riesgo,
– comunicación a las partes interesadas de la
evaluación hecha y las decisiones tomadas.
 Hay dos componentes que explican nuestra
incapacidad para predecir en forma precisa
un evento futuro:
 Riesgo: es un efecto aleatorio propio del
sistema bajo análisis. Se puede reducir
alterando el sistema.
 Incertidumbre es el nivel de ignorancia del
evaluador acerca de los parámetros que
caracterizan el sistema a modelar. Se puede
reducir a veces con mediciones adicionales o
mayor estudio, o consulta a expertos.
 La Variabilidad Total es la combinación de
riesgo e incertidumbre.
 Tanto el riesgo como la incertidumbre se
describen mediante distribuciones de
probabilidad.
 Por lo tanto, una distribucion de probabilidad
puede reflejar en parte el carácter estocástico
del sistema analizado y en parte la
incertidumbre acerca del comportamiento de
la variable.
 Los resultados que se obtengan de un
modelo de este tipo reflejaran la variabilidad
total: el efecto conjunto de riesgo e
incertidumbre.
Distribución de Probabilidad
 Una distribución de probabilidad describe el
rango de valores que puede tomar una
variable aleatoria y la probabilidad asignada
a cada valor o rango de valores.
Probabilidad: Frecuentista y Subjetiva
 Para eventos repetibles y medibles, la
probabilidad representa la frecuencia relativa
de ocurrencia de un evento.
 Para eventos que no son repetibles o
mensurables, la probabilidad es la expresión
del grado de creencia que tiene un individuo
acerca de la ocurrencia de un evento incierto.
Desde este punto de vista, las probabilidades
son en última instancia subjetivas por
naturaleza, y es posible que dos personas
asignen diferente probabilidad de ocurrencia
a un mismo evento.
 Separar el riesgo de la incertidumbre permite
entender qué pasos podrían tomarse que
sean más efectivos para reducir la
variabilidad total.
 Si una proporción importante de la
variabilidad total se debe a incertidumbre,
entonces nuestra estimación acerca del
futuro podría mejorarse recopilando mejor
información.
 Si una proporción importante de la
variabilidad total se debiera a riesgo, la única
manera de reducir la variabilidad total es
modificando el sistema analizado.
Administración del Riesgo
 Negociar las variables negociables
 Aumentar el compromiso
 Buscar más información
 Tomar precauciones adicionales
 Compartir el riesgo
 Transferir el riesgo
 Formular planes de contingencia
 No tomar medidas, asumir el riesgo
 Cancelar el proyecto
 Administración de portfolio
Presentación de modelos
Un modelo es una herramienta de análisis y de
comunicación. Como tal, debe ser entendido no solo
por quien lo diseñó sino también por terceros.
 1. Presentar claramente la estructura lógica y los
supuestos empleados.
 2. Incluír solamente las estadísticas indispensables.
 3. Usar gráficos para transmitir conceptos.
 4. Los resultados obtenidos deben responder a los
interrogantes planteados.
 5. No incluír en el informe más información que la
necesaria. Derivar los datos de apoyo a los Anexos.
Simulación MonteCarlo
 1. Diseñar el modelo lógico de decisión
 2. Especificar distribuciones de probabilidad para las
variables aleatorias relevantes.
 3. Incluír posibles dependencias entre variables.
 4. Muestrear valores de las variables aleatorias
 5. Calcular el resultado del modelo según los valores
del muestreo (iteración) y registrar el resultado
 6. Repetir el proceso hasta tener una muestra
estadísticamente representativa
 7. Obtener la distribución de frecuencias del resultado
de las iteraciones
 8. Calcular media, desvío y curva de percentiles
acumulados
Ley de los Grandes Números
(desigualdad de Tschebycheff)
 Cuanto mayor sea el tamaño de la muestra,
mayor será el ajuste entre la distribución
muestral y la distribución teórica sobre la que
se basa la muestra.
Teorema Central del Límite (TCL)
 La media muestral de un conjunto de n
variables muestreadas en forma
independiente a partir de una misma
distribución f(x) se ajusta a una distribución
aprox. Normal con los siguientes parámetros:
x = Normal ( mu, sigma / n1/2 )
 En otras palabras, la distribución del
promedio de un conjunto de variables
aleatorias depende tanto de la cantidad de
variables aleatorias promediadas como de la
incertidumbre aportada por cada variable.
Teorema Central del Límite (cont.)
 La suma de n variables aleatorias
independientes da como resultado una
distribución aproximadamente Normal, sin
importar la forma de la distribución de las
variables sumadas (siempre y cuando no
haya una variable cuya contribución a la
variabilidad total sea dominante).
 El producto de n variables aleatorias
independientes da como resultado una
distribución aproximadamente Lognormal,
independientemente de la forma de la
distribución de las variables intervinientes.
Generación de valores muestrales
 Las computadoras son capaces de generar
números aleatorios entre 0 y 1.
 Los algoritmos para generar números
aleatorios comienzan con cualquier valor
entre 0 y 1. Todos los números aleatorios que
se generen a continuación dependerán de
este valor inicial (semilla).
Generación de valores muestrales
 La función de Distribución Acumulada F(x) de
una variable aleatoria indica la probabilidad p
que la variable X tome un valor menor o igual
que x.
F(x) = p (X<=x)
A toda Función de Probabilidad Acumulada F(x)
le corresponde una Función Inversa
G (F(x)) = x
La Función Inversa indica los valores de x
asociados a distintos valores de F(x)
Generación de valores muestrales
 Para generar un valor muestral a partir de
una distribución de probabilidad:
– 1. Se genera un número aleatorio entre 0 y
1 a partir de una distribución Uniforme
– 2. El valor obtenido se usa para alimentar
la ecuación correspondiente a la Función
Inversa de la distribución de probabilidad
muestreada, de modo de generar un valor
x para la variable aleatoria.
Métodos de Muestreo: MonteCarlo
 El muestreo MonteCarlo es totalmente
aleatorio.
 Esto implica que si el número de iteraciones
no es lo suficientemente elevado, es posible
que se sobremuestreen algunos segmentos
de la distribución que se quiere replicar y se
submuestreen otros segmentos.
Métodos de muestreo: Hipercubo Latino
 Es un método de muestreo estratificado sin
reemplazo (muestreo con memoria).
– 1. Se segmenta la distribución de
probabilidad acumulada F(x) en n
intervalos (donde n es el número de
iteraciones a realizar)
– 2. Se genera un número aleatorio que
corresponderá a un determinado segmento
de F(x).
– 3. Se genera un segundo número aleatorio
para determinar el punto preciso del
muestreo dentro de ese intervalo F(x).
Métodos de muestreo: Hipercubo Latino
– 4. Se calcula el valor de x correspondiente
a la Función Inversa G (F(x)).
– 5. Se repite el proceso en la segunda
iteración, pero descartando el segmento ya
muestreado.
– 6. Se repite el proceso hasta completar el
número de iteraciones de la muestra.
Intervalo de confianza para el resultado
esperado
 Para un tamaño de muestra n > 30 el
intervalo del resultado esperado es:
IC 100*(1-alfa) = x +/- t (alfa/2,n-1)*s/(n)1/2
t(alfa,n) es el valor de x tal que P(t>x)=alfa
x - t *s/(n)1/2 < x < x + t *s/(n)1/2
Tamaño de muestra necesario para lograr
estimaciones dentro de tolerancia
 Si la estimación del valor esperado debe
tener una precisión representada por una
tolerancia de desvío D en valor absoluto un
porcentaje 100*(1-alfa) de las veces,
entonces el tamaño de la muestra n
necesario es:
n = (zalfa/2)2 * (sigma)2 / (D) 2
zalfa = P (z>zalfa ) = alfa
Distribuciones de Probabilidad
 Fuentes de información para cuantificar la
incertidumbre en variables aleatorias:
– 1. Series de datos
– 2. Opinión de expertos
 Cuando se procura caracterizar a una
variable aleatoria a partir de los datos
disponibles se parte del supuesto que los
datos observados son una muestra aleatoria
de una distribución de probabilidad que
trataremos de identificar.
Distribuciones de Probabilidad
Discretas
 Una variable aleatoria representada mediante
una distribución discreta de probabilidad
puede tomar un valor de entre un conjunto de
valores, cada uno de los cuales tiene
asignada una determinada probabilidad de
ocurrencia.
 Ejemplos: Binomial, Geométrica, Poisson,
Discreta.
Distribuciones de Probabilidad
Continuas
 Una variable aleatoria representada mediante
una distribución continua de probabilidad
puede tomar cualquier valor dentro de un
rango determinado.
 Ejemplos: Normal, Lognormal, Uniforme,
Triangular, Histograma
Distribuciones de Probabilidad
No Limitadas
 La variable aleatoria puede tomar valores entre +infinito
y -infinito.
 Ejemplos: Normal, Logística
Limitadas
 Los valores de la variable aleatoria quedan confinados
entre dos valores extremos.
 Ejemplos: Binomial, Beta, Uniforme, Triangular,
Histograma
Parcialmente Limitadas
 Los valores de la variable aleatoria quedan limitados en
uno de los extremos de la distribución.
 Ejemplos: Poisson, Exponencial
Distribuciones de Probabilidad
Paramétricas
 La distribución de probabilidad se ajusta a la
descripción matemática de un proceso
aleatorio que cumple con determinados
supuestos teóricos.
 Los parámetros que definen la distribución en
general no guardan relación intuitiva con la
forma de la distribución.
 Ejemplos: Normal, Lognormal, Exponencial,
Beta.
Distribuciones de Probabilidad
 Paramétricas (cont.)
 Son de aplicación cuando:
– 1. la teoría sobre la que se fundamenta
una determinada distribución es aplicable
al problema.
– 2. se acepta que esa distribución da un
buen ajuste de la variable aleatoria aunque
no haya una teoría para explicarlo.
– 3. la distribución se ajusta
aproximadamente a la opinión del experto
y no se requiere mucha precisión.
Distribuciones de Probabilidad
No Paramétricas
 Los parámetros que se usan para definir
estas distribuciones describen la forma de la
distribución.
 No se apoyan en una teoría que describa el
proceso de generación de valores aleatorios.
 Ejemplos: Triangular, Histograma, General,
Uniforme, Acumulada
Distribuciones de Probabilidad
 No Paramétricas (cont.)
 Estas distribuciones en general son más
útiles cuando se busca recabar la opinión
subjetiva de expertos, con las siguientes
excepciones:
 1. el experto puede estar muy familiarizado
con los parámetros que definen una
distribución paramétrica.
 2. a veces los parámetros de una distribución
paramétrica son intuitivos (p.ej. Binomial)
Distribuciones de Probabilidad
 Subjetivas
 El uso de estas distribuciones de
probabilidad es la única alternativa para
describir una variable aleatoria cuando:
 1. No hay una base de antecedentes.
 2. Los datos del pasado no son relevantes.
 3. Los datos son escasos y no cubren todo el
rango de posibles valores.
 4. Es demasiado caro generar datos.
 5. Generar valores llevaría demasiado tiempo
Distribuciones de Probabilidad
Subjetivas (cont.)
 En las estimaciones subjetivas hay dos
fuentes de incertidumbre:
– Variabilidad asociada a la variable
aleatoria en sí .
– Incertidumbre asociada a la falta de
conocimiento sobre el comportamiento de
la variable.
 La distribución subjetiva especificada agrega
ambas fuentes de incertidumbre
Distribuciones de probabilidad a partir
de Opinión de expertos
Una técnica básica para obtener distribuciones
subjetivas consiste en desagregar el
problema en las variables que lo componen:
 pone en evidencia la estructura lógica del
problema de decisión
 las variables del problema son algo más
tangible de estimar que el resultado.
 la desagregación facilita el reconocimiento de
dependencias entre componentes del
problema.
Distribuciones a partir de Opinión de expertos
Desagregación (cont.)
 el análisis de riesgo es menos dependiente
de las estimaciones hechas para cada
componente
 la estimación de la distribución del resultado
del modelo a partir de la agregación de los
componentes será más precisa que lo que
podría haber sido de tratar de estimarla
directamente
 la agregación tendrá en cuenta los efectos
del TCL en forma automática.
Uniforme
 Todos los valores dentro del rango factible
tienen la misma densidad de probabilidad.
 Parámetros : Uniform (min,max)
 Aplicaciones: U(0,1) se usa en la generación
de los valores de todas las demás
distribuciones de probabilidad en el muestreo
aleatorio.
 Es una aproximación muy cruda para usar
como estimación de la incertidumbre
percibida de un parámetro
Triangular
 Aplicaciones: estimar subjetivamente la
distribución de la variable aleatoria cuando
todo lo que puede precisarse de la misma es
el valor mínimo, el valor más probable y el
valor máximo.
 Parámetros: Triang (min, +prob, max)
Triangular (cont.)
 Sus propiedades estadísticas se derivan de
su forma, no de una teoría subyacente.
 Es de definición intuitiva y de gran flexibilidad
en cuanto a geometrías posibles.
 La forma de la distribución usualmente lleva
a sobreestimar la densidad de las colas y a
subestimar la densidad en el “tronco” de la
distribución.
 Se pueden definir el valor mínimo y el valor
máximo como umbrales de ocurrencia
práctica. En vez de tomarlos como valores
absolutos, se los toma como percentiles,
dejando “abiertas las colas”.
Histograma
 Aplicaciones: representar la forma de la
distribución de una serie de datos o la
opinión de un experto acerca de la forma de
la distribución de una variable.
 Parámetros: Histogram (min, max, {pi}
 Todos los intervalos de la distribución tienen
el mismo “ancho”.
General
 Aplicaciones: reflejar la opinión de expertos.
Es la más flexible de las distribuciones
continuas. Es un histograma “estilizado”.
 Parámetros: General (min, max, {xi} , {pi}
 Es posible, aunque no es recomendable,
especificar intervalos de distinto “ancho”.
Acumulada
 Aplicaciones: recabar opinión de expertos.
 Parámetros: Cumulative ({xi},{Pi},min,max)
 Puede ser de utilidad cuando se procura
estimar una variable cuyo rango cubre varios
órdenes de magnitud.
 Desventajas: insensibilidad de la escala de
probabilidades. Es más facil representar la
variabilidad que se quiere reflejar cuando se
trabaja con distribuciones de frecuencia
relativa.
BetaPert
 Es una versión de la distribución Beta que
usa los mismos supuestos acerca de la
media de una variable aleatoria que las redes
PERT.
 Parámetros: BetaPert (a,b,c)
BetaPert (cont.)
 1. La media de una distribución BetaPert es
cuatro veces más sensible al valor medio que
a los valores extremos.
 2. El desvío standard de una distribución
BetaPert es menos sensible a los valores
extremos que la distribución Triangular.
El desvío standard de una distribución
BetaPert es sistemáticamente menor que
el de una Triangular, particularmente
cuando las distribuciones son sesgadas.
Discreta
Aplicaciones:
 1. Describir una variable aleatoria que puede tomar
uno de entre un conjunto de valores discretos.
 2. Describir probabilidades condicionales para
distintos estados de la naturaleza, donde cada
estado de la naturaleza tiene una probabilidad de
ocurrencia p.
 3. Armar distribuciones de probabilidad compuestas
a partir de la opinión de dos o más expertos, donde a
la opinión de cada experto se le otorga una
ponderación p.
 Parámetros: Discrete ({xi},{pi}
Obtención de distribuciones de probabilidad a
partir de opiniones diferentes
 Definir una distribución Discreta donde {xi}
representa la opinión de los expertos y {pi} es
la ponderación asignada a cada opinión.
Enfoques incorrectos:
 Tomar la opinión más conservadora (no se
usa toda la información disponibles, se
genera una distribución sesgada)
 Promediar los valores de las opiniones: se
subestima la variabilidad (recordar TCL)
Series de datos: Selección de Distribuciones
 1. ¿Se trata de una variable discreta o
continua?
 2. ¿Es realmente necesario ajustar los datos
a una distribución de probabilidad teórica?
 3. ¿Hay correspondencia entre el rango
teórico de la variable y la distribución a
ajustar?
Distribuciones empíricas: variables Discretas
 1. Si la cantidad de datos no es muy elevada, la
frecuencia de datos para cada valor de x puede ser
usada directamente para definir una distribución
Discreta.
 2. Si hay muchos datos, es más fácil ordenar los
datos en forma de histograma y definir entonces una
distribución Acumulada con parámetros {xi} , {F(xi)} ,
min , max
 Se puede reintroducir el caracter discreto de la
variable incluyendo la distribución Acumulada dentro
de una función ROUND (redondeo)
Distribuciones empíricas: variables Continuas
 1. Se plotea la frecuencia acumulada de los datos
observados.
 2. Se hace un ranking de los datos en orden
ascendente.
 3. Se estima un mínimo y un máximo en forma
subjetiva.
 4. Se calcula la probabilidad acumulada para cada
valor de x según la fórmula:
F(xi) = i / (n+1)
i = rango del dato observado
n = cantidad de datos observados
 {xi} , {F(xi)} , min , max serán parámetros que se usen
para definir una distribución Acumulada
Procesos estocásticos
 Un proceso estocástico es un sistema de
eventos que se pueden contar,
en el que los eventos ocurren de acuerdo a
un proceso aleatorio bien definido.
Distribuciones de probabilidad para
Procesos Discretos
 Un Proceso Discreto se caracteriza por una
probabilidad p de ocurrencia de un evento discreto en
cada prueba.
Una vez que se tiene una estimación de p, se pueden
estimar:
 1. Distribución de la cantidad s de ocurrencia de un
evento en n pruebas: Binomial (n,p)
 2. Distribución de la cantidad de pruebas hasta que
ocurra un evento por primera vez :1 + Geométrica (p)
 3. Distribución de la cantidad de pruebas hasta que
ocurran s eventos: s + Negbin (s,p)
Distribuciones de probabilidad para
Procesos Discretos
 Para que las distribuciones de probabilidad
mencionadas sean de aplicación se debe
cumplir el supuesto que el sistema a estudiar
tiene las características de un Proceso
Binomial.
 Proceso Binomial: la probabilidad de
ocurrencia de un evento es constante e
independiente de la cantidad o proximidad en
el tiempo de eventos ya ocurridos.
Beta
 Aplicaciones: estimar la probabilidad de
ocurrencia p de un evento, a partir de la
observación de s eventos en n pruebas.
 Parámetros: Beta (alfa1,alfa2)
alfa 1 : s+1 alfa2: n-s+1
 La distribución Beta puede tomar muchas
formas, según los valores de alfa1 y alfa2.
 A medida que aumenta n, se gana precisión
en la estimación de p (la distribución de p se
comprime)
Dada la gran variedad de formas que puede
asumir según los valores asignados a los
parámetros, la distribución Beta también se
usa para describir datos empíricos.
 Si los valores de ambos parámetros son
iguales, Beta es simétrica.
 Si alfa1 es menor que alfa2, la distribución
está sesgada hacia la derecha.
 Si alfa1 es mayor que alfa2, la distribución
está sesgada hacia la izquierda
Binomial
 Aplicaciones: estimar la distribución de la
cantidad s de ocurrencias de un evento en n
pruebas, cuando hay una probabilidad p de
ocurrencia del evento en cada prueba.
 Parámetros: Binomial (n,p)
 Para n>30 o cuando p es alta, la distribución
Binomial puede ser aproximada por una
distribución Normal ((np),(npq)1/2).
Condiciones subyacentes a una
distribución Binomial
 En cada prueba sólo hay dos resultados
posibles
 Las pruebas son independientes (lo que
ocurre en la primera prueba no afecta a la
segunda, y sucesivamente).
 La probabilidad de ocurrencia del evento se
mantiene constante a través de las pruebas
(no hay un proceso de aprendizaje)
Geométrica
 Aplicaciones: estimar la cantidad n de
pruebas necesarias hasta la ocurrencia del
primer evento, cuando la probabilidad p de
ocurrencia de un evento se mantiene
constante en el tiempo.
 Parámetros: n = 1 + Geometric (p)
 La distribución Geométrica es análoga a la
distribución Exponencial: Geométrica se
aplica a variables discretas, Exponencial se
aplica a variables continuas.
Condiciones subyacentes de una
distribución Geométrica
 La cantidad de eventos no está prefijada.
 Se continúa con las pruebas hasta lograr el
primer éxito.
 La probabilidad de éxito p es constante a
través de las pruebas.
Binomial Negativa
 Aplicaciones: estimar la distribución de la
cantidad n de pruebas hasta que ocurran s
eventos, cuando la probabilidad p de
ocurrencia de un evento es constante en el
tiempo.
 Parámetros: n = s + Negbin (s,p)
s es el parámetro que le da la forma a la
distribución.
Condiciones subyacentes de una
distribución Binomial Negativa
 La cantidad de pruebas no está prefijada.
 Se continúa con las pruebas hasta que se
observa la cantidad de eventos (s) buscada.
 La probabilidad de éxito p es constante de
prueba a prueba.
Distribución Hipergeométrica
 Al igual que la distribución Binomial, esta
distribución describe la cantidad de
ocurrencias de un evento en una cantidad de
pruebas.
 La diferencia con la distribución Binomial es
que a medida que se avanza con las pruebas
cambia la probabilidad de ocurrencia del
evento: pruebas sin reemplazo.
Condiciones subyacentes de una
distribución Hipergeométrica
 La cantidad total de elementos de una
población es finita.
 La muestra representa una porción de la
población.
 La probabilidad de ocurrencia del evento en
la población es conocida y cambia
ligeramente luego de cada prueba.
Distribuciones de probabilidad para
Procesos Continuos
 Un Proceso Continuo se caracteriza por un
Intervalo Medio de Tiempo entre Eventos
(beta).
 Una vez que se tiene una estimación de beta,
se puede estimar también:
 1. Distribución de la cantidad de eventos por
unidad de tiempo: Poisson (lambda)
 2.Distribución de Tiempo hasta la ocurrencia
del próximo evento: Exponencial (beta)
 3. Distribución de Tiempo hasta que ocurran
n eventos: Gamma (n, beta)
Distribuciones de probabilidad para
Procesos Continuos (cont.)
 Para que estas distribuciones sean aplicables
se debe cumplir el supuesto que el sistema
estudiado tiene las características de un
Proceso tipo Poisson.
 Proceso tipo Poisson: la probabilidad de
ocurrencia de un evento por unidad de
exposición es constante e independiente de
la cantidad o proximidad de eventos
ocurridos.
 La unidad de exposición puede ser cualquier
variable continua (tiempo, distancia, etc)
Estimación del Intervalo Medio de
Tiempo entre Eventos (beta)
 beta es el intervalo de exposición promedio
entre n eventos observados.
 El verdadero valor de beta puede ser
estimado a partir de n eventos observados
valiéndose del TCL:
 beta = Normal (t,sigma/(n-1)1/2)
t = promedio de los n-1 intervalos contiguos
sigma = desvío standard de los ti intervalos.
 La precisión de la estimación de beta
aumenta a medida que aumenta n.
Poisson
 Aplicaciones: estimar la cantidad N de
ocurrencias de un evento en un intervalo de
tiempo T cuando el tiempo medio entre
eventos sucesivos (beta) se ajusta a un
proceso tipo Poisson.
 Parámetros: N = Poisson (lambda * t)
lambda = 1 / beta
 Lambda se puede interpretar como la
cantidad promedio de ocurrencias del evento
por unidad de exposición.
Condiciones subyacentes a una
distribución Poisson
 La cantidad de eventos por unidad de
exposición no está limitada a un valor
discreto.
 Los eventos son independientes entre sí (el
número de eventos en un intervalo de
exposición no afecta al número de eventos
en otro intervalo de exposición).
 La cantidad promedio de eventos se
mantiene constante de intervalo a intervalo.
Exponencial
 Aplicaciones: estimar la distribución del
(tiempo) entre ocurrencias sucesivas de un
evento que tiene una probabilidad de
ocurrencia p constante por unidad de
(tiempo).
 Parámetros: Expon (beta)
 Si la probabilidad p de ocurrencia del evento
es constante a través del tiempo, la
estimación del tiempo que medie hasta la
ocurrencia del próximo evento es
independiente del tiempo que haya
transcurrido desde la última ocurrencia.
Gamma
 Aplicaciones: estimar la distribución del
tiempo requerido para la ocurrencia de alfa
eventos, cuando los eventos se ajustan a un
Proceso tipo Poisson con tiempo medio de
ocurrencia entre eventos beta.
 Esta distribución se usa bastante en
meteorología, seguros y teoría de colas.
 Parámetros: Gamma (alfa, beta)
Condiciones subyacentes de una
distribución Gamma
 La cantidad de posibles ocurrencias de un
evento en cualquier unidad de medida no
está limitada a valores discretos.
 La ocurrencia de los eventos es
independiente entre sí.
 La cantidad promedio de ocurrencias del
evento se mantiene constante entre
intervalos sucesivos.
Patrones lógicos comunes
a Procesos Discretos y Continuos
 En un Proceso Binomial, el parámetro descriptivo
clave es p, probabilidad de ocurrencia del evento en
cada prueba, que se asume constante para todas las
pruebas
 En un proceso Poisson, el parámetro descriptivo
clave es lambda (cantidad media de eventos que
ocurren por unidad de exposición) que se asume es
constante sobre el período total de exposición.
Weibull
 La distribución Weibull (alfa,beta) asume que la
probabilidad p de ocurrencia del evento cambia
con el transcurso del tiempo.
– alfa = 1 probabilidad constante (Exponencial)
– alfa > 1 probabilidad creciente
– alfa < 1 probabilidad decreciente.
alfa es el parámetro de forma, beta es el parámetro de
ubicación.
El parámetro beta permite representar una distribución
exponencial con valor mínimo distinto de 0.
Normal
 Aplicaciones: una variedad de situaciones,
como se desprende del Teorema Central del
Límite.
 Es útil en finanzas pues la suma o diferencia
de distribuciones Normales resulta también
en una distribución Normal con parámetros
que pueden ser determinados a partir del
TCL.
 Parámetros: Normal (mu,sigma)
Estimación subjetiva de los parámetros
de una Normal
• Media: Valor más probable
• Desvío: el intervalo +/- 2*sigma contiene el
95% de los valores, por lo tanto:
Sigma: (máximo - más probable) / 2
• La distribución Normal se extiende de -inf a
+ inf, aunque si CV<1/3 la probabilidad de
que ocurra un valor negativo es menor que
0.14%.
Lognormal
 Aplicaciones: modelizar variables que son el
producto de una cantidad de otras variables
aleatorias que ocurren naturalmente.
Generalmente brinda una buena
representación de variables que se extienden
de 0 a +inf y que tienen un sesgo positivo.
 Parámetros: Lognormal (mu,sigma)
Se usan como parámetros la media aritmética y
el desvío standard de los datos disponibles.
Condiciones subyacentes de una
distribución Lognormal
 La variable aleatoria puede tomar valores
que aumentan sin límites pero no puede
tomar valores negativos.
 La variable aleatoria tiene un sesgo positivo
(modo < media) con la mayor parte de los
valores cerca del límite inferior.
 El logaritmo natural de la variable se ajusta a
una distribución Normal.
Pareto
 Aplicaciones: modelar cualquier variable que
tenga un valor mínimo (que también es el
más probable) para la cual la densidad de
probabilidad decrece geométricamente hacia
cero.
 Parámetros : Pareto (tita, a)
a = valor mínimo y modal
Valor Extremo (Gumbel)
 Se usa para describir valores extremos de
una variable en un período de tiempo
(caudales, precipitaciones, fuerza de rotura
de materiales, etc).
 Parámetros : modo, parámetro de escala.
 Los datos usados para ajustar los parámetros
de la distribución pueden provenir de una
submuestra de tamaño 2 x (n)1/2 que incluya
los valores de un extremo de la muestra.
Ajuste de los datos a una distribución teórica
Los parámetros de la distribución que permitan
lograr el mejor ajuste a los datos se determinan
usualmente mediante alguno de los siguientes
dos métodos:
 1. Estimadores de Máxima Verosimilitud:
maximizan la probabilidad que la distribución
definida con estos parámetros sea capaz de
generar los datos observados.
 2. Minimización de las diferencias absolutas
entre los valores de probabilidad acumulada
observados y los derivados de la distribucón
teórica (usando programas de optimización)
Indicadores de Bondad de Ajuste
Los indicadores estadísticos de Bondad de
Ajuste más usados son 3:
 1. Para distribuciones discretas y continuas,
tanto numéricas como no numéricas: Chi
cuadrado. Es el indicador menos potente.
 2. Para distribuciones continuas:
Kolmogorov-Smirnov (K-S). No es muy
sensible para detectar discrepancias en las
colas de la distribución.
 3. Anderson-Darling (versión sofisticada de
K-S), pone más énfasis en las colas.
Indicadores de Bondad de Ajuste
 Cuanto menor sea el valor de cada indicador,
mayor será el ajuste aparente entre la
distribución teórica y los datos observados.
 Los valores standard de K-S y A-D son de
uso limitado para comparar valores críticos
cuando hay menos de 30 observaciones.
Esto se puede corregir usando K-S y A-D
modificados.
 Hay muchas distribuciones que tienen
formas similares y que pueden ser
capaces de generar los datos observados.
Dependencia y Correlación
 Una relación de Dependencia ocurre cuando
el valor muestreado de una variable
(independiente) tiene una relación estadística
que determina aproximadamente el valor que
va a ser generado para la otra variable
(dependiente).
 La diferencia principal entre Dependencia y
Correlación es que la primera presupone una
relación causal, mientras que la segunda no
(puede haber un factor externo que afecta a
ambas variables).
Correlación Lineal (Pearson)
 El coeficiente r da una medida de la
covarianza entre dos conjuntos de datos.
 r puede tomar valores desde -1 a +1
 Al dividir por los desvíos standard de cada
conjunto de datos se logra un índice de
covarianza que no depende de las unidades
de medida en que están expresados los
datos.
 Supuestos: la relación entre variables es de
tipo lineal.
Correlación por orden de rango
(Spearman)
 Es un método no paramétrico para cuantificar la
relación entre variables.
 r puede tomar valores desde -1 a +1
 Ventajas:
– 1. Las variables se correlacionan de acuerdo al
rango de valores generados en cada distribución.
Esto significa que todas las distribuciones
correlacionadas preservan su forma original.
– 2. Como no depende de supuestos acerca de la
relación matemática de las variables a
correlacionar, puede ser aplicable a cualquier tipo
de relación entre distribuciones (lineal, no lineal).
 El coeficiente de correlación de Pearson
mide la intensidad de la relación lineal entre
variables.
 Si dos variables aleatorias no tienen la
misma distribución de probabilidad, es
improbable que se relacionen en forma lineal,
por lo que el coeficiente de correlación tendrá
poco significado.
 Si se toman los valores según rangos y no
según valores absolutos, el coeficiente de
correlación así calculado tiene sentido
incluso para variables con diferentes
distribuciones.
Desventajas de correlacionar variables
mediante el coeficiente Spearman
 1. Es difícil estimar el coeficiente de
correlación entre dos distribuciones de
formas diferentes.
 2. El mismo coeficiente de correlación puede
resultar en diferentes gráficos de puntos para
diferentes distribuciones correlacionadas.
Esto puede ser aún más marcado si las
distribuciones a correlacionar son diferentes.
Recomendaciones respecto al uso de
coeficientes de correlación de Spearman
 1. Usar estos coeficientes para correlacionar
variables que tengan un impacto menor sobre los
resultados del modelo.
 2. Tratar de restringir su uso a correlacionar
distribuciones de geometría similar.
 3. Si se correlacionan distribuciones de geometría
diferente, antes de aceptar el coeficiente observar el
gráfico de puntos resultante.
 4. Evitar correlacionar distribuciones cuando no haya
una razón lógica que permita suponer una
correlación.
Matrices de Correlación
 Permiten correlacionar varias distribuciones
de probabilidad mediante coeficientes de
Spearman.
 Como la fórmula de los coeficientes de
correlación por orden de rango es simétrica,
los elementos de la matriz son simétricos
alrededor de la diagonal.
 Tiene que haber una cierta lógica en los
coeficientes ingresados (p.ej. condición
transitiva)
Efectos de la correlación sobre los
resultados del modelo
El efecto es función de:
 Relación entre las variables correlacionadas
y el resultado.
 Forma de las distribuciones correlacionadas.
Efecto de la correlación sobre el
resultado de la Suma de dos variables
correlacionadas (modelos aditivos)
 El valor esperado del resultado no se ve
afectado por la presencia de correlación.
 El desvío standard del resultado aumenta a
medida que aumenta r (si las variables
correlacionadas “tiran” el resultado para el mismo
lado).
Efecto de la correlación sobre el resultado
del producto de dos variables
correlacionadas (modelos multiplicativos)
 El valor esperado del resultado aumenta a
medida que aumenta r (toda la distribución se
desplaza hacia la derecha a medida que
aumenta r).
 No se pueden hacer generalizaciones
respecto al desvío standard, aunque en
general aumenta a medida que aumenta r.
Coeficientes de correlación a partir de la
opinión de expertos
 1. Determinar la lógica de la relación entre
las variables a correlacionar
 2. Determinar cuál es la variable
independiente
 3. Definir la distribución de la variable
independiente
 4. Seleccionar varios valores de la variable
independiente (incluyendo mínimo, máximo y
al menos otros dos puntos relevantes)
Coeficientes de correlación a partir de la
opinión de expertos (cont.)
 5. Preguntar al experto por algunos valores de
interés de la variable dependiente (mínimos,
máximos, más probable) que estima se
corresponderían con cada valor de la variable
independiente.
 6. Plotear estos valores y encontrar las
ecuaciones que unan cada conjunto de valores.
 7. Usar estas ecuaciones en una distribución
Triangular o BetaPert para definir la variable
dependiente.
Determinación de la contribución
relativa de cada variable a la variabilidad
del resultado
 Los coeficientes de correlación entre el
resultado y las variables dan una idea de la
influencia de cada variable, pero no
cuantifican esta influencia.
 Si el modelo es aditivo, la contribución
relativa de cada variable a la variabilidad total
puede estimarse de la siguiente manera:
– 1. Calcular el coeficiente de correlación
entre cada variable y el resultado.
– 2. Calcular la suma de estas correlaciones.
– 3. Dividir cada coeficiente por la suma.
Las fracciones resultantes representan
aproximadamente la contribución relativa
de cada variable a la variabilidad total.
 Cuando el modelo no es aditivo y/o las variables
no son independientes:
– 1. Correr una simulación inicial, con todas las
variables especificadas.
– 2. Correr luego varias simulaciones, en cada una de
las cuales se “congela” una variable en su valor
esperado.
– 3. Anotar el desvío standard del resultado de cada
simulación.
– 4. Calcular la reducción en la variabilidad del
resultado para cada simulación en la cual se haya
“congelado” una variable.
– 5. Normalizar dividiendo el valor absoluto de la
reducción por la suma de todas las reducciones. Las
fracciones resultantes darán una estimación de la
contribución porcentual de cada variable a la

Más contenido relacionado

Similar a Análisis de riesgos

130447032 inferencia-estadistica-unidad-ii (1)
130447032 inferencia-estadistica-unidad-ii (1)130447032 inferencia-estadistica-unidad-ii (1)
130447032 inferencia-estadistica-unidad-ii (1)EstesoyyoEmanuel Gonzalez
 
Estimación de parámetros para muestras grandes
Estimación de parámetros para muestras grandes Estimación de parámetros para muestras grandes
Estimación de parámetros para muestras grandes Mauricio Gramajo Zoireff
 
2. FFF ESTADISTICA APLICADA AL CONTROL DE CALIDAD.ppt
2.   FFF ESTADISTICA APLICADA AL CONTROL DE CALIDAD.ppt2.   FFF ESTADISTICA APLICADA AL CONTROL DE CALIDAD.ppt
2. FFF ESTADISTICA APLICADA AL CONTROL DE CALIDAD.pptFernandoPerez364783
 
Inferencia estadistica
Inferencia estadisticaInferencia estadistica
Inferencia estadisticaNico Stroili
 
Distribuciones Muestrales y Estimación de los Parámetros de una Población
Distribuciones Muestrales y Estimación de los Parámetros de una PoblaciónDistribuciones Muestrales y Estimación de los Parámetros de una Población
Distribuciones Muestrales y Estimación de los Parámetros de una Poblaciónjosegonzalez1606
 
inferencia.pdf
inferencia.pdfinferencia.pdf
inferencia.pdfyolu2
 
Medidasdetendenciacentralydispersion.pdf
Medidasdetendenciacentralydispersion.pdfMedidasdetendenciacentralydispersion.pdf
Medidasdetendenciacentralydispersion.pdfleyonat
 
Estadistica silvia
Estadistica silviaEstadistica silvia
Estadistica silviaSilvi Guanga
 

Similar a Análisis de riesgos (20)

Inferencia tema4
Inferencia tema4Inferencia tema4
Inferencia tema4
 
211 209-1-pb
211 209-1-pb211 209-1-pb
211 209-1-pb
 
130447032 inferencia-estadistica-unidad-ii (1)
130447032 inferencia-estadistica-unidad-ii (1)130447032 inferencia-estadistica-unidad-ii (1)
130447032 inferencia-estadistica-unidad-ii (1)
 
Estimación de parámetros para muestras grandes
Estimación de parámetros para muestras grandes Estimación de parámetros para muestras grandes
Estimación de parámetros para muestras grandes
 
Hidroesta
HidroestaHidroesta
Hidroesta
 
Clase03 - Estadistica Descriptiva.ppt
Clase03 - Estadistica Descriptiva.pptClase03 - Estadistica Descriptiva.ppt
Clase03 - Estadistica Descriptiva.ppt
 
Clase04 estadistica descriptiva
Clase04   estadistica descriptivaClase04   estadistica descriptiva
Clase04 estadistica descriptiva
 
La estimación
La estimaciónLa estimación
La estimación
 
2. FFF ESTADISTICA APLICADA AL CONTROL DE CALIDAD.ppt
2.   FFF ESTADISTICA APLICADA AL CONTROL DE CALIDAD.ppt2.   FFF ESTADISTICA APLICADA AL CONTROL DE CALIDAD.ppt
2. FFF ESTADISTICA APLICADA AL CONTROL DE CALIDAD.ppt
 
Estimacion
EstimacionEstimacion
Estimacion
 
Pruebas de hipótesis e inferencia estadística
Pruebas de hipótesis e inferencia estadísticaPruebas de hipótesis e inferencia estadística
Pruebas de hipótesis e inferencia estadística
 
Inferencia estadistica
Inferencia estadisticaInferencia estadistica
Inferencia estadistica
 
Simulacion uam
Simulacion uamSimulacion uam
Simulacion uam
 
[Resumen] Simulacion de montecarlo
[Resumen] Simulacion de montecarlo[Resumen] Simulacion de montecarlo
[Resumen] Simulacion de montecarlo
 
Estadística aplicada ing civil
Estadística aplicada ing civilEstadística aplicada ing civil
Estadística aplicada ing civil
 
Distribuciones Muestrales y Estimación de los Parámetros de una Población
Distribuciones Muestrales y Estimación de los Parámetros de una PoblaciónDistribuciones Muestrales y Estimación de los Parámetros de una Población
Distribuciones Muestrales y Estimación de los Parámetros de una Población
 
inferencia.pdf
inferencia.pdfinferencia.pdf
inferencia.pdf
 
Estimacion de Parámetro.pdf
Estimacion de Parámetro.pdfEstimacion de Parámetro.pdf
Estimacion de Parámetro.pdf
 
Medidasdetendenciacentralydispersion.pdf
Medidasdetendenciacentralydispersion.pdfMedidasdetendenciacentralydispersion.pdf
Medidasdetendenciacentralydispersion.pdf
 
Estadistica silvia
Estadistica silviaEstadistica silvia
Estadistica silvia
 

Último

CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdfCALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdfPOULANDERSONDELGADOA2
 
Familias_más_ricas_de_AL_en_la_historia.pdf
Familias_más_ricas_de_AL_en_la_historia.pdfFamilias_más_ricas_de_AL_en_la_historia.pdf
Familias_más_ricas_de_AL_en_la_historia.pdfJC Díaz Herrera
 
Los más ricos administradores de fondo de cobertura (1968-2024).pdf
Los más ricos administradores de fondo de cobertura (1968-2024).pdfLos más ricos administradores de fondo de cobertura (1968-2024).pdf
Los más ricos administradores de fondo de cobertura (1968-2024).pdfJC Díaz Herrera
 
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdfPosiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdfJC Díaz Herrera
 
Evolución de la fortuna de la familia Slim (1994-2024).pdf
Evolución de la fortuna de la familia Slim (1994-2024).pdfEvolución de la fortuna de la familia Slim (1994-2024).pdf
Evolución de la fortuna de la familia Slim (1994-2024).pdfJC Díaz Herrera
 
presentacion de conjuntos para primaria.ppt
presentacion de conjuntos para primaria.pptpresentacion de conjuntos para primaria.ppt
presentacion de conjuntos para primaria.pptMelina Alama Visitacion
 
Posiciones en el IDH global de EUA (1950-2024).pdf
Posiciones en el IDH global de EUA (1950-2024).pdfPosiciones en el IDH global de EUA (1950-2024).pdf
Posiciones en el IDH global de EUA (1950-2024).pdfJC Díaz Herrera
 
Partes y elementos de una iglesia básicos
Partes y elementos de una iglesia básicosPartes y elementos de una iglesia básicos
Partes y elementos de una iglesia básicosMarycarmenNuez4
 
Gestión Logística maria palmira guti cabajal
Gestión Logística maria palmira guti cabajalGestión Logística maria palmira guti cabajal
Gestión Logística maria palmira guti cabajalMarcosAlvarezSalinas
 
Triptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudirTriptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudirluis809799
 
triptico-de-las-drogas en la adolescencia
triptico-de-las-drogas en la adolescenciatriptico-de-las-drogas en la adolescencia
triptico-de-las-drogas en la adolescenciaferg6120
 
Cuáles son las características biológicas que están marcadas en tu individual...
Cuáles son las características biológicas que están marcadas en tu individual...Cuáles son las características biológicas que están marcadas en tu individual...
Cuáles son las características biológicas que están marcadas en tu individual...israel garcia
 
Novelas Turcas vs Series de EUA en audiencia (2024).pdf
Novelas Turcas vs Series de EUA en audiencia  (2024).pdfNovelas Turcas vs Series de EUA en audiencia  (2024).pdf
Novelas Turcas vs Series de EUA en audiencia (2024).pdfJC Díaz Herrera
 
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdf
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdfIndustria musical de EUA vs Industria musical Corea del Sur (2024).pdf
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdfJC Díaz Herrera
 
AA CUADRO DE TEORIA DEL CASO. (1) (1).docx
AA CUADRO DE TEORIA DEL CASO. (1) (1).docxAA CUADRO DE TEORIA DEL CASO. (1) (1).docx
AA CUADRO DE TEORIA DEL CASO. (1) (1).docxLuisAngelYomonaYomon
 
Panorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATOPanorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATOJuan Carlos Fonseca Mata
 
CNEB-CURRICULO NACIONAL DE EDUCACION BASICA
CNEB-CURRICULO NACIONAL DE EDUCACION BASICACNEB-CURRICULO NACIONAL DE EDUCACION BASICA
CNEB-CURRICULO NACIONAL DE EDUCACION BASICAYOSHELINSARAIMAMANIS2
 
Análisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de CyclisticAnálisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de CyclisticJamithGarcia1
 
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptxINTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptxJamesHerberthBacaTel
 
Los artistas mexicanos con más ventas de discos en la historia (2024).pdf
Los artistas mexicanos con más ventas de discos en la historia (2024).pdfLos artistas mexicanos con más ventas de discos en la historia (2024).pdf
Los artistas mexicanos con más ventas de discos en la historia (2024).pdfJC Díaz Herrera
 

Último (20)

CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdfCALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
 
Familias_más_ricas_de_AL_en_la_historia.pdf
Familias_más_ricas_de_AL_en_la_historia.pdfFamilias_más_ricas_de_AL_en_la_historia.pdf
Familias_más_ricas_de_AL_en_la_historia.pdf
 
Los más ricos administradores de fondo de cobertura (1968-2024).pdf
Los más ricos administradores de fondo de cobertura (1968-2024).pdfLos más ricos administradores de fondo de cobertura (1968-2024).pdf
Los más ricos administradores de fondo de cobertura (1968-2024).pdf
 
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdfPosiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
 
Evolución de la fortuna de la familia Slim (1994-2024).pdf
Evolución de la fortuna de la familia Slim (1994-2024).pdfEvolución de la fortuna de la familia Slim (1994-2024).pdf
Evolución de la fortuna de la familia Slim (1994-2024).pdf
 
presentacion de conjuntos para primaria.ppt
presentacion de conjuntos para primaria.pptpresentacion de conjuntos para primaria.ppt
presentacion de conjuntos para primaria.ppt
 
Posiciones en el IDH global de EUA (1950-2024).pdf
Posiciones en el IDH global de EUA (1950-2024).pdfPosiciones en el IDH global de EUA (1950-2024).pdf
Posiciones en el IDH global de EUA (1950-2024).pdf
 
Partes y elementos de una iglesia básicos
Partes y elementos de una iglesia básicosPartes y elementos de una iglesia básicos
Partes y elementos de una iglesia básicos
 
Gestión Logística maria palmira guti cabajal
Gestión Logística maria palmira guti cabajalGestión Logística maria palmira guti cabajal
Gestión Logística maria palmira guti cabajal
 
Triptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudirTriptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudir
 
triptico-de-las-drogas en la adolescencia
triptico-de-las-drogas en la adolescenciatriptico-de-las-drogas en la adolescencia
triptico-de-las-drogas en la adolescencia
 
Cuáles son las características biológicas que están marcadas en tu individual...
Cuáles son las características biológicas que están marcadas en tu individual...Cuáles son las características biológicas que están marcadas en tu individual...
Cuáles son las características biológicas que están marcadas en tu individual...
 
Novelas Turcas vs Series de EUA en audiencia (2024).pdf
Novelas Turcas vs Series de EUA en audiencia  (2024).pdfNovelas Turcas vs Series de EUA en audiencia  (2024).pdf
Novelas Turcas vs Series de EUA en audiencia (2024).pdf
 
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdf
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdfIndustria musical de EUA vs Industria musical Corea del Sur (2024).pdf
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdf
 
AA CUADRO DE TEORIA DEL CASO. (1) (1).docx
AA CUADRO DE TEORIA DEL CASO. (1) (1).docxAA CUADRO DE TEORIA DEL CASO. (1) (1).docx
AA CUADRO DE TEORIA DEL CASO. (1) (1).docx
 
Panorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATOPanorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATO
 
CNEB-CURRICULO NACIONAL DE EDUCACION BASICA
CNEB-CURRICULO NACIONAL DE EDUCACION BASICACNEB-CURRICULO NACIONAL DE EDUCACION BASICA
CNEB-CURRICULO NACIONAL DE EDUCACION BASICA
 
Análisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de CyclisticAnálisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de Cyclistic
 
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptxINTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
INTRODUCCION-A-LOS-ALGORITMOS-BASICOS.pptx
 
Los artistas mexicanos con más ventas de discos en la historia (2024).pdf
Los artistas mexicanos con más ventas de discos en la historia (2024).pdfLos artistas mexicanos con más ventas de discos en la historia (2024).pdf
Los artistas mexicanos con más ventas de discos en la historia (2024).pdf
 

Análisis de riesgos

  • 1. UCEMA – ITBA MEP Análisis de Riesgo en Evaluación de Proyectos Simulación MonteCarlo Alejandro Bustamante
  • 2.  La Evaluación de Riesgos es la cuantificación de la probabilidad de ocurrencia y del impacto potencial de diferentes fuentes de riesgo.  El Análisis de Riesgos es el proceso de: – identificación de fuentes de riesgo, – evaluación cuantitativa y cualitativa del riesgo, – administración del riesgo, – comunicación a las partes interesadas de la evaluación hecha y las decisiones tomadas.
  • 3.  Hay dos componentes que explican nuestra incapacidad para predecir en forma precisa un evento futuro:  Riesgo: es un efecto aleatorio propio del sistema bajo análisis. Se puede reducir alterando el sistema.  Incertidumbre es el nivel de ignorancia del evaluador acerca de los parámetros que caracterizan el sistema a modelar. Se puede reducir a veces con mediciones adicionales o mayor estudio, o consulta a expertos.  La Variabilidad Total es la combinación de riesgo e incertidumbre.
  • 4.  Tanto el riesgo como la incertidumbre se describen mediante distribuciones de probabilidad.  Por lo tanto, una distribucion de probabilidad puede reflejar en parte el carácter estocástico del sistema analizado y en parte la incertidumbre acerca del comportamiento de la variable.  Los resultados que se obtengan de un modelo de este tipo reflejaran la variabilidad total: el efecto conjunto de riesgo e incertidumbre.
  • 5. Distribución de Probabilidad  Una distribución de probabilidad describe el rango de valores que puede tomar una variable aleatoria y la probabilidad asignada a cada valor o rango de valores.
  • 6. Probabilidad: Frecuentista y Subjetiva  Para eventos repetibles y medibles, la probabilidad representa la frecuencia relativa de ocurrencia de un evento.  Para eventos que no son repetibles o mensurables, la probabilidad es la expresión del grado de creencia que tiene un individuo acerca de la ocurrencia de un evento incierto. Desde este punto de vista, las probabilidades son en última instancia subjetivas por naturaleza, y es posible que dos personas asignen diferente probabilidad de ocurrencia a un mismo evento.
  • 7.  Separar el riesgo de la incertidumbre permite entender qué pasos podrían tomarse que sean más efectivos para reducir la variabilidad total.  Si una proporción importante de la variabilidad total se debe a incertidumbre, entonces nuestra estimación acerca del futuro podría mejorarse recopilando mejor información.  Si una proporción importante de la variabilidad total se debiera a riesgo, la única manera de reducir la variabilidad total es modificando el sistema analizado.
  • 8. Administración del Riesgo  Negociar las variables negociables  Aumentar el compromiso  Buscar más información  Tomar precauciones adicionales  Compartir el riesgo  Transferir el riesgo  Formular planes de contingencia  No tomar medidas, asumir el riesgo  Cancelar el proyecto  Administración de portfolio
  • 9. Presentación de modelos Un modelo es una herramienta de análisis y de comunicación. Como tal, debe ser entendido no solo por quien lo diseñó sino también por terceros.  1. Presentar claramente la estructura lógica y los supuestos empleados.  2. Incluír solamente las estadísticas indispensables.  3. Usar gráficos para transmitir conceptos.  4. Los resultados obtenidos deben responder a los interrogantes planteados.  5. No incluír en el informe más información que la necesaria. Derivar los datos de apoyo a los Anexos.
  • 10. Simulación MonteCarlo  1. Diseñar el modelo lógico de decisión  2. Especificar distribuciones de probabilidad para las variables aleatorias relevantes.  3. Incluír posibles dependencias entre variables.  4. Muestrear valores de las variables aleatorias  5. Calcular el resultado del modelo según los valores del muestreo (iteración) y registrar el resultado  6. Repetir el proceso hasta tener una muestra estadísticamente representativa  7. Obtener la distribución de frecuencias del resultado de las iteraciones  8. Calcular media, desvío y curva de percentiles acumulados
  • 11. Ley de los Grandes Números (desigualdad de Tschebycheff)  Cuanto mayor sea el tamaño de la muestra, mayor será el ajuste entre la distribución muestral y la distribución teórica sobre la que se basa la muestra.
  • 12. Teorema Central del Límite (TCL)  La media muestral de un conjunto de n variables muestreadas en forma independiente a partir de una misma distribución f(x) se ajusta a una distribución aprox. Normal con los siguientes parámetros: x = Normal ( mu, sigma / n1/2 )  En otras palabras, la distribución del promedio de un conjunto de variables aleatorias depende tanto de la cantidad de variables aleatorias promediadas como de la incertidumbre aportada por cada variable.
  • 13. Teorema Central del Límite (cont.)  La suma de n variables aleatorias independientes da como resultado una distribución aproximadamente Normal, sin importar la forma de la distribución de las variables sumadas (siempre y cuando no haya una variable cuya contribución a la variabilidad total sea dominante).  El producto de n variables aleatorias independientes da como resultado una distribución aproximadamente Lognormal, independientemente de la forma de la distribución de las variables intervinientes.
  • 14. Generación de valores muestrales  Las computadoras son capaces de generar números aleatorios entre 0 y 1.  Los algoritmos para generar números aleatorios comienzan con cualquier valor entre 0 y 1. Todos los números aleatorios que se generen a continuación dependerán de este valor inicial (semilla).
  • 15. Generación de valores muestrales  La función de Distribución Acumulada F(x) de una variable aleatoria indica la probabilidad p que la variable X tome un valor menor o igual que x. F(x) = p (X<=x) A toda Función de Probabilidad Acumulada F(x) le corresponde una Función Inversa G (F(x)) = x La Función Inversa indica los valores de x asociados a distintos valores de F(x)
  • 16. Generación de valores muestrales  Para generar un valor muestral a partir de una distribución de probabilidad: – 1. Se genera un número aleatorio entre 0 y 1 a partir de una distribución Uniforme – 2. El valor obtenido se usa para alimentar la ecuación correspondiente a la Función Inversa de la distribución de probabilidad muestreada, de modo de generar un valor x para la variable aleatoria.
  • 17. Métodos de Muestreo: MonteCarlo  El muestreo MonteCarlo es totalmente aleatorio.  Esto implica que si el número de iteraciones no es lo suficientemente elevado, es posible que se sobremuestreen algunos segmentos de la distribución que se quiere replicar y se submuestreen otros segmentos.
  • 18. Métodos de muestreo: Hipercubo Latino  Es un método de muestreo estratificado sin reemplazo (muestreo con memoria). – 1. Se segmenta la distribución de probabilidad acumulada F(x) en n intervalos (donde n es el número de iteraciones a realizar) – 2. Se genera un número aleatorio que corresponderá a un determinado segmento de F(x). – 3. Se genera un segundo número aleatorio para determinar el punto preciso del muestreo dentro de ese intervalo F(x).
  • 19. Métodos de muestreo: Hipercubo Latino – 4. Se calcula el valor de x correspondiente a la Función Inversa G (F(x)). – 5. Se repite el proceso en la segunda iteración, pero descartando el segmento ya muestreado. – 6. Se repite el proceso hasta completar el número de iteraciones de la muestra.
  • 20. Intervalo de confianza para el resultado esperado  Para un tamaño de muestra n > 30 el intervalo del resultado esperado es: IC 100*(1-alfa) = x +/- t (alfa/2,n-1)*s/(n)1/2 t(alfa,n) es el valor de x tal que P(t>x)=alfa x - t *s/(n)1/2 < x < x + t *s/(n)1/2
  • 21. Tamaño de muestra necesario para lograr estimaciones dentro de tolerancia  Si la estimación del valor esperado debe tener una precisión representada por una tolerancia de desvío D en valor absoluto un porcentaje 100*(1-alfa) de las veces, entonces el tamaño de la muestra n necesario es: n = (zalfa/2)2 * (sigma)2 / (D) 2 zalfa = P (z>zalfa ) = alfa
  • 22. Distribuciones de Probabilidad  Fuentes de información para cuantificar la incertidumbre en variables aleatorias: – 1. Series de datos – 2. Opinión de expertos  Cuando se procura caracterizar a una variable aleatoria a partir de los datos disponibles se parte del supuesto que los datos observados son una muestra aleatoria de una distribución de probabilidad que trataremos de identificar.
  • 23. Distribuciones de Probabilidad Discretas  Una variable aleatoria representada mediante una distribución discreta de probabilidad puede tomar un valor de entre un conjunto de valores, cada uno de los cuales tiene asignada una determinada probabilidad de ocurrencia.  Ejemplos: Binomial, Geométrica, Poisson, Discreta.
  • 24. Distribuciones de Probabilidad Continuas  Una variable aleatoria representada mediante una distribución continua de probabilidad puede tomar cualquier valor dentro de un rango determinado.  Ejemplos: Normal, Lognormal, Uniforme, Triangular, Histograma
  • 25. Distribuciones de Probabilidad No Limitadas  La variable aleatoria puede tomar valores entre +infinito y -infinito.  Ejemplos: Normal, Logística Limitadas  Los valores de la variable aleatoria quedan confinados entre dos valores extremos.  Ejemplos: Binomial, Beta, Uniforme, Triangular, Histograma Parcialmente Limitadas  Los valores de la variable aleatoria quedan limitados en uno de los extremos de la distribución.  Ejemplos: Poisson, Exponencial
  • 26. Distribuciones de Probabilidad Paramétricas  La distribución de probabilidad se ajusta a la descripción matemática de un proceso aleatorio que cumple con determinados supuestos teóricos.  Los parámetros que definen la distribución en general no guardan relación intuitiva con la forma de la distribución.  Ejemplos: Normal, Lognormal, Exponencial, Beta.
  • 27. Distribuciones de Probabilidad  Paramétricas (cont.)  Son de aplicación cuando: – 1. la teoría sobre la que se fundamenta una determinada distribución es aplicable al problema. – 2. se acepta que esa distribución da un buen ajuste de la variable aleatoria aunque no haya una teoría para explicarlo. – 3. la distribución se ajusta aproximadamente a la opinión del experto y no se requiere mucha precisión.
  • 28. Distribuciones de Probabilidad No Paramétricas  Los parámetros que se usan para definir estas distribuciones describen la forma de la distribución.  No se apoyan en una teoría que describa el proceso de generación de valores aleatorios.  Ejemplos: Triangular, Histograma, General, Uniforme, Acumulada
  • 29. Distribuciones de Probabilidad  No Paramétricas (cont.)  Estas distribuciones en general son más útiles cuando se busca recabar la opinión subjetiva de expertos, con las siguientes excepciones:  1. el experto puede estar muy familiarizado con los parámetros que definen una distribución paramétrica.  2. a veces los parámetros de una distribución paramétrica son intuitivos (p.ej. Binomial)
  • 30. Distribuciones de Probabilidad  Subjetivas  El uso de estas distribuciones de probabilidad es la única alternativa para describir una variable aleatoria cuando:  1. No hay una base de antecedentes.  2. Los datos del pasado no son relevantes.  3. Los datos son escasos y no cubren todo el rango de posibles valores.  4. Es demasiado caro generar datos.  5. Generar valores llevaría demasiado tiempo
  • 31. Distribuciones de Probabilidad Subjetivas (cont.)  En las estimaciones subjetivas hay dos fuentes de incertidumbre: – Variabilidad asociada a la variable aleatoria en sí . – Incertidumbre asociada a la falta de conocimiento sobre el comportamiento de la variable.  La distribución subjetiva especificada agrega ambas fuentes de incertidumbre
  • 32. Distribuciones de probabilidad a partir de Opinión de expertos Una técnica básica para obtener distribuciones subjetivas consiste en desagregar el problema en las variables que lo componen:  pone en evidencia la estructura lógica del problema de decisión  las variables del problema son algo más tangible de estimar que el resultado.  la desagregación facilita el reconocimiento de dependencias entre componentes del problema.
  • 33. Distribuciones a partir de Opinión de expertos Desagregación (cont.)  el análisis de riesgo es menos dependiente de las estimaciones hechas para cada componente  la estimación de la distribución del resultado del modelo a partir de la agregación de los componentes será más precisa que lo que podría haber sido de tratar de estimarla directamente  la agregación tendrá en cuenta los efectos del TCL en forma automática.
  • 34. Uniforme  Todos los valores dentro del rango factible tienen la misma densidad de probabilidad.  Parámetros : Uniform (min,max)  Aplicaciones: U(0,1) se usa en la generación de los valores de todas las demás distribuciones de probabilidad en el muestreo aleatorio.  Es una aproximación muy cruda para usar como estimación de la incertidumbre percibida de un parámetro
  • 35. Triangular  Aplicaciones: estimar subjetivamente la distribución de la variable aleatoria cuando todo lo que puede precisarse de la misma es el valor mínimo, el valor más probable y el valor máximo.  Parámetros: Triang (min, +prob, max)
  • 36. Triangular (cont.)  Sus propiedades estadísticas se derivan de su forma, no de una teoría subyacente.  Es de definición intuitiva y de gran flexibilidad en cuanto a geometrías posibles.  La forma de la distribución usualmente lleva a sobreestimar la densidad de las colas y a subestimar la densidad en el “tronco” de la distribución.  Se pueden definir el valor mínimo y el valor máximo como umbrales de ocurrencia práctica. En vez de tomarlos como valores absolutos, se los toma como percentiles, dejando “abiertas las colas”.
  • 37. Histograma  Aplicaciones: representar la forma de la distribución de una serie de datos o la opinión de un experto acerca de la forma de la distribución de una variable.  Parámetros: Histogram (min, max, {pi}  Todos los intervalos de la distribución tienen el mismo “ancho”.
  • 38. General  Aplicaciones: reflejar la opinión de expertos. Es la más flexible de las distribuciones continuas. Es un histograma “estilizado”.  Parámetros: General (min, max, {xi} , {pi}  Es posible, aunque no es recomendable, especificar intervalos de distinto “ancho”.
  • 39. Acumulada  Aplicaciones: recabar opinión de expertos.  Parámetros: Cumulative ({xi},{Pi},min,max)  Puede ser de utilidad cuando se procura estimar una variable cuyo rango cubre varios órdenes de magnitud.  Desventajas: insensibilidad de la escala de probabilidades. Es más facil representar la variabilidad que se quiere reflejar cuando se trabaja con distribuciones de frecuencia relativa.
  • 40. BetaPert  Es una versión de la distribución Beta que usa los mismos supuestos acerca de la media de una variable aleatoria que las redes PERT.  Parámetros: BetaPert (a,b,c)
  • 41. BetaPert (cont.)  1. La media de una distribución BetaPert es cuatro veces más sensible al valor medio que a los valores extremos.  2. El desvío standard de una distribución BetaPert es menos sensible a los valores extremos que la distribución Triangular. El desvío standard de una distribución BetaPert es sistemáticamente menor que el de una Triangular, particularmente cuando las distribuciones son sesgadas.
  • 42. Discreta Aplicaciones:  1. Describir una variable aleatoria que puede tomar uno de entre un conjunto de valores discretos.  2. Describir probabilidades condicionales para distintos estados de la naturaleza, donde cada estado de la naturaleza tiene una probabilidad de ocurrencia p.  3. Armar distribuciones de probabilidad compuestas a partir de la opinión de dos o más expertos, donde a la opinión de cada experto se le otorga una ponderación p.  Parámetros: Discrete ({xi},{pi}
  • 43. Obtención de distribuciones de probabilidad a partir de opiniones diferentes  Definir una distribución Discreta donde {xi} representa la opinión de los expertos y {pi} es la ponderación asignada a cada opinión. Enfoques incorrectos:  Tomar la opinión más conservadora (no se usa toda la información disponibles, se genera una distribución sesgada)  Promediar los valores de las opiniones: se subestima la variabilidad (recordar TCL)
  • 44. Series de datos: Selección de Distribuciones  1. ¿Se trata de una variable discreta o continua?  2. ¿Es realmente necesario ajustar los datos a una distribución de probabilidad teórica?  3. ¿Hay correspondencia entre el rango teórico de la variable y la distribución a ajustar?
  • 45. Distribuciones empíricas: variables Discretas  1. Si la cantidad de datos no es muy elevada, la frecuencia de datos para cada valor de x puede ser usada directamente para definir una distribución Discreta.  2. Si hay muchos datos, es más fácil ordenar los datos en forma de histograma y definir entonces una distribución Acumulada con parámetros {xi} , {F(xi)} , min , max  Se puede reintroducir el caracter discreto de la variable incluyendo la distribución Acumulada dentro de una función ROUND (redondeo)
  • 46. Distribuciones empíricas: variables Continuas  1. Se plotea la frecuencia acumulada de los datos observados.  2. Se hace un ranking de los datos en orden ascendente.  3. Se estima un mínimo y un máximo en forma subjetiva.  4. Se calcula la probabilidad acumulada para cada valor de x según la fórmula: F(xi) = i / (n+1) i = rango del dato observado n = cantidad de datos observados  {xi} , {F(xi)} , min , max serán parámetros que se usen para definir una distribución Acumulada
  • 47. Procesos estocásticos  Un proceso estocástico es un sistema de eventos que se pueden contar, en el que los eventos ocurren de acuerdo a un proceso aleatorio bien definido.
  • 48. Distribuciones de probabilidad para Procesos Discretos  Un Proceso Discreto se caracteriza por una probabilidad p de ocurrencia de un evento discreto en cada prueba. Una vez que se tiene una estimación de p, se pueden estimar:  1. Distribución de la cantidad s de ocurrencia de un evento en n pruebas: Binomial (n,p)  2. Distribución de la cantidad de pruebas hasta que ocurra un evento por primera vez :1 + Geométrica (p)  3. Distribución de la cantidad de pruebas hasta que ocurran s eventos: s + Negbin (s,p)
  • 49. Distribuciones de probabilidad para Procesos Discretos  Para que las distribuciones de probabilidad mencionadas sean de aplicación se debe cumplir el supuesto que el sistema a estudiar tiene las características de un Proceso Binomial.  Proceso Binomial: la probabilidad de ocurrencia de un evento es constante e independiente de la cantidad o proximidad en el tiempo de eventos ya ocurridos.
  • 50. Beta  Aplicaciones: estimar la probabilidad de ocurrencia p de un evento, a partir de la observación de s eventos en n pruebas.  Parámetros: Beta (alfa1,alfa2) alfa 1 : s+1 alfa2: n-s+1  La distribución Beta puede tomar muchas formas, según los valores de alfa1 y alfa2.  A medida que aumenta n, se gana precisión en la estimación de p (la distribución de p se comprime)
  • 51. Dada la gran variedad de formas que puede asumir según los valores asignados a los parámetros, la distribución Beta también se usa para describir datos empíricos.  Si los valores de ambos parámetros son iguales, Beta es simétrica.  Si alfa1 es menor que alfa2, la distribución está sesgada hacia la derecha.  Si alfa1 es mayor que alfa2, la distribución está sesgada hacia la izquierda
  • 52. Binomial  Aplicaciones: estimar la distribución de la cantidad s de ocurrencias de un evento en n pruebas, cuando hay una probabilidad p de ocurrencia del evento en cada prueba.  Parámetros: Binomial (n,p)  Para n>30 o cuando p es alta, la distribución Binomial puede ser aproximada por una distribución Normal ((np),(npq)1/2).
  • 53. Condiciones subyacentes a una distribución Binomial  En cada prueba sólo hay dos resultados posibles  Las pruebas son independientes (lo que ocurre en la primera prueba no afecta a la segunda, y sucesivamente).  La probabilidad de ocurrencia del evento se mantiene constante a través de las pruebas (no hay un proceso de aprendizaje)
  • 54. Geométrica  Aplicaciones: estimar la cantidad n de pruebas necesarias hasta la ocurrencia del primer evento, cuando la probabilidad p de ocurrencia de un evento se mantiene constante en el tiempo.  Parámetros: n = 1 + Geometric (p)  La distribución Geométrica es análoga a la distribución Exponencial: Geométrica se aplica a variables discretas, Exponencial se aplica a variables continuas.
  • 55. Condiciones subyacentes de una distribución Geométrica  La cantidad de eventos no está prefijada.  Se continúa con las pruebas hasta lograr el primer éxito.  La probabilidad de éxito p es constante a través de las pruebas.
  • 56. Binomial Negativa  Aplicaciones: estimar la distribución de la cantidad n de pruebas hasta que ocurran s eventos, cuando la probabilidad p de ocurrencia de un evento es constante en el tiempo.  Parámetros: n = s + Negbin (s,p) s es el parámetro que le da la forma a la distribución.
  • 57. Condiciones subyacentes de una distribución Binomial Negativa  La cantidad de pruebas no está prefijada.  Se continúa con las pruebas hasta que se observa la cantidad de eventos (s) buscada.  La probabilidad de éxito p es constante de prueba a prueba.
  • 58. Distribución Hipergeométrica  Al igual que la distribución Binomial, esta distribución describe la cantidad de ocurrencias de un evento en una cantidad de pruebas.  La diferencia con la distribución Binomial es que a medida que se avanza con las pruebas cambia la probabilidad de ocurrencia del evento: pruebas sin reemplazo.
  • 59. Condiciones subyacentes de una distribución Hipergeométrica  La cantidad total de elementos de una población es finita.  La muestra representa una porción de la población.  La probabilidad de ocurrencia del evento en la población es conocida y cambia ligeramente luego de cada prueba.
  • 60. Distribuciones de probabilidad para Procesos Continuos  Un Proceso Continuo se caracteriza por un Intervalo Medio de Tiempo entre Eventos (beta).  Una vez que se tiene una estimación de beta, se puede estimar también:  1. Distribución de la cantidad de eventos por unidad de tiempo: Poisson (lambda)  2.Distribución de Tiempo hasta la ocurrencia del próximo evento: Exponencial (beta)  3. Distribución de Tiempo hasta que ocurran n eventos: Gamma (n, beta)
  • 61. Distribuciones de probabilidad para Procesos Continuos (cont.)  Para que estas distribuciones sean aplicables se debe cumplir el supuesto que el sistema estudiado tiene las características de un Proceso tipo Poisson.  Proceso tipo Poisson: la probabilidad de ocurrencia de un evento por unidad de exposición es constante e independiente de la cantidad o proximidad de eventos ocurridos.  La unidad de exposición puede ser cualquier variable continua (tiempo, distancia, etc)
  • 62. Estimación del Intervalo Medio de Tiempo entre Eventos (beta)  beta es el intervalo de exposición promedio entre n eventos observados.  El verdadero valor de beta puede ser estimado a partir de n eventos observados valiéndose del TCL:  beta = Normal (t,sigma/(n-1)1/2) t = promedio de los n-1 intervalos contiguos sigma = desvío standard de los ti intervalos.  La precisión de la estimación de beta aumenta a medida que aumenta n.
  • 63. Poisson  Aplicaciones: estimar la cantidad N de ocurrencias de un evento en un intervalo de tiempo T cuando el tiempo medio entre eventos sucesivos (beta) se ajusta a un proceso tipo Poisson.  Parámetros: N = Poisson (lambda * t) lambda = 1 / beta  Lambda se puede interpretar como la cantidad promedio de ocurrencias del evento por unidad de exposición.
  • 64. Condiciones subyacentes a una distribución Poisson  La cantidad de eventos por unidad de exposición no está limitada a un valor discreto.  Los eventos son independientes entre sí (el número de eventos en un intervalo de exposición no afecta al número de eventos en otro intervalo de exposición).  La cantidad promedio de eventos se mantiene constante de intervalo a intervalo.
  • 65. Exponencial  Aplicaciones: estimar la distribución del (tiempo) entre ocurrencias sucesivas de un evento que tiene una probabilidad de ocurrencia p constante por unidad de (tiempo).  Parámetros: Expon (beta)  Si la probabilidad p de ocurrencia del evento es constante a través del tiempo, la estimación del tiempo que medie hasta la ocurrencia del próximo evento es independiente del tiempo que haya transcurrido desde la última ocurrencia.
  • 66. Gamma  Aplicaciones: estimar la distribución del tiempo requerido para la ocurrencia de alfa eventos, cuando los eventos se ajustan a un Proceso tipo Poisson con tiempo medio de ocurrencia entre eventos beta.  Esta distribución se usa bastante en meteorología, seguros y teoría de colas.  Parámetros: Gamma (alfa, beta)
  • 67. Condiciones subyacentes de una distribución Gamma  La cantidad de posibles ocurrencias de un evento en cualquier unidad de medida no está limitada a valores discretos.  La ocurrencia de los eventos es independiente entre sí.  La cantidad promedio de ocurrencias del evento se mantiene constante entre intervalos sucesivos.
  • 68. Patrones lógicos comunes a Procesos Discretos y Continuos  En un Proceso Binomial, el parámetro descriptivo clave es p, probabilidad de ocurrencia del evento en cada prueba, que se asume constante para todas las pruebas  En un proceso Poisson, el parámetro descriptivo clave es lambda (cantidad media de eventos que ocurren por unidad de exposición) que se asume es constante sobre el período total de exposición.
  • 69. Weibull  La distribución Weibull (alfa,beta) asume que la probabilidad p de ocurrencia del evento cambia con el transcurso del tiempo. – alfa = 1 probabilidad constante (Exponencial) – alfa > 1 probabilidad creciente – alfa < 1 probabilidad decreciente. alfa es el parámetro de forma, beta es el parámetro de ubicación. El parámetro beta permite representar una distribución exponencial con valor mínimo distinto de 0.
  • 70. Normal  Aplicaciones: una variedad de situaciones, como se desprende del Teorema Central del Límite.  Es útil en finanzas pues la suma o diferencia de distribuciones Normales resulta también en una distribución Normal con parámetros que pueden ser determinados a partir del TCL.  Parámetros: Normal (mu,sigma)
  • 71. Estimación subjetiva de los parámetros de una Normal • Media: Valor más probable • Desvío: el intervalo +/- 2*sigma contiene el 95% de los valores, por lo tanto: Sigma: (máximo - más probable) / 2 • La distribución Normal se extiende de -inf a + inf, aunque si CV<1/3 la probabilidad de que ocurra un valor negativo es menor que 0.14%.
  • 72. Lognormal  Aplicaciones: modelizar variables que son el producto de una cantidad de otras variables aleatorias que ocurren naturalmente. Generalmente brinda una buena representación de variables que se extienden de 0 a +inf y que tienen un sesgo positivo.  Parámetros: Lognormal (mu,sigma) Se usan como parámetros la media aritmética y el desvío standard de los datos disponibles.
  • 73. Condiciones subyacentes de una distribución Lognormal  La variable aleatoria puede tomar valores que aumentan sin límites pero no puede tomar valores negativos.  La variable aleatoria tiene un sesgo positivo (modo < media) con la mayor parte de los valores cerca del límite inferior.  El logaritmo natural de la variable se ajusta a una distribución Normal.
  • 74. Pareto  Aplicaciones: modelar cualquier variable que tenga un valor mínimo (que también es el más probable) para la cual la densidad de probabilidad decrece geométricamente hacia cero.  Parámetros : Pareto (tita, a) a = valor mínimo y modal
  • 75. Valor Extremo (Gumbel)  Se usa para describir valores extremos de una variable en un período de tiempo (caudales, precipitaciones, fuerza de rotura de materiales, etc).  Parámetros : modo, parámetro de escala.  Los datos usados para ajustar los parámetros de la distribución pueden provenir de una submuestra de tamaño 2 x (n)1/2 que incluya los valores de un extremo de la muestra.
  • 76. Ajuste de los datos a una distribución teórica Los parámetros de la distribución que permitan lograr el mejor ajuste a los datos se determinan usualmente mediante alguno de los siguientes dos métodos:  1. Estimadores de Máxima Verosimilitud: maximizan la probabilidad que la distribución definida con estos parámetros sea capaz de generar los datos observados.  2. Minimización de las diferencias absolutas entre los valores de probabilidad acumulada observados y los derivados de la distribucón teórica (usando programas de optimización)
  • 77. Indicadores de Bondad de Ajuste Los indicadores estadísticos de Bondad de Ajuste más usados son 3:  1. Para distribuciones discretas y continuas, tanto numéricas como no numéricas: Chi cuadrado. Es el indicador menos potente.  2. Para distribuciones continuas: Kolmogorov-Smirnov (K-S). No es muy sensible para detectar discrepancias en las colas de la distribución.  3. Anderson-Darling (versión sofisticada de K-S), pone más énfasis en las colas.
  • 78. Indicadores de Bondad de Ajuste  Cuanto menor sea el valor de cada indicador, mayor será el ajuste aparente entre la distribución teórica y los datos observados.  Los valores standard de K-S y A-D son de uso limitado para comparar valores críticos cuando hay menos de 30 observaciones. Esto se puede corregir usando K-S y A-D modificados.  Hay muchas distribuciones que tienen formas similares y que pueden ser capaces de generar los datos observados.
  • 79. Dependencia y Correlación  Una relación de Dependencia ocurre cuando el valor muestreado de una variable (independiente) tiene una relación estadística que determina aproximadamente el valor que va a ser generado para la otra variable (dependiente).  La diferencia principal entre Dependencia y Correlación es que la primera presupone una relación causal, mientras que la segunda no (puede haber un factor externo que afecta a ambas variables).
  • 80. Correlación Lineal (Pearson)  El coeficiente r da una medida de la covarianza entre dos conjuntos de datos.  r puede tomar valores desde -1 a +1  Al dividir por los desvíos standard de cada conjunto de datos se logra un índice de covarianza que no depende de las unidades de medida en que están expresados los datos.  Supuestos: la relación entre variables es de tipo lineal.
  • 81. Correlación por orden de rango (Spearman)  Es un método no paramétrico para cuantificar la relación entre variables.  r puede tomar valores desde -1 a +1  Ventajas: – 1. Las variables se correlacionan de acuerdo al rango de valores generados en cada distribución. Esto significa que todas las distribuciones correlacionadas preservan su forma original. – 2. Como no depende de supuestos acerca de la relación matemática de las variables a correlacionar, puede ser aplicable a cualquier tipo de relación entre distribuciones (lineal, no lineal).
  • 82.  El coeficiente de correlación de Pearson mide la intensidad de la relación lineal entre variables.  Si dos variables aleatorias no tienen la misma distribución de probabilidad, es improbable que se relacionen en forma lineal, por lo que el coeficiente de correlación tendrá poco significado.  Si se toman los valores según rangos y no según valores absolutos, el coeficiente de correlación así calculado tiene sentido incluso para variables con diferentes distribuciones.
  • 83. Desventajas de correlacionar variables mediante el coeficiente Spearman  1. Es difícil estimar el coeficiente de correlación entre dos distribuciones de formas diferentes.  2. El mismo coeficiente de correlación puede resultar en diferentes gráficos de puntos para diferentes distribuciones correlacionadas. Esto puede ser aún más marcado si las distribuciones a correlacionar son diferentes.
  • 84. Recomendaciones respecto al uso de coeficientes de correlación de Spearman  1. Usar estos coeficientes para correlacionar variables que tengan un impacto menor sobre los resultados del modelo.  2. Tratar de restringir su uso a correlacionar distribuciones de geometría similar.  3. Si se correlacionan distribuciones de geometría diferente, antes de aceptar el coeficiente observar el gráfico de puntos resultante.  4. Evitar correlacionar distribuciones cuando no haya una razón lógica que permita suponer una correlación.
  • 85. Matrices de Correlación  Permiten correlacionar varias distribuciones de probabilidad mediante coeficientes de Spearman.  Como la fórmula de los coeficientes de correlación por orden de rango es simétrica, los elementos de la matriz son simétricos alrededor de la diagonal.  Tiene que haber una cierta lógica en los coeficientes ingresados (p.ej. condición transitiva)
  • 86. Efectos de la correlación sobre los resultados del modelo El efecto es función de:  Relación entre las variables correlacionadas y el resultado.  Forma de las distribuciones correlacionadas.
  • 87. Efecto de la correlación sobre el resultado de la Suma de dos variables correlacionadas (modelos aditivos)  El valor esperado del resultado no se ve afectado por la presencia de correlación.  El desvío standard del resultado aumenta a medida que aumenta r (si las variables correlacionadas “tiran” el resultado para el mismo lado).
  • 88. Efecto de la correlación sobre el resultado del producto de dos variables correlacionadas (modelos multiplicativos)  El valor esperado del resultado aumenta a medida que aumenta r (toda la distribución se desplaza hacia la derecha a medida que aumenta r).  No se pueden hacer generalizaciones respecto al desvío standard, aunque en general aumenta a medida que aumenta r.
  • 89. Coeficientes de correlación a partir de la opinión de expertos  1. Determinar la lógica de la relación entre las variables a correlacionar  2. Determinar cuál es la variable independiente  3. Definir la distribución de la variable independiente  4. Seleccionar varios valores de la variable independiente (incluyendo mínimo, máximo y al menos otros dos puntos relevantes)
  • 90. Coeficientes de correlación a partir de la opinión de expertos (cont.)  5. Preguntar al experto por algunos valores de interés de la variable dependiente (mínimos, máximos, más probable) que estima se corresponderían con cada valor de la variable independiente.  6. Plotear estos valores y encontrar las ecuaciones que unan cada conjunto de valores.  7. Usar estas ecuaciones en una distribución Triangular o BetaPert para definir la variable dependiente.
  • 91. Determinación de la contribución relativa de cada variable a la variabilidad del resultado  Los coeficientes de correlación entre el resultado y las variables dan una idea de la influencia de cada variable, pero no cuantifican esta influencia.
  • 92.  Si el modelo es aditivo, la contribución relativa de cada variable a la variabilidad total puede estimarse de la siguiente manera: – 1. Calcular el coeficiente de correlación entre cada variable y el resultado. – 2. Calcular la suma de estas correlaciones. – 3. Dividir cada coeficiente por la suma. Las fracciones resultantes representan aproximadamente la contribución relativa de cada variable a la variabilidad total.
  • 93.  Cuando el modelo no es aditivo y/o las variables no son independientes: – 1. Correr una simulación inicial, con todas las variables especificadas. – 2. Correr luego varias simulaciones, en cada una de las cuales se “congela” una variable en su valor esperado. – 3. Anotar el desvío standard del resultado de cada simulación. – 4. Calcular la reducción en la variabilidad del resultado para cada simulación en la cual se haya “congelado” una variable. – 5. Normalizar dividiendo el valor absoluto de la reducción por la suma de todas las reducciones. Las fracciones resultantes darán una estimación de la contribución porcentual de cada variable a la