SlideShare una empresa de Scribd logo
1 de 4
Descargar para leer sin conexión
Toma de Decisiones en Condiciones de Incertidumbre:
Porque las consecuencias son más relevantes que las
probabilidades.
Introducción
Han pasado casi 350 años desde que se publicó “Pensamientos”, y el enunciado más conocido de
esta obra es más relevante que nunca. La Apuesta de Pascal parece ser la forma pragmática de
tomar decisiones en condiciones de incertidumbre. En resumen, las consecuencias son más
importantes que la probabilidad.
El único modelo conocido por el hombre para cuantificar un riesgo es Probabilidad1
x Severidad2
.
Ambos componentes son notoriamente difíciles de estimar, pero generalmente se emplea un
mayor esfuerzo intelectual para establecer la probabilidad. Siendo que hay una serie de métodos
aceptados para obtener una probabilidad (promediar la opinión de expertos, usar datos históricos,
aplicar modelos de distribución, simulación Montecarlo y ciertas combinaciones de lo anterior).
La severidad, por otro lado, puede expresarse en un análisis del perfil de pago de la incertidumbre
que se enfrenta. El perfil podría tender a ser convexo (poco costo y alto potencial de ganancia) o
cóncavo (se gana poco pero se arriesga perder mucho … como todos los préstamos bancarios);
considerando además que la dirección de los errores tiende a ser conocida (Ejemplo,
generalmente los proyectos cuestan y demoran más de lo que se estima).
Independientemente del método que sea empleado para estimar probabilidades, existe un
problema epistemológico relacionado a las mismas.
Procesos aleatorios y probabilidades
Cualquier estimación de probabilidades depende del uso de supuestos. Los datos que se
empleen suponen una muestra, el método de cálculo implica un supuesto y el uso de un modelo
de distribución de probabilidad (cuando aplica) es un supuesto. Inherente a cada supuesto hay
un margen de error, la estimación del margen de error contiene supuestos sobre muestras y
cálculos, y este argumento se puede extender de forma recursiva indefinidamente. Una
1
Apreciación respecto a la frecuencia con la que se dará un evento. Ejemplo, la Comisión Nuclear
Japonesa estima el riesgo de muerte por exposición a radiación por un accidente en una planta
nuclear para la población que vive cerca de la misma no supera 1x10^6. En otras palabras,
estiman que es algo que ocurrirá una vez cada millón de años. Resulta obvio que la estimación
proviene de un modelo matemático (un asintótico), ya que no se cuenta con un millón de años de
datos.
2
Qué pasa una vez se materializa el evento. Siguiendo el ejemplo anterior, si vives cerca de la planta
nuclear: la muerte.
conclusión preliminar de esta problemática es que no puede existir una estimación cuyo resultado
sea la probabilidad 0, ni la probabilidad 100 (certeza). La verdad es probabilística o relativa, tal
como insisten los físicos cuánticos.
A continuación un ejemplo práctico de la problemática. De acuerdo a Moody’s la probabilidad
de que una contraparte corporativa con calificación de riesgo AAA incumpla en sus obligaciones en
un plazo de un año es cero. Ignorando por un minuto otros tipos de riesgo AAA que cayeron en
incumplimiento durante la crisis financiera internacional (o que cambiaron abruptamente de
calificación) y la probabilidad que Estados Unidos sufra un incumplimiento técnico en su deuda,
sabemos que la muestra es incompleta. Las empresas calificadas representan una porción
diminuta de la población de empresas existentes, y a su vez existen pocos incumplimientos.
Estos dos hechos son suficientes para invalidar conclusiones firmes sobre dicha estadística.
A lo anterior se adiciona uno de los problemas más grandes de las estadísticas en la administración
de riesgos; el uso de asintóticos (asumir de alguna forma que un supuesto se aproxima al infinito),
cuando la realidad humana se vive en el pre-asintótico (que representa además una fracción
insignificante del asintótico).
TODOS los datos económicos/financieros de los que existe registro en el planeta (incluyendo las
probabilidades de incumplimiento) tienen un comportamiento similar al que se ilustra a
continuación. Unas pocas observaciones explican un alto porcentaje de la dispersión de la
variable (estoy tomando algunos de los ejemplos más dramáticos por conveniencia).
• S&P 500: Una observación (1987) explica el 79% de la dispersión de la variable en un
período de 56 años.
• Plata: Una observación explica el 94% de la dispersión de la variable en un período de 46
años.
• Petróleo: Una observación explica el 79% de la dispersión de la variable en un período de
26 años.
• Bonos del Gobierno Japonés: Una observación explica el 48% de la dispersión de la
variable en un período de 24 años.
Volatilidad Diaria del S&P 500
Visto de forma gráfica, el mensaje es el mismo. Dependiendo del período de tiempo en el que
se tome la muestra (una suerte de pre-asintótico), las conclusiones respecto a las probabilidades
serán distintas y poco útiles para tomar decisiones futuras.
Ahora bien, aunque con un millón de años de observaciones se pueda decir algo respecto a la
probabilidad esta igual se enfrenta al problema del razonamiento inductivo de Hume3
. La
falsificación Popperiana es un marco de trabajo útil para lidiar con este gravísimo problema de
administración de riesgos. Básicamente se trata de observar el mayor valor aparente que tiene la
información negativa. Ejemplo, acumulamos mucha “evidencia” de que un cliente tiene buena
reputación … y luego comete un fraude. Sin embargo, si un cliente comete un fraude
(información negativa) es muy difícil que pueda concluir que su reputación es buena.
La Apuesta de Pascal en la Práctica
• Nunca podremos estar seguros de que es “poco” riesgo. La ausencia de evidencia no es
evidencia de ausencia. Esperemos que ya la banca internacional, los fondos de pensión, y
el público en general haya aprendido qué sucede cuando se acumula grandes
concentraciones de títulos “AAA”.
• Nadie, ni siquiera las calificadoras, cuenta con suficientes datos de incumplimiento como
para sacar conclusiones firmes.
• Es posible que no haya forma de acumular suficientes datos para tener certeza razonable
sobre la probabilidad de un evento. Sin embargo, la información negativa nos provee
una herramienta para establecer algunos límites a la incertidumbre.
• Generalmente sabemos de antemano qué nos pasaría frente a ciertos eventos
(convexidad o concavidad del perfil de pago y la dirección del error), lo que abre la
posibilidad de implementar medidas de administración de riesgos (reducir exposición,
diversificación, equilibrio de cartera a través de posiciones extremas, redundancia).
• Enfocarse en la probabilidad no implica una calamidad automática. Pero sugiere que la
decisión puede estar quedando en manos de la suerte.
Nota: Este escrito toma prestadas liberalmente las ideas (y todos los cálculos) de Benoit
Mandelbrot, Nassim Taleb, Brendan Moynihan, Jim Paul y por supuesto Blaise Pascal y Karl
Popper.
3
No importa cuanta evidencia se acumula respecto a un hecho, una observación nueva puede invalidar todo
lo anterior.
Anexo Técnico
La discusión a continuación es sobre el efecto exponencial que generan pequeños errores de
estimación en la cola de una distribución Gaussiana. Sin embargo, la conclusión se extiende a
cualquier modelo de distribución no importa cómo se haya modelado la cola del mismo (Extreme
Value Theory, Triangular, etc.).
Como muestra la tabla, para una distribución Gaussiana el error al estimar la probabilidad en las
colas tiene un efecto de convexidad muy fuerte. Una variación de 10% de la desviación estándar
altera la probabilidad estimada en un factor de 24 veces en seis sigmas. En la medida que el
evento es más inusual en la muestra (12 sigmas) el factor llega a 290,000 para una variación de
10%.
En otras palabras un pequeño error en la estimación de la probabilidad en la cola de la distribución
(y ya sabemos que hay muchos supuestos/errores involucrados en el cálculo) genera una enorme
variación en la probabilidad estimada. No se puede confiar en las estimaciones de
probabilidades en las colas de las distribuciones.

Más contenido relacionado

La actualidad más candente

9. diferencia entre p de hipótesis e intervalos de confianza
9.  diferencia entre p de hipótesis e intervalos de confianza9.  diferencia entre p de hipótesis e intervalos de confianza
9. diferencia entre p de hipótesis e intervalos de confianza
Yerko Bravo
 
Introducción a la Probabilidad
Introducción a la ProbabilidadIntroducción a la Probabilidad
Introducción a la Probabilidad
Paolo Castillo
 
Prueba de hipotesis y intervalos de confianza
Prueba de hipotesis y intervalos de confianzaPrueba de hipotesis y intervalos de confianza
Prueba de hipotesis y intervalos de confianza
Iselitaa Hernadez
 
Intervalos de confianza
Intervalos de confianzaIntervalos de confianza
Intervalos de confianza
Carol Ramos
 
¿Cómo se calcula una muestra? - Comité de Investigación IAB Mexico
¿Cómo se calcula una muestra? - Comité de Investigación IAB Mexico¿Cómo se calcula una muestra? - Comité de Investigación IAB Mexico
¿Cómo se calcula una muestra? - Comité de Investigación IAB Mexico
IAB México
 
Presentación estadistica
Presentación estadisticaPresentación estadistica
Presentación estadistica
karen yepez godoy
 
Proporcion poblacional
Proporcion poblacionalProporcion poblacional
Proporcion poblacional
Pao Aldaco
 
Ensayo de teoria de la probabilidad
Ensayo de teoria de la probabilidadEnsayo de teoria de la probabilidad
Ensayo de teoria de la probabilidad
Ing Julio Sierra
 
prueba de hipótesis e intervalo de confianza
prueba de hipótesis e intervalo de confianzaprueba de hipótesis e intervalo de confianza
prueba de hipótesis e intervalo de confianza
Kariina Buendia
 
Calculo muestra poblacion finita nvo
Calculo muestra poblacion finita nvoCalculo muestra poblacion finita nvo
Calculo muestra poblacion finita nvo
joselbis
 
Criterios de incertidumbre
Criterios de incertidumbreCriterios de incertidumbre
Criterios de incertidumbre
Zuli Apellidos
 
12. calculo de tamaño muestral
12.  calculo de tamaño muestral12.  calculo de tamaño muestral
12. calculo de tamaño muestral
Yerko Bravo
 
Prueba de hipótesis y intervalos de confianza
Prueba de hipótesis y intervalos de confianzaPrueba de hipótesis y intervalos de confianza
Prueba de hipótesis y intervalos de confianza
leonardo19940511
 

La actualidad más candente (20)

Artículo Tamaño de muestra
Artículo Tamaño de muestraArtículo Tamaño de muestra
Artículo Tamaño de muestra
 
9. diferencia entre p de hipótesis e intervalos de confianza
9.  diferencia entre p de hipótesis e intervalos de confianza9.  diferencia entre p de hipótesis e intervalos de confianza
9. diferencia entre p de hipótesis e intervalos de confianza
 
Introducción a la Probabilidad
Introducción a la ProbabilidadIntroducción a la Probabilidad
Introducción a la Probabilidad
 
Prueba de hipotesis y intervalos de confianza
Prueba de hipotesis y intervalos de confianzaPrueba de hipotesis y intervalos de confianza
Prueba de hipotesis y intervalos de confianza
 
Intervalos de confianza
Intervalos de confianzaIntervalos de confianza
Intervalos de confianza
 
Separata probabilidad
Separata probabilidadSeparata probabilidad
Separata probabilidad
 
¿Cómo se calcula una muestra? - Comité de Investigación IAB Mexico
¿Cómo se calcula una muestra? - Comité de Investigación IAB Mexico¿Cómo se calcula una muestra? - Comité de Investigación IAB Mexico
¿Cómo se calcula una muestra? - Comité de Investigación IAB Mexico
 
Presentación estadistica
Presentación estadisticaPresentación estadistica
Presentación estadistica
 
Proporcion poblacional
Proporcion poblacionalProporcion poblacional
Proporcion poblacional
 
Muestra y muestreo
Muestra y muestreoMuestra y muestreo
Muestra y muestreo
 
Ensayo de teoria de la probabilidad
Ensayo de teoria de la probabilidadEnsayo de teoria de la probabilidad
Ensayo de teoria de la probabilidad
 
Tamaño de la muestra
Tamaño de la muestraTamaño de la muestra
Tamaño de la muestra
 
Diapositivas prueba de hipotesis
Diapositivas prueba de hipotesisDiapositivas prueba de hipotesis
Diapositivas prueba de hipotesis
 
Probabilidades
ProbabilidadesProbabilidades
Probabilidades
 
prueba de hipótesis e intervalo de confianza
prueba de hipótesis e intervalo de confianzaprueba de hipótesis e intervalo de confianza
prueba de hipótesis e intervalo de confianza
 
Calculo muestra poblacion finita nvo
Calculo muestra poblacion finita nvoCalculo muestra poblacion finita nvo
Calculo muestra poblacion finita nvo
 
Variables aleatorias1
Variables aleatorias1Variables aleatorias1
Variables aleatorias1
 
Criterios de incertidumbre
Criterios de incertidumbreCriterios de incertidumbre
Criterios de incertidumbre
 
12. calculo de tamaño muestral
12.  calculo de tamaño muestral12.  calculo de tamaño muestral
12. calculo de tamaño muestral
 
Prueba de hipótesis y intervalos de confianza
Prueba de hipótesis y intervalos de confianzaPrueba de hipótesis y intervalos de confianza
Prueba de hipótesis y intervalos de confianza
 

Similar a Toma de Decisiones en Condiciones de Incertidumbre

control estadistico de procesos-prueba de hipotesis
control estadistico de procesos-prueba de hipotesiscontrol estadistico de procesos-prueba de hipotesis
control estadistico de procesos-prueba de hipotesis
Sonia Ynés Huaripaucar G
 
Probabilidad%20total
Probabilidad%20totalProbabilidad%20total
Probabilidad%20total
Juan K Lagla
 
Introducción a la probabilidad
Introducción a la probabilidadIntroducción a la probabilidad
Introducción a la probabilidad
rmagallon12
 

Similar a Toma de Decisiones en Condiciones de Incertidumbre (20)

Basic probability and applications
Basic probability and applicationsBasic probability and applications
Basic probability and applications
 
3 PPT INTRODUCCION A LA PROBABILIDAD.pdf
3 PPT INTRODUCCION A LA PROBABILIDAD.pdf3 PPT INTRODUCCION A LA PROBABILIDAD.pdf
3 PPT INTRODUCCION A LA PROBABILIDAD.pdf
 
control estadistico de procesos-prueba de hipotesis
control estadistico de procesos-prueba de hipotesiscontrol estadistico de procesos-prueba de hipotesis
control estadistico de procesos-prueba de hipotesis
 
Basic probability 2020
Basic probability 2020Basic probability 2020
Basic probability 2020
 
Probabilidad%20total
Probabilidad%20totalProbabilidad%20total
Probabilidad%20total
 
ESTADISTIKA.pdf
ESTADISTIKA.pdfESTADISTIKA.pdf
ESTADISTIKA.pdf
 
Presentación estadistica
Presentación estadisticaPresentación estadistica
Presentación estadistica
 
Revista de mate
Revista de mateRevista de mate
Revista de mate
 
Estadistica
EstadisticaEstadistica
Estadistica
 
Incertidumbre
IncertidumbreIncertidumbre
Incertidumbre
 
Revista de probabilidad
Revista de probabilidadRevista de probabilidad
Revista de probabilidad
 
Ce ps 2-08.01.2011
Ce ps 2-08.01.2011Ce ps 2-08.01.2011
Ce ps 2-08.01.2011
 
Clase 1 Marzo 29 2016-1.pdf
Clase 1 Marzo 29 2016-1.pdfClase 1 Marzo 29 2016-1.pdf
Clase 1 Marzo 29 2016-1.pdf
 
Introducción a la probabilidad
Introducción a la probabilidadIntroducción a la probabilidad
Introducción a la probabilidad
 
Probabilidades unidad 1
Probabilidades unidad 1Probabilidades unidad 1
Probabilidades unidad 1
 
Probabilidades unidad 1
Probabilidades unidad 1Probabilidades unidad 1
Probabilidades unidad 1
 
introduccion probabilidades
introduccion probabilidadesintroduccion probabilidades
introduccion probabilidades
 
Estadistica investigacion probabilidades
Estadistica investigacion probabilidadesEstadistica investigacion probabilidades
Estadistica investigacion probabilidades
 
Las probabilidadades
Las probabilidadadesLas probabilidadades
Las probabilidadades
 
Mic sesión 5
Mic sesión 5Mic sesión 5
Mic sesión 5
 

Toma de Decisiones en Condiciones de Incertidumbre

  • 1. Toma de Decisiones en Condiciones de Incertidumbre: Porque las consecuencias son más relevantes que las probabilidades. Introducción Han pasado casi 350 años desde que se publicó “Pensamientos”, y el enunciado más conocido de esta obra es más relevante que nunca. La Apuesta de Pascal parece ser la forma pragmática de tomar decisiones en condiciones de incertidumbre. En resumen, las consecuencias son más importantes que la probabilidad. El único modelo conocido por el hombre para cuantificar un riesgo es Probabilidad1 x Severidad2 . Ambos componentes son notoriamente difíciles de estimar, pero generalmente se emplea un mayor esfuerzo intelectual para establecer la probabilidad. Siendo que hay una serie de métodos aceptados para obtener una probabilidad (promediar la opinión de expertos, usar datos históricos, aplicar modelos de distribución, simulación Montecarlo y ciertas combinaciones de lo anterior). La severidad, por otro lado, puede expresarse en un análisis del perfil de pago de la incertidumbre que se enfrenta. El perfil podría tender a ser convexo (poco costo y alto potencial de ganancia) o cóncavo (se gana poco pero se arriesga perder mucho … como todos los préstamos bancarios); considerando además que la dirección de los errores tiende a ser conocida (Ejemplo, generalmente los proyectos cuestan y demoran más de lo que se estima). Independientemente del método que sea empleado para estimar probabilidades, existe un problema epistemológico relacionado a las mismas. Procesos aleatorios y probabilidades Cualquier estimación de probabilidades depende del uso de supuestos. Los datos que se empleen suponen una muestra, el método de cálculo implica un supuesto y el uso de un modelo de distribución de probabilidad (cuando aplica) es un supuesto. Inherente a cada supuesto hay un margen de error, la estimación del margen de error contiene supuestos sobre muestras y cálculos, y este argumento se puede extender de forma recursiva indefinidamente. Una 1 Apreciación respecto a la frecuencia con la que se dará un evento. Ejemplo, la Comisión Nuclear Japonesa estima el riesgo de muerte por exposición a radiación por un accidente en una planta nuclear para la población que vive cerca de la misma no supera 1x10^6. En otras palabras, estiman que es algo que ocurrirá una vez cada millón de años. Resulta obvio que la estimación proviene de un modelo matemático (un asintótico), ya que no se cuenta con un millón de años de datos. 2 Qué pasa una vez se materializa el evento. Siguiendo el ejemplo anterior, si vives cerca de la planta nuclear: la muerte.
  • 2. conclusión preliminar de esta problemática es que no puede existir una estimación cuyo resultado sea la probabilidad 0, ni la probabilidad 100 (certeza). La verdad es probabilística o relativa, tal como insisten los físicos cuánticos. A continuación un ejemplo práctico de la problemática. De acuerdo a Moody’s la probabilidad de que una contraparte corporativa con calificación de riesgo AAA incumpla en sus obligaciones en un plazo de un año es cero. Ignorando por un minuto otros tipos de riesgo AAA que cayeron en incumplimiento durante la crisis financiera internacional (o que cambiaron abruptamente de calificación) y la probabilidad que Estados Unidos sufra un incumplimiento técnico en su deuda, sabemos que la muestra es incompleta. Las empresas calificadas representan una porción diminuta de la población de empresas existentes, y a su vez existen pocos incumplimientos. Estos dos hechos son suficientes para invalidar conclusiones firmes sobre dicha estadística. A lo anterior se adiciona uno de los problemas más grandes de las estadísticas en la administración de riesgos; el uso de asintóticos (asumir de alguna forma que un supuesto se aproxima al infinito), cuando la realidad humana se vive en el pre-asintótico (que representa además una fracción insignificante del asintótico). TODOS los datos económicos/financieros de los que existe registro en el planeta (incluyendo las probabilidades de incumplimiento) tienen un comportamiento similar al que se ilustra a continuación. Unas pocas observaciones explican un alto porcentaje de la dispersión de la variable (estoy tomando algunos de los ejemplos más dramáticos por conveniencia). • S&P 500: Una observación (1987) explica el 79% de la dispersión de la variable en un período de 56 años. • Plata: Una observación explica el 94% de la dispersión de la variable en un período de 46 años. • Petróleo: Una observación explica el 79% de la dispersión de la variable en un período de 26 años. • Bonos del Gobierno Japonés: Una observación explica el 48% de la dispersión de la variable en un período de 24 años. Volatilidad Diaria del S&P 500
  • 3. Visto de forma gráfica, el mensaje es el mismo. Dependiendo del período de tiempo en el que se tome la muestra (una suerte de pre-asintótico), las conclusiones respecto a las probabilidades serán distintas y poco útiles para tomar decisiones futuras. Ahora bien, aunque con un millón de años de observaciones se pueda decir algo respecto a la probabilidad esta igual se enfrenta al problema del razonamiento inductivo de Hume3 . La falsificación Popperiana es un marco de trabajo útil para lidiar con este gravísimo problema de administración de riesgos. Básicamente se trata de observar el mayor valor aparente que tiene la información negativa. Ejemplo, acumulamos mucha “evidencia” de que un cliente tiene buena reputación … y luego comete un fraude. Sin embargo, si un cliente comete un fraude (información negativa) es muy difícil que pueda concluir que su reputación es buena. La Apuesta de Pascal en la Práctica • Nunca podremos estar seguros de que es “poco” riesgo. La ausencia de evidencia no es evidencia de ausencia. Esperemos que ya la banca internacional, los fondos de pensión, y el público en general haya aprendido qué sucede cuando se acumula grandes concentraciones de títulos “AAA”. • Nadie, ni siquiera las calificadoras, cuenta con suficientes datos de incumplimiento como para sacar conclusiones firmes. • Es posible que no haya forma de acumular suficientes datos para tener certeza razonable sobre la probabilidad de un evento. Sin embargo, la información negativa nos provee una herramienta para establecer algunos límites a la incertidumbre. • Generalmente sabemos de antemano qué nos pasaría frente a ciertos eventos (convexidad o concavidad del perfil de pago y la dirección del error), lo que abre la posibilidad de implementar medidas de administración de riesgos (reducir exposición, diversificación, equilibrio de cartera a través de posiciones extremas, redundancia). • Enfocarse en la probabilidad no implica una calamidad automática. Pero sugiere que la decisión puede estar quedando en manos de la suerte. Nota: Este escrito toma prestadas liberalmente las ideas (y todos los cálculos) de Benoit Mandelbrot, Nassim Taleb, Brendan Moynihan, Jim Paul y por supuesto Blaise Pascal y Karl Popper. 3 No importa cuanta evidencia se acumula respecto a un hecho, una observación nueva puede invalidar todo lo anterior.
  • 4. Anexo Técnico La discusión a continuación es sobre el efecto exponencial que generan pequeños errores de estimación en la cola de una distribución Gaussiana. Sin embargo, la conclusión se extiende a cualquier modelo de distribución no importa cómo se haya modelado la cola del mismo (Extreme Value Theory, Triangular, etc.). Como muestra la tabla, para una distribución Gaussiana el error al estimar la probabilidad en las colas tiene un efecto de convexidad muy fuerte. Una variación de 10% de la desviación estándar altera la probabilidad estimada en un factor de 24 veces en seis sigmas. En la medida que el evento es más inusual en la muestra (12 sigmas) el factor llega a 290,000 para una variación de 10%. En otras palabras un pequeño error en la estimación de la probabilidad en la cola de la distribución (y ya sabemos que hay muchos supuestos/errores involucrados en el cálculo) genera una enorme variación en la probabilidad estimada. No se puede confiar en las estimaciones de probabilidades en las colas de las distribuciones.