Toma de Decisiones en Condiciones de Incertidumbre
1. Toma de Decisiones en Condiciones de Incertidumbre:
Porque las consecuencias son más relevantes que las
probabilidades.
Introducción
Han pasado casi 350 años desde que se publicó “Pensamientos”, y el enunciado más conocido de
esta obra es más relevante que nunca. La Apuesta de Pascal parece ser la forma pragmática de
tomar decisiones en condiciones de incertidumbre. En resumen, las consecuencias son más
importantes que la probabilidad.
El único modelo conocido por el hombre para cuantificar un riesgo es Probabilidad1
x Severidad2
.
Ambos componentes son notoriamente difíciles de estimar, pero generalmente se emplea un
mayor esfuerzo intelectual para establecer la probabilidad. Siendo que hay una serie de métodos
aceptados para obtener una probabilidad (promediar la opinión de expertos, usar datos históricos,
aplicar modelos de distribución, simulación Montecarlo y ciertas combinaciones de lo anterior).
La severidad, por otro lado, puede expresarse en un análisis del perfil de pago de la incertidumbre
que se enfrenta. El perfil podría tender a ser convexo (poco costo y alto potencial de ganancia) o
cóncavo (se gana poco pero se arriesga perder mucho … como todos los préstamos bancarios);
considerando además que la dirección de los errores tiende a ser conocida (Ejemplo,
generalmente los proyectos cuestan y demoran más de lo que se estima).
Independientemente del método que sea empleado para estimar probabilidades, existe un
problema epistemológico relacionado a las mismas.
Procesos aleatorios y probabilidades
Cualquier estimación de probabilidades depende del uso de supuestos. Los datos que se
empleen suponen una muestra, el método de cálculo implica un supuesto y el uso de un modelo
de distribución de probabilidad (cuando aplica) es un supuesto. Inherente a cada supuesto hay
un margen de error, la estimación del margen de error contiene supuestos sobre muestras y
cálculos, y este argumento se puede extender de forma recursiva indefinidamente. Una
1
Apreciación respecto a la frecuencia con la que se dará un evento. Ejemplo, la Comisión Nuclear
Japonesa estima el riesgo de muerte por exposición a radiación por un accidente en una planta
nuclear para la población que vive cerca de la misma no supera 1x10^6. En otras palabras,
estiman que es algo que ocurrirá una vez cada millón de años. Resulta obvio que la estimación
proviene de un modelo matemático (un asintótico), ya que no se cuenta con un millón de años de
datos.
2
Qué pasa una vez se materializa el evento. Siguiendo el ejemplo anterior, si vives cerca de la planta
nuclear: la muerte.
2. conclusión preliminar de esta problemática es que no puede existir una estimación cuyo resultado
sea la probabilidad 0, ni la probabilidad 100 (certeza). La verdad es probabilística o relativa, tal
como insisten los físicos cuánticos.
A continuación un ejemplo práctico de la problemática. De acuerdo a Moody’s la probabilidad
de que una contraparte corporativa con calificación de riesgo AAA incumpla en sus obligaciones en
un plazo de un año es cero. Ignorando por un minuto otros tipos de riesgo AAA que cayeron en
incumplimiento durante la crisis financiera internacional (o que cambiaron abruptamente de
calificación) y la probabilidad que Estados Unidos sufra un incumplimiento técnico en su deuda,
sabemos que la muestra es incompleta. Las empresas calificadas representan una porción
diminuta de la población de empresas existentes, y a su vez existen pocos incumplimientos.
Estos dos hechos son suficientes para invalidar conclusiones firmes sobre dicha estadística.
A lo anterior se adiciona uno de los problemas más grandes de las estadísticas en la administración
de riesgos; el uso de asintóticos (asumir de alguna forma que un supuesto se aproxima al infinito),
cuando la realidad humana se vive en el pre-asintótico (que representa además una fracción
insignificante del asintótico).
TODOS los datos económicos/financieros de los que existe registro en el planeta (incluyendo las
probabilidades de incumplimiento) tienen un comportamiento similar al que se ilustra a
continuación. Unas pocas observaciones explican un alto porcentaje de la dispersión de la
variable (estoy tomando algunos de los ejemplos más dramáticos por conveniencia).
• S&P 500: Una observación (1987) explica el 79% de la dispersión de la variable en un
período de 56 años.
• Plata: Una observación explica el 94% de la dispersión de la variable en un período de 46
años.
• Petróleo: Una observación explica el 79% de la dispersión de la variable en un período de
26 años.
• Bonos del Gobierno Japonés: Una observación explica el 48% de la dispersión de la
variable en un período de 24 años.
Volatilidad Diaria del S&P 500
3. Visto de forma gráfica, el mensaje es el mismo. Dependiendo del período de tiempo en el que
se tome la muestra (una suerte de pre-asintótico), las conclusiones respecto a las probabilidades
serán distintas y poco útiles para tomar decisiones futuras.
Ahora bien, aunque con un millón de años de observaciones se pueda decir algo respecto a la
probabilidad esta igual se enfrenta al problema del razonamiento inductivo de Hume3
. La
falsificación Popperiana es un marco de trabajo útil para lidiar con este gravísimo problema de
administración de riesgos. Básicamente se trata de observar el mayor valor aparente que tiene la
información negativa. Ejemplo, acumulamos mucha “evidencia” de que un cliente tiene buena
reputación … y luego comete un fraude. Sin embargo, si un cliente comete un fraude
(información negativa) es muy difícil que pueda concluir que su reputación es buena.
La Apuesta de Pascal en la Práctica
• Nunca podremos estar seguros de que es “poco” riesgo. La ausencia de evidencia no es
evidencia de ausencia. Esperemos que ya la banca internacional, los fondos de pensión, y
el público en general haya aprendido qué sucede cuando se acumula grandes
concentraciones de títulos “AAA”.
• Nadie, ni siquiera las calificadoras, cuenta con suficientes datos de incumplimiento como
para sacar conclusiones firmes.
• Es posible que no haya forma de acumular suficientes datos para tener certeza razonable
sobre la probabilidad de un evento. Sin embargo, la información negativa nos provee
una herramienta para establecer algunos límites a la incertidumbre.
• Generalmente sabemos de antemano qué nos pasaría frente a ciertos eventos
(convexidad o concavidad del perfil de pago y la dirección del error), lo que abre la
posibilidad de implementar medidas de administración de riesgos (reducir exposición,
diversificación, equilibrio de cartera a través de posiciones extremas, redundancia).
• Enfocarse en la probabilidad no implica una calamidad automática. Pero sugiere que la
decisión puede estar quedando en manos de la suerte.
Nota: Este escrito toma prestadas liberalmente las ideas (y todos los cálculos) de Benoit
Mandelbrot, Nassim Taleb, Brendan Moynihan, Jim Paul y por supuesto Blaise Pascal y Karl
Popper.
3
No importa cuanta evidencia se acumula respecto a un hecho, una observación nueva puede invalidar todo
lo anterior.
4. Anexo Técnico
La discusión a continuación es sobre el efecto exponencial que generan pequeños errores de
estimación en la cola de una distribución Gaussiana. Sin embargo, la conclusión se extiende a
cualquier modelo de distribución no importa cómo se haya modelado la cola del mismo (Extreme
Value Theory, Triangular, etc.).
Como muestra la tabla, para una distribución Gaussiana el error al estimar la probabilidad en las
colas tiene un efecto de convexidad muy fuerte. Una variación de 10% de la desviación estándar
altera la probabilidad estimada en un factor de 24 veces en seis sigmas. En la medida que el
evento es más inusual en la muestra (12 sigmas) el factor llega a 290,000 para una variación de
10%.
En otras palabras un pequeño error en la estimación de la probabilidad en la cola de la distribución
(y ya sabemos que hay muchos supuestos/errores involucrados en el cálculo) genera una enorme
variación en la probabilidad estimada. No se puede confiar en las estimaciones de
probabilidades en las colas de las distribuciones.