Este documento discute las limitaciones de estimar probabilidades y tomar decisiones basadas en ellas debido a la incertidumbre inherente. Aunque se usan varios métodos para estimar probabilidades, cualquier estimación depende de supuestos que contienen un margen de error. La información negativa como incumplimientos provee más guía que estimaciones de probabilidad. En lugar de enfocarse en probabilidades, es mejor considerar las consecuencias de diferentes resultados e implementar medidas para administrar riesgos.
Nociones de probabilidad:
-Es la posibilidad que algo acontezca o no bajo determinadas condiciones. La Probabilidades son una medida de la certidumbre asociada a un suceso o evento futuro y suele expresarse como un número entre 0 y 1 (o entre 0% y 100%). El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante milenios, pero las descripciones matemáticas exactas de utilidad en estos problemas sólo surgieron mucho después. Herramienta que mide, expresa y analiza las incertidumbres que se encuentran en un fenómeno o en el azar .
La probabilidad constituye un importante parámetro en la determinación de las diversas causalidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. La Probabilidad es la mayor o menor posibilidad de que ocurra un determinado suceso. En otras palabras, su noción viene de la necesidad de medir o determinar cuantitativamente la certeza o duda de que un suceso dado ocurra o no.
Muestreo:
En estadística un muestreo es la técnica para la selección de una muestra a partir de una población. En el muestreo, si el tamaño de la muestra es más pequeño que el tamaño de la población, se puede extraer dos o más muestras de la misma población.
La muestra de estudio debe ser lo más pequeña posible ya que del hecho de que una muestra sea más grande, no se desprende necesariamente que la información sea más fiable.
Teoría de estimación:
Estadística Razón para estimar Los administradores utilizan las estimaciones porque se deben tomar decisiones racionales, sin que tengan la información pertinente completa y con una gran incertidumbre acerca de lo que pueda deparar el futuro, pero con la esperanza de que las estimaciones posean una semejanza razonable con el resultado Estimador Es la regla o procedimiento, expresado en general por medio de una fórmula, que se utiliza para deducir la estimación. Estimación Es un valor específico observado de un estimador, por lo que asigna un valor numérico a un parámetro de una población sobre la base de datos de muestra.
Nociones de probabilidad:
-Es la posibilidad que algo acontezca o no bajo determinadas condiciones. La Probabilidades son una medida de la certidumbre asociada a un suceso o evento futuro y suele expresarse como un número entre 0 y 1 (o entre 0% y 100%). El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante milenios, pero las descripciones matemáticas exactas de utilidad en estos problemas sólo surgieron mucho después. Herramienta que mide, expresa y analiza las incertidumbres que se encuentran en un fenómeno o en el azar .
La probabilidad constituye un importante parámetro en la determinación de las diversas causalidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. La Probabilidad es la mayor o menor posibilidad de que ocurra un determinado suceso. En otras palabras, su noción viene de la necesidad de medir o determinar cuantitativamente la certeza o duda de que un suceso dado ocurra o no.
Muestreo:
En estadística un muestreo es la técnica para la selección de una muestra a partir de una población. En el muestreo, si el tamaño de la muestra es más pequeño que el tamaño de la población, se puede extraer dos o más muestras de la misma población.
La muestra de estudio debe ser lo más pequeña posible ya que del hecho de que una muestra sea más grande, no se desprende necesariamente que la información sea más fiable.
Teoría de estimación:
Estadística Razón para estimar Los administradores utilizan las estimaciones porque se deben tomar decisiones racionales, sin que tengan la información pertinente completa y con una gran incertidumbre acerca de lo que pueda deparar el futuro, pero con la esperanza de que las estimaciones posean una semejanza razonable con el resultado Estimador Es la regla o procedimiento, expresado en general por medio de una fórmula, que se utiliza para deducir la estimación. Estimación Es un valor específico observado de un estimador, por lo que asigna un valor numérico a un parámetro de una población sobre la base de datos de muestra.
La probabilidad es la mayor o menor posibilidad de que ocurra un determinado suceso. En otras palabras, su noción viene de la necesidad de medir o determinar cuantitativamente la certeza o duda de que un suceso dado ocurra o no, Asimismo se conoce como muestreo a la técnica para la selección de una muestra a partir de una población estadística. De igual manera Estimar qué va a ocurrir respecto a algo (o qué está ocurriendo, o qué ocurrió), a pesar de ser un elemento muy claramente estadístico, está muy enraizado en nuestra cotidianidad.
Toma de Decisiones en Condiciones de Incertidumbre
1. Toma de Decisiones en Condiciones de Incertidumbre:
Porque las consecuencias son más relevantes que las
probabilidades.
Introducción
Han pasado casi 350 años desde que se publicó “Pensamientos”, y el enunciado más conocido de
esta obra es más relevante que nunca. La Apuesta de Pascal parece ser la forma pragmática de
tomar decisiones en condiciones de incertidumbre. En resumen, las consecuencias son más
importantes que la probabilidad.
El único modelo conocido por el hombre para cuantificar un riesgo es Probabilidad1
x Severidad2
.
Ambos componentes son notoriamente difíciles de estimar, pero generalmente se emplea un
mayor esfuerzo intelectual para establecer la probabilidad. Siendo que hay una serie de métodos
aceptados para obtener una probabilidad (promediar la opinión de expertos, usar datos históricos,
aplicar modelos de distribución, simulación Montecarlo y ciertas combinaciones de lo anterior).
La severidad, por otro lado, puede expresarse en un análisis del perfil de pago de la incertidumbre
que se enfrenta. El perfil podría tender a ser convexo (poco costo y alto potencial de ganancia) o
cóncavo (se gana poco pero se arriesga perder mucho … como todos los préstamos bancarios);
considerando además que la dirección de los errores tiende a ser conocida (Ejemplo,
generalmente los proyectos cuestan y demoran más de lo que se estima).
Independientemente del método que sea empleado para estimar probabilidades, existe un
problema epistemológico relacionado a las mismas.
Procesos aleatorios y probabilidades
Cualquier estimación de probabilidades depende del uso de supuestos. Los datos que se
empleen suponen una muestra, el método de cálculo implica un supuesto y el uso de un modelo
de distribución de probabilidad (cuando aplica) es un supuesto. Inherente a cada supuesto hay
un margen de error, la estimación del margen de error contiene supuestos sobre muestras y
cálculos, y este argumento se puede extender de forma recursiva indefinidamente. Una
1
Apreciación respecto a la frecuencia con la que se dará un evento. Ejemplo, la Comisión Nuclear
Japonesa estima el riesgo de muerte por exposición a radiación por un accidente en una planta
nuclear para la población que vive cerca de la misma no supera 1x10^6. En otras palabras,
estiman que es algo que ocurrirá una vez cada millón de años. Resulta obvio que la estimación
proviene de un modelo matemático (un asintótico), ya que no se cuenta con un millón de años de
datos.
2
Qué pasa una vez se materializa el evento. Siguiendo el ejemplo anterior, si vives cerca de la planta
nuclear: la muerte.
2. conclusión preliminar de esta problemática es que no puede existir una estimación cuyo resultado
sea la probabilidad 0, ni la probabilidad 100 (certeza). La verdad es probabilística o relativa, tal
como insisten los físicos cuánticos.
A continuación un ejemplo práctico de la problemática. De acuerdo a Moody’s la probabilidad
de que una contraparte corporativa con calificación de riesgo AAA incumpla en sus obligaciones en
un plazo de un año es cero. Ignorando por un minuto otros tipos de riesgo AAA que cayeron en
incumplimiento durante la crisis financiera internacional (o que cambiaron abruptamente de
calificación) y la probabilidad que Estados Unidos sufra un incumplimiento técnico en su deuda,
sabemos que la muestra es incompleta. Las empresas calificadas representan una porción
diminuta de la población de empresas existentes, y a su vez existen pocos incumplimientos.
Estos dos hechos son suficientes para invalidar conclusiones firmes sobre dicha estadística.
A lo anterior se adiciona uno de los problemas más grandes de las estadísticas en la administración
de riesgos; el uso de asintóticos (asumir de alguna forma que un supuesto se aproxima al infinito),
cuando la realidad humana se vive en el pre-asintótico (que representa además una fracción
insignificante del asintótico).
TODOS los datos económicos/financieros de los que existe registro en el planeta (incluyendo las
probabilidades de incumplimiento) tienen un comportamiento similar al que se ilustra a
continuación. Unas pocas observaciones explican un alto porcentaje de la dispersión de la
variable (estoy tomando algunos de los ejemplos más dramáticos por conveniencia).
• S&P 500: Una observación (1987) explica el 79% de la dispersión de la variable en un
período de 56 años.
• Plata: Una observación explica el 94% de la dispersión de la variable en un período de 46
años.
• Petróleo: Una observación explica el 79% de la dispersión de la variable en un período de
26 años.
• Bonos del Gobierno Japonés: Una observación explica el 48% de la dispersión de la
variable en un período de 24 años.
Volatilidad Diaria del S&P 500
3. Visto de forma gráfica, el mensaje es el mismo. Dependiendo del período de tiempo en el que
se tome la muestra (una suerte de pre-asintótico), las conclusiones respecto a las probabilidades
serán distintas y poco útiles para tomar decisiones futuras.
Ahora bien, aunque con un millón de años de observaciones se pueda decir algo respecto a la
probabilidad esta igual se enfrenta al problema del razonamiento inductivo de Hume3
. La
falsificación Popperiana es un marco de trabajo útil para lidiar con este gravísimo problema de
administración de riesgos. Básicamente se trata de observar el mayor valor aparente que tiene la
información negativa. Ejemplo, acumulamos mucha “evidencia” de que un cliente tiene buena
reputación … y luego comete un fraude. Sin embargo, si un cliente comete un fraude
(información negativa) es muy difícil que pueda concluir que su reputación es buena.
La Apuesta de Pascal en la Práctica
• Nunca podremos estar seguros de que es “poco” riesgo. La ausencia de evidencia no es
evidencia de ausencia. Esperemos que ya la banca internacional, los fondos de pensión, y
el público en general haya aprendido qué sucede cuando se acumula grandes
concentraciones de títulos “AAA”.
• Nadie, ni siquiera las calificadoras, cuenta con suficientes datos de incumplimiento como
para sacar conclusiones firmes.
• Es posible que no haya forma de acumular suficientes datos para tener certeza razonable
sobre la probabilidad de un evento. Sin embargo, la información negativa nos provee
una herramienta para establecer algunos límites a la incertidumbre.
• Generalmente sabemos de antemano qué nos pasaría frente a ciertos eventos
(convexidad o concavidad del perfil de pago y la dirección del error), lo que abre la
posibilidad de implementar medidas de administración de riesgos (reducir exposición,
diversificación, equilibrio de cartera a través de posiciones extremas, redundancia).
• Enfocarse en la probabilidad no implica una calamidad automática. Pero sugiere que la
decisión puede estar quedando en manos de la suerte.
Nota: Este escrito toma prestadas liberalmente las ideas (y todos los cálculos) de Benoit
Mandelbrot, Nassim Taleb, Brendan Moynihan, Jim Paul y por supuesto Blaise Pascal y Karl
Popper.
3
No importa cuanta evidencia se acumula respecto a un hecho, una observación nueva puede invalidar todo
lo anterior.
4. Anexo Técnico
La discusión a continuación es sobre el efecto exponencial que generan pequeños errores de
estimación en la cola de una distribución Gaussiana. Sin embargo, la conclusión se extiende a
cualquier modelo de distribución no importa cómo se haya modelado la cola del mismo (Extreme
Value Theory, Triangular, etc.).
Como muestra la tabla, para una distribución Gaussiana el error al estimar la probabilidad en las
colas tiene un efecto de convexidad muy fuerte. Una variación de 10% de la desviación estándar
altera la probabilidad estimada en un factor de 24 veces en seis sigmas. En la medida que el
evento es más inusual en la muestra (12 sigmas) el factor llega a 290,000 para una variación de
10%.
En otras palabras un pequeño error en la estimación de la probabilidad en la cola de la distribución
(y ya sabemos que hay muchos supuestos/errores involucrados en el cálculo) genera una enorme
variación en la probabilidad estimada. No se puede confiar en las estimaciones de
probabilidades en las colas de las distribuciones.