Cadenas de markov

29.442 visualizaciones

Publicado el

un trabajo de investigacion sobre cadenas de markov,

Publicado en: Educación
1 comentario
11 recomendaciones
Estadísticas
Notas
Sin descargas
Visualizaciones
Visualizaciones totales
29.442
En SlideShare
0
De insertados
0
Número de insertados
591
Acciones
Compartido
0
Descargas
878
Comentarios
1
Recomendaciones
11
Insertados 0
No insertados

No hay notas en la diapositiva.

Cadenas de markov

  1. 1. 2012 Examen de Análisis y Toma de decisiones. Dr. Manuel Jáuregui Renault[CADENAS DE MARKOV]Carlos Delgado Avila. No de Cta: 409083200
  2. 2. ContenidoContexto Histórico……………………………………………………………………….1Introducción……………………………………………………………………………...3Definiciones de cadenas de Markov……………………………………………………..4Notaciones…………………………………………….…………………………………5 Cadenas homogéneas y no homogéneas………………………………………...5 Probabilidades de transición y matriz de transacción. ………………………….5 Cadena de Markov homogénea………………………………………………….6 Vector de probabilidad invariante……………………………….........................7 Clases de comunicación. ……………………………..........................................8 Tiempos de entrada…………………………….......................…………………8 Recurrencia…………………………….......................…………………………8 Periodicidad……………………………………………………………………..9Tipos de Cadenas de Markov…………………………………………………………...9 Cadenas Irreductibles……………………………………………………………9 Cadenas positivo-recurrentes……………………………………………………9 Cadenas de Markov en tiempo continuo………………………………………...9 Cadenas absorbentes……………………………………………………………10 Cadenas ergódicas o irregulares………………………………………………...10 Cadenas Semiergódicas…………………………………………………………11 Cadenas no ergódicas…………………………………………………………...11 Cadenas cíclicas…………………………………………………………………12Clasificación de cadenas de Markov…………………………………………………….13 Análisis topológico de las cadenas de Markov…………………………………..13 Propiedades de estado……………………………………………………………13 Propiedades de clase……………………………………………………………...15Aplicaciones de las cadenas de Markov…………………………………………………16Análisis y toma de decisión del uso de cadenas de Markov; Ejemplo Practico…………17Bibliografía………………………………………………………………………………24
  3. 3. “Una cadena de demostraciones debe tener su principio en algunaparte” JEREMY BENTHAM An Introduction of Morals and Legislation 0
  4. 4. Contexto HistóricoAndréi Andréyevich Márkov (14 de junio de 1856 - 20 de julio de 1922) Matemático ruso conocido por sus trabajos en la teoría de los números y la teoría de probabilidades. Márkov nació en Riazán, Rusia. Antes de los 10 años su padre, un funcionario estatal, fue trasladado a San Petersburgo donde Andréi entró a estudiar en un instituto de la ciudad. Desde el principio mostró cierto talento para las matemáticas y cuando se graduó en 1874 ya conocía a varios matemáticos de la Universidad de San Petersburgo, donde ingresó tras su graduación. En la Universidad fue discípulo de Chebyshov y tras realizar sus tesis de maestría y doctorado, en 1886 accedió como adjunto a la Academia de Ciencias de San Petersburgo a propuesta del propio Chebyshov.Diez años después Márkov había ganado el puesto de académico regular.Desde 1880, tras defender su tesis de maestría, Márkov impartió clases en laUniversidad y, cuando el propio Chebyshov dejó la Universidad tres años después,fue Márkov quien le sustituyó en los cursos de teoría de la probabilidad. En 1905,tras 25 años de actividad académica, Márkov se retiró definitivamente de laUniversidad, aunque siguió impartiendo algunos cursos sobre teoría de laprobabilidad.A parte de su perfil académico, Andréi Márkov fue un convencido activista político.Se opuso a los privilegios de la nobleza zarista y llegó a rechazar lascondecoraciones del propio zar en protesta por algunas decisiones políticasrelacionadas con la Academia de Ciencias. Hasta tal punto llegó su implicación enla política que llegó a ser conocido con el sobrenombre de "el académico militante".Márkov arrastró durante toda su vida problemas relacionados con unamalformación congénita en la rodilla que le llevaría varias veces al quirófano y que,con el tiempo, fue la causa de su muerte cuando el 20 de julio del año 1922 unade las muchas operaciones a las que se sometió le produjo una infeccióngeneralizada de la que no pudo recuperarse.Aunque Márkov influyó sobre diversos campos de las matemáticas, por ejemplo ensus trabajos sobre fracciones continuas, la historia le recordará principalmente porsus resultados relacionados con la teoría de la probabilidad. En 1887 completó laprueba que permitía generalizar el teorema central del límite y que ya habíaavanzado Chebyshov. Pero su aportación más conocida es otra. 1
  5. 5. Su trabajo teórico en el campo de los procesos en los que están involucradoscomponentes aleatorios (procesos estocásticos) darían fruto en un instrumentomatemático que actualmente se conoce como cadena de Márkov: secuencias devalores de una variable aleatoria en las que el valor de la variable en el futurodepende del valor de la variable en el presente, pero es independiente de lahistoria de dicha variable. Las cadenas de Márkov, hoy día, se consideran unaherramienta esencial en disciplinas como la economía, la ingeniería, lainvestigación de operaciones y muchas otras. Universidad de San Petersburgo 2
  6. 6. Introducción Un proceso o sucesión de eventos que se desarrolla en el tiempo en el cual el resultado en cualquier etapa contiene algún elemento que depende de un proceso al azar se denomina un proceso aleatorio o proceso estocástico. Por ejemplo, la sucesión podrían ser las condiciones del tiempo en Veracruz en una serie de días consecutivos: el tiempo cambia día con día de una manera que en apariencia es algo aleatorio.O bien la sucesión podría consistir de los precios diarios al cierre de ciertasacciones que cotizan en la bolsa en donde otra vez interviene cierto grado dealeatoriedad. Una sucesión de elecciones gubernamentales es otro ejemplo de unproceso estocástico.Un ejemplo muy simple de un proceso estocástico es una sucesión de ensayos deBernoulli en, por ejemplo, una sucesión de lanzamientos una moneda en estecaso el resultado en cualquier etapa es independiente de todo resultados previos.Sin embargo en la mayoría de los procesos estocásticos cada resultado dependede lo que sucedió en etapas anteriores del proceso. Por ejemplo, el tiempo en undía determinado no es aleatorio por completo sino que es afectado en cierto gradopor el tiempo de días previos. El precio de una acción al cierre de cualquier díadepende en cierta medida delcomportamiento de la bolsa en díasprevios.El caso más simple de un procesoestocástico en que los resultadosdependen de otro(s), ocurre cuando elresultado en cada etapa solo dependedel resultado de la etapa anterior y node cualquiera de los resultados previos.Tal proceso se denomina cadena deMarkov (una cadena de eventos, cadaevento ligado al precedente). 3
  7. 7. Definiciones de Cadenas de Markov“Las cadenas de Markov son una herramienta para analizar el comportamiento y elgobierno de determinados tipos de procesos estocásticos, esto es, procesos queevolucionan de forma no determinista a lo largo del tiempo en tomo a un conjuntode estados. Por tanto, representa un sistema que varía su estado a lo largo deltiempo. Siendo cada cambio una transición del sistema. Dichos cambios no estánpredeterminados, aunque sí lo está la probabilidad del próximo estado en funciónde los estados, probabilidad que es constante a lo largo del tiempo (sistemahomogéneo en el tiempo). Eventualmente, es una transición, el nuevo estadopuede ser el mismo que el anterior y es posible que exista la probabilidad de influiren las probabilidades de transición actuando sobre el sistema (decisión).” Joan B. Fonollosa – Jose M. Sallan“Una cadena de Markov es una sucesión de ensayos similares u observaciones enla cual cada ensayo tiene el mismo número finito de resultados posibles y endonde también la probabilidad de cada resultado para un ensayo dado dependesolo del resultado del ensayo inmediatamente precedente y no de cualquierresultado previo.” Jagdish C. Arya – Robin W. LardnerEn matemáticas, se define como un proceso estocástico discreto que cumple conla propiedad de Márkov, es decir, si se conoce la historia del sistema hasta suinstante actual, su estado presente resume toda la información relevante paradescribir en probabilidad su estado futuro.Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. Elrango de estas variables, es llamado espacio estado, el valor de Xn es el estadodel proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 enestados pasados es una función de Xn por sí sola, entonces:Donde xi es el estado del proceso en el instante i. La identidad mostrada esla propiedad de Markov. 4
  8. 8. NotacionesCadenas homogéneas y no homogéneasUna cadena de Markov se dice homogénea si la probabilidad de ir del estado i alestado j en un paso no depende del tiempo en el que se encuentra la cadena, estoes: para todo n y para cualquier i, j.Si para alguna pareja de estados y para algún tiempo n la propiedad antesmencionada no se cumple diremos que la cadena de Markov es no homogénea.Probabilidades de transición y matriz de transiciónLa probabilidad de ir del estado i al estado j en n unidades de tiempo es:En la probabilidad de transición en un paso se omite el superíndice de modo quequeda:Un hecho importante es que las probabilidades de transición en n pasos satisfacenla ecuación de Chapman-Kolmogorov, esto es, para cualquier k tal que0 < k < n se cumple queDonde E denota el espacio de estados.Cuando la cadena de Markov es homogénea, muchas de sus propiedades útilesse pueden obtener a través de su matriz de transición, definida entrada a entradacomo esto es, la entrada i, j corresponde a la probabilidad de ir delestado i a j en un paso.Del mismo modo se puede obtener la matriz de transición en n pasos como: , donde . 5
  9. 9. Cadena de Markov homogéneaDecimos que una cadena de Markov es homogénea o estacionaria cuando severifica que:Es decir que las probabilidades de transición solo dependen de la diferencia entrelos instantes de tiempo y no del valor absoluto de estos. Esta característica secumple en muchos casos de interés práctico.Las cadenas de Markov homogéneas que van a ser de nuestro interés sonaquellas en las que en régimen permanente el vector de estado tiende a un valorasintóticamente estable, es decir: Ejemplo: Erase una vez un hippie, que decide quedarse vagabundeando por la huerta valenciana, especialmente entre los pueblos de Almacera, Alboraya y Tavernes. El hippie en la tarde se puede cansar del pueblo en el que esta, sale a la carretera y se pone a pedir raid. El diagrama que vemos abajo representa las probabilidades de que lo recoja alguien en la dirección dada. En Alboraya, de vez en cuando decide pasar la noche y endulzar su vida con una horchata con fartons. Nuestro interés es conocer las probabilidades de estado y ver siexiste un límite en régimen permanente (independientemente del lugar en el que elhippie empiece su periplo). 6
  10. 10. La matriz de transición viene dada por:Y no depende del tiempo.Entonces recordando que P(i + 1)= P(i) T (i, i + 1), se calcularan lasprobabilidades de estado después de varias transiciones y partiendo decondiciones iniciales distintas:Luego, como vemos ()Vector de probabilidad invarianteSe define la distribución inicial .Diremos que un vector de probabilidad (finito o infinito numerable) es invariantepara una cadena de Markov si donde P denota la matriz de transición dela cadena de Markov. Al vector de probabilidad invariante también se lellama distribución estacionaria o distribución de equilibrio. 7
  11. 11. Clases de comunicaciónPara dos estados i,j en el espacio de estados E, diremos que de i se accede a j (yse denotará ) si para algún n, si y entoncesdiremos que i comunica con j y se denotará i↔j.La propiedad "↔" es una relación de equivalencia. Esta relación induce unapartición en el espacio de estados. A estas clases de equivalencia lasllamaremos clases de comunicación.Dado un estado x, denotaremos a su clase de comunicación como C(x).Diremos que un subconjunto C del espacio de estados (al que denotaremos E) escerrado si ningún estado de E-C puede ser accedido desde un estado de C, esdecir, si para todo x∈C, para todo y∈E-C y para todo natural m>0.Tiempos de entradaSi , definimos el primer tiempo de entrada a C como la variable aleatoriaesto es, denota la primera vez que la cadena entra al conjunto de estados C.RecurrenciaEn una cadena de Markov con espacio de estados E, si x∈E se define: y diremos que:  x es estado recurrente si .  x es transitorio si  x es absorbente si  Una clase de comunicación es clase recurrente si todos sus estados son recurrentes.Sea , si x∈Ediremos que:  x es cero-recurrente si  x es positivo-recurrente si El real se interpreta como el tiempo promedio de recurrencia. 8
  12. 12. PeriodicidadEl periodo de un estado x∈E se define como: donde denota el máximo común divisor.  Si d(x)=1 diremos que x es un estado aperiódico.  Una cadena de Markov se dice aperiódica si todos sus estados son aperiódicos.Tipos de cadenas de MarkovCadenas irreduciblesUna cadena de Markov se dice irreducible si se cumple cualquiera de lassiguientes condiciones (equivalentes entre sí): 1. Desde cualquier estado de E se puede acceder a cualquier otro. 2. Todos los estados se comunican entre sí. 3. C(x)=E para algún x∈E. 4. C(x)=E para todo x∈E. 5. El único conjunto cerrado es el total.La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes sonejemplos de cadenas de Markov irreducibles.Cadenas positivo-recurrentesUna cadena de Markov se dice positivo-recurrente si todos sus estados sonpositivo-recurrentes. Si la cadena es además irreducible es posible demostrar queexiste un único vector de probabilidad invariante y está dado por:Cadenas de Markov en tiempo continuoSi en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado enel conjunto de números naturales, se consideran las variablesaleatorias Xt con t que varía en un intervalo continuo del conjunto de númerosreales, tendremos una cadena en tiempo continuo. Para este tipo de cadenas entiempo continuo la propiedad de Markov se expresa de la siguiente manera:tal quePara una cadena de Markov continua con un número finito de estados puededefinirse una matriz estocástica dada por: 9
  13. 13. La cadena se denomina homogénea si . Para una cadena de Markoven tiempo continuo homogénea y con un número finito de estados puede definirse el llamadogenerador infinitesimal como:2Y puede demostrarse que la matriz estocástica viene dada por:Cadenas absorbentesUna cadena de Markov con espacio de estados finito se dice absorbente si secumplen las dos condiciones siguientes: 1. La cadena tiene al menos un estado absorbente. 2. De cualquier estado no absorbente se accede a algún estado absorbente.Si denotamos como A al conjunto de todos los estados absorbentes y a sucomplemento como D, tenemos los siguientes resultados:  Su matriz de transición siempre se puede llevar a una de la formaDonde la submatriz Q corresponde a los estados del conjunto D, I es la matrizidentidad, 0 es la matriz nula y R alguna submatriz.  , esto es, no importa en donde se encuentre la cadena, eventualmente terminará en un estado absorbente.Cadenas ergódicas o regularesLa cadena de Markov C1, de dos estados, tiene la matriz de probabilidades detransición:Calculemos la potencia decimosexta de esa matriz para aproximar la matriz deprobabilidades estacionarias:Se observa que las probabilidades de estado estable de los diferentes estados sonindependientes del estado de origen, razón por la que la matriz de probabilidades 10
  14. 14. estacionarias tiene todas las filas iguales. Tenemos entonces una cadena deMarkov regular en la que las probabilidades estacionarias no dependen del estadoinicial. Además, ninguna de las probabilidades vale cero. Tenemos entonces unacadena de Markov ergódica.Cadenas SemiérgodicasTenemos ahora una cadena de C2 de cuatro estados, de matriz de probabilidadesde transición.Si se observa la matriz de la transición decimosexta, se observa como todas lasfilas tienden a ser iguales (aunque no completamente, especialmente las dosprimeras), con una diferencia respecto de las cadenas ergódicas: existen estadoscuya probabilidad de estado estable tiende a ser cero (esto es, que no apareceránden el comportamiento a largo plazo). Por lo tanto, no se trata de una cadenaergódica. Sin embargo, sigue siendo cierto que todas las filas tienden hacia unmismo valor, por lo que sigue siendo regular. Las cadenas de Markov regulares (ytambién otras que veremos más adelante) con algunas de las columnas de lamatriz de probabilidades estacionarias igual a cero se llaman semiergódicas. Lascadenas ergódicas pueden considerarse como un caso particular de las cadenassemiergódicas, en las que no existen probabilidades de estado iguales a cero.Cadenas no ergódicasLa cadena C3, de cuatro estados, tiene la siguiente matriz de transición:Si observamos la matriz de la transición 16, podemos ver que, mientras algunasfilas tienen el mismo comportamiento que las de los casos anteriores, vemos queotras tienden a ciertos valores, diferentes de los de las otras filas. Ello quiero decirque, al contrario de lo que sucede con el caso regular, las probabilidades de 11
  15. 15. estado estable si dependen de cuál ha sido el estado inicial de la cadena. Se tratade una cadena semirregularCadenas CíclicasLa cadena C4, cuya matriz de probabilidades de transición se muestra acontinuación, después de un número elevado de transiciones presenta uncomportamiento diferente del de las cadenas anteriores.Al ir obteniendo matrices de transición, se observa que estas no convergen a unvalor concreto, sino que muestran un comportamiento cíclico. En este caso, lastransiciones impares tienden a un valor y las pares a otro.Este tipo de cadenas son cadenas son cadenas cíclicas. En este caso particular,nos encontramos ante una cadena de periodo p=2.La columna es siempre cero, por lo que el estado I no aparecerá en lasprobabilidades a largo plazo; quiere ello decir que la cadena considerada no esergódica, aunque es claro que pueden existir cadenas cíclicas ergódicas. 12
  16. 16. También debemos preguntarnos qué ocurre con las probabilidades estacionariasen las cadenas cíclicas, ya que si las sucesivas potencias de P no tienden haciaunos valores determinados. Más adelante, cuando estudiamos el cálculosistemático de P*.Clasificación de cadenas de MarkovDe lo expuesto hasta ahora, si queremos analizar el comportamiento a largo plazode un proceso estocástico que cumpla la propiedad markoviana, necesitamos:  Una metodología para poder clasificar la cadena como ergódica o no ergódica por una parte, y como regular, semirregular o cíclica por otra, examinado la matriz de probabilidades de transición.  Una metodología que permita el cálculo de la matriz de probabilidades.La clasificación de las cadenas de Markov puede realizarse mediante dosmetodologías:  El análisis topológico, examinando las propiedades de los estados de la cadena y estableciendo clases de equivalencia entre los estados.  El análisis espectral, examinando los valores propios de la matriz de probabilidades de transición de un paso.Una vez clasificada la cadena, puede obtenerse información acerca de la formaque presente la matriz de probabilidades estacionarias, lo cual facilita su obtención.Análisis topológico de las cadenas de MarkovPermite la clasificación de las cadenas a partir de la información suministrada porla matriz P utilizando propiedades relativas a la relación entre estados(propiedades de estado). Estas propiedades permiten, a su vez, definirsubconjuntos de estados denominados clases. También podremos definir,entonces, las propiedades de clase.Propiedades de estadoDados dos estados de una cadena, pueden establecerse dos tipos de relacionesentre ellos:  El estado i es descendente de j si cuando iniciamos el proceso es i existe una probabilidad no nula de que el proceso llegue a j. En este caso, diremos que existe un camino entre los estados i y j. 13
  17. 17.  Los estados i y j se comunican si i es descendiente de j y j es descendiente de i.  Existirá un ciclo dentro de una cadena de Markov si existe un camino en la cadena que comunique al estado i consigo mismo. Dicho circuito se caracteriza por el numero mínimo de transiciones que necesitara el sistema para volver al estado i, si se inició el proceso en ese estado. Dicho número constituirá la longitud del ciclo.Obsérvese que, con las definiciones dadas, la existencia de un circuito implica quetodos los estados que lo forman están comunicados. Se conviene que todo estadoesta comunicado consigo mismo, ya que se al menos puede acceder a él en cerotransiciones (circuito de longitud cero), con independencia de que además existanotros circuitos de longitud mayor.Para analizar estas relaciones entre estados, es útil recordar que, según la teoríade grafos, toda matriz cuadrada tiene asociado un grafo, cuya representacióngráfica se puede elaborar a partir de la matriz de probabilidades de transición, eldiagrama de transiciones de estados.Cada estado de la cadena se representa por un vértice del grafo y cada transicióncon probabilidad no nula se representa por una relación entre los vértices querepresentan los estados anterior y posterior de la misma. De esta manera eldiagrama se representan todas las situaciones en las que un estado i esdescendente respecto de j. 14
  18. 18. Propiedades de clase Hemos establecido que un estado está siempre comunicado consigo mismo, la relación entre estados estar comunicado es reflexiva, simétrica y transitiva, por lo que se trata de una relación de equivalencia. Po este motivo, podemos decir que un conjunto de estados comunicados entre si constituye un clase deequivalencia. De esta manera podemos clasificar diversas clases los estados deuna cadena de Markov.Podemos definir la propiedad de clase siguiente para las clases de equivalenciaque se hayan establecido:  Una clase de equivalencia será final si cuando el proceso llega a uno de los estados de la clase, en las transiciones siguientes el proceso evoluciona siempre dentro de los estados de la clase.  Aquellas clases de equivalencia que no sean clases finales serán las claves de paso. Las clases de paso tienen un interés muy limitado en el estudio de las cadenas de Markov.Puesto que el sistema debeser capaz de evolucionarindefinidamente entre unnúmero finito de estados,toda cadena debe tener almenos una clase final. Si ensu evolución a lo largo deinfinitas transiciones elsistema puede pasar portodos los estados, entonceshabrá una única clase finalque los englobara a todosellos. Este caso es el quehemos definido anteriormente como cadena ergódica. 15
  19. 19. Aplicaciones de las cadenas de MarkovFísicaLas cadenas de Markov son usadas en muchos problemas de la termodinámica yla física estadística. Ejemplos importantes se pueden encontrar en la Cadena deEhrenfest o el modelo de difusión de Laplace.MeteorologíaSi consideramos el clima de una región a través de distintos días, es claro que elestado actual solo depende del último estado y no de toda la historia en sí, demodo que se pueden usar cadenas de Markov para formular modelosclimatológicos básicos.Modelos epidemiológicosUna importante aplicación de las cadenas de Markov se encuentra en el procesoGalton-Watson. Éste es un proceso de ramificación que se puede usar, entre otrascosas, para modelar el desarrollo de una epidemia (véase modelaje matemáticode epidemias).InternetEl pagerank de una página web (usado por Google en sus motores de búsqueda)se define a través de una cadena de Markov, donde la posición que tendrá unapágina en el buscador será determinada por su peso en la distribuciónestacionaria de la cadena.SimulaciónLas cadenas de Markov son utilizadas para proveer una solución analítica aciertos problemas de simulación tales como el Modelo M/M/1.3Juegos de azarSon muchos los juegos de azar que se pueden modelar a través de una cadenade Markov. El modelo de la ruina del jugador, que establece la probabilidad de queuna persona que apuesta en un juego de azar finalmente termine sin dinero, esuna de las aplicaciones de las cadenas de Markov en este rubro.Economía y FinanzasLas cadenas de Markov se pueden utilizar en modelos simples de valuación deopciones para determinar cuándo existe oportunidad de arbitraje, así como en elmodelo de colapsos de una bolsa de valores o para determinar la volatilidad deprecios. En los negocios, las cadenas de Márkov se han utilizado para analizar lospatrones de compra de los deudores morosos, para planear las necesidadesde personal y para analizar el reemplazo de equipo.MúsicaDiversos algoritmos de composición musical usan cadenas de Markov, porejemplo el software Csound o Max. 16
  20. 20. Análisis y toma de decisión del uso de cadenas de Markov;Ejemplo PracticoModelos empleados para la Toma de decisiones en el cuidado de la saludRESUMENEl análisis de decisiones es un grupo de herramientas que permiten apoyar ymanejar un proceso de evaluación estructurado. Esta metodología se usaampliamente en la evaluación económica para planeación o programas de salud.Este artículo delinea algunas características de las decisiones complejas ymuestra los fundamentos y etapas que deben considerarse cuando se tomandecisiones en un escenario de incertidumbre (definición del problema, selecciónde un marco temporal de análisis adecuado, estructuración del problema,desarrollo de un modelo para análisis, selección de la mejor alternativa yrealización de análisis de sensibilidad). Finalmente se presentan algunas críticasque se han hecho a esta metodología.Tomar una decisión implica escoger entre varias alternativas. Tomar la mejordecisión supone haber hecho un análisis de lo que hubiera sucedido Tsi cada unade las posibles alternativas se hubiera seleccionado. La toma de decisiones es unacto cotidiano que está involucrado en múltiples actividades que generalmente sehace por técnicas como la adivinanza, la reacción visceral, la intuición, o laexperiencia basada en opiniones o sucesos muy parecidos.La toma decisiones de forma intuitiva generalmente resulta poco eficiente dadoque esta estrategia no suele incorporar todos los factores que pueden afectar ladecisión y sus resultados. Pocas decisiones se toman con plena certidumbresobre sus posibles consecuencias. El proceso de tomar decisiones puede sermejorado utilizando una metodología que combina una estructura explícita y unatécnica cuantitativa de análisis y que se ha denominado "enfoque sistemático detoma de decisiones bajo condiciones de incertidumbre". Tal metodología, que noes nativa del área de la salud, se concibió inicialmente como un proceso iterativopara generar mayor conocimiento y facilitar la generación de alternativas creativasque ayudaran a los tomadores de decisiones a realizar mejores decisiones.¿Por qué puede ser difícil tomar una decisión?La dificultad para tomar una decisión se relaciona con tres aspectos:Estructurales, personales y políticos: 17
  21. 21. 1. Aspectos estructurales: Dentro de esta categoría se agrupan las siguientessituaciones:a. El grado de incertidumbre: La incertidumbre se presenta cuando no se conocecompletamente la probabilidad de que ocurra un evento. Al existir incertidumbreresulta imposible conocer de antemano cuál va a ser el resultado de una decisión.La incertidumbre puede relacionarse con el diagnóstico, la exactitud de lasherramientas diagnósticas, la calidad y disponibilidad de las fuentes deinformación, la historia natural de las enfermedades, las opciones que tomen lospacientes y los resultados del tratamiento. Al existir múltiples fuentes deincertidumbre se hace más complicado tener un esquema claro de las diferentesopciones y resultados de las posibles alternativas de decisión.b. Cantidad de alternativas disponibles: Entre mayor sea el número de alternativasentre las cuales haya que escoger, mayor será la complejidad del recorrido entrela decisión y las posibles consecuencias. La utilización de herramientas gráficas,como los árboles de decisión, permiten tener una visión más clara y precisa de losdiferentes cursos que pueden tomar las múltiples alternativas de decisión.c. Consecuencias de tomar la decisión: Entre más graves son las consecuenciasde tomar una decisión incorrecta, más difícil resulta optar por una alternativa.d. Frecuencia con la que se toman decisiones parecidas: A menor frecuencia,mayor suele ser la dificultad para tomar la decisión.2. Aspectos personales: Algunas características psicológicas de quien toma ladecisión pueden dificultar este proceso. Por ejemplo los patrones de personalidadobsesivos, caracterizados por el perfeccionismo, la rigurosidad y la preocupaciónexagerada por detalles, suelen presentar una tendencia a complicar la toma dedecisiones. Por otro lado las personas impulsivas tienden a tomar más fácilmentedecisiones, pero de manera no acertada, dada la falta de análisis que aplican a suconducta. El tomador de decisiones debería ser una persona que tenga claridadsobre las características personales que pudieran afectar el proceso deseleccionar la alternativa acertada.3. Aspectos políticos: En algunos casos la alternativa más acertada, escogidamediante un proceso racional y sistematizado, debe supeditarse aconsideraciones de orden político que resultan prioritarias.Para el manejo de los aspectos estructurales se ha desarrollado una metodologíaque permite utilizar un abordaje cuantitativo y estructurado de las situaciones detoma de decisiones, y que permite evaluar decisiones que se deben tomar ensituaciones en las que se presenten alternativas complejas y diversas fuentes deincertidumbre. Dicha metodología, que como ya se mencionó se ha llamado"análisis de decisiones bajo condiciones de incertidumbre", permite:1. Generar una estructura gráfica que permita ver claramente la relación entrealternativas y consecuencias. 18
  22. 22. 2. Asignar valores a las fuentes de incertidumbre: Asignando valores deprobabilidad a los puntos de incertidumbre se facilita su manejo. Si haycertidumbre sobre un evento, su probabilidad de ocurrir es de uno (obviamente laprobabilidad de que no ocurra es cero). Si no hay certidumbre, la probabilidad deocurrir será menor que uno. Posteriormente se mostrará cómo se asignan estosvalores de probabilidad.3. Facilitar la comparación entre las diferentes alternativas en términos numéricos.En esta metodología, a las alternativas posibles se les asigna un valor numéricoque corresponde a un concepto estadístico denominado "valor esperado". Enestadística el valor esperado (o esperanza matemática) de una variable aleatoriaes la suma de la probabilidad de cada suceso multiplicada por su valor. Dicho deotra forma el valor esperado se asemeja al resultado que se espera en promedio sise repitiera un experimento (como lanzar una moneda, o medir la talla de un grupode personas, por ejemplo) muchas veces. La utilidad del valor esperado espermitir elegir entre distintas alternativas. En general la alternativa que se elige esaquella que tenga el valor esperado más alto (años de vida ganados, muertesevitadas, por ejemplo), pero en ocasiones se selecciona aquella con el valor másbajo (mortalidad, costos, por ejemplo).Con estos insumos el tomador de decisiones puede identificar fácilmente lasopciones viables, predecir sus consecuencias o desenlaces, valorar laprobabilidad de los posibles resultados, determinar el valor de cada uno de losdesenlaces, y seleccionar la decisión que puede proveer el mejor resultado.En el área del cuidado de la salud, el análisis de decisiones es una metodologíaque se desarrolló alrededor de situaciones clínicas en pacientes individuales.Sin embargo, se usa cada vez más frecuentemente en análisis económicos y parala toma de decisiones políticas.Etapas en un análisis de decisionesDado que el análisis de decisiones es una metodología que pretende, no solofacilitar, sino además sistematizar el proceso de selección de alternativas, parahacerlo, de alguna manera replicable, se ha definido una estructuración a lo largode una serie de etapas sucesivas (8) (debe tenerse en cuenta que la replicabilidadde los resultados se ve fuertemente afectada por los aspectos personales ypolíticos mencionados atrás):1. Definición del problema:Un problema se ha definido como la distancia que hay entre una situación queexiste y otra que se prefiere. El primer paso suele ser escribir el problemautilizando pocas palabras, preferiblemente recurriendo al uso de verbos eninfinitivo, y hacer una descripción de ciertos detalles como magnitud, posiblescausas o responsables, momento de inicio, identificación de afectados con el 19
  23. 23. problema, estrategias con las que ha intentado solucionarse, y posible resultado sino se intenta ninguna solución. Este primer paso puede ser suficiente para tomaruna decisión acertada, lo cual sucede cuando se vislumbran alternativas dedecisión que no se habían considerado, cuando se evidencia que se estabasobredimensionando la gravedad del problema, cuando se ve que se estabatratando de solucionar el problema equivocado (esto se ha denominado "error tipotres"), o incluso cuando se encuentra que si no se hace nada, no pasa nada, y loque genera la dificultad muchas veces son los intentos de solución (en este últimocaso se habla de pseudo problemas). Otra posibilidad que surge en este primerpaso es encontrar que el problema tiene sub problemas, lo cual implica efectuarun trabajo de jerarquización y definir claramente cuál es el problema primario oprincipal.2. Definición del horizonte de análisis (marco temporal):Cuando se evalúan alternativas relacionadas con patologías crónicas, el horizontede análisis suele ser largo. En estos casos los eventos pueden reaparecer duranteel período definido en el marco temporal: esto supone utilizar estrategiasespeciales de análisis (cadenas y modelos de Markov para eventos recurrentes).Por otro lado, la evaluación de alternativas relacionadas con complicaciones acorto plazo o con eventos agudos supone un horizonte de análisis corto. En otraspalabras, el horizonte de análisis dependerá de la naturaleza del problema desalud que se esté evaluando. Cualquiera que sea el caso, debe hacerse unaespecie de negociación entre la exactitud del modelo analítico y la simplicidad delmismo (10). Un modelo no debe ser una representación completa del mundo realsino una síntesis de sus componentes más importantes.3. Estructuración del problema:La etapa de estructuración supone seguir esta secuencia:- Identificar las alternativas relevantes: Una vez identificado el problema, debenplantearse una serie de alternativas, las cuales suelen caer en alguna de lassiguientes categorías:- Esperar y observar, lo cual es equivalente a la política de "no hacer nada".- Iniciar una intervención.- Buscar más información antes de decidir una intervención.- Definir las consecuencias de cada alternativa identificada previamente: Cadaalternativa genera una serie de consecuencias cuya incorporación en laestructuración del problema supone que esté suficientemente sustentada conalgún tipo de evidencia. Las consecuencias pueden categorizarse en dos grupos:i) consecuencias intermedias. ii) desenlaces finales. Por ejemplo, si un médico seencuentra prestando su servicio rural en un lugar apartado donde no dispone demedios diagnósticos ni posibilidades de remitir rápidamente a sus pacientes, y 20
  24. 24. recibe a un paciente con una herida por arma de fuego en el cráneo, podríaplantearse, de manera general, que hay dos alternativas: esperar y observar, oarriesgarse a intervenir quirúrgicamente al paciente. Las consecuencias de cadaalternativa podrían definirse de manera simplista en dos categorías: el pacientesobrevive o muere (aquí las consecuencias se presentan directamente como losdesenlaces finales). Sin embargo, considerando la falta de pericia quirúrgica delmédico, puede plantearse una consecuencia intermedia de la alternativaintervencionista: que la cirugía se complique o que no se complique; cada una deestas consecuencias intermedias puede resultar en la salvación o en la muerte delpaciente.En la Figura 1 se muestra esta secuencia de consecuencias, con unasconvenciones de representación gráfica que se explicarán más adelante.- Establecer la probabilidad con la que pueden suceder las diferentesconsecuencias de las alternativas planteadas: Un paso fundamental en este tipode análisis es cuantificar la incertidumbre: esto se logra asignando valores deprobabilidad a cada una de las consecuencias emanadas de las alternativaspropuestas para la solución del problema.- Asignar un valor a los desenlaces: Un desenlace es lo que finalmente sucede sise escoge una de las alternativas planteadas. En esta fase de la estructuración delproblema, se debe asignar un valor numérico a los desenlaces. Esta calificaciónse realiza con base en el concepto de utilidad. De forma práctica la utilidad sepuede considerar como la medida de la preferencia de las personas por unresultado bien o servicio. En particular, en el campo sanitario, seria la medidacuantitativa de la preferencia de las personas por un resultado específico en salud. 21
  25. 25. 4. Desarrollo de un modelo del problema:Un modelo es una abstracción o representación de un sistema real, de una ideade un objeto (13). En un análisis de decisiones el modelo es una estructura quebusca representar la realidad del problema, combinando los insumos generadosen la etapa previa (etapa de estructuración), con el propósito de efectuar una seriede cálculos matemáticos que ayuden a tomar la decisión. Los modelos másutilizados como estrategia de análisis son los árboles de decisión. Mediante su usose pueden integrar, de manera secuencial, los diferentes elementos que surgenuna vez se ha estructurado el problema. En la construcción de un árbol dedecisión se siguen las siguientes convencionesPunto de arranque: Es la presentación del problema en pocas palabras. Nodo dedecisión: Representa un punto donde se toma una conducta, como por ejemplo lasdiferentes alternativas de solución que se plantean al problema. Su forma derepresentación en el árbol es un cuadrado. Nodo probabilístico o de azar: Muestrael punto donde se generan las diferentes consecuencias de una decisión, que noestán bajo el control de quien toma las decisiones. Como previamente se comentó,las consecuencias generadas de un nodo de azar tienen un componente deincertidumbre cuantificable por medio de probabilidades. Se representangráficamente con un círculo.Nodo terminal: Representa los desenlaces finales. Se representa con un triángulo.Conectores: Son líneas que unen los diferentes elementos descritos previamente.La manera de conectar las diferentes estructuras obedece a una secuencia en laque, lo que está a la izquierda, temporalmente ha ocurrido antes que lo que está ala derecha. La amplitudcon la que se desarrolleel árbol corresponde alhorizonte de análisis.Definiciones y valores:Los conectores quesalen de un nodo deazar tienen en su partesuperior la descripcióndel desenlace y el suparte inferior lacuantificación de laincertidumbre (valoresde probabilidad). En elextremo de los nodosterminales se ubicanlos valores asignados alos desenlaces(utilidades).Figura 2. Convenciones utilizadas en la construcción de un árbol de decision 22
  26. 26. 5. Efectuar análisis de sensibilidad:Teniendo en cuenta que, ni los valores de probabilidad con que se mide laincertidumbre ni los valores asignados a los desenlaces son valores fijos, alefectuar un análisis de decisiones surge la duda sobre la posibilidad de que lasolución al problema cambiara si los valores de la medición de incertidumbre yconsecuencias variaran. Para resolver esta duda se realizan los análisis desensibilidad. Ellos permiten evaluar los resultados ante la posible gama de valoresque podrían tomar uno o más de los parámetros introducidos en el modelo.Como resultado se puede conocer la estabilidad de la conclusión dada lavariabilidad de los supuestos introducidos en el modelo. Es frecuente que paraestos análisis se utilicen herramientas gráficas. En los casos en los que lavariabilidad se genera en un solo punto del modelo se utilizan los análisis desensibilidad de un parámetro. Si la fuente de variabilidad proviene de variospuntos se habla de análisis de sensibilidad de múltiples parámetros.6. Selección de la "mejor" alternativa:Al finalizar el análisis se obtendrán una serie de valores numéricos (valoresesperados) que ponderarán de manera diferente las distintas alternativas dedecisión. Dependiendo de la medida de utilidad manejada, se seleccionará lamejor opción (por ejemplo si se manejan años de vida saludable ganados, la mejoropción será aquella con el mayor valor). Sin embargo, hay que tener en cuentaque los resultados numéricos no son la única herramienta a la hora de tomar ladecisión final. Existen casos en los cuales tiene más peso algún otro tipo de factor,como pueden ser aspectos clínicos o políticos. La recomendación general alutilizar este tipo de métodos es que son solo herramientas para ayudar a decidir,mas no el único elemento que se toma en cuenta para la toma final de la decisión.Críticas al análisis de decisionesLos detractores de esta metodología aducen tres razones para no recomendar suuso:1. DificultadAsí existan herramientas manejables con computadores, la gran cantidad deopciones derivada de la toma de una decisión compleja, hace que la estructura aanalizar se vuelva demasiado enmarañada y alejada de la realidad. Algunosteóricos de la economía, conscientes de la limitación impuesta por la complejidadque pueden alcanzar los modelos, han planteado que no es posible escogerlamejor opción. Dentro de esta tendencia se plantea también la utilización demodelos parsimoniosos que, si bien no capturan la integridad de la complejidad dela situación, incorporan los aspectos más relevantes de la misma. Los árboles dedecisión tradicionales, presentan inconvenientes cuando se quiere representareventos que pueden ocurrir más de una vez, eventos cuyas probabilidades deocurrencia cambian con el tiempo, eventos que no ocurren inmediatamente yeventos que tienen implicaciones a largo plazo en los pacientes (16,17). Lascadenas y modelos de Markov permiten manejar estas dificultades que sepresentan con los árboles de decisión tradicionales, y son útiles cuando se quieremodelar problemas que involucran riesgos que dependen del tiempo. 23
  27. 27. 2. Falta de sensibilidad políticaSe ha planteado que esta metodología se engolosina con la estructura delproblema pero que no le da énfasis a las dificultades que implica poner en lapráctica la toma de la decisión. Aunque la objetividad y la neutralidad de valoresse han adjudicado a esta metodología como una de sus fortalezas, se hencontrado que las personas que no han participado en la toma de la decisiónpueden mostrar resistencia ante el proceso de implementar la decisión. Esto hapodido verse en el poco impacto que han tenido herramientas para tomardecisiones, como las guías de práctica clínica o recomendaciones generadas enconsensos.3. Limitación del razonamiento humanoEsta es una consideración más de índole filosófica y se basa en el planteamientode que no hay verdades absolutas, y que lo que se acepta como conocimiento noes más que el resultado de cómo una cultura ha preparado y aleccionado a unindividuo para que evalúe y juzgue una situación. Desde esta perspectiva, loshechos sobre los que se basa un análisis de decisiones no son completamenteobjetivos, sino que están matizados por particularidades y características de ungrupo cultural: así las cosas, no tendría mucho sentido efectuar un rigurosoanálisis numérico a unos datos que no son más que distorsiones introducidas porla cultura.BibliografíaMatemáticas Aplicadas a la Administración y a la Economía.Jagdish C. Arya, Robin W. Lardner.Pearson Education 2002Métodos cuantitativos de organización industrial IIEscrito por Joan B. Fonollosa – José M. Sallan, Albert Suñé.Edicions UPC 2002Elementos de Probabilidad y EstadisticaElmer B. ModeReverte 2005 ReimpresiónModelos empleados para la Toma de Decisiones en el Cuidado de la SaludRicardo Sánchez-Pedraza, Oscar Gamboa y Jorge A. DíazRev. Salud pública. 10 (1):178-188, 2008 24

×