SlideShare una empresa de Scribd logo
1 de 41
INVESTIGACIÓN OPERATIVA
TEMA 3
Introducción a las cadenas de Markov de primer orden
1. Definición de cadenas de Markov
2. Tipos de estados y de cadenas de Markov. Propiedades
3. Comportamiento a largo plazo de cadenas de Markov.
Aplicaciones
4. Comportamiento a corto plazo de cadenas de Markov.
Tiempos y probabilidades del primer paso
5. El caso particular de las cadenas absorbentes.
Aplicaciones
6. Estudio de casos reales de aplicación. Los procesos de
markov en los análisis coste-efectividad
Beatriz Gonzalez Lopez-Valcarcel
Introducción
Las cadenas de markov son modelos probabilísticos que
se usan para predecir la evolución y el comportamiento
a corto y a largo plazo de determinados sistemas.
Ejemplos: reparto del mercado entre marcas; dinámica de
las averías de máquinas para decidir política de
mantenimiento; evolución de una enfermedad,…
Beatriz Gonzalez Lopez-Valcarcel
1. Definición de Cadena de Markov
• Una Cadena de Markov (CM) es:
• Un proceso estocástico
• Con un número finito de estados (M)
• Con probabilidades de transición estacionarias
• Que tiene la propiedad markoviana
Beatriz Gonzalez Lopez-Valcarcel
1
Proceso estocástico:
• Es un conjunto o sucesión de variables aleatorias:
{X(t)CG } definidas en un mismo espacio de
probabilidad.
• Normalmente el índice t representa un tiempo y X(t) el
estado del proceso estocástico en el instante t.
• El proceso puede ser de tiempo discreto o continuo si G es
discreto o continuo.
• Si el proceso es de tiempo discreto, usamos enteros para
representar el índice: {X1, X2, ...}
Beatriz Gonzalez Lopez-Valcarcel
1
Ejemplos de procesos estocásticos:
1. Serie mensual de ventas de un producto
2. Estado de una máquina al final de cada semana
(funciona/averiada)
3. Nº de clientes esperando en una cola cada 30 segundos
4. Marca de detergente que compra un consumidor cada vez
que hace la compra. Se supone que existen 7 marcas
diferentes
5. Nº de unidades en almacén al finalizar la semana
Beatriz Gonzalez Lopez-Valcarcel
1
– Un conjunto finito de M estados, exhaustivos y mutuamente
excluyentes (ejemplo: estados de la enfermedad)
– Ciclo de markov (“paso”) : periodo de tiempo que sirve de
base para examinar las transiciones entre estados (ejemplo, un
mes)
– Probabilidades de transición entre estados, en un ciclo (matriz
P)
– Distribución inicial del sistema entre los M estados posibles
ELEMENTOS DE UNA CADENA
DE MARKOV
1
PROPIEDAD MARKOVIANA
Un proceso estocástico tiene la propiedad markoviana si las
probabilidades de transición en un paso sólo dependen del estado
del sistema en el período anterior (memoria limitada)
1
PROPIEDAD MARKOVIANA
P(n)
es la matriz de transición en n pasos, de orden (M+1)x(M+1)
1
PROPIEDAD MARKOVIANA1
PROPIEDAD MARKOVIANA1
Tipos de modelos de Markov:
• Procesos de Markov (Modelos semi-
markovianos): Las probabilidades de transición
entre estados pueden variar a medida que
transcurren más ciclos
– Ejemplo: para modelizar la esperanza de vida, el riesgo
de muerte aumenta con la edad
• Cadenas de Markov: Las probabilidades de
transición se suponen constantes a lo largo del
tiempo
LAS CADENAS DE MARKOV
SON UN CASO PARTICULAR
DE MODELOS DE MARKOV
1
PROPIEDAD MARKOVIANA
Ejemplos:
Comportamiento (sube/baja) del precio de las
acciones hoy depende de lo ocurrido ayer
Problema de la ruina de un jugador de casino
Elección de marca: Con qué línea aérea volar a
Madrid?
1
Ejercicio 1: Tres agencias de viaje disponen de información respecto
de los desplazamientos en vacaciones de semana santa.
Estado futuro n=1
Estado actual n=0 No viajar V. entre islas V. fuera
No viajar 40 20 40
V. entre islas 50 10 40
V. fuera 10 70 20
a) Supuestos necesarios para considerar esta situación como cadena
de Markov de primer orden
b) Calcular la probabilidad de que los clientes que no han viajado
estas vacaciones lo hagan fuera de las islas dentro de 2 años.
1
Ejercicio 2: La carrera de diplomado en CCEE tiene 3 cursos. A
partir de los datos facilitados por el decanato del centro se sabe que
el 35% y el 26% de los alumnos de primero y segundo abandonarán
los estudios. El 28% de los alumnos de primero repiten curso, siendo
este porcentaje del 20% y 30% para los alumnos de segundo y
tercero respectivamente.
1
Tres laboratorios farmacéuticos (A,B y C) que compiten en un principio activo
(mismo conjunto homogéneo en la orden de precios de referencia). Hoy
sus cuotas de mercado son 30%, 20% y 50% respectivamente
EJEMPLO 1: EL REPARTO DEL
MERCADO A LARGO PLAZO
EN UN OLIGOPOLIO
Matriz de transición
en un paso (ciclo)
A B C
A 0,8 0,1 0,1
B 0,15 0,82 0,03
C 0,13 0,12 0,75
Ciclo: Mes
Las filas suman 1
¿Cómo se repartirán el mercado dentro de 1
mes, 6 meses, 1 año?, ¿A largo plazo?
1
EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS
PACIENTES CON VÁLVULA CARDIACA
SOMETIDOS A TRATAMIENTO ANTICOAGULANTE
BIEN
CON
SECUELAS
MUERTO
3 estados (1 absorbente, 2 transitorios)
Ciclo=mes
Utilidades = Nivel salud
Distribución inicial de la cohorte
(N=10.000): todos bien
3 estados (1 absorbente, 2 transitorios)
Ciclo=mes
Utilidades = Nivel salud
Distribución inicial de la cohorte
(N=10.000): todos bien
1
EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS
PACIENTES CON VÁLVULA CARDIACA
SOMETIDOS A TRATAMIENTO ANTICOAGULANTE
BIEN
CON
SECUELAS
MUERTO
3 estados (1 absorbente, 2 transitorios)
Ciclo=mes
Utilidades = Nivel salud
Distribución inicial de la cohorte
(N=10.000): todos bien
3 estados (1 absorbente, 2 transitorios)
Ciclo=mes
Utilidades = Nivel salud
Distribución inicial de la cohorte
(N=10.000): todos bien
1
EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS
PACIENTES CON VÁLVULA CARDIACA
SOMETIDOS A TRATAMIENTO ANTICOAGULANTE
BIEN
CON
SECUELAS
MUERTO
0.6 0.6
0.2
0.2 3 estados (1 absorbente, 2 transitorios)
Ciclo=mes
Utilidades = Nivel salud
Distribución inicial de la cohorte
(N=10.000): todos bien
3 estados (1 absorbente, 2 transitorios)
Ciclo=mes
Utilidades = Nivel salud
Distribución inicial de la cohorte
(N=10.000): todos bien
1
Tres laboratorios farmacéuticos (A,B y C) que compiten en un principio activo
(mismo conjunto homogéneo en la orden de precios de referencia). Hoy
sus cuotas de mercado son 30%, 20% y 50% respectivamente
EJEMPLO 1: EL REPARTO DEL
MERCADO A LARGO PLAZO
EN UN OLIGOPOLIO
Matriz de
transición en un
ciclo (P)
A B C
A 0,8 0,1 0,1
B 0,15 0,82 0,03
C 0,13 0,12 0,75
Ciclo: Mes
Las filas suman 1
¿Cómo se repartirán el mercado dentro de 1
mes, 6 meses, 1 año?, ¿A largo plazo?
1
• Este es un ejemplo de cadena de Markov irreductible y ergódica.
Todos los estados son recurrentes y están comunicados entre sí,
formando una sola clase.Hay solución de estado estable (reparto del
mercado a largo plazo, independiente de la situación inicial)
EJEMPLO 1: EL REPARTO DEL
MERCADO A LARGO PLAZO
EN UN OLIGOPOLIO
Reparto del mercado
después de n ciclos
= P0*Pn
1 mes.....P1= [0.3350 0.2540 0.4110]
2 meses ....p2 =[ 0.3595 0.2911 0.3494]
6 meses ...... p6 =[ 0.4030 0.3543 0.2427]
1 año ....... p12 = [ 0.4150 0.3704 0.2146]
2 años ...... p24 =[ 0.4165 0.3722 0.2113]
3 años ....... p36 =[ 0.4165 0.3722 0.21131]Solución de estado estable
1
EJEMPLO 3: EL HÁBITO TABÁQUICO
DE LOS JÓVENES
5 estados (1 transitorio, 4 recurrentes)
Ciclo= un año
Distribución inicial de la cohorte (N=1.340):
(0.58 0.28 0.05 0.03 0.06)
5 estados (1 transitorio, 4 recurrentes)
Ciclo= un año
Distribución inicial de la cohorte (N=1.340):
(0.58 0.28 0.05 0.03 0.06)
Nunca lo ha
probado
Lo ha probado,
pero ahora no
fuma
Fuma menos de
una vez por
semana
Fuma los fines
de semana
Fuma diariamente Total
Nunca lo ha probado 77.7% 17.2% 3.2% 0.9% 1.0% 100.0%
Lo ha probado, pero ahora
no fuma 0.0% 75.0% 12.2% 4.7% 8.1% 100.0%
Fuma menos de una vez
por semana 0.0% 34.0% 22.0% 12.0% 32.0% 100.0%
Fuma los fines de semana 0.0% 26.5% 17.6% 26.5% 29.4% 100.0%
Fuma diariamente 0.0% 6.3% 8.3% 0.0% 85.4% 100.0%
Total 50.4% 31.8% 6.7% 3.0% 8.1% 100.0%
1
Tipos de estados y de cadenas de markov de primer orden
• Para clasificar los estados y las CM tenemos que definir
algunos conceptos:
• Tiempos del primer paso y de recurrencia
• Accesibilidad y comunicación entre estados
2
Tiempos del primer paso/recurrencia (Corto plazo)
Con lo visto hasta el momento podemos calcular la probabilidad,
dado que el proceso se encuentra en el estado i, de que el proceso se
encuentre en el estado j después de n periodos Pij
(n)
.
2
a) Comenta el contenido de la matriz
de transición P facilitada por el
comercio.
b) Sabiendo que hay dos cámaras al
final de la primera semana (x1=2),
(x2=1), (x3=0), (x4=3) y (x5=1).
Obtener el tiempo de primera
pasada para ir del estado 3 al 1, y
el tiempo de recurrencia del
estado 3.
EJEMPLO: Un vendedor de cámaras fotográficas lleva acabo la
siguiente política de inventario. Mantiene durante la semana de
trabajo hasta un máximo de 3 cámaras en el almacén para su venta.
Si al final de la semana le quedan en el almacén alguna cámara
entonces no pide ninguna al fabricante. De partida en el almacén hay
3 cámaras (x0=3).
2
Tiempos de primera pasada/recurrencia (Corto plazo)
En general podemos considerar a los tiempos de primera pasada
como variables aleatorias, por tanto con una distribución de
probabilidad asociada a ellos. Dichas distribuciones de
probabilidad dependerán de las probabilidades de transición del
proceso.
fij
(1)
=pij
(1)
=pij
fij
(2)
=pij
(2)
-fij
(1)
pij
.............................................
fij
(n)
=pij
(n)
-fij
(1)
pij
(n-1)
-fij
(2)
pij
(n-2)
....-fij
(n-1)
pij
2
Tiempos de primera pasada/recurrencia (Corto plazo)
Como generalmente es bastante engorroso calcular las fij
(n)
para
todas las n, se suele optar por obtener el tiempo esperado de
primera pasada del estado i al estado j
2
Σ (n)
Σ (n)
Podemos considerar fij
(n)
para (n=1,2,..) como la función de
probabilidad de la variable aleatoria tiempo de primera pasada
Una vez que el proceso se
encuentra en el estado i no lo
abandona
Una vez que el proceso se
encuentra en el estado i existe
una prob.>0 de no regresar
Tipos de estados y Cadenas de Markov
2
Ejemplo Identifica los distintos estados en la siguiente
matriz de transición.
Estados 0 1 2 3 4
P 0 0.25 0.75 0 0 0
1 0.5 0.5 0 0 0
2 0 0 1 0 0
3 0 0 0.33333333 0.66666667 0
4 1 0 0 0 0
2
Tipos de estados y Cadenas de Markov
2
Tipos de estados y Cadenas de Markov
2
Tipos de estados y Cadenas de Markov.2
Tipos de estados y Cadenas de Markov.2
Comportamiento a largo plazo de las Cadenas de
Markov
3
Comportamiento a largo plazo de las Cadenas de
Markov2
Comportamiento a largo plazo de las
Cadenas de Markov: el caso de las cadenas
absorbentes
4
• CM absorbente:
– Tiene al menos un estado absorbente
– Desde cualquier estado no absorbente se puede acceder
a algún estado absorbente
• A largo plazo, termina en absorción con
probabilidad 1
• Interesa calcular:
– Probabilidad de absorción por cada estado absorbente
– Numero esperado de pasos antes de la absorción
Comportamiento a largo plazo de las
Cadenas de Markov: el caso de las cadenas
absorbentes
4
• Ingredientes de una cadena de markov:
– Conjunto de K estados exhaustivos y mutuamente excluyentes
definen las posibles situaciones (ej. Bien-discapacitado-muerto)
– Ciclo: periodo de tiempo en el que ocurren transiciones entre
estados (ej: un mes)
– Probabilidades de transición entre estados en un ciclo
• Se suponen constantes en el
tiempo, e idénticas para todos los pacientes
• Sus valores forman la matriz de transición en un paso (P)
– Distribución inicial de la cohorte de pacientes entre los K
estados
EJEMPLOS DE APLICACIONES
CÓMO HACER EL MODELO
REALISTA
PropiedadPropiedad
markoviana: falta demarkoviana: falta de
memoriamemoria
(¿Realista?...)(¿Realista?...)
PropiedadPropiedad
markoviana: falta demarkoviana: falta de
memoriamemoria
(¿Realista?...)(¿Realista?...)
EJEMPLO 1: LA EVOLUCIÓN CLÍNICA DE LOS
PACIENTES CON VÁLVULA CARDIACA
SOMETIDOS A TRATAMIENTO ANTICOAGULANTE
BIENBIEN
CON
SECUELAS
CON
SECUELAS
MUERTOMUERTO
Se incluye un estado transitorio de
proceso agudo (embolia o hemorragia
interna)
Se incluye un estado transitorio de
proceso agudo (embolia o hemorragia
interna)
Complicando el modelo para hacerlo más realista
EJEMPLO 1: LA EVOLUCIÓN CLÍNICA DE LOS
PACIENTES CON VÁLVULA CARDIACA
SOMETIDOS A TRATAMIENTO ANTICOAGULANTE
BIENBIEN
CON
SECUELAS
CON
SECUELAS
MUERTOMUERTO
Estado transitorio ACV: para un suceso
que tiene solo efectos a corto
plazo
Dos usos:
1) Incorporar un valor específico de
la utilidad (o coste)
2) Asignar temporalmente diferentes
probabilidades de transición
Estado transitorio ACV: para un suceso
que tiene solo efectos a corto
plazo
Dos usos:
1) Incorporar un valor específico de
la utilidad (o coste)
2) Asignar temporalmente diferentes
probabilidades de transición
Complicando el modelo para hacerlo más realista
ACCIDENTE
CEREBRAL
VASCULAR
ACCIDENTE
CEREBRAL
VASCULAR
• Ingredientes de una cadena de markov:
– Conjunto de K estados exhaustivos y mutuamente excluyentes
definen las posibles situaciones (ej. Bien-discapacitado-muerto)
– Ciclo: periodo de tiempo en el que ocurren transiciones entre
estados (ej: un mes)
– Probabilidades de transición entre estados en un ciclo
• Se suponen constantes en el tiempo, e idénticas para
todos los pacientes
• Sus valores forman la matriz de transición en un paso (P)
– Distribución inicial de la cohorte de pacientes entre los K
estados
CONCEPTOS BÁSICOSEsta limitación generalmenteEsta limitación generalmente
puede resolverse definiendopuede resolverse definiendo
estados distintos paraestados distintos para
pacientes con distintospacientes con distintos
antecedentesantecedentes
Esta limitación generalmenteEsta limitación generalmente
puede resolverse definiendopuede resolverse definiendo
estados distintos paraestados distintos para
pacientes con distintospacientes con distintos
antecedentesantecedentes
Software y bibliografía
• Usaremos QSB
• Un excelente texto para este tema es el de
Hillier y Lieberman (está referenciado en el
programa)

Más contenido relacionado

La actualidad más candente

Apuntes estadistica p3
Apuntes estadistica p3Apuntes estadistica p3
Apuntes estadistica p3Karla_lvarez
 
Cadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operacionesCadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operacionesEddy Guerrero Vargas
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markovguest3066cc
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacinespaquitootd
 
Estado Finito de Cadenas de Markov
Estado Finito de Cadenas de MarkovEstado Finito de Cadenas de Markov
Estado Finito de Cadenas de MarkovLuis Pons
 
Guía teórica. variables aleatorias y sus distribuciones. ii corte.
Guía teórica. variables aleatorias y sus distribuciones. ii corte.Guía teórica. variables aleatorias y sus distribuciones. ii corte.
Guía teórica. variables aleatorias y sus distribuciones. ii corte.merlyrojas
 
Distribuciones de Probabilidad Continuas
Distribuciones de Probabilidad ContinuasDistribuciones de Probabilidad Continuas
Distribuciones de Probabilidad Continuasfaikerm
 
Leyes de Conservación
Leyes de ConservaciónLeyes de Conservación
Leyes de ConservaciónMichael Larico
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaEmmanuelRuizG
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaEmmanuelRuizG
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markovPoro Punk
 
07 procesos estocasticos (1)
07 procesos estocasticos (1)07 procesos estocasticos (1)
07 procesos estocasticos (1)karelis molina
 
Procesos estocásticos - Generalidades
Procesos estocásticos - GeneralidadesProcesos estocásticos - Generalidades
Procesos estocásticos - GeneralidadesPedro Miranda
 

La actualidad más candente (19)

Ejmarkov
EjmarkovEjmarkov
Ejmarkov
 
Apuntes estadistica p3
Apuntes estadistica p3Apuntes estadistica p3
Apuntes estadistica p3
 
Cadenas de Markov
Cadenas de MarkovCadenas de Markov
Cadenas de Markov
 
Cadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operacionesCadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operaciones
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
 
Markov mono
Markov monoMarkov mono
Markov mono
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
 
Estado Finito de Cadenas de Markov
Estado Finito de Cadenas de MarkovEstado Finito de Cadenas de Markov
Estado Finito de Cadenas de Markov
 
Guía teórica. variables aleatorias y sus distribuciones. ii corte.
Guía teórica. variables aleatorias y sus distribuciones. ii corte.Guía teórica. variables aleatorias y sus distribuciones. ii corte.
Guía teórica. variables aleatorias y sus distribuciones. ii corte.
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Distribuciones de Probabilidad Continuas
Distribuciones de Probabilidad ContinuasDistribuciones de Probabilidad Continuas
Distribuciones de Probabilidad Continuas
 
Leyes de Conservación
Leyes de ConservaciónLeyes de Conservación
Leyes de Conservación
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
07 procesos estocasticos (1)
07 procesos estocasticos (1)07 procesos estocasticos (1)
07 procesos estocasticos (1)
 
La medicion
La medicionLa medicion
La medicion
 
Procesos estocásticos - Generalidades
Procesos estocásticos - GeneralidadesProcesos estocásticos - Generalidades
Procesos estocásticos - Generalidades
 

Similar a Bea cadenas marko

cadenas de markov breve introduccion general
cadenas de markov breve introduccion generalcadenas de markov breve introduccion general
cadenas de markov breve introduccion generalPedroCabala
 
Diapositiva Semana14 2021_Cadenas de Markov.pdf
Diapositiva Semana14 2021_Cadenas de Markov.pdfDiapositiva Semana14 2021_Cadenas de Markov.pdf
Diapositiva Semana14 2021_Cadenas de Markov.pdfIvethLorenaMaytaAyla
 
Sesión 11-Cadenas de MARKOV.pptx
Sesión 11-Cadenas de MARKOV.pptxSesión 11-Cadenas de MARKOV.pptx
Sesión 11-Cadenas de MARKOV.pptxJUVENALLICONA
 
Cadenas de Markov investigación de operaciones
Cadenas de Markov investigación de operacionesCadenas de Markov investigación de operaciones
Cadenas de Markov investigación de operacionesal21510263
 
Proceso de renovation
Proceso de renovation Proceso de renovation
Proceso de renovation norlan9886
 
Manual de cinematica y dinamica
Manual de cinematica y dinamicaManual de cinematica y dinamica
Manual de cinematica y dinamicaEduardo Gualpa
 
Modelo lineal genaral eco0
Modelo lineal genaral eco0Modelo lineal genaral eco0
Modelo lineal genaral eco0azkunaga
 
Nosferi - Perturbaciones no esfericas en el modelo lineal
Nosferi - Perturbaciones no esfericas en el modelo linealNosferi - Perturbaciones no esfericas en el modelo lineal
Nosferi - Perturbaciones no esfericas en el modelo linealMiguel Jerez
 
S02.s2 - Material - Presentación 2 - Semana 2.pdf
S02.s2 - Material - Presentación 2 - Semana 2.pdfS02.s2 - Material - Presentación 2 - Semana 2.pdf
S02.s2 - Material - Presentación 2 - Semana 2.pdfSabinaMelgar
 
Cadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuoCadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuoAlberto Carranza Garcia
 
Animal coat patterns and other practical applications
Animal coat patterns and other practical applicationsAnimal coat patterns and other practical applications
Animal coat patterns and other practical applicationsEric Burgos
 

Similar a Bea cadenas marko (20)

Problemas markov
Problemas markovProblemas markov
Problemas markov
 
SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
389785025-ejercicios.pdf
389785025-ejercicios.pdf389785025-ejercicios.pdf
389785025-ejercicios.pdf
 
cadenas de markov breve introduccion general
cadenas de markov breve introduccion generalcadenas de markov breve introduccion general
cadenas de markov breve introduccion general
 
markov (2).pdf
markov (2).pdfmarkov (2).pdf
markov (2).pdf
 
Diapositiva Semana14 2021_Cadenas de Markov.pdf
Diapositiva Semana14 2021_Cadenas de Markov.pdfDiapositiva Semana14 2021_Cadenas de Markov.pdf
Diapositiva Semana14 2021_Cadenas de Markov.pdf
 
Sesión 11-Cadenas de MARKOV.pptx
Sesión 11-Cadenas de MARKOV.pptxSesión 11-Cadenas de MARKOV.pptx
Sesión 11-Cadenas de MARKOV.pptx
 
Aplicación de la matriceses
Aplicación de la matriceses Aplicación de la matriceses
Aplicación de la matriceses
 
2 produccion
2 produccion2 produccion
2 produccion
 
Cadenas de Markov investigación de operaciones
Cadenas de Markov investigación de operacionesCadenas de Markov investigación de operaciones
Cadenas de Markov investigación de operaciones
 
Proceso de renovation
Proceso de renovation Proceso de renovation
Proceso de renovation
 
Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
 
Manual de cinematica y dinamica
Manual de cinematica y dinamicaManual de cinematica y dinamica
Manual de cinematica y dinamica
 
Modelo lineal genaral eco0
Modelo lineal genaral eco0Modelo lineal genaral eco0
Modelo lineal genaral eco0
 
Atenuación exponencial
Atenuación exponencialAtenuación exponencial
Atenuación exponencial
 
Principal
PrincipalPrincipal
Principal
 
Nosferi - Perturbaciones no esfericas en el modelo lineal
Nosferi - Perturbaciones no esfericas en el modelo linealNosferi - Perturbaciones no esfericas en el modelo lineal
Nosferi - Perturbaciones no esfericas en el modelo lineal
 
S02.s2 - Material - Presentación 2 - Semana 2.pdf
S02.s2 - Material - Presentación 2 - Semana 2.pdfS02.s2 - Material - Presentación 2 - Semana 2.pdf
S02.s2 - Material - Presentación 2 - Semana 2.pdf
 
Cadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuoCadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuo
 
Animal coat patterns and other practical applications
Animal coat patterns and other practical applicationsAnimal coat patterns and other practical applications
Animal coat patterns and other practical applications
 

Último

SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxYadi Campos
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Lourdes Feria
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...JonathanCovena1
 
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdfEjercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdfMaritzaRetamozoVera
 
Cuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdfCuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdfNancyLoaa
 
Programacion Anual Matemática5 MPG 2024 Ccesa007.pdf
Programacion Anual Matemática5    MPG 2024  Ccesa007.pdfProgramacion Anual Matemática5    MPG 2024  Ccesa007.pdf
Programacion Anual Matemática5 MPG 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Qué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaQué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaDecaunlz
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSYadi Campos
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxMaritzaRetamozoVera
 
plande accion dl aula de innovación pedagogica 2024.pdf
plande accion dl aula de innovación pedagogica 2024.pdfplande accion dl aula de innovación pedagogica 2024.pdf
plande accion dl aula de innovación pedagogica 2024.pdfenelcielosiempre
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA IIAFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA IIIsauraImbrondone
 
Criterios ESG: fundamentos, aplicaciones y beneficios
Criterios ESG: fundamentos, aplicaciones y beneficiosCriterios ESG: fundamentos, aplicaciones y beneficios
Criterios ESG: fundamentos, aplicaciones y beneficiosJonathanCovena1
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónLourdes Feria
 

Último (20)

SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...
 
Medición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptxMedición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptx
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...
 
Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 
Unidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la InvestigaciónUnidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la Investigación
 
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdfEjercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
Ejercicios de PROBLEMAS PAEV 6 GRADO 2024.pdf
 
Cuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdfCuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdf
 
Programacion Anual Matemática5 MPG 2024 Ccesa007.pdf
Programacion Anual Matemática5    MPG 2024  Ccesa007.pdfProgramacion Anual Matemática5    MPG 2024  Ccesa007.pdf
Programacion Anual Matemática5 MPG 2024 Ccesa007.pdf
 
Qué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaQué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativa
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docx
 
plande accion dl aula de innovación pedagogica 2024.pdf
plande accion dl aula de innovación pedagogica 2024.pdfplande accion dl aula de innovación pedagogica 2024.pdf
plande accion dl aula de innovación pedagogica 2024.pdf
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA IIAFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
 
Criterios ESG: fundamentos, aplicaciones y beneficios
Criterios ESG: fundamentos, aplicaciones y beneficiosCriterios ESG: fundamentos, aplicaciones y beneficios
Criterios ESG: fundamentos, aplicaciones y beneficios
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 

Bea cadenas marko

  • 1. INVESTIGACIÓN OPERATIVA TEMA 3 Introducción a las cadenas de Markov de primer orden 1. Definición de cadenas de Markov 2. Tipos de estados y de cadenas de Markov. Propiedades 3. Comportamiento a largo plazo de cadenas de Markov. Aplicaciones 4. Comportamiento a corto plazo de cadenas de Markov. Tiempos y probabilidades del primer paso 5. El caso particular de las cadenas absorbentes. Aplicaciones 6. Estudio de casos reales de aplicación. Los procesos de markov en los análisis coste-efectividad Beatriz Gonzalez Lopez-Valcarcel
  • 2. Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución de una enfermedad,… Beatriz Gonzalez Lopez-Valcarcel
  • 3. 1. Definición de Cadena de Markov • Una Cadena de Markov (CM) es: • Un proceso estocástico • Con un número finito de estados (M) • Con probabilidades de transición estacionarias • Que tiene la propiedad markoviana Beatriz Gonzalez Lopez-Valcarcel 1
  • 4. Proceso estocástico: • Es un conjunto o sucesión de variables aleatorias: {X(t)CG } definidas en un mismo espacio de probabilidad. • Normalmente el índice t representa un tiempo y X(t) el estado del proceso estocástico en el instante t. • El proceso puede ser de tiempo discreto o continuo si G es discreto o continuo. • Si el proceso es de tiempo discreto, usamos enteros para representar el índice: {X1, X2, ...} Beatriz Gonzalez Lopez-Valcarcel 1
  • 5. Ejemplos de procesos estocásticos: 1. Serie mensual de ventas de un producto 2. Estado de una máquina al final de cada semana (funciona/averiada) 3. Nº de clientes esperando en una cola cada 30 segundos 4. Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7 marcas diferentes 5. Nº de unidades en almacén al finalizar la semana Beatriz Gonzalez Lopez-Valcarcel 1
  • 6. – Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) – Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes) – Probabilidades de transición entre estados, en un ciclo (matriz P) – Distribución inicial del sistema entre los M estados posibles ELEMENTOS DE UNA CADENA DE MARKOV 1
  • 7. PROPIEDAD MARKOVIANA Un proceso estocástico tiene la propiedad markoviana si las probabilidades de transición en un paso sólo dependen del estado del sistema en el período anterior (memoria limitada) 1
  • 8. PROPIEDAD MARKOVIANA P(n) es la matriz de transición en n pasos, de orden (M+1)x(M+1) 1
  • 11. Tipos de modelos de Markov: • Procesos de Markov (Modelos semi- markovianos): Las probabilidades de transición entre estados pueden variar a medida que transcurren más ciclos – Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte aumenta con la edad • Cadenas de Markov: Las probabilidades de transición se suponen constantes a lo largo del tiempo LAS CADENAS DE MARKOV SON UN CASO PARTICULAR DE MODELOS DE MARKOV 1
  • 12. PROPIEDAD MARKOVIANA Ejemplos: Comportamiento (sube/baja) del precio de las acciones hoy depende de lo ocurrido ayer Problema de la ruina de un jugador de casino Elección de marca: Con qué línea aérea volar a Madrid? 1
  • 13. Ejercicio 1: Tres agencias de viaje disponen de información respecto de los desplazamientos en vacaciones de semana santa. Estado futuro n=1 Estado actual n=0 No viajar V. entre islas V. fuera No viajar 40 20 40 V. entre islas 50 10 40 V. fuera 10 70 20 a) Supuestos necesarios para considerar esta situación como cadena de Markov de primer orden b) Calcular la probabilidad de que los clientes que no han viajado estas vacaciones lo hagan fuera de las islas dentro de 2 años. 1
  • 14. Ejercicio 2: La carrera de diplomado en CCEE tiene 3 cursos. A partir de los datos facilitados por el decanato del centro se sabe que el 35% y el 26% de los alumnos de primero y segundo abandonarán los estudios. El 28% de los alumnos de primero repiten curso, siendo este porcentaje del 20% y 30% para los alumnos de segundo y tercero respectivamente. 1
  • 15. Tres laboratorios farmacéuticos (A,B y C) que compiten en un principio activo (mismo conjunto homogéneo en la orden de precios de referencia). Hoy sus cuotas de mercado son 30%, 20% y 50% respectivamente EJEMPLO 1: EL REPARTO DEL MERCADO A LARGO PLAZO EN UN OLIGOPOLIO Matriz de transición en un paso (ciclo) A B C A 0,8 0,1 0,1 B 0,15 0,82 0,03 C 0,13 0,12 0,75 Ciclo: Mes Las filas suman 1 ¿Cómo se repartirán el mercado dentro de 1 mes, 6 meses, 1 año?, ¿A largo plazo? 1
  • 16. EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE BIEN CON SECUELAS MUERTO 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribución inicial de la cohorte (N=10.000): todos bien 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribución inicial de la cohorte (N=10.000): todos bien 1
  • 17. EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE BIEN CON SECUELAS MUERTO 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribución inicial de la cohorte (N=10.000): todos bien 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribución inicial de la cohorte (N=10.000): todos bien 1
  • 18. EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE BIEN CON SECUELAS MUERTO 0.6 0.6 0.2 0.2 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribución inicial de la cohorte (N=10.000): todos bien 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribución inicial de la cohorte (N=10.000): todos bien 1
  • 19. Tres laboratorios farmacéuticos (A,B y C) que compiten en un principio activo (mismo conjunto homogéneo en la orden de precios de referencia). Hoy sus cuotas de mercado son 30%, 20% y 50% respectivamente EJEMPLO 1: EL REPARTO DEL MERCADO A LARGO PLAZO EN UN OLIGOPOLIO Matriz de transición en un ciclo (P) A B C A 0,8 0,1 0,1 B 0,15 0,82 0,03 C 0,13 0,12 0,75 Ciclo: Mes Las filas suman 1 ¿Cómo se repartirán el mercado dentro de 1 mes, 6 meses, 1 año?, ¿A largo plazo? 1
  • 20. • Este es un ejemplo de cadena de Markov irreductible y ergódica. Todos los estados son recurrentes y están comunicados entre sí, formando una sola clase.Hay solución de estado estable (reparto del mercado a largo plazo, independiente de la situación inicial) EJEMPLO 1: EL REPARTO DEL MERCADO A LARGO PLAZO EN UN OLIGOPOLIO Reparto del mercado después de n ciclos = P0*Pn 1 mes.....P1= [0.3350 0.2540 0.4110] 2 meses ....p2 =[ 0.3595 0.2911 0.3494] 6 meses ...... p6 =[ 0.4030 0.3543 0.2427] 1 año ....... p12 = [ 0.4150 0.3704 0.2146] 2 años ...... p24 =[ 0.4165 0.3722 0.2113] 3 años ....... p36 =[ 0.4165 0.3722 0.21131]Solución de estado estable 1
  • 21. EJEMPLO 3: EL HÁBITO TABÁQUICO DE LOS JÓVENES 5 estados (1 transitorio, 4 recurrentes) Ciclo= un año Distribución inicial de la cohorte (N=1.340): (0.58 0.28 0.05 0.03 0.06) 5 estados (1 transitorio, 4 recurrentes) Ciclo= un año Distribución inicial de la cohorte (N=1.340): (0.58 0.28 0.05 0.03 0.06) Nunca lo ha probado Lo ha probado, pero ahora no fuma Fuma menos de una vez por semana Fuma los fines de semana Fuma diariamente Total Nunca lo ha probado 77.7% 17.2% 3.2% 0.9% 1.0% 100.0% Lo ha probado, pero ahora no fuma 0.0% 75.0% 12.2% 4.7% 8.1% 100.0% Fuma menos de una vez por semana 0.0% 34.0% 22.0% 12.0% 32.0% 100.0% Fuma los fines de semana 0.0% 26.5% 17.6% 26.5% 29.4% 100.0% Fuma diariamente 0.0% 6.3% 8.3% 0.0% 85.4% 100.0% Total 50.4% 31.8% 6.7% 3.0% 8.1% 100.0% 1
  • 22. Tipos de estados y de cadenas de markov de primer orden • Para clasificar los estados y las CM tenemos que definir algunos conceptos: • Tiempos del primer paso y de recurrencia • Accesibilidad y comunicación entre estados 2
  • 23. Tiempos del primer paso/recurrencia (Corto plazo) Con lo visto hasta el momento podemos calcular la probabilidad, dado que el proceso se encuentra en el estado i, de que el proceso se encuentre en el estado j después de n periodos Pij (n) . 2
  • 24. a) Comenta el contenido de la matriz de transición P facilitada por el comercio. b) Sabiendo que hay dos cámaras al final de la primera semana (x1=2), (x2=1), (x3=0), (x4=3) y (x5=1). Obtener el tiempo de primera pasada para ir del estado 3 al 1, y el tiempo de recurrencia del estado 3. EJEMPLO: Un vendedor de cámaras fotográficas lleva acabo la siguiente política de inventario. Mantiene durante la semana de trabajo hasta un máximo de 3 cámaras en el almacén para su venta. Si al final de la semana le quedan en el almacén alguna cámara entonces no pide ninguna al fabricante. De partida en el almacén hay 3 cámaras (x0=3). 2
  • 25. Tiempos de primera pasada/recurrencia (Corto plazo) En general podemos considerar a los tiempos de primera pasada como variables aleatorias, por tanto con una distribución de probabilidad asociada a ellos. Dichas distribuciones de probabilidad dependerán de las probabilidades de transición del proceso. fij (1) =pij (1) =pij fij (2) =pij (2) -fij (1) pij ............................................. fij (n) =pij (n) -fij (1) pij (n-1) -fij (2) pij (n-2) ....-fij (n-1) pij 2
  • 26. Tiempos de primera pasada/recurrencia (Corto plazo) Como generalmente es bastante engorroso calcular las fij (n) para todas las n, se suele optar por obtener el tiempo esperado de primera pasada del estado i al estado j 2
  • 27. Σ (n) Σ (n) Podemos considerar fij (n) para (n=1,2,..) como la función de probabilidad de la variable aleatoria tiempo de primera pasada Una vez que el proceso se encuentra en el estado i no lo abandona Una vez que el proceso se encuentra en el estado i existe una prob.>0 de no regresar Tipos de estados y Cadenas de Markov 2
  • 28. Ejemplo Identifica los distintos estados en la siguiente matriz de transición. Estados 0 1 2 3 4 P 0 0.25 0.75 0 0 0 1 0.5 0.5 0 0 0 2 0 0 1 0 0 3 0 0 0.33333333 0.66666667 0 4 1 0 0 0 0 2
  • 29. Tipos de estados y Cadenas de Markov 2
  • 30. Tipos de estados y Cadenas de Markov 2
  • 31. Tipos de estados y Cadenas de Markov.2
  • 32. Tipos de estados y Cadenas de Markov.2
  • 33. Comportamiento a largo plazo de las Cadenas de Markov 3
  • 34. Comportamiento a largo plazo de las Cadenas de Markov2
  • 35. Comportamiento a largo plazo de las Cadenas de Markov: el caso de las cadenas absorbentes 4 • CM absorbente: – Tiene al menos un estado absorbente – Desde cualquier estado no absorbente se puede acceder a algún estado absorbente • A largo plazo, termina en absorción con probabilidad 1 • Interesa calcular: – Probabilidad de absorción por cada estado absorbente – Numero esperado de pasos antes de la absorción
  • 36. Comportamiento a largo plazo de las Cadenas de Markov: el caso de las cadenas absorbentes 4
  • 37. • Ingredientes de una cadena de markov: – Conjunto de K estados exhaustivos y mutuamente excluyentes definen las posibles situaciones (ej. Bien-discapacitado-muerto) – Ciclo: periodo de tiempo en el que ocurren transiciones entre estados (ej: un mes) – Probabilidades de transición entre estados en un ciclo • Se suponen constantes en el tiempo, e idénticas para todos los pacientes • Sus valores forman la matriz de transición en un paso (P) – Distribución inicial de la cohorte de pacientes entre los K estados EJEMPLOS DE APLICACIONES CÓMO HACER EL MODELO REALISTA PropiedadPropiedad markoviana: falta demarkoviana: falta de memoriamemoria (¿Realista?...)(¿Realista?...) PropiedadPropiedad markoviana: falta demarkoviana: falta de memoriamemoria (¿Realista?...)(¿Realista?...)
  • 38. EJEMPLO 1: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE BIENBIEN CON SECUELAS CON SECUELAS MUERTOMUERTO Se incluye un estado transitorio de proceso agudo (embolia o hemorragia interna) Se incluye un estado transitorio de proceso agudo (embolia o hemorragia interna) Complicando el modelo para hacerlo más realista
  • 39. EJEMPLO 1: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE BIENBIEN CON SECUELAS CON SECUELAS MUERTOMUERTO Estado transitorio ACV: para un suceso que tiene solo efectos a corto plazo Dos usos: 1) Incorporar un valor específico de la utilidad (o coste) 2) Asignar temporalmente diferentes probabilidades de transición Estado transitorio ACV: para un suceso que tiene solo efectos a corto plazo Dos usos: 1) Incorporar un valor específico de la utilidad (o coste) 2) Asignar temporalmente diferentes probabilidades de transición Complicando el modelo para hacerlo más realista ACCIDENTE CEREBRAL VASCULAR ACCIDENTE CEREBRAL VASCULAR
  • 40. • Ingredientes de una cadena de markov: – Conjunto de K estados exhaustivos y mutuamente excluyentes definen las posibles situaciones (ej. Bien-discapacitado-muerto) – Ciclo: periodo de tiempo en el que ocurren transiciones entre estados (ej: un mes) – Probabilidades de transición entre estados en un ciclo • Se suponen constantes en el tiempo, e idénticas para todos los pacientes • Sus valores forman la matriz de transición en un paso (P) – Distribución inicial de la cohorte de pacientes entre los K estados CONCEPTOS BÁSICOSEsta limitación generalmenteEsta limitación generalmente puede resolverse definiendopuede resolverse definiendo estados distintos paraestados distintos para pacientes con distintospacientes con distintos antecedentesantecedentes Esta limitación generalmenteEsta limitación generalmente puede resolverse definiendopuede resolverse definiendo estados distintos paraestados distintos para pacientes con distintospacientes con distintos antecedentesantecedentes
  • 41. Software y bibliografía • Usaremos QSB • Un excelente texto para este tema es el de Hillier y Lieberman (está referenciado en el programa)