SlideShare una empresa de Scribd logo
1 de 33
Descargar para leer sin conexión
Cadenas de Markov
http://humberto-r-alvarez-a.webs.com
H. R. Alvarez A., Ph. D.
Definición
 Procesos estocásticos: procesos que evolucionan de forma no
determinista a lo largo del tiempo en torno a un conjunto de
estados. Estos estados está formado por una familia de variables
aleatorias {Xi}
 Cadenas de Markov: conjunto de herramientas para analizar
procesos estocásticos.
 Una Cadena de Markov representa un sistema que varía su estado
a lo largo del tiempo, siendo cada cambio una transición del
sistema.
 Aunque los cambios no están predeterminados, las probabilidades
del próximo estado en función del estado anterior son conocidas.
 Las probabilidades son constantes a lo largo del tiempo, el sistema
es homogéneo.
Características:
 Número finito y conocido de estados.
 Probabilidades de transición conocidas y
constantes.
 Se puede, eventualmente, pasar de un
estado a cualquier otro.
 No son ciclos simples.
H. R. Alvarez A., Ph. D.
Elementos de una Cadena de Markov
H. R. Alvarez A., Ph. D.
 Para definirla es necesario determinar:
 El conjunto de estados del sistema
 La definición de transición
 Una ley de probabilidad condicional, que defina la probabilidad como
del nuevo estado en función de los anteriores.
 Los estados son una caracterización de un sistema en un instante
dado.
 El estado de un sistema en un instante t es una variable cuyos
valores sólo pueden pertenecer al conjunto de estados del sistema.
 El estado del sistema en el tiempo t+1 dependerá solo del estado
del sistema en el tiempo t
Definición
 Es una colección indexada de varias xt, donde t denota
intervalos de tiempo temporales significativos para el
sistema bajo estudio. Los valores de x se toman de un
conjunto de categorías o estados, mutuamente
excluyentes de las que se conoce la probabilidad asociada
y no la certeza del estado, tal que:
En otras palabras: la probabilidad de existencia de un
estado, solamente depende del estado anterior.
H. R. Alvarez A., Ph. D.
   x| XxXxxX| XxX tttttttt   111111 PrPr 
Probabilidad de transición
 Sea Pr[Xt+1=b|Xt=a]; la probabilidad de que el
proceso, estando en el estado a en el tiempo t, pase
al estado b en el instante siguiente t+1
 Las probabilidades de transición son independientes
del tiempo t, tal que:
 Estas son conocidas como cadenas homogéneas de
orden 1
H. R. Alvarez A., Ph. D.
 1Pr t t abX b| X a p   
X1
X2 X3 X4 X5
p12 p45p34p23
Matrices de transición P
 Es una matriz cuadrada de orden n, donde n es el número
de estados de la cadena.
 Debido a que el sistema evoluciona de cualquier estado i a
j, en cualquier tiempo t, entonces:
 Para todo pij ≥ 0 por definición, tal que:
H. R. Alvarez A., Ph. D.
Ejemplo: (conjunto de problemas 17.7A Taha, p. 1)
 Un profesor de ingeniería adquiere una computadora
nueva cada dos años. Si el modelo actual es M1, la
siguiente computadora puede ser M2 con probabilidad
de 0.2 o M3 con probabilidad de 0.15. Si el modelo
actual es M2, las probabilidades de cambiar a M1 o M3
son 0.6 y 0.25, respectivamente. Si el modelo actual
es M3, las probabilidades de comprar M1 o M2 son 0.5
y 0.1, respectivamente. Representar la situación
como una cadena de Markov.
H. R. Alvarez A., Ph. D.H. R. Alvarez A., Ph. D.
M1 M2 M3
M1 0.65 0.2 0.15
M2 0.6 0.15 0.25
M3 0.5 0.1 0.4
t
t+1
Matriz de transición
Proceso de
Markov
 Proceso de Markov: definido por el gráfico (FSM)
(FSM: Finite Stochastic Machine)
 Cadena de Markov: cualquier recorrido aleatorio en el FSM
Probabilidades de transición para k pasos
Ecuaciones de Chapman-Kolmogorov
 Al ser las probabilidades de transición estables en el tiempo, se
puede conocer las propiedades después de k pasos:
 Esto es, la probabilidad de que el proceso se encuentre en
estado j si k etapas antes se encontraba en el estado i.
 Si se conoce pij, es posible calcular las pij
(k) tal que:
 Al ser P el conjunto de probabilidades de transición, entonces:
P(k) = P.Pk-1 = Pk
 Siendo P1 la probabilidad de una transición y P0 = I
H. R. Alvarez A., Ph. D.
H. R. Alvarez A., Ph. D.
Ejemplo:
Llueva No llueva
Llueva 40% 60%
No llueva 20% 80%
H. R. Alvarez A., Ph. D.
Llueve No llueve
0.60.4 0.8
0.2
P =
Ejemplo …
 Si hoy llovió, ¿cuál es la probabilidad de que
no llueva en dos días?
P(Llueva → → No llueva) = P(Llueva →Llueva→ No llueva) +
P(Llueva →No Llueva→ No llueva);
P(No llueva/Llueva dos días antes) = P(No
llueva/(LluevaLlueva))+P(No llueva(LluevaNo llueva)
= 0.4*0.6 + 0.6*0.8 = 0.72 o 72%
H. R. Alvarez A., Ph. D.
Llueva No llueva
Llueva 40% 60%
No llueva 20% 80%
Llueva No llueva
Llueva 40% 60%
No llueva 20% 80%
+
Ejemplo….
H. R. Alvarez A., Ph. D.
Primer día Segundo día Hoy
Llueve Llueve Llueve 0.4*0.4
Llueve No llueve Llueve 0.6*0.2
Llueve Llueve No llueve 0.4*0.6
Llueve No llueve No llueve 0.6*0.8
No llueve Llueve Llueve 0.2*0.4
No llueve No llueve Llueve 0.8*0.2
No llueve Llueve No llueve 0.2*0.6
No llueve No llueve No llueve 0.8*0.8
Llueva No llueva
Llueva 40% 60%
No llueva 20% 80%
P =
0.28
0.72
0.24
0.76
Ejemplo….
 Para los posibles escenarios en dos días (k=2):
 Puede demostrarse que P(2) = P2
H. R. Alvarez A., Ph. D.
t + 2
t Llueva No llueva
Llueva 28% 72%
No llueva 24% 76%
Propiedades a largo plazo de las Cadenas
de Markov
 En general, cuando k  , la probabilidad de estar en un estado j es
independiente del estado inicial y se conoce como probabilidad
estacionaria o de estado estable j
 Estas probabilidades se mantienen constantes después de dichas
transiciones.
 Las cadenas de Markov con esta característica se conocen como cadenas
ergódicas y su matriz de transición será
H. R. Alvarez A., Ph. D.
Volviendo al ejemplo de la lluvia
H. R. Alvarez A., Ph. D.
Llueva No llueva
Llueva 40% 60%
No llueva 20% 80%
P1 =
Llueva No llueva
Llueva 25.1% 74.9%
No llueva 25.0% 75.0%
Llueva No llueva
Llueva 25.0% 75.0%
No llueva 25.0% 75.0%
P4 =
P8 =
Llueva No llueva
Llueva 25.0% 75.0%
No llueva 25.0% 75.0%
P16 =
Propiedades a largo plazo
 Una cadena es ergódica cuando tiene el mismo comportamiento promedio en el
tiempo como promedio durante el espacio de todos los estados del sistema.
 En general, para una cadena ergódica existe un límite:
tal que el mismo existe es independiente de i.
Además
donde j satisface las siguientes ecuaciones de estado estable:
H. R. Alvarez A., Ph. D.
Algunos aspectos importantes
 j define la probabilidad de encontrar el sistema en el estado j,
después de un gran número de transiciones y tiende a ser
constante e independiente del estado inicial.
 Aunque la probabilidad j define la probabilidad de estar en el
estado j, la probabilidad de la transición entre i y j, en cualquier
etapa k, será pij
 Las ecuaciones de estado estable estará definido por n+1
ecuaciones y n incógnitas, por lo que siempre habrá una
ecuación redundante que puede eliminarse, con excepción de la
expresión
H. R. Alvarez A., Ph. D.
Ejemplo de la lluvia…
H. R. Alvarez A., Ph. D.
Llueva No llueva
Llueva 40% 60%
No llueva 20% 80%
P =
Llueva No llueva
Llueva 1 2
No llueva 1 2
P*=
P*=P*P, por las ecuaciones de Chapman-Kolmogorov,
donde se tiene que P*-1=P* en el estado estable y
además la ecuación
H. R. Alvarez A., Ph. D.
= *
= 1+
0.4*1 + 0.2*2 = 1
0.6*1 + 0.8*2 = 2
1 + 2 = 1
Resolviendo:
1 = 0.25
2 = 0.75
Llueva No llueva
Llueva 25.0% 75.0%
No llueva 25.0% 75.0%
y P* =
Esta matriz estacionaria coincide con P(k), para k→
[P*] [P][P*]
El caso cuando hay probabilidades
iniciales
 Sea at = (a0, a1,...,am ) la distribución en t0
de la Cadena de Markov (con m estados)
 La probabilidad de que el sistema se
encuentre en el estado j después de n etapas
estará dada por:
 P{Xn= j}= elemento j del vector at Pn
 En el largo plazo: P{Xn= j}= at P*
H. R. Alvarez A., Ph. D.
El ejemplo de la lluvia, nuevamente
 Suponga que la probabilidad de que hoy llueva es
65%, ¿cuál será la probabilidad de que no llueva
dentro de dos días?
 En este caso, at = (65%, 35%)
 Resolviendo para atP2 =(26.6%, 73.4%)
 P(No llueva dentro de dos días): 73.4%
H. R. Alvarez A., Ph. D.
Llueva No llueva
Llueva 40% 60%
No llueva 20% 80%
P =
Cuando hay costos asociados
 Sea ct = (c0, c1,...,cm ) la distribución de costos
asociados a la Cadena de Markov (con m estados)
 El costo de que el sistema se encuentre en el estado
j después de n etapas estará dada por:
 E(c)=atP(n)ct
 Esto resultará en el costo esperado del sistema en la
etapa n.
 En caso de no tener definida la probabilidad inicial a,
se supone igual para cada estado j.
H. R. Alvarez A., Ph. D.
Regresando al ejemplo de la lluvia
 Suponga que el valor de que llueva es de -20 y que
no llueva es de 10.
 La probabilidad inicial de lluvia se mantiene en 65%
 ¿Cuánto será el valor esperado después de dos días
para los diferentes estados?
 Resolviendo para E(c)=atP(n)ct = 2.02 unidades
monetarias.
H. R. Alvarez A., Ph. D.
Llueva No llueva
Llueva 40% 60%
No llueva 20% 80%
P =
Clasificación de los estados de una
Cadena de Markov
 Existen ciertas propiedades de los estados que son
importantes en el comportamiento de las Cadenas de
Markov.
 El estado j se dice que es accesible desde el estado i
si pij
(n) > 0 en cualquier etapa n.
 Esto quiere decir que el sistema puede entrar al estado j
eventualmente, si está en el estado i.
 Si el estado j es accesible desde el estado i, y el
estado i, es accesible desde el estado j, se dice
entonces que i y j pueden comunicarse.
H. R. Alvarez A., Ph. D.
En general
 1. Cada estado se comunica con si mismo ya que pii
(0)=P(x0 =
i|x0 = i) = 1
 Si el estado i se comunica con el estado j, entonces j se
couminca con i.
 3. Si el estado i se comunica con j, y j se comunica con k,
entonces el estado i se comunica con k.
 Como resultado de lo anterior, los estados pueden ser divididos
en dos o más clases de tal manera que los estados que se
comunican entre ellos puedan estar en una sola clase.
 Si el estado tiene una sola clase se dice que es irreducible.
H. R. Alvarez A., Ph. D.
Clasificación de los estados de una
Cadena de Markov
 Se dice que un estado es transitorio si una vez en ese estado, el
sistema no retorna a dicho estado otra vez. En otras palabras, el
estado i es transitorio si existe un estado j que es accesible
desde i pero no lo contrario desde el estado j.
 Un estado es recurrente si, una vez en ese estado, el sistema
volverá a ese estado otra vez en algún momento.
 Un estado es absorvente si una vez en él, el sistema nunca lo
dejará. Así, en un estado absorvente pii = 1
 Un estado es periódico, con período t > 1 si es posible su
retorno en períodos definidos. Un período de un estado i se
define como un entero t (t>1), tal que pii
(n) = 0 para cualquier
valor de n diferente a t, 2t, 3t, …, siendo t el entero mayor de
dicha propiedad.
H. R. Alvarez A., Ph. D.
En el caso de la lluvia
 El sistema es accesible en cada estado
y se pueden comunicar.
H. R. Alvarez A., Ph. D.
Llueve No llueve
0.60.4 0.8
0.2
Estados absorventes
 Como se dijo, un estado k se llama absorvente si´pkk = 1.
 Así, el estado k permanence así por siempre.
 Si el estado k es un estado absorvente y el sistema inició en estado i, la
probabilidad de ir en algún momento al estado k se conoce como
probabilidad de absorción al estado k, siendo que el sistema inició en el
estado I y se denota por fik.
 Cuando hay dos o más estados absorventes en una cadena de Markov, el
sistema será absorvido por uno de esos estados.
 Es necesario conocer las probabilidades de absorción resolviendo el
sistema de ecuaciones dado por:
fik= Mpijfjk para todo j = 1, 2, …, M
 Sujeto a fkk = 1, y
 fik = 0, para i  k, y el estado i sea recurrente
H. R. Alvarez A., Ph. D.
Otro ejemplo
Considere una tienda por departamento que clasifica el balance de las
cuentas de sus clientes en totalmente pagado (estado 0), 1 a 30 días de
atraso (estado 1), 31 a 60 días (estado 2) o cuenta mala (estado 3).
Los estados de cuenta se verifican cada mes para ver la situación de cada
cliente. En general el crédito no se extiende y se espera que los clientes
paguen dentro de los primeros 30 días. Muchas veces, los clientes pagan
solamente parte de su cuenta. Si esto ocurre cuando el balance está
dentro de los primeros treinta días, entonces la tienda lo mantiene dentro
del estado uno. Si el pago ocurre cuando el cliente estaba en el estado
dos, entonces cambia del estado 1 al estado 2. Los clientes con más de 60
días se consideran dentro de las cuentas malas y se envían a una agencia
de cobros.
H. R. Alvarez A., Ph. D.
Otro ejemplo
Aunque cada cliente termina ya sea en estado 0 o 3, la tienda está
interesada en determinar la probabilidad de que un cliente caerá
como cuenta mala ya sea que esté en el estado 1 o 2.
H. R. Alvarez A., Ph. D.
Pagado
1 a 30
días
31 a 60
días
Cuenta
mala
0 1 2 3
Pagado 0 1 0 0 0
1 a 30
días
1 0.7 0.2 0.1 0
31 a 60
días
2 0.5 0.1 0.2 0.2
Cuenta
mala
3 0 0 0 1
P =
Estado
Estado
Solución
 Se requiere calcular f13 y f23
 Resolviendo fik= Mpijfjk
 f13= p10f03+p11f13+p12f23+p13f33
 f23= p20f03+p21f13+p22f23+p23f33
 Se puede suponer que f03 = 0 (no se puede ir de pagar todo a
cuenta mala), f33 = 1 (si eres cuenta mala, te quedas en cuenta
mala)
 Sustituyendo estos valores y las probabilidades definidas en la
matriz de transición
 f13 = 0.032
 F23 = 0.025
H. R. Alvarez A., Ph. D.

Más contenido relacionado

La actualidad más candente

Problemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovProblemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovLaura Garzón
 
Cadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentesCadenas de markov con estados absorbentes
Cadenas de markov con estados absorbenteseduardoko
 
Baixardoc.com unidad-1-programacion-dinamica
Baixardoc.com unidad-1-programacion-dinamicaBaixardoc.com unidad-1-programacion-dinamica
Baixardoc.com unidad-1-programacion-dinamicaManuelStreck
 
Algoritmo lineal
Algoritmo linealAlgoritmo lineal
Algoritmo linealdavisct
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1yesi arrieta
 
Programación Dinámica
Programación DinámicaProgramación Dinámica
Programación Dinámicaliisab04
 
Ova Ejercicio Cadenas De Markov
Ova Ejercicio Cadenas De MarkovOva Ejercicio Cadenas De Markov
Ova Ejercicio Cadenas De Markovwilliam
 
Ejercicios metodos de suavizamiento exponencial
Ejercicios metodos de suavizamiento exponencialEjercicios metodos de suavizamiento exponencial
Ejercicios metodos de suavizamiento exponencialAlberth ibañez Fauched
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markovPoro Punk
 
Proceso de nacimiento y muerte poisson
Proceso de nacimiento y muerte poissonProceso de nacimiento y muerte poisson
Proceso de nacimiento y muerte poissonKatia Arrayales Zamora
 
Análisis de decisiones
Análisis de decisionesAnálisis de decisiones
Análisis de decisionesberal2606
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaEmmanuelRuizG
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markovFabian Velazquez
 

La actualidad más candente (20)

Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Problemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovProblemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markov
 
Cadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentesCadenas de markov con estados absorbentes
Cadenas de markov con estados absorbentes
 
Baixardoc.com unidad-1-programacion-dinamica
Baixardoc.com unidad-1-programacion-dinamicaBaixardoc.com unidad-1-programacion-dinamica
Baixardoc.com unidad-1-programacion-dinamica
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Algoritmo lineal
Algoritmo linealAlgoritmo lineal
Algoritmo lineal
 
Cadenas de markov io2
Cadenas de markov io2Cadenas de markov io2
Cadenas de markov io2
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Unidad 3. Programación dinámica
Unidad 3. Programación dinámicaUnidad 3. Programación dinámica
Unidad 3. Programación dinámica
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
 
Programación Dinámica
Programación DinámicaProgramación Dinámica
Programación Dinámica
 
Programación deterministica
Programación deterministicaProgramación deterministica
Programación deterministica
 
Cadenas marko
Cadenas markoCadenas marko
Cadenas marko
 
Ova Ejercicio Cadenas De Markov
Ova Ejercicio Cadenas De MarkovOva Ejercicio Cadenas De Markov
Ova Ejercicio Cadenas De Markov
 
Ejercicios metodos de suavizamiento exponencial
Ejercicios metodos de suavizamiento exponencialEjercicios metodos de suavizamiento exponencial
Ejercicios metodos de suavizamiento exponencial
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Proceso de nacimiento y muerte poisson
Proceso de nacimiento y muerte poissonProceso de nacimiento y muerte poisson
Proceso de nacimiento y muerte poisson
 
Análisis de decisiones
Análisis de decisionesAnálisis de decisiones
Análisis de decisiones
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markov
 

Similar a cadenas de markov

Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOYoratzi Gonzalez
 
Variable de estado.pdf
Variable de estado.pdfVariable de estado.pdf
Variable de estado.pdfYulFch
 
TEORIA MODERNA DE CONTROL
TEORIA MODERNA DE CONTROLTEORIA MODERNA DE CONTROL
TEORIA MODERNA DE CONTROLWendy Agelvis
 
Modelos Ocultos De Markov
Modelos Ocultos De MarkovModelos Ocultos De Markov
Modelos Ocultos De MarkovEdwin Cuenca
 
Universidad sotavento contol digital
Universidad sotavento contol digitalUniversidad sotavento contol digital
Universidad sotavento contol digitalErik Perera
 
Presentación de Simulación Digital
Presentación de Simulación DigitalPresentación de Simulación Digital
Presentación de Simulación DigitalJavierVelasquezVivar
 
Simulacion digital variables de estados - Nestor Gonzalez
Simulacion digital variables de estados - Nestor Gonzalez Simulacion digital variables de estados - Nestor Gonzalez
Simulacion digital variables de estados - Nestor Gonzalez Nestor Gonzalez
 
I esp est
I esp estI esp est
I esp estUNEFA
 
Introduccionseniales
IntroduccionsenialesIntroduccionseniales
Introduccionsenialeslichic
 
Introduccion A SeñAles
Introduccion A SeñAlesIntroduccion A SeñAles
Introduccion A SeñAlesisrael.1x
 
Control por Retroalimentación de Estado y Diseño de Observadores
Control por Retroalimentación de Estado y Diseño de ObservadoresControl por Retroalimentación de Estado y Diseño de Observadores
Control por Retroalimentación de Estado y Diseño de ObservadoresKarla Carballo Valderrábano
 
Estudio Parametrico de un Sistema de Segundo Orden
Estudio Parametrico de un Sistema de Segundo OrdenEstudio Parametrico de un Sistema de Segundo Orden
Estudio Parametrico de un Sistema de Segundo OrdenAngel Contreas
 
Estabilidad error teoria de control ralch
Estabilidad error teoria de control ralchEstabilidad error teoria de control ralch
Estabilidad error teoria de control ralchralch1978
 

Similar a cadenas de markov (20)

Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPO
 
Variable de estado.pdf
Variable de estado.pdfVariable de estado.pdf
Variable de estado.pdf
 
TEORIA MODERNA DE CONTROL
TEORIA MODERNA DE CONTROLTEORIA MODERNA DE CONTROL
TEORIA MODERNA DE CONTROL
 
Ca 2013 f_01
Ca 2013 f_01Ca 2013 f_01
Ca 2013 f_01
 
Modelos Ocultos De Markov
Modelos Ocultos De MarkovModelos Ocultos De Markov
Modelos Ocultos De Markov
 
Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
 
Mpro3 u3 a1_livv
Mpro3 u3 a1_livvMpro3 u3 a1_livv
Mpro3 u3 a1_livv
 
Matriz transicion
Matriz transicionMatriz transicion
Matriz transicion
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
Universidad sotavento contol digital
Universidad sotavento contol digitalUniversidad sotavento contol digital
Universidad sotavento contol digital
 
Presentación de Simulación Digital
Presentación de Simulación DigitalPresentación de Simulación Digital
Presentación de Simulación Digital
 
Aplicacion RK4
Aplicacion RK4Aplicacion RK4
Aplicacion RK4
 
Simulacion digital variables de estados - Nestor Gonzalez
Simulacion digital variables de estados - Nestor Gonzalez Simulacion digital variables de estados - Nestor Gonzalez
Simulacion digital variables de estados - Nestor Gonzalez
 
Cmtd
CmtdCmtd
Cmtd
 
I esp est
I esp estI esp est
I esp est
 
Introduccionseniales
IntroduccionsenialesIntroduccionseniales
Introduccionseniales
 
Introduccion A SeñAles
Introduccion A SeñAlesIntroduccion A SeñAles
Introduccion A SeñAles
 
Control por Retroalimentación de Estado y Diseño de Observadores
Control por Retroalimentación de Estado y Diseño de ObservadoresControl por Retroalimentación de Estado y Diseño de Observadores
Control por Retroalimentación de Estado y Diseño de Observadores
 
Estudio Parametrico de un Sistema de Segundo Orden
Estudio Parametrico de un Sistema de Segundo OrdenEstudio Parametrico de un Sistema de Segundo Orden
Estudio Parametrico de un Sistema de Segundo Orden
 
Estabilidad error teoria de control ralch
Estabilidad error teoria de control ralchEstabilidad error teoria de control ralch
Estabilidad error teoria de control ralch
 

Último

Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Baker Publishing Company
 
BROCHURE EXCEL 2024 FII.pdfwrfertetwetewtewtwtwtwtwtwtwtewtewtewtwtwtwtwe
BROCHURE EXCEL 2024 FII.pdfwrfertetwetewtewtwtwtwtwtwtwtewtewtewtwtwtwtweBROCHURE EXCEL 2024 FII.pdfwrfertetwetewtewtwtwtwtwtwtwtewtewtewtwtwtwtwe
BROCHURE EXCEL 2024 FII.pdfwrfertetwetewtewtwtwtwtwtwtwtewtewtewtwtwtwtwealekzHuri
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxYeseniaRivera50
 
Procesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptxProcesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptxMapyMerma1
 
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDUFICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDUgustavorojas179704
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinavergarakarina022
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para eventoDiegoMtsS
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.DaluiMonasterio
 
Marketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETPMarketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETPANEP - DETP
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADOJosé Luis Palma
 
Fundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdfFundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdfsamyarrocha1
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialpatriciaines1993
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
Flores Nacionales de América Latina - Botánica
Flores Nacionales de América Latina - BotánicaFlores Nacionales de América Latina - Botánica
Flores Nacionales de América Latina - BotánicaJuan Carlos Fonseca Mata
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...JAVIER SOLIS NOYOLA
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxjosetrinidadchavez
 

Último (20)

Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
 
BROCHURE EXCEL 2024 FII.pdfwrfertetwetewtewtwtwtwtwtwtwtewtewtewtwtwtwtwe
BROCHURE EXCEL 2024 FII.pdfwrfertetwetewtewtwtwtwtwtwtwtewtewtewtwtwtwtweBROCHURE EXCEL 2024 FII.pdfwrfertetwetewtewtwtwtwtwtwtwtewtewtewtwtwtwtwe
BROCHURE EXCEL 2024 FII.pdfwrfertetwetewtewtwtwtwtwtwtwtewtewtewtwtwtwtwe
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
 
Procesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptxProcesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptx
 
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDUFICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDU
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karina
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para evento
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.
 
Marketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETPMarketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETP
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
 
Fundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdfFundamentos y Principios de Psicopedagogía..pdf
Fundamentos y Principios de Psicopedagogía..pdf
 
Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundial
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
Flores Nacionales de América Latina - Botánica
Flores Nacionales de América Latina - BotánicaFlores Nacionales de América Latina - Botánica
Flores Nacionales de América Latina - Botánica
 
Unidad 4 | Teorías de las Comunicación | MCDI
Unidad 4 | Teorías de las Comunicación | MCDIUnidad 4 | Teorías de las Comunicación | MCDI
Unidad 4 | Teorías de las Comunicación | MCDI
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
 

cadenas de markov

  • 2. H. R. Alvarez A., Ph. D. Definición  Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estados. Estos estados está formado por una familia de variables aleatorias {Xi}  Cadenas de Markov: conjunto de herramientas para analizar procesos estocásticos.  Una Cadena de Markov representa un sistema que varía su estado a lo largo del tiempo, siendo cada cambio una transición del sistema.  Aunque los cambios no están predeterminados, las probabilidades del próximo estado en función del estado anterior son conocidas.  Las probabilidades son constantes a lo largo del tiempo, el sistema es homogéneo.
  • 3. Características:  Número finito y conocido de estados.  Probabilidades de transición conocidas y constantes.  Se puede, eventualmente, pasar de un estado a cualquier otro.  No son ciclos simples. H. R. Alvarez A., Ph. D.
  • 4. Elementos de una Cadena de Markov H. R. Alvarez A., Ph. D.  Para definirla es necesario determinar:  El conjunto de estados del sistema  La definición de transición  Una ley de probabilidad condicional, que defina la probabilidad como del nuevo estado en función de los anteriores.  Los estados son una caracterización de un sistema en un instante dado.  El estado de un sistema en un instante t es una variable cuyos valores sólo pueden pertenecer al conjunto de estados del sistema.  El estado del sistema en el tiempo t+1 dependerá solo del estado del sistema en el tiempo t
  • 5. Definición  Es una colección indexada de varias xt, donde t denota intervalos de tiempo temporales significativos para el sistema bajo estudio. Los valores de x se toman de un conjunto de categorías o estados, mutuamente excluyentes de las que se conoce la probabilidad asociada y no la certeza del estado, tal que: En otras palabras: la probabilidad de existencia de un estado, solamente depende del estado anterior. H. R. Alvarez A., Ph. D.    x| XxXxxX| XxX tttttttt   111111 PrPr 
  • 6. Probabilidad de transición  Sea Pr[Xt+1=b|Xt=a]; la probabilidad de que el proceso, estando en el estado a en el tiempo t, pase al estado b en el instante siguiente t+1  Las probabilidades de transición son independientes del tiempo t, tal que:  Estas son conocidas como cadenas homogéneas de orden 1 H. R. Alvarez A., Ph. D.  1Pr t t abX b| X a p    X1 X2 X3 X4 X5 p12 p45p34p23
  • 7. Matrices de transición P  Es una matriz cuadrada de orden n, donde n es el número de estados de la cadena.  Debido a que el sistema evoluciona de cualquier estado i a j, en cualquier tiempo t, entonces:  Para todo pij ≥ 0 por definición, tal que: H. R. Alvarez A., Ph. D.
  • 8. Ejemplo: (conjunto de problemas 17.7A Taha, p. 1)  Un profesor de ingeniería adquiere una computadora nueva cada dos años. Si el modelo actual es M1, la siguiente computadora puede ser M2 con probabilidad de 0.2 o M3 con probabilidad de 0.15. Si el modelo actual es M2, las probabilidades de cambiar a M1 o M3 son 0.6 y 0.25, respectivamente. Si el modelo actual es M3, las probabilidades de comprar M1 o M2 son 0.5 y 0.1, respectivamente. Representar la situación como una cadena de Markov.
  • 9. H. R. Alvarez A., Ph. D.H. R. Alvarez A., Ph. D. M1 M2 M3 M1 0.65 0.2 0.15 M2 0.6 0.15 0.25 M3 0.5 0.1 0.4 t t+1 Matriz de transición Proceso de Markov  Proceso de Markov: definido por el gráfico (FSM) (FSM: Finite Stochastic Machine)  Cadena de Markov: cualquier recorrido aleatorio en el FSM
  • 10. Probabilidades de transición para k pasos Ecuaciones de Chapman-Kolmogorov  Al ser las probabilidades de transición estables en el tiempo, se puede conocer las propiedades después de k pasos:  Esto es, la probabilidad de que el proceso se encuentre en estado j si k etapas antes se encontraba en el estado i.  Si se conoce pij, es posible calcular las pij (k) tal que:  Al ser P el conjunto de probabilidades de transición, entonces: P(k) = P.Pk-1 = Pk  Siendo P1 la probabilidad de una transición y P0 = I H. R. Alvarez A., Ph. D.
  • 11. H. R. Alvarez A., Ph. D.
  • 12. Ejemplo: Llueva No llueva Llueva 40% 60% No llueva 20% 80% H. R. Alvarez A., Ph. D. Llueve No llueve 0.60.4 0.8 0.2 P =
  • 13. Ejemplo …  Si hoy llovió, ¿cuál es la probabilidad de que no llueva en dos días? P(Llueva → → No llueva) = P(Llueva →Llueva→ No llueva) + P(Llueva →No Llueva→ No llueva); P(No llueva/Llueva dos días antes) = P(No llueva/(LluevaLlueva))+P(No llueva(LluevaNo llueva) = 0.4*0.6 + 0.6*0.8 = 0.72 o 72% H. R. Alvarez A., Ph. D. Llueva No llueva Llueva 40% 60% No llueva 20% 80% Llueva No llueva Llueva 40% 60% No llueva 20% 80% +
  • 14. Ejemplo…. H. R. Alvarez A., Ph. D. Primer día Segundo día Hoy Llueve Llueve Llueve 0.4*0.4 Llueve No llueve Llueve 0.6*0.2 Llueve Llueve No llueve 0.4*0.6 Llueve No llueve No llueve 0.6*0.8 No llueve Llueve Llueve 0.2*0.4 No llueve No llueve Llueve 0.8*0.2 No llueve Llueve No llueve 0.2*0.6 No llueve No llueve No llueve 0.8*0.8 Llueva No llueva Llueva 40% 60% No llueva 20% 80% P = 0.28 0.72 0.24 0.76
  • 15. Ejemplo….  Para los posibles escenarios en dos días (k=2):  Puede demostrarse que P(2) = P2 H. R. Alvarez A., Ph. D. t + 2 t Llueva No llueva Llueva 28% 72% No llueva 24% 76%
  • 16. Propiedades a largo plazo de las Cadenas de Markov  En general, cuando k  , la probabilidad de estar en un estado j es independiente del estado inicial y se conoce como probabilidad estacionaria o de estado estable j  Estas probabilidades se mantienen constantes después de dichas transiciones.  Las cadenas de Markov con esta característica se conocen como cadenas ergódicas y su matriz de transición será H. R. Alvarez A., Ph. D.
  • 17. Volviendo al ejemplo de la lluvia H. R. Alvarez A., Ph. D. Llueva No llueva Llueva 40% 60% No llueva 20% 80% P1 = Llueva No llueva Llueva 25.1% 74.9% No llueva 25.0% 75.0% Llueva No llueva Llueva 25.0% 75.0% No llueva 25.0% 75.0% P4 = P8 = Llueva No llueva Llueva 25.0% 75.0% No llueva 25.0% 75.0% P16 =
  • 18. Propiedades a largo plazo  Una cadena es ergódica cuando tiene el mismo comportamiento promedio en el tiempo como promedio durante el espacio de todos los estados del sistema.  En general, para una cadena ergódica existe un límite: tal que el mismo existe es independiente de i. Además donde j satisface las siguientes ecuaciones de estado estable: H. R. Alvarez A., Ph. D.
  • 19. Algunos aspectos importantes  j define la probabilidad de encontrar el sistema en el estado j, después de un gran número de transiciones y tiende a ser constante e independiente del estado inicial.  Aunque la probabilidad j define la probabilidad de estar en el estado j, la probabilidad de la transición entre i y j, en cualquier etapa k, será pij  Las ecuaciones de estado estable estará definido por n+1 ecuaciones y n incógnitas, por lo que siempre habrá una ecuación redundante que puede eliminarse, con excepción de la expresión H. R. Alvarez A., Ph. D.
  • 20. Ejemplo de la lluvia… H. R. Alvarez A., Ph. D. Llueva No llueva Llueva 40% 60% No llueva 20% 80% P = Llueva No llueva Llueva 1 2 No llueva 1 2 P*= P*=P*P, por las ecuaciones de Chapman-Kolmogorov, donde se tiene que P*-1=P* en el estado estable y además la ecuación
  • 21. H. R. Alvarez A., Ph. D. = * = 1+ 0.4*1 + 0.2*2 = 1 0.6*1 + 0.8*2 = 2 1 + 2 = 1 Resolviendo: 1 = 0.25 2 = 0.75 Llueva No llueva Llueva 25.0% 75.0% No llueva 25.0% 75.0% y P* = Esta matriz estacionaria coincide con P(k), para k→ [P*] [P][P*]
  • 22. El caso cuando hay probabilidades iniciales  Sea at = (a0, a1,...,am ) la distribución en t0 de la Cadena de Markov (con m estados)  La probabilidad de que el sistema se encuentre en el estado j después de n etapas estará dada por:  P{Xn= j}= elemento j del vector at Pn  En el largo plazo: P{Xn= j}= at P* H. R. Alvarez A., Ph. D.
  • 23. El ejemplo de la lluvia, nuevamente  Suponga que la probabilidad de que hoy llueva es 65%, ¿cuál será la probabilidad de que no llueva dentro de dos días?  En este caso, at = (65%, 35%)  Resolviendo para atP2 =(26.6%, 73.4%)  P(No llueva dentro de dos días): 73.4% H. R. Alvarez A., Ph. D. Llueva No llueva Llueva 40% 60% No llueva 20% 80% P =
  • 24. Cuando hay costos asociados  Sea ct = (c0, c1,...,cm ) la distribución de costos asociados a la Cadena de Markov (con m estados)  El costo de que el sistema se encuentre en el estado j después de n etapas estará dada por:  E(c)=atP(n)ct  Esto resultará en el costo esperado del sistema en la etapa n.  En caso de no tener definida la probabilidad inicial a, se supone igual para cada estado j. H. R. Alvarez A., Ph. D.
  • 25. Regresando al ejemplo de la lluvia  Suponga que el valor de que llueva es de -20 y que no llueva es de 10.  La probabilidad inicial de lluvia se mantiene en 65%  ¿Cuánto será el valor esperado después de dos días para los diferentes estados?  Resolviendo para E(c)=atP(n)ct = 2.02 unidades monetarias. H. R. Alvarez A., Ph. D. Llueva No llueva Llueva 40% 60% No llueva 20% 80% P =
  • 26. Clasificación de los estados de una Cadena de Markov  Existen ciertas propiedades de los estados que son importantes en el comportamiento de las Cadenas de Markov.  El estado j se dice que es accesible desde el estado i si pij (n) > 0 en cualquier etapa n.  Esto quiere decir que el sistema puede entrar al estado j eventualmente, si está en el estado i.  Si el estado j es accesible desde el estado i, y el estado i, es accesible desde el estado j, se dice entonces que i y j pueden comunicarse. H. R. Alvarez A., Ph. D.
  • 27. En general  1. Cada estado se comunica con si mismo ya que pii (0)=P(x0 = i|x0 = i) = 1  Si el estado i se comunica con el estado j, entonces j se couminca con i.  3. Si el estado i se comunica con j, y j se comunica con k, entonces el estado i se comunica con k.  Como resultado de lo anterior, los estados pueden ser divididos en dos o más clases de tal manera que los estados que se comunican entre ellos puedan estar en una sola clase.  Si el estado tiene una sola clase se dice que es irreducible. H. R. Alvarez A., Ph. D.
  • 28. Clasificación de los estados de una Cadena de Markov  Se dice que un estado es transitorio si una vez en ese estado, el sistema no retorna a dicho estado otra vez. En otras palabras, el estado i es transitorio si existe un estado j que es accesible desde i pero no lo contrario desde el estado j.  Un estado es recurrente si, una vez en ese estado, el sistema volverá a ese estado otra vez en algún momento.  Un estado es absorvente si una vez en él, el sistema nunca lo dejará. Así, en un estado absorvente pii = 1  Un estado es periódico, con período t > 1 si es posible su retorno en períodos definidos. Un período de un estado i se define como un entero t (t>1), tal que pii (n) = 0 para cualquier valor de n diferente a t, 2t, 3t, …, siendo t el entero mayor de dicha propiedad. H. R. Alvarez A., Ph. D.
  • 29. En el caso de la lluvia  El sistema es accesible en cada estado y se pueden comunicar. H. R. Alvarez A., Ph. D. Llueve No llueve 0.60.4 0.8 0.2
  • 30. Estados absorventes  Como se dijo, un estado k se llama absorvente si´pkk = 1.  Así, el estado k permanence así por siempre.  Si el estado k es un estado absorvente y el sistema inició en estado i, la probabilidad de ir en algún momento al estado k se conoce como probabilidad de absorción al estado k, siendo que el sistema inició en el estado I y se denota por fik.  Cuando hay dos o más estados absorventes en una cadena de Markov, el sistema será absorvido por uno de esos estados.  Es necesario conocer las probabilidades de absorción resolviendo el sistema de ecuaciones dado por: fik= Mpijfjk para todo j = 1, 2, …, M  Sujeto a fkk = 1, y  fik = 0, para i  k, y el estado i sea recurrente H. R. Alvarez A., Ph. D.
  • 31. Otro ejemplo Considere una tienda por departamento que clasifica el balance de las cuentas de sus clientes en totalmente pagado (estado 0), 1 a 30 días de atraso (estado 1), 31 a 60 días (estado 2) o cuenta mala (estado 3). Los estados de cuenta se verifican cada mes para ver la situación de cada cliente. En general el crédito no se extiende y se espera que los clientes paguen dentro de los primeros 30 días. Muchas veces, los clientes pagan solamente parte de su cuenta. Si esto ocurre cuando el balance está dentro de los primeros treinta días, entonces la tienda lo mantiene dentro del estado uno. Si el pago ocurre cuando el cliente estaba en el estado dos, entonces cambia del estado 1 al estado 2. Los clientes con más de 60 días se consideran dentro de las cuentas malas y se envían a una agencia de cobros. H. R. Alvarez A., Ph. D.
  • 32. Otro ejemplo Aunque cada cliente termina ya sea en estado 0 o 3, la tienda está interesada en determinar la probabilidad de que un cliente caerá como cuenta mala ya sea que esté en el estado 1 o 2. H. R. Alvarez A., Ph. D. Pagado 1 a 30 días 31 a 60 días Cuenta mala 0 1 2 3 Pagado 0 1 0 0 0 1 a 30 días 1 0.7 0.2 0.1 0 31 a 60 días 2 0.5 0.1 0.2 0.2 Cuenta mala 3 0 0 0 1 P = Estado Estado
  • 33. Solución  Se requiere calcular f13 y f23  Resolviendo fik= Mpijfjk  f13= p10f03+p11f13+p12f23+p13f33  f23= p20f03+p21f13+p22f23+p23f33  Se puede suponer que f03 = 0 (no se puede ir de pagar todo a cuenta mala), f33 = 1 (si eres cuenta mala, te quedas en cuenta mala)  Sustituyendo estos valores y las probabilidades definidas en la matriz de transición  f13 = 0.032  F23 = 0.025 H. R. Alvarez A., Ph. D.