2. ANÁLISIS DE MARKOV
Cadenas de Markov: Vectores de probabilidades; matriz de
transición; estado estacionario o equilibrio. Estados absorbentes.
Docente: Ing. Patricia María Fernández Hidalgo, MBA
Semana
14
3. Propósito
Describe y desarrolla cadenas de Markov, usando correctamente:
• Vectores de probabilidades futuras;
• Matrices de transición;
• Estados estacionarios o de equilibrio;
• Estados absorbentes;
para tomar mejores decisiones.
4. El día lunes una compañía realiza una investigación de mercados en una ciudad donde
hay tres supermercados A, B y C . El mercado A cuenta con una aceptación del 40%, B
el 30% y C , 30%. El día martes otro grupo de investigación de mercados para verificar la
preferencia de los habitantes realizó una encuesta encontrándose el 80% de los clientes
de A seguiría comprando en A , mientras que el 10% se cambiaria a B, por otro lado el
10% de los que compraron en B comprarían en A y el 70% de los que compraron en B
regresaron al mismo supermercado, finalmente de los clientes del mercado C el 20%
manifestó que preferiría ir a comprar al mercado A y el 20% al mercado B. ¿Cuál seria
la participación de mercado de A el día jueves? ¿Cuál es el equilibrio?
… ¿Cadenas de Markov?
5. Análisis de Markov
El análisis de Markov es una técnica que maneja las probabilidades de ocurrencias
futuras mediante el análisis de las probabilidad conocidas en el presente. La técnica
tiene diversas aplicaciones en los negocios, incluyendo análisis de la participación en el
mercado, predicción de deudas incobrables, predicción de la matrícula universitaria y
determinación de si una máquina se descompondrá en el futuro.
El análisis de Markov hace la suposición de que el sistema comienza en un estado o una
condición inicial.
6. Las Cadenas de Markov
• Las Cadenas de Markok son una herramienta para analizar el comportamiento
dedeterminados procesos estocásticos, estos procesos evolucionan de forma
determinística a lo largo del tiempo en torno a un conjunto de estados.
• Estados: Son la caracterización de la situación en que se halla el sistema en un
instante dado de dicha caracterización, puede ser cuantitativa como cualitativa.
El estado de un sistema t es una variable cuyos valores solo pueden pertenecer
al conjunto de estados en el sistema. El sistema modelizado por la cadena, por
lo tanto, es una variable que cambia con el valor del tiempo, cambio al que
llamamos transición.
• Matriz de transición: Arreglo numérico donde se encuentran las probabilidades
de un estado al otro.
7. Otras definiciones
Distribución actual (Vector P0): Es la manera en la que se distribuyen las
probabilidades de los estados en un periodo inicial (periodo 0). Esta información
permitirá averiguar cuál será la distribución en periodos posteriores.
Estado estable: El estado estable es la distribución de probabilidades que en
cierto punto quedará fija para el vector P y no presentará cambios en periodos
posteriores.
Propiedad Markoviana: El futuro t +1 es independiente del pasado dado el
presente t=n.
Propiedad Estacionaria: La probabilidad de pasar de un estado i a un estado j al
cabo de una etapa no depende de la etapa n.
8. Las Cadenas de Markov
Es un tipo especial de proceso estocástico de tiempo discreto, en el que una variable
aleatoria Xn va cambiando con el paso del tiempo.
Si el tiempo está representado por t, para t=0, 1, 2, 3, …., n, y todos los estados:
P (X t+1 = i t + 1 / X t = i t, X t-1 = i t-1, …., X 1 = i 1, X 0 = i 0)
= P ( X t + 1 = i t + 1 / X t = i t )
Significa que, la distribución de probabilidad de los estados en el tiempo t + 1 depende sólo
del estado en el tiempo t (i t) y no depende de los estados por los que pasó previamente
para llegar a i, en el tiempo t.
X1 X2 X3 X… Xn
t
9. En el ejemplo de investigación de mercados
El día lunes una compañía realiza una investigación de mercados en una ciudad donde
hay tres supermercados A, B y C . El mercado A cuenta con una aceptación del 40%, B
el 30% y C , 30%. El día martes otro grupo de investigación de mercados para verificar la
preferencia de los habitantes realizó una encuesta encontrándose el 80% de los clientes
de A seguiría comprando en A , mientras que el 10% se cambiaria a B, por otro lado el
10% de los que compraron en B comprarían en A y el 70% de los que compraron en B
regresaron al mismo supermercado, finalmente de los clientes del mercado C el 20%
manifestó que preferiría ir a comprar al mercado A y el 20% al mercado B. ¿Cuál seria
la participación de mercado de A el día jueves? ¿Cuál es el equilibrio?
Veamos …
10. CADENAS DE MARKOV - CONCEPTOS BÁSICOS
40%
30%.
30%.
Estados: Conjunto de condiciones
dadas en un momento determinado.
Estado 0 : (0) = 0.4 0.3 0.3
80%
10%
10%
10%
70%
20%
20%
20%
60%
11. CADENAS DE MARKOV - CONCEPTOS BÁSICOS
40%
30%.
30%.
Estados: Conjunto de condiciones
dadas en un momento determinado.
Estado 0 : (0) = 0.4 0.3 0.3
80%
10%
10%
10%
70%
20%
20%
60%
20%
12. CADENAS DE MARKOV - CONCEPTOS BÁSICOS
Transición de clientes
Supermercado A
Grafos
13. CADENAS DE MARKOV - CONCEPTOS BÁSICOS
Transición de clientes
Supermercado B
Grafos
14. CADENAS DE MARKOV - CONCEPTOS BÁSICOS
Grafos Transición de todos los clientes
hacia todos los supermercados
15. CADENAS DE MARKOV - CONCEPTOS BÁSICOS
Transición de todos los clientes
hacia todos los supermercados
16. CADENAS DE MARKOV - CONCEPTOS BÁSICOS
De
Matriz de probabilidades de transición
A
17. Análisis de Markov: Supuestos
Suposiciones en el análisisde Markov:
1. Existe un número limitado o finito de estados posibles.
2. La probabilidad de cambiar de estados permanece igual con el paso del
tiempo.
3. Podemos predecir cualquier estado futuro a partir de los estados
anteriores y de la matriz de probabilidades de transición.
4. El tamaño y la composición del sistema (es decir, el número total de
fabricantes y clientes) no cambia durante el análisis.
5. En un análisis de Markov los estados son tanto colectivamente
exhaustivos como mutuamente excluyentes.
18. Matriz de transición
• Una matriz de transición o matriz de probabilidades de transición es
el arreglo numérico donde se encuentran las probabilidades de un
estado al otro. Dicha matriz es cuadrada, con tantas filas y columnas
como estados tiene el sistema, y los elementos de matriz representan la
probabilidad de que el estado próximo sea el correspondiente a la
columna si el estado actual es el correspondiente a la fila. La matriz
debe cumplir con ciertos requisitos: La suma de las probabilidades de
los estados debe ser igual a 1, la matriz de transición debe ser
cuadrada y las probabilidades de transición deben estar entre 0 y 1.
20. Matriz de probabilidades de transición
• La matriz de probabilidades de transición nos permite ir de un estado S actual
a un estado futuro.
𝑃𝑖𝑗 = Τ
𝑃𝑗 𝑃𝑖
P[Xn + 1 =j / Xn=i] = Pij
Pij ≥ 0
Pij (n) = ( Pn ) ij
𝑗∈𝑠
𝑝𝑖𝑗 = 1
21. Estados y probabilidades de los estados
• Los estados sirven para identificar todas las condiciones posibles de un proceso o
sistema. Por ejemplo, una máquina puede estar en uno de dos estados en
cualquier momento: funcionar correctamente o no funcionar correctamente.
• La probabilidad de que el sistema esté en dicho estado se coloca en un vector
de probabilidadesde estado:
Funcionar
correctamente
No funcionar
correctamente
Funcionar
correctamente
No funcionar
correctamente
22. Predicción de la participación futura en el mercado
• Cuando el periodo actual es 0, calcular las probabilidades de estado para el
siguiente periodo (periodo 1) se hace como sigue:
23. Condiciones de equilibrio (estado estable)
• Las condiciones de estado estable existen si las probabilidades de estado no
cambian después de un número grande de periodos. Una manera de calcular
el estado estable del mercado es utilizar el análisis de Markov para un número
grande de periodos. Es posible ver si los valores futuros se acercan a un valor
estable.
24. Ejercicios Resueltos de Cadenas de Markov
1) En un pueblo, al 90% de los días soleados le siguen días soleados, y al 80% de
los días nublados le siguen días nublados. Con esta información modelar el
clima del pueblo como una cadena de Markov.
Solución:
Se trata de una cadena de Markov con dos estados {Soleado, Nublado} que para
abreviar representaremos por {S, N}, siendo la matriz de probabilidades de
transición:
Clima Soleado o Nublado
25. Utilizando el POM: Markov Analysis
Se ingresa la cantidad de estados, en
este caso son 2 {Soleado, Nublado}, y
las probabilidades.
Luego se da click en Solve, y listo.
26. 2) Suponga que toda la industria de bebidas gaseosas produce dos colas: Coca
Cola y Pepsi Cola. Cuando una persona ha comprado Coca Cola hay una
probabilidad de 90% de que siga comprándola la vez siguiente. Si una
persona compró Pepsi, hay un 80% de que repita la vez siguiente. Se pide:
a) Si una persona actualmente es comprador de Pepsi, ¿Cuál es la
probabilidad que compre Coca Cola pasadas dos compras a partir de hoy?
b) Si en la actualidad una persona es comprador de Coca Cola, ¿Cuál es la
probabilidad de que compre Coca Cola pasadas tres compras a partir de
ahora?
c) Supongamos que el 60% de toda la gente toma hoy Coca Cola y el 40%
Pepsi. A tres compras a partir de ahora ¿Qué fracción de los compradores
estará tomando Coca Cola.
d) Determinar el estado estable.
Ejercicios Resueltos de Cadenas de Markov
Coca Cola o Pepsi
27. Ejercicios Resueltos de Cadenas de Markov
(cont.) Coca Cola o Pepsi
La situación se puede modelar como una Cadena de Markov con dos estados
{Coca Cola, Pepsi Cola} = {C, P}
La matriz de transición para el orden C, P, es:
a) Se pide la probabilidad de transición en dos pasos, es decir que se pide el
valor en fila 2, columna 1 para la matriz P2, obteniéndose que este es :
0.2.*0.9+0.8*.0.2 = 0.34
b) Al igual que en el apartado anterior se pide el valor de probabilidad de
transición en fila 1 y columna 1 para la matriz P3. La matriz es:
La solución al problema es: 0.781 = 781 / 1000 = 78.10%
28. c) El vector de probabilidad inicial es (0.6, 0.4), por tanto la probabilidad de
consumir ambos estados a partir de tres etapas es: 0.4 , 0.6 P3 . Calculamos
primero P2, resultando que:
Por tanto, entonces el resultado solicitado es
= 0.6438, 0.3562; es decir, al cabo de tres compras el 64.38% comprará Coca
Cola y el 35.62% comprará Pepsi Cola.
d) El estado estable se determina resolviendo el sistema de ecuaciones:
añadiendo la ecuación x+y =1, siendo x la probabilidad de que una persona
tome Coca Cola a largo plazo e y la probabilidad de que una persona compre
Pepsi Cola a largo plazo:
-x + 2y = 0
x - 2y = 0
x + y = 1 Por lo tanto, x= 2/3; y= 1/3.
Ejercicios Resueltos de Cadenas de Markov
(cont.) Coca Cola o Pepsi
29. Links a videos sobre Cadenas de Markov
Visualiza los siguientes videos para reforzar lo aprendido sobre Cadenas de Markov:
https://www.youtube.com/watch?v=bAbLC9hfhuQ
https://www.youtube.com/watch?v=jk57_m_Jk28
https://www.youtube.com/watch?v=OsGYolhO9X0
https://www.youtube.com/watch?v=ZZQ8Xai7gXA
https://www.youtube.com/watch?v=A43lA5jQsjY
https://www.youtube.com/watch?v=6j9KNFHjV6Q
https://www.youtube.com/watch?v=HzEfHQbZB1o
Cadenas de Markov en Excel:
https://www.youtube.com/watch?v=xtY_BKQ7bZE
https://www.youtube.com/watch?v=a9yuZmYuq7M
https://www.youtube.com/watch?v=L5Cl7YTjCmI
30. Estados absorbentes y matriz fundamental
En algunos casos no se puede ir a otro estado en el futuro. En otras palabras, cuando se
encuentra en un estado dado, este lo “absorbe”, y permanecerá en ese estado.
Cualquier estado que tiene tal propiedad se llama estado absorbente.
• Partición de la matriz de transición para el análisis de estados absorbentes:
• Matriz fundamental que sirve para calcular las probabilidades de terminar en un
estado absorbente:
• La matriz FA indica que la probabilidad de que una cuenta termine en un estado
absorbente.
• La matriz M representa el MONTO en losestadosabsorbentes de losestados
31. Estados absorbentes y matriz fundamental
Problema Propuesto:
En una financiera un sistema de cuentas por cobrar clasifica las cuentas de sus clientes
dependiendo de lo atrasada que esté la cuenta sin pagar, las clasificaciones son: Pagadas
(todas las cuentas), Deuda incobrable (atrasada por más de tres meses), Atrasada menos
de un mes y Atrasada entre uno y tres meses. Se sabe que para un individuo en la categoría
de menos de un mes, existe una probabilidad de 0.60 de estar en la categoría de pagada,
una probabilidad de 0 de estar en la categoría de deuda incobrable, una probabilidad de
0.20 de permanecer en la categoría de menos de un mes en el siguiente periodo. Para una
persona en la categoría entre uno y tres meses, hay una probabilidad de 0.40 de estar en la
categoría de pagada, una probabilidad de 0.10 de estar en la de deuda incobrable, una
probabilidad de 0.30 de estar en la categoría de menos de un mes en el siguiente mes.
Suponga que hay una deuda de $2,000 en la categoría de menos de un mes, y $5,000 en la
de uno a tres meses. ¿Cuánto se pagará al final y cuánto terminará como deuda
incobrable?