2. MODELO DE MARKOV
• Proceso estocástico discreto en el que la probabilidad de que ocurra un
evento depende solamente del evento inmediatamente anterior.
• Esta característica de falta de memoria recibe el nombre de propiedad de
Markov
3. MODELO DE MARKOV
• Si se conoce la historia del sistema hasta su instante actual, su estado
presente resume toda la información relevante para describir en probabilidad
su estado futuro.
4. • Los procesos de paseo aleatorio en realidad son un caso particular de procesos más
generales que son las cadenas de Markov.
• En esencia, una cadena es un proceso en tiempo discreto en el que una variable
aleatoria Xn va cambiando con el paso del tiempo. Las cadenas de Markov tienen la
propiedad de que la probabilidad de que Xn = j sólo depende del estado
inmediatamente anterior del sistema: Xn−1.
• Cuando en una cadena dichas probabilidades no dependen del tiempo en que se
considere, n, P (Xn = j | Xn−1 = i) se denomina cadena homogénea, esto es, las
probabilidades son las mismas en cada paso
5. Características de una Cadena de
Markov
Diagrama de Transición
• Estados
• Transiciones
• Probabilidades
7. ejemplo
• El departamento de estudios de mercado de una fábrica estima que el 20%
de la gente que compra un producto un mes, no lo comprará el mes
siguiente.
• Además, el 30% de quienes no lo compren un mes lo adquirirán el mes
siguiente.
• En una población de 1000 individuos, 100 compraron el producto el primer
mes ¿Cuántos lo comprarán el mes próximo? Y ¿cuantos dentro de dos
meses?
8. Solución
• Diagrama de Transición
• Estados:
• Comprar el producto (A)
• No comprar el producto (B)
• Transiciones
• Curvas de transición
• Probabilidades
10. ¿Cuántos lo comprarán el mes próximo?
• 𝑝 0 =
0.80 0.20
0.30 0.70
𝐴. 𝐵 = 100 900
• 100 900 ∗
0.80 0.20
0.30 0.70
= 350 650
• 350 personas compran el producto el próximo mes y 650 personas NO compran el
producto
11. ¿Cuántos dentro de 2 meses?
• Dentro de 2 meses 475 personas comprar el productos ,
525 personas NO comprar el producto
𝑝 2 =
0.80 0.20
0.30 0.70
0.80 0.20
0.30 0.70
=
0.70 0.30
0.45 0.55
100 900 ∗
0.70 0.30
0.45 0.55
= 475 525
12. Ejemplo 2
En la ciudad del Cusco, el clima puede cambiar de un día para otro, considere solo 2
estados de tiempo “Clima Seco y Clima Húmedo”.
La probabilidad de tener un clima seco al día siguiente es de 0.8 si el día actual es seco,
pero, si el clima es húmedo la probabilidad de tener un clima seco es de 0.6.
Suponga que dichos valores no cambian en el tiempo, se pide determinar:
• a) La Matriz de transición
• b) El diagrama de transición
• c) Probabilidad de que el clima sea húmedo dentro de 2 días
13. Solución
• Matriz de transición
0.80 0.20
0.60 0.40
• Diagrama de Transición
• Probabilidad de ser húmedo en 2 días
𝑝2
=
0.80 0.20
0.60 0.40
*
0.80 0.20
0.60 0.40
=
0.76 0.24
0.72 0.28
∗ 0.1 = (0.72 0.28)
14. • Cada año durante la temporada de cultivo de marzo a setiembre, un jardinero realiza
una prueba química para verificar las condiciones de la tierra.
• Según el resultado de la prueba, la productividad en la nueva temporada puede ser
uno de estos 3 estados , bueno(1), regular (2) malo (3), A lo largo de los años el
jardinero ha observado que la condición de la tierra del año anterior afecta la
productividad del año actual y que la situación se describe mediante la siguiente
cadena de Markov.
• Si la condición es buena hay 20% de probabilidad de que no cambie el año siguiente,
50% de probabilidad de que sea regular y 30% de probabilidad de que se deteriore