1. NOMBRE DEL ALUMNO:
JAIME VALDIVIA CASTELLANOS
MATERIA:
INVESTIGACIÓN DE OPERACIONES II
NUMERO DE CONTROL:
119T0101
NOMBRE DEL DOCENTE:
ING. ROBERTO CRUZ ANDRADE
NÚMERO Y NOMBRE DE LA UNIDAD:
IV CADENAS DE MARKOV
2. INTRODUCCIÓN
En las cadenas de Markov considera ciertos puntos discretos en el tiempo para
toma valores de la variable aleatoria que caracteriza al sistema. Entonces las
cadenas de Markov se usan para estudiar ciertos comportamientos de largo y
cortos plazos de sistemas.
Los estados en el tiempo representan situación exhaustiva y mutuamente
excluyentes del sistema en un tiempo específico. Además el número de estado
puede ser finito o infinito.
Por lo general una cadena de Markov describe el comportamiento de transición de
un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen
situaciones donde los espaciamientos temporales dependen de las características
del sistema y por ello, pueden no ser iguales entre sí.
Las cadenas de Markov se pueden aplicar en áreas como la educación,
comercialización, servicios de salud, finanzas, contabilidad y producción.
3. 4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV
La cadena de Markov recibe su nombre del matemático ruso AndreiMarkov que
desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema
se encuentre en un estado en particular en un momento dado. Algo más
importante aún, es que permite encontrar el promedio a la larga o las
probabilidades de estado estable para cada estado. Con esta información se
puede predecir el comportamiento del sistema a través del tiempo.
A veces nos interesa saber cómo cambia una variable aleatoria a través del
tiempo. Por ejemplo, desearíamos conocer cómo evoluciona el precio de las
acciones de una empresa en el mercado a través del tiempo.
La cadena de markov es una serie de eventos, en la cual la probabilidad de que
ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas
de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior
distingue a las cadenas de Markov de las series de eventos independientes, como
tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los
patrones de compra de los deudores morosos, para planear las necesidades de
personal y para analizar el reemplazo de equipo.
En matemáticas, se define como un proceso estocástico discreto que cumple con
la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su
instante actual, su estado presente resume toda la información relevante para
describir en probabilidad su estado futuro.
4. 4.2. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE N PASOS
Suponga que estudiamos una cadena de markov con matriz. P de probabilidad de
transición conocida. Como todas las cadenas con las que trataremos son
estacionarias, no nos importara identificar nuestras cadenas de markov como
estacionarias. Una pregunta de interés es: si una cadena de markov está en el
estado i en el tiempo m, ¿Cuál es la probabilidad que n periodos después de la
cadena de markov este en el estado j? como se trata de una cadena de markov
estacionaria, esta probabilidad será independiente de m y, por tanto, podemos
escribir
Donde Se llama probabilidad en la etapa n de una transición de estado i al estado
j.
Es claro que pn(1)=pn para determinar pn(2) nótese que si el sistema se
encuentra hoy en el estado i. entonces para que el estado termine en el estado j
dentro de 2 periodos, debemos pasar del estado i al estado k y después pasar del
estado k al estado i este modo de razonar nos permite escribir
(Probabilidad de transición de i a k)
(Probabilidad de transición de k a j)
De acurdo con la definición de p. la matriz de transición de replanteamos la última
ecuación en la siguiente forma:
5. 4.3. ESTADO ESTABLE
Para grande, n
p tiende a una matriz con renglones idénticos. Esto significa que
después de un largo tiempo, la cadena de markov se estabiliza, e
(independientemente del estado inicial ) hay una probabilidad j de que se está
en el estado j .
El vector n 21, se llama distribución de estado estable o distribución
de equilibrio, para la cadena de markov. Para una cadena determinada con
matriz de transición , ¿cómo se puede hallar la distribución de probabilidad de
estado estable? A partir del teorema 1, se observa que para grande y toda ,
jijij npnp 1 (6)
Puesto que 1npij (renglón de n
p ) (columna de ), se podría escribir
kj
sk
k
ijij pnpnp
1
1 (7)
Si es grande, sustituyendo la ecuación (6) en la (7), se obtiene
sk
k
kjkj p
1
(8)
En forma de matriz, (8) se podría escribir como
p (8`
)
Infortunadamente, el sistema de ecuaciones especificado en (8) tiene un número
infinito de soluciones, debido a que el rango de la matriz siempre resulta ser
1 s (véase capitulo 2, problema de repaso 21). Para obtener los valores únicos
de la probabilidad de estado estable, observe que para cualquier y cualquier ,
121 npnpnp isii (9)
6. 4.4. ESTADOS ABSORBENTES
Es un estado a partir de la cual existe cero probabilidad de hacer una transición
fuera de ese estado, que contiene al menos un estado que es posible llegar a un
número de etapas comenzando en caulquier estado no absorbente.
En una cadena de Markov un conjunto C de estados se denomina absorbentes si
el sistema, pertenece indefinidamente. Un ejemplo especial de un conjunto
cerrado es un estado particular que tenga una probabilidad de transición
. En este caso se denomina estado absorbente.
Todos los estado de una cadena irreducible deben formar un conjunto cerrado y
ningún otro subconjunto puede ser cerrado.
Los estados absorbentes tendrás sumas de probabilidades que con el correr del
tiempo llegarán a ser cero, todo esto debido a que hay estados que tiene
probabilidad 1 y por ende los demás estados tenderán a llegar a esta clase de
estados.
7. CONCLUSIÓN
Como conclusión las cadenas de Markov nos permite hacer análisis sobre el
estudio de los comportamientos de ciertos sistemas en ciertos periodos que
pueden ser cortos o largos. Además se tiene una relación con las probabilidades
absolutas. Pero sin embargo lo más importante es el estudio del comportamiento
sistemas a largo plazo, cuando el número de transiciones tiene al infinito
Al conocer más o menos las probabilidades de un experimento, esto a su vez nos
permitirá conocer a corto yplazo los estados en que se encontrarían en periodos o
tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros
intereses, y tomar una decisión de manera consciente y no se comentan muchos
errores.
Esto también nos proporcionara un tiempo estimado para que identifiquemos cada
estado y el periodo en que se encuentra con la implementación de un proceso,
también se establece las probabilidades como una herramienta más en las
cadenas de Markov.
8. BIBLIOGRAFÍA
4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV
Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826
4.2. PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N PASOS
Investigación de operaciones, 5ª edición, Editorial taha, pp. 824-826
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l.
wishston, Editorial Thompson, pp. 928-931.
4.3. ESTADO ESTABLE
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l.
wishston, Editorial Thompson, pp. 934-938.
4.4. ESTADOS ABSORBENTES
Investigación de operaciones, 5ª edición, Editorial taha, pp. 826-830