SlideShare una empresa de Scribd logo
1 de 8
NOMBRE DEL ALUMNO:
JAIME VALDIVIA CASTELLANOS
MATERIA:
INVESTIGACIÓN DE OPERACIONES II
NUMERO DE CONTROL:
119T0101
NOMBRE DEL DOCENTE:
ING. ROBERTO CRUZ ANDRADE
NÚMERO Y NOMBRE DE LA UNIDAD:
IV CADENAS DE MARKOV
INTRODUCCIÓN
En las cadenas de Markov considera ciertos puntos discretos en el tiempo para
toma valores de la variable aleatoria que caracteriza al sistema. Entonces las
cadenas de Markov se usan para estudiar ciertos comportamientos de largo y
cortos plazos de sistemas.
Los estados en el tiempo representan situación exhaustiva y mutuamente
excluyentes del sistema en un tiempo específico. Además el número de estado
puede ser finito o infinito.
Por lo general una cadena de Markov describe el comportamiento de transición de
un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen
situaciones donde los espaciamientos temporales dependen de las características
del sistema y por ello, pueden no ser iguales entre sí.
Las cadenas de Markov se pueden aplicar en áreas como la educación,
comercialización, servicios de salud, finanzas, contabilidad y producción.
4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV
La cadena de Markov recibe su nombre del matemático ruso AndreiMarkov que
desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema
se encuentre en un estado en particular en un momento dado. Algo más
importante aún, es que permite encontrar el promedio a la larga o las
probabilidades de estado estable para cada estado. Con esta información se
puede predecir el comportamiento del sistema a través del tiempo.
A veces nos interesa saber cómo cambia una variable aleatoria a través del
tiempo. Por ejemplo, desearíamos conocer cómo evoluciona el precio de las
acciones de una empresa en el mercado a través del tiempo.
La cadena de markov es una serie de eventos, en la cual la probabilidad de que
ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas
de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior
distingue a las cadenas de Markov de las series de eventos independientes, como
tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los
patrones de compra de los deudores morosos, para planear las necesidades de
personal y para analizar el reemplazo de equipo.
En matemáticas, se define como un proceso estocástico discreto que cumple con
la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su
instante actual, su estado presente resume toda la información relevante para
describir en probabilidad su estado futuro.
4.2. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE N PASOS
Suponga que estudiamos una cadena de markov con matriz. P de probabilidad de
transición conocida. Como todas las cadenas con las que trataremos son
estacionarias, no nos importara identificar nuestras cadenas de markov como
estacionarias. Una pregunta de interés es: si una cadena de markov está en el
estado i en el tiempo m, ¿Cuál es la probabilidad que n periodos después de la
cadena de markov este en el estado j? como se trata de una cadena de markov
estacionaria, esta probabilidad será independiente de m y, por tanto, podemos
escribir
Donde Se llama probabilidad en la etapa n de una transición de estado i al estado
j.
Es claro que pn(1)=pn para determinar pn(2) nótese que si el sistema se
encuentra hoy en el estado i. entonces para que el estado termine en el estado j
dentro de 2 periodos, debemos pasar del estado i al estado k y después pasar del
estado k al estado i este modo de razonar nos permite escribir
(Probabilidad de transición de i a k)
(Probabilidad de transición de k a j)
De acurdo con la definición de p. la matriz de transición de replanteamos la última
ecuación en la siguiente forma:
4.3. ESTADO ESTABLE
Para grande, n
p tiende a una matriz con renglones idénticos. Esto significa que
después de un largo tiempo, la cadena de markov se estabiliza, e
(independientemente del estado inicial ) hay una probabilidad j de que se está
en el estado j .
El vector  n 21, se llama distribución de estado estable o distribución
de equilibrio, para la cadena de markov. Para una cadena determinada con
matriz de transición , ¿cómo se puede hallar la distribución de probabilidad de
estado estable? A partir del teorema 1, se observa que para grande y toda ,
    jijij npnp 1 (6)
Puesto que  1npij (renglón de n
p ) (columna de ), se podría escribir
    kj
sk
k
ijij pnpnp 



1
1 (7)
Si es grande, sustituyendo la ecuación (6) en la (7), se obtiene




sk
k
kjkj p
1
 (8)
En forma de matriz, (8) se podría escribir como
p  (8`
)
Infortunadamente, el sistema de ecuaciones especificado en (8) tiene un número
infinito de soluciones, debido a que el rango de la matriz siempre resulta ser
1 s (véase capitulo 2, problema de repaso 21). Para obtener los valores únicos
de la probabilidad de estado estable, observe que para cualquier y cualquier ,
      121  npnpnp isii  (9)
4.4. ESTADOS ABSORBENTES
Es un estado a partir de la cual existe cero probabilidad de hacer una transición
fuera de ese estado, que contiene al menos un estado que es posible llegar a un
número de etapas comenzando en caulquier estado no absorbente.
En una cadena de Markov un conjunto C de estados se denomina absorbentes si
el sistema, pertenece indefinidamente. Un ejemplo especial de un conjunto
cerrado es un estado particular que tenga una probabilidad de transición
. En este caso se denomina estado absorbente.
Todos los estado de una cadena irreducible deben formar un conjunto cerrado y
ningún otro subconjunto puede ser cerrado.
Los estados absorbentes tendrás sumas de probabilidades que con el correr del
tiempo llegarán a ser cero, todo esto debido a que hay estados que tiene
probabilidad 1 y por ende los demás estados tenderán a llegar a esta clase de
estados.
CONCLUSIÓN
Como conclusión las cadenas de Markov nos permite hacer análisis sobre el
estudio de los comportamientos de ciertos sistemas en ciertos periodos que
pueden ser cortos o largos. Además se tiene una relación con las probabilidades
absolutas. Pero sin embargo lo más importante es el estudio del comportamiento
sistemas a largo plazo, cuando el número de transiciones tiene al infinito
Al conocer más o menos las probabilidades de un experimento, esto a su vez nos
permitirá conocer a corto yplazo los estados en que se encontrarían en periodos o
tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros
intereses, y tomar una decisión de manera consciente y no se comentan muchos
errores.
Esto también nos proporcionara un tiempo estimado para que identifiquemos cada
estado y el periodo en que se encuentra con la implementación de un proceso,
también se establece las probabilidades como una herramienta más en las
cadenas de Markov.
BIBLIOGRAFÍA
4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV
Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826
4.2. PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N PASOS
Investigación de operaciones, 5ª edición, Editorial taha, pp. 824-826
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l.
wishston, Editorial Thompson, pp. 928-931.
4.3. ESTADO ESTABLE
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l.
wishston, Editorial Thompson, pp. 934-938.
4.4. ESTADOS ABSORBENTES
Investigación de operaciones, 5ª edición, Editorial taha, pp. 826-830

Más contenido relacionado

La actualidad más candente

U2 series de tiempo
U2 series de tiempoU2 series de tiempo
U2 series de tiempoALMAYUNIS1
 
2.1. CONCEPTO Y CLASIFICACIÓN DE TABLEROS
2.1. CONCEPTO Y CLASIFICACIÓN DE TABLEROS2.1. CONCEPTO Y CLASIFICACIÓN DE TABLEROS
2.1. CONCEPTO Y CLASIFICACIÓN DE TABLEROSRafael Vera
 
Unidad 4 Datos Estándar y Propósito de los estándares de tiempo
Unidad 4 Datos Estándar y Propósito de los estándares de tiempoUnidad 4 Datos Estándar y Propósito de los estándares de tiempo
Unidad 4 Datos Estándar y Propósito de los estándares de tiempoVanessaBarrera13
 
Problemas resueltos-de-metodos-de-transporte
Problemas resueltos-de-metodos-de-transporteProblemas resueltos-de-metodos-de-transporte
Problemas resueltos-de-metodos-de-transporteAlexander Chunhuay Ruiz
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markovFabian Velazquez
 
Líneas de espera (1) ejercicio
Líneas de espera (1) ejercicioLíneas de espera (1) ejercicio
Líneas de espera (1) ejercicioMachado Mauricio
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelAlvaro Gil
 
Planeacion y diseño de instalaciones
Planeacion y diseño de instalaciones Planeacion y diseño de instalaciones
Planeacion y diseño de instalaciones jovas3195
 
Planeación y administración de la capacidad
Planeación y administración de la capacidadPlaneación y administración de la capacidad
Planeación y administración de la capacidadRebeca Novoa Morales
 

La actualidad más candente (20)

Optimizacion de redes
Optimizacion de redesOptimizacion de redes
Optimizacion de redes
 
lineas de espera
lineas de esperalineas de espera
lineas de espera
 
3.1 sistemas de tiempos predeterminados
3.1 sistemas de tiempos predeterminados3.1 sistemas de tiempos predeterminados
3.1 sistemas de tiempos predeterminados
 
Programacion y secuenciacion de operaciones
Programacion y secuenciacion de operacionesProgramacion y secuenciacion de operaciones
Programacion y secuenciacion de operaciones
 
Modelos de pronosticos e inventarios
Modelos de pronosticos e inventariosModelos de pronosticos e inventarios
Modelos de pronosticos e inventarios
 
U2 series de tiempo
U2 series de tiempoU2 series de tiempo
U2 series de tiempo
 
2.1. CONCEPTO Y CLASIFICACIÓN DE TABLEROS
2.1. CONCEPTO Y CLASIFICACIÓN DE TABLEROS2.1. CONCEPTO Y CLASIFICACIÓN DE TABLEROS
2.1. CONCEPTO Y CLASIFICACIÓN DE TABLEROS
 
Programacion de metas y objetivos
Programacion de metas y objetivosProgramacion de metas y objetivos
Programacion de metas y objetivos
 
U5 ANÁLISIS DE REEMPLAZO
U5 ANÁLISIS DE REEMPLAZOU5 ANÁLISIS DE REEMPLAZO
U5 ANÁLISIS DE REEMPLAZO
 
Unidad 4 Datos Estándar y Propósito de los estándares de tiempo
Unidad 4 Datos Estándar y Propósito de los estándares de tiempoUnidad 4 Datos Estándar y Propósito de los estándares de tiempo
Unidad 4 Datos Estándar y Propósito de los estándares de tiempo
 
Unidad 5. Modelos de reemplazo
Unidad 5. Modelos de reemplazoUnidad 5. Modelos de reemplazo
Unidad 5. Modelos de reemplazo
 
Problemas resueltos-de-metodos-de-transporte
Problemas resueltos-de-metodos-de-transporteProblemas resueltos-de-metodos-de-transporte
Problemas resueltos-de-metodos-de-transporte
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markov
 
Líneas de espera (1) ejercicio
Líneas de espera (1) ejercicioLíneas de espera (1) ejercicio
Líneas de espera (1) ejercicio
 
3.4 el sha
3.4 el sha3.4 el sha
3.4 el sha
 
Factores de localizacion de plantas industriales
Factores de localizacion de plantas industrialesFactores de localizacion de plantas industriales
Factores de localizacion de plantas industriales
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
 
Planeacion y diseño de instalaciones
Planeacion y diseño de instalaciones Planeacion y diseño de instalaciones
Planeacion y diseño de instalaciones
 
Planeación y administración de la capacidad
Planeación y administración de la capacidadPlaneación y administración de la capacidad
Planeación y administración de la capacidad
 
Procesos de Nacimiento y muerte - Teoria de colas
Procesos de Nacimiento y muerte - Teoria de colasProcesos de Nacimiento y muerte - Teoria de colas
Procesos de Nacimiento y muerte - Teoria de colas
 

Destacado

Destacado (6)

Cadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operacionesCadenas de markov investigacion de operaciones
Cadenas de markov investigacion de operaciones
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Resumen unidad 3
Resumen unidad 3Resumen unidad 3
Resumen unidad 3
 
Optimizacion De Redes
Optimizacion De RedesOptimizacion De Redes
Optimizacion De Redes
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
II Unidad Planeación de Capacidad
II Unidad Planeación de CapacidadII Unidad Planeación de Capacidad
II Unidad Planeación de Capacidad
 

Similar a Cadenas de markov

Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...arivasg91
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacinespaquitootd
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blogoskr2588
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1yesi arrieta
 
Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOYoratzi Gonzalez
 

Similar a Cadenas de markov (20)

Final grupo markov
Final grupo markovFinal grupo markov
Final grupo markov
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Matriz transicion
Matriz transicionMatriz transicion
Matriz transicion
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
 
Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
 
Cmtd
CmtdCmtd
Cmtd
 
Markov mono
Markov monoMarkov mono
Markov mono
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
 
2 produccion
2 produccion2 produccion
2 produccion
 
SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blog
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPO
 
cadenas de markov
cadenas de markovcadenas de markov
cadenas de markov
 
Aplicación de la matriceses
Aplicación de la matriceses Aplicación de la matriceses
Aplicación de la matriceses
 
Cadenas de markov io2
Cadenas de markov io2Cadenas de markov io2
Cadenas de markov io2
 

Cadenas de markov

  • 1. NOMBRE DEL ALUMNO: JAIME VALDIVIA CASTELLANOS MATERIA: INVESTIGACIÓN DE OPERACIONES II NUMERO DE CONTROL: 119T0101 NOMBRE DEL DOCENTE: ING. ROBERTO CRUZ ANDRADE NÚMERO Y NOMBRE DE LA UNIDAD: IV CADENAS DE MARKOV
  • 2. INTRODUCCIÓN En las cadenas de Markov considera ciertos puntos discretos en el tiempo para toma valores de la variable aleatoria que caracteriza al sistema. Entonces las cadenas de Markov se usan para estudiar ciertos comportamientos de largo y cortos plazos de sistemas. Los estados en el tiempo representan situación exhaustiva y mutuamente excluyentes del sistema en un tiempo específico. Además el número de estado puede ser finito o infinito. Por lo general una cadena de Markov describe el comportamiento de transición de un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen situaciones donde los espaciamientos temporales dependen de las características del sistema y por ello, pueden no ser iguales entre sí. Las cadenas de Markov se pueden aplicar en áreas como la educación, comercialización, servicios de salud, finanzas, contabilidad y producción.
  • 3. 4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV La cadena de Markov recibe su nombre del matemático ruso AndreiMarkov que desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo. A veces nos interesa saber cómo cambia una variable aleatoria a través del tiempo. Por ejemplo, desearíamos conocer cómo evoluciona el precio de las acciones de una empresa en el mercado a través del tiempo. La cadena de markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado. En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.
  • 4. 4.2. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE N PASOS Suponga que estudiamos una cadena de markov con matriz. P de probabilidad de transición conocida. Como todas las cadenas con las que trataremos son estacionarias, no nos importara identificar nuestras cadenas de markov como estacionarias. Una pregunta de interés es: si una cadena de markov está en el estado i en el tiempo m, ¿Cuál es la probabilidad que n periodos después de la cadena de markov este en el estado j? como se trata de una cadena de markov estacionaria, esta probabilidad será independiente de m y, por tanto, podemos escribir Donde Se llama probabilidad en la etapa n de una transición de estado i al estado j. Es claro que pn(1)=pn para determinar pn(2) nótese que si el sistema se encuentra hoy en el estado i. entonces para que el estado termine en el estado j dentro de 2 periodos, debemos pasar del estado i al estado k y después pasar del estado k al estado i este modo de razonar nos permite escribir (Probabilidad de transición de i a k) (Probabilidad de transición de k a j) De acurdo con la definición de p. la matriz de transición de replanteamos la última ecuación en la siguiente forma:
  • 5. 4.3. ESTADO ESTABLE Para grande, n p tiende a una matriz con renglones idénticos. Esto significa que después de un largo tiempo, la cadena de markov se estabiliza, e (independientemente del estado inicial ) hay una probabilidad j de que se está en el estado j . El vector  n 21, se llama distribución de estado estable o distribución de equilibrio, para la cadena de markov. Para una cadena determinada con matriz de transición , ¿cómo se puede hallar la distribución de probabilidad de estado estable? A partir del teorema 1, se observa que para grande y toda ,     jijij npnp 1 (6) Puesto que  1npij (renglón de n p ) (columna de ), se podría escribir     kj sk k ijij pnpnp     1 1 (7) Si es grande, sustituyendo la ecuación (6) en la (7), se obtiene     sk k kjkj p 1  (8) En forma de matriz, (8) se podría escribir como p  (8` ) Infortunadamente, el sistema de ecuaciones especificado en (8) tiene un número infinito de soluciones, debido a que el rango de la matriz siempre resulta ser 1 s (véase capitulo 2, problema de repaso 21). Para obtener los valores únicos de la probabilidad de estado estable, observe que para cualquier y cualquier ,       121  npnpnp isii  (9)
  • 6. 4.4. ESTADOS ABSORBENTES Es un estado a partir de la cual existe cero probabilidad de hacer una transición fuera de ese estado, que contiene al menos un estado que es posible llegar a un número de etapas comenzando en caulquier estado no absorbente. En una cadena de Markov un conjunto C de estados se denomina absorbentes si el sistema, pertenece indefinidamente. Un ejemplo especial de un conjunto cerrado es un estado particular que tenga una probabilidad de transición . En este caso se denomina estado absorbente. Todos los estado de una cadena irreducible deben formar un conjunto cerrado y ningún otro subconjunto puede ser cerrado. Los estados absorbentes tendrás sumas de probabilidades que con el correr del tiempo llegarán a ser cero, todo esto debido a que hay estados que tiene probabilidad 1 y por ende los demás estados tenderán a llegar a esta clase de estados.
  • 7. CONCLUSIÓN Como conclusión las cadenas de Markov nos permite hacer análisis sobre el estudio de los comportamientos de ciertos sistemas en ciertos periodos que pueden ser cortos o largos. Además se tiene una relación con las probabilidades absolutas. Pero sin embargo lo más importante es el estudio del comportamiento sistemas a largo plazo, cuando el número de transiciones tiene al infinito Al conocer más o menos las probabilidades de un experimento, esto a su vez nos permitirá conocer a corto yplazo los estados en que se encontrarían en periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros intereses, y tomar una decisión de manera consciente y no se comentan muchos errores. Esto también nos proporcionara un tiempo estimado para que identifiquemos cada estado y el periodo en que se encuentra con la implementación de un proceso, también se establece las probabilidades como una herramienta más en las cadenas de Markov.
  • 8. BIBLIOGRAFÍA 4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826 4.2. PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N PASOS Investigación de operaciones, 5ª edición, Editorial taha, pp. 824-826 Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l. wishston, Editorial Thompson, pp. 928-931. 4.3. ESTADO ESTABLE Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l. wishston, Editorial Thompson, pp. 934-938. 4.4. ESTADOS ABSORBENTES Investigación de operaciones, 5ª edición, Editorial taha, pp. 826-830