3. PROCESOS DE MARKOV
Los modelos de proceso de Markov son útiles para estudiar la evolución de los
sistemas a lo largo de ensayos repetidos, los cuales son lapsos de tiempo
sucesivos en los que el estado del sistema en cualquier periodo particular no
puede determinarse con certeza. Más bien, se utilizan probabilidades de
transición para describir la manera en la que el sistema pasa de un periodo al
siguiente. Por tanto, nos interesa la probabilidad de que el sistema esté en un
estado particular en un periodo de tiempo determinado. Los modelos de proceso
de Markov pueden utilizarse para describir la probabilidad de que una máquina
que está funcionando en un periodo continúe haciéndolo en el siguiente. También
pueden utilizarse modelos para describir la probabilidad de que un cliente que
compra la marca A en un periodo compre la marca B en el siguiente. La sección
MC en Acción, “Beneficio de los servicios de cuidado de la salud”, describe cómo
se utilizó un modelo de proceso de Markov para determinar las probabilidades
del estado de salud de personas de 65 años o más. Tal información fue útil para
entender las necesidades futuras de servicios de cuidado de la salud y los
beneficios de ampliar los actuales programas de cuidado de la salud.
4. PROCESOS DE MARKOV
En este capítulo se presenta una aplicación de comercialización que implica un
análisis del comportamiento de cambio de tienda de los clientes de un
supermercado. Como una segunda ilustración, consideramos una aplicación de
contabilidad que se ocupa de transición de cuentas por cobrar en dólares a
diferentes categorías de edad de cuentas. Debido a que el tratamiento a fondo
de los procesos de Markov rebasa el alcance de este libro, el análisis en ambas
ilustraciones se limita a situaciones que incluyen un número fi nito de estados,
las probabilidades de transición permanecen constantes con el tiempo y la
probabilidad de estar en un estado particular en cualquier periodo de tiempo
depende sólo del estado en el periodo de tiempo inmediatamente precedente.
Tales procesos de Markov se conocen como cadenas de Markov con
probabilidades de transición estacionarias.