Este documento presenta una unidad sobre cadenas de Markov. Explica conceptos clave como procesos estocásticos, procesos markovianos y cadenas markovianas. También describe cómo calcular probabilidades de estado estable usando operaciones matriciales y clasificar los estados de una cadena markoviana. Por último, detalla los criterios de evaluación para un proyecto sobre el matemático Andrei Markov y las aplicaciones de sus métodos.
1.
Ensenada,
B.
C.,
agosto
a
diciembre,
2015
Unidad II
Cadenas de Markov
2. Unidad II:
Cadenas
Markovianas
El estudiante será capaz de:
1. Explicar lo que es un proceso
estocástico, proceso markoviano y
cadena markoviana.
2. Calcular las probabilidades del
estado estable, con operaciones
m a t r i c i a l e s y u t i l i z a n d o l a
computadora.
3. Determinar las características
importantes de una cadena
markoviana endógica.
4. Aplicar las fases del proceso de
decisión markoviano.
4. INVESTIGACION:
ANDREI
MARKOV
a. Datos
Generales
de
Vida
y
formación.
b. Asociaciones
o
ins@tuciones
en
donde
se
con@núan
aplicando
sus
métodos.
c. Aportaciones
realizadas
a
la
inves@gación
de
operaciones.
d. Beneficios
a
las
industrias
mexicanas
por
aplicar
sus
métodos.
e. Razones
principales
del
porque
los
ingenieros
industriales
deben
estudiar
Cadenas
de
Markov.
f. Tarjeta
de
presentación
y
Resume.
5. Rúbrica
de
evaluación
Criterio
Puntos
Máximos
El
equipo
presenta
la
información
que
se
solicita
en
la
inves@gación
y
presentan
una
tarjeta
crea@va,
que
propicie
la
aceptación
del
trabajo
de
Markov
en
las
empresas
5
Referencias
bibliográficas
en
criterio
APA,
válidas
académicamente
y
presentación
en
cumplimiento
del
formato
establecido
en
www.modelocurriculum.net/el-‐resume
3
Trabajo
en
equipo:
con
copar@cipación
de
los
miembros
y
discusiones
sustan@vas
en
el
salón
de
clases,
que
lleve
a
acuerdos
y
conclusiones
2
Puntos
totales
10
6. • En
el
área
de
Probabilidad
y
Estadís@ca,
un
proceso
aleatorio
o
proceso
estocás@co,
es
un
concepto
matemá@co
que
sirve
para
caracterizar
y
estudiar
todo
@po
de
fenómenos
aleatorios
(estocás@cos)
que
evolucionan,
generalmente
con
el
@empo.
• El
índice
de
la
bolsa
de
valores
es
un
ejemplo
de
proceso
estocás@co
de
@po
no
estacionario
(por
tal
mo@vo
es
diYcil
de
predecir).
Procesos
Estocásticos
7. Procesos estocásticos
• Señales
de
telecomunicación
• Señales
sísmicas
• Número
de
manchas
solares
año
tras
año
• Índice
de
la
bosa
segundo
a
segundo
• Señales
biomédicas:
electrocardiograma,
encefalograma,
etc.
• Evolución
de
la
población
de
un
municipio
año
tras
año
• Tiempo
de
espera
en
cola
de
cada
uno
de
los
usuarios
que
van
llegando
a
una
ventanilla
• Clima
procesos
estocás@cos
interrelacionados:
velocidad
del
viento,
humedad
del
aire,
temperatura.
9. Procesos Estocásticos
Estacionario
• La
distribución
conjunta
es
invariante
respecto
al
@empo
• La
media
teorica
es
independiente
del
@empo
• Las
autovarianzas
no
dependen
del
@empo
Homogéneas
• Variables
aleatorias
independientes
• Idén@camente
distribuidas
De
Markov
• La
evolución
solo
depende
del
estado
actual
• La
evolución
no
depende
de
estados
anteriores
10. Procesos Estocásticos
De
Gauss
• Procesos
con@nuo
• Toda
combinación
lineal
de
variables
es
una
variable
de
distribución
normal
De
Poisson
• Procesos
discretos
• Llegadas
por
unidad
de
@empo
De
Gauss
-‐
Markov
• Procesos
que
son
al
mismo
@empo
de
Gauss
y
de
Markov
De
Bernoulli
• Procesos
discretos
• Con
distribución
Binomial
11. Un
proceso
estocás@co
se
puede
definir
equivalentemente
de
dos
formas
diferentes:
Como
un
conjunto
de
realizaciones
temporales
y
un
índices
aleatorio
que
selecciona
una
de
ellas.
Como
un
conjunto
de
variables
aleatorias
Xt
indexadas
por
un
índice
t,
dado
que
t
ε
T,
con
T
c
Ŗ.
Procesos
estocásticos
matematicos
12. T
puede
ser
con@nuo
se
es
un
intervalo
(el
número
de
sus
valores
es
ilimitado)
o
discreto
si
es
numerable
(puede
asumir
determinados
valores)
Las
variables
aleatorias
Xt
toman
valores
en
un
conjunto
que
se
denomina
espacio
probabilís@co
(Ω,
β,
P)
Procesos
estocásticos
matematicos
13. Probabilidad
del
estado
estable
• La metastabilidad es una propiedad de un
sistema con varios estados de equilibrio de
exhibir durante un considerable espacio de
tiempo un estado de equilibrio débilmente
estable.
• Bajo la acción de perturbaciones externas (a
veces no fácilmente detectables) dichos sistemas
exhiben una evolución temporal hacia un estado
de equilibrio fuertemente estable.
• Normalmente, la metaestabilidad es debida a
transformaciones de estados lentas.
14. Hillier
&
Hillier,
(2008).
Métodos
Cuan@ta@vos
para
Administradores.
Editorial
Mc.
Graw
Hill
Un
sistema
metaestable,
con
un
estado
debilmente
estable
(1),
un
estado
insestable
de
transiccion
(2)
y
un
estado
fuertemente
estable
(3)
15. En
que
consiste
el
proceso
Markoviano
• Método
desarrollado
en
1907
por
el
matema@co
ruso
Markov,
para
encontrar
la
probabilidad
de
que
un
sistema
se
encuentre
en
un
estado
par@cular
en
un
momento
dado.
• El
proceso
markoviano
permite
encontrar
el
promedio
a
la
larga
o
las
probabilidades
del
estado
estable
para
c a d a
e s t a d o ,
p r e d i c i e n d o
e l
comportamiento
del
sistema
a
través
del
@empo.
16. Procesos
de
Markov
.vs.
Cadenas
de
Markov
• En
cualquier
instante
cada
objeto
deberá
encontrarse
en
uno
de
los
estados.
• La
probabilidad
de
que
un
objeto
cambie
de
un
estado
a
otro
durante
un
intervalo,
depende
del
resultado
del
estado
inmediatamente
anterior
y
no
de
cualquier
otro.
• Las
etapas
del
proceso
representan
el
número
de
los
periodos
transcurridos
desde
el
momento
en
que
se
inicia
el
proceso.
• Las
etapas
pueden
ser
finitas
o
infinitas.
• Es
una
serie
de
eventos,
en
la
cual
la
probabilidad
de
que
ocurra
un
evento
depende
del
evento
inmediato
anterior.
• Cuenta
con
memoria,
recuerda
el
ul@mo
evento
y
esto
condiciona
las
posibilidades
de
los
eventos
futuros.
• En
los
negocios
se
u@lizan
para:
analizar
los
patrones
de
compra
de
los
clientes
de
tarjeta,
patrones
de
deudores
morosos,
planear
las
necesidades
de
personal
y
analizar
el
remplazo
de
equipos.
17. CaracterísPcas
de
las
Cadenas
de
Markov
• Es
un
proceso
markoviano
que
@ene
un
numero
finito
o
infinito
contable
de
estados.
• Una
persona
puede
escoger
entre
conducir
su
auto
o
tomar
el
camión
para
ir
al
trabajo
cada
día.
Supongamos
que
la
persona
nunca
toma
el
camión
dos
días
seguidos,
persona
si
conduce
hasta
el
trabajo,
entonces
el
día
siguiente
puede
manejar
de
nuevo
o
tomar
el
camión.
• El
espacio
de
estados
del
sistemas
es
{t,c},
el
resultado
de
cualquier
dia
depende
de
lo
que
selecciono
el
día
anterior.
• La
primer
afila
de
la
matriz
corresponde
al
hecho
de
que
la
persona
nunca
toma
el
camión
por
dos
días
seguidos
y
también
da
que
de
manera
defini@va
conducirá
su
auto
al
día
siguiente
de
haber
tomado
el
camión.
• Son
procesos
discretos
con
una
distribución
binomial.