SlideShare una empresa de Scribd logo
1 de 64
Descargar para leer sin conexión
CADENAS DE MARKOV
https://www.youtube.com/watch?v=pxNVCCgFx1o
* Modelos de probabilidad de procesos que evolucionan en el tiempo de una manera
probabilística (Procesos Estocásticos)
* Cadenas de Markov: Tipo especial de proceso, con la propiedad de que las probabilidades que
describen la forma en que el proceso evolucionara en el futuro dependen solo del estado actual
en que se encuentra el proceso y son independientes de los eventos que ocurrieron en el
pasado.
APLICACIONES:
* Clasificación de clientes.
*Secuencia del ADN
*Análisis de redes genéticas
*Estimación de la demanda de ventas a través del tiempo y el valor del crédito.
PROCESO ESTOCASTICO (TIEMPO DISCRETO)
Colección indexada de variables aleatorias donde el índice t toma valores en un
conjunto T. (T pueden ser números Naturales, características de interés cuantificable en
tiempo t).
La condición actual del sistema puede estar en una de M+1 categorías mutuamente
excluyentes llamadas estados. Por conveniencia en la notación, estos estados se etiquetan 0,
1, 2, . . ., M. La variable aleatoria representa el estado del sistema en el tiempo t, de
manera que sus únicos valores posibles son 0, 1, . . ., M.
El sistema se observa en puntos del tiempo dados, etiquetados t = 0, 1, 2, . . . De esta forma,
los procesos estocásticos proporcionan una representación
matemática de la forma en que evoluciona la condición del sistema físico a través del tiempo.
EJEMPLO CLIMA
El clima en el pueblo de Centerville puede cambiar con rapidez de un día a otro.
Sin embargo, las posibilidades de tener clima seco (sin lluvia) mañana es de
alguna forma mayor si hoy está seco, es decir, si no llueve. En particular, la
probabilidad de que mañana este seco es de 0.8 si hoy está seco, pero es de solo
0.6 si hoy llueve. Estas probabilidades no cambian si se considera la información
acerca del clima en los días anteriores a hoy.
Estado 0 = El día t es seco
Estado 1= El día t es lluvioso
EJEMPLO INVENTARIOS
La tienda de fotografía de Dave tiene el siguiente problema de inventario. El
negocio tiene en almacén un modelo especial de cámara que se puede solicitar
cada semana. Sean Representan las demandas respectivas de esta
cámara (el número de unidades que se venderían si el inventario no se agota)
durante la primera, segundas semanas,..., respectivamente, entonces, la variable
aleatoria (para t = 1, 2, . . .) es
𝒕 = número de cámaras que se venderían en la semana t si el inventario no
se agota. (Este número incluye las ventas perdidas cuando se agota el
inventario.)
𝒕 son variables aleatorias independientes e idénticamente distribuidas que
tienen una distribución Poisson con media de 1.
𝒕 numero de cámaras disponible es al final de la semana t.
Suponga que 𝑿𝟎 = 𝟑
POLITICA DE PEDIDOS:
El estado del sistema se puede evaluar
iterativamente…
Donde t=0,1,2,… son dependientes representan el estado del
sistema al final de la semana t.
CADENAS DE MARKOV
Propiedad Esencial para establecer un proceso estocástico como cadena de Markov…
Se dice que un proceso estocástico 𝑋 tiene la propiedad markoviana si
𝑃{𝑋 = 𝑗|𝑋 = 𝑘 , 𝑋 = 𝑘 , . . . , 𝑋 = 𝑘 , 𝑋 = 𝑖} = 𝑃{𝑋 = 𝑗|𝑋 = 𝑖},
para 𝑡 = 0, 1, . . . y toda sucesión 𝑖, 𝑗, 𝑘 , 𝑘 , . . . , 𝑘 .
En palabras, esta propiedad markoviana establece que la probabilidad condicional de
cualquier “evento” futuro dados cualquier “evento” pasado y el estado actual , es
independiente de los eventos pasados y solo depende del estado actual del proceso.
Probabilidades de transición estacionarias
Las probabilidades condicionales 𝑃 𝑋 = 𝑗 𝑋 = 𝑖 , se llamarán Probabilidad de transición
si …
𝑃 𝑋 = 𝑗 𝑋 = 𝑖 = 𝑃 𝑋 = 𝑗 𝑋 = 𝑖
Es decir que las probabilidades de transición no cambian con el tiempo. La existencia de probabilidades de
transición (de un paso) estacionarias también implica que, para cada i, j y n (n = 0, 1, 2, . . .),
𝑃 𝑋 = 𝑗 𝑋 = 𝑖 = 𝑃 𝑋 = 𝑗 𝑋 = 𝑖
Estas probabilidades condicionales se llaman probabilidades de transición de n pasos.
Notación
PROPIEDADES
MATRIZ DE TRANSICION
Observe que la probabilidad de transición en un renglón y columna dados es la de
la transición del estado en ese renglón al estado en la columna.
Cuando n=1, el superíndice n no se escribe y se hace referencia a esta como una
matriz de transición.
EJEMPLO CLIMA
Estas probabilidades no cambian si también se toma en cuenta la información del
clima antes del día de hoy (día t),
MATRIZ DE TRANSICIÓN
USANDO LA NOTACION
para toda 𝑡 = 1, 2, . . . , por lo que estas son las probabilidades de transición estacionarias
Del estado del renglón al estado de la columna
DIAGRAMA DE NODOS
EJEMPLO INVENTARIOS
𝒕 numero de cámaras disponible es al final de la semana t.
𝒕=i estado actual
𝒕 𝟏 demanda en la semana t+1
Calculemos las probabilidades…
Primer renglón..
Segundo Renglón…
Matriz de transición
DIAGRAMA NODOS(Nodos n. camaras)
EJEMPLO ACCIONES
Al final de un día dado se registra el precio. Si la acción subió, la probabilidad de que suba mañana es
de 0.7. Si la acción bajo, la probabilidad de que suba mañana es de solo 0.5
La matriz de transición que muestra
cada probabilidad de ir desde un
estado particular hoy hasta un estado
particular mañana, está dada por…
DIAGRAMA DE NODOS
ACCIONES
Suponga ahora que el modelo del mercado de acciones se cambia de manera que el hecho de que una acción
suba mañana depende de que haya subido hoy y ayer.
 Si la acción subió los dos días, ayer y hoy, la probabilidad de que suba mañana es de 0.9. Si la acción subió
hoy pero ayer bajo, la probabilidad de que mañana suba es de 0.6.
Si la acción bajo hoy pero ayer subió, la probabilidad de que mañana suba es de 0.5.
Sí bajo durante estos dos días, la probabilidad de que mañana suba es de 0.3.
MATRIZ DE TRANSICION(Y diagrama nodos)
EJEMPLO JUEGO
Suponga que un jugador tiene 1 dólar y que cada jugada gana 1 dólar con probabilidad p>0 o pierde 1
dólar con probabilidad 1 – p > 0.
 El juego termina cuando el jugador acumula 3 dólares o cuando quiebra.
 Este modelo es una cadena de Márkov en la que los estados representan la fortuna del jugador, esto es, 0,
1, 2 o 3 dólares.
METODO PARA CALCULAR LAS
PROBABILIDADES DE TRANSICION
Matrices de transición de n pasos del ejemplo
del clima
Así, si el clima está en el estado 0 (seco) en un día particular,
la probabilidad de estar en el estado 0 dos días después es
0.76, por lo que la probabilidad de estar en el estado 1
(lluvia) es 0.24.
Tres, cuatro, cinco días después…
EN R…
install.packages("expm")
library(expm)
a1=c(0.8,0.6)
a2=c(0.2,0.4)
A=cbind(a1,a2)
A%^%2
A%^%3
A%^%5
CONCLUSION
Ello refleja el hecho de que la probabilidad del clima
que está en un estado particular es en esencia
independiente del estado del clima cinco días antes.
Por lo tanto, las probabilidades de cualquier renglón
de esta matriz de transición de cinco pasos se
denominan probabilidades del estado estable de la
cadena de Márkov.
MATRICES DE TRANSICIÓN DE N PASOS DEL
EJEMPLO DE INVENTARIOS
Por ejemplo, dado que se tiene una cámara en existencia al final de la
semana, la probabilidad de que no haya cámaras en inventario dos
semanas después es de 0.283
CALCULAR N=4 Y N=8
CONCLUSION
De nuevo, la razón es que las probabilidades en
cualquier renglón son las probabilidades del estado
estable de esta cadena de Márkov, es decir, las
probabilidades del estado del sistema después de un
tiempo suficiente han llegado a un punto en el que el
estado inicial ya no es relevante.
CLASISFICACION DE ESTADOS EN UNA
CADENA DE MARKOV
Que el estado sea estable solo es una característica de algunas cadenas
de Márkov. No es válido para todas las cadenas de Márkov.
Se dice que es estado j es accesible desde el estado i si para
alguna Recordemos que es la probabilidad de llegar al estado
j después de n, pasos.
1. Ejemplo el clima siempre se tiene para todo i j
2. Ejemplo inventarios
( )
siempre se tiene para todo i j
3. El ejemplo del juego no es accesible el estado 2 desde el estado 3. Esto ocurre ya
que el jugador al llegar al estado 3 nunca lo deja. Aunque el estado 3 si es
accesible desde el estado 3. EN NINGUN (n)
Propiedades de Comunicación
Los estados se comunican. Si el estado j es accesible desde el estado i y el
estado i es accesible desde el estado j.
1. En el ejemplo de inventarios, todos los estados se comunican.
2. En el ejemplo de juegos los estados 2 y 3 no se comunican.
En general:
Lo anterior nos conduce a definir clases…
Dos estados que se comunican están en la misma clase (Puede existir una clase
de un estado)
Si todos los estados se comunican se dice que la cadena de Márkov es
irreductible
1. Tanto en el ejemplo del clima como en el de inventarios, la cadena de
Márkov es irreducible. En el primer ejemplo de las acciones, la cadena de
Márkov también es irreducible.
2. El ejemplo del juego contiene tres clases; el estado 0 forma una clase, el
estado 3 forma otra y los estados 1 y 2 forman una tercera clase.
Estados recurrentes y estados
transitorios..
Un estado se llama estado transitorio si,
después de haber entrado a este estado, el
proceso nunca regresa a él. Por consiguiente, el
estado i es transitorio si y solo si existe un estado
j (j i) que es accesible desde el estado i, pero
no viceversa, esto es, el estado i no es accesible
desde el estado j. Son transitorios ya que el
proceso los abandonara tarde o temprano. (1 y 2
transitorios)
Por ejemplo, inventarios…
Se dice que un estado es
recurrente si, después de haber
entrado a este estado, el proceso
definitivamente regresara a ese
estado. Por consiguiente, un
estado es recurrente si y solo si
no es transitorio. El proceso
siempre regresara a cada uno de
ellos. (Infinitas veces)
EL EJEMPLO DE JUEGOS…
Un estado se llama estado
absorbente si, después de
haber entrado ahí, el
proceso nunca saldrá de
él. Por consiguiente, el
estado i es un estado
absorbente si y solo si
(0 y 3)
Ejemplo: Suponga que un proceso de
Márkov tiene la siguiente M.T.…
El estado 2 es
absorbente(recurrente) Ya que
nunca sale de allí.
El estado 3 es transitorio, ya que
existe una probabilidad positiva
de nunca regresar.
 Los estados 0 y 1 son recurrentes.
cuando el proceso se mueve de
uno de estos estados al otro,
siempre regresa al estado original.
PROPIEDADES DE PERIODICIDAD
El periodo de un estado i se define como el
entero t (t >1) si para todo n
En el problema del juego al
comenzar en el estado 1, es posible
que el proceso entre al estado 1 solo
en los tiempos 2, 4, . . ., en cuyo caso
se dice que el estado 1 tiene periodo
2, todos los estados de esa clase
tienen periodo t.
Aperiódico
Si existen dos números consecutivos s y tales que el proceso
puede encontrarse en el estado i en los tiempos s y , se dice que
el estado tiene periodo 1 y se llama aperiódico.
DEFINICION: En una cadena de Márkov de estado finito, los
estados recurrentes aperiódicos se llaman ergódicos.
PROPIEDADES A LARGO PLAZO
PROBABILIDADES ESTADO ESTABLE
Para n suficientemente grande, todos los renglones de la matriz
tienen elementos idénticos, lo que significa que la probabilidad de
que el sistema este en cada estado j ya no depende del estado inicial
del sistema
Observación:
 Es importante observar que la probabilidad de estado estable no
significa que el proceso se establezca en un estado. Por el contrario,
el proceso continúa haciendo transiciones de un estado a otro y en
cualquier paso n la probabilidad de transición del estado i al estado j
es todavía
EJEMPLO CLIMA
Se obtiene un sistema de ecuaciones
RESUELVA SISTEMA EN R
EJEMPLO INVENTARIOS
USANDO LA MATRIZ DE TRANSICION …
OBSERVACION
En lo anterior se tuvo en cuenta las cadenas de Márkov eran finitas
irreductibles y que los estados eran ergódicos (recurrentes y
aperiódicos).
Si son aperiódicos puede ocurrir que
→
( )
Ejemplo:
Sin embargo, siempre existe…
satisface las ecuaciones de estado estable.
COSTO PROMEDIO ESPERADO POR
UNIDAD DE TIEMPO
Suponga que se incurre en un costo (u otra función de penalización)
cuando el proceso se encuentra en el estado en el tiempo t,
para . Observe que es una variable aleatoria que
toma cualquiera de los valores C(0), C(1), . . ., C(M)
EJEMPLO DE INVENTARIOS
Suponga que la tienda de cámaras encuentra que se debe asignar un cargo por almacenamiento
por cada cámara que permanece en la tienda al final de la semana. El costo se carga de la
siguiente manera:
El costo promedio esperado a largo
plazo…
ESTADOS ABSORBENTES
Si , ya que al llegar al estado k permanece allí para
siempre.
La probabilidad de comenzar en un estado i y llegar al estado k se
llamará probabilidad de absorción al estado k. Se notará 𝒊𝒌
 Se satisface :
EJEMPLO JUEGOS II
Para ilustrar el uso de probabilidades de absorción en una caminata
aleatoria, considere un ejemplo sobre juegos de azar: pero ahora
suponga que dos jugadores (A y B), con 2 dolares cada uno, aceptan
seguir jugando y apostar 1 dolar cada vez hasta que uno de ellos
quiebre. La probabilidad de que A gane una apuesta es 1/3 , por lo que
la probabilidad de que gane B es 2/3 . El número de dolares que tiene
el jugador A antes de cada apuesta (0, 1, 2, 3 o 4) proporciona los
estados de una cadena de Markov con la matriz de transición:
Matriz de transición …
Usando el sistema de ecuaciones
anterior…
+ + +
+ + +
+ + +
=0
En conclusión …
Se puede obtener la probabilidad de
absorción en el estado 0.
De manera similar, la probabilidad de que A termine
con 4 dólares (B quiebre) cuando comienza con 2
dólares (estado 2) se obtiene al obtener ,
Se puede obtener la probabilidad de
absorción en el estado 4.
CREDITO(ejercicio)
Existen muchas otras situaciones en las cuales los estados absorbentes tienen
un papel importante. Considere una tienda departamental que clasifica el
saldo de la cuenta de un cliente como pagada (estado 0), 1 a 30 días de
retraso (estado 1), 31 a 60 días de retraso (estado 2) o mala deuda (estado
3). Las cuentas se revisan cada mes y se determina el estado de cada
cliente. En general, los créditos no se extienden y se espera que los
deudores paguen sus cuentas lo más pronto posible. En ocasiones, los
clientes no pagan en la fecha límite. Si esto ocurre cuando el saldo queda
dentro de los 30 días de retraso, la tienda considera que este cliente
permanece en el estado 1. Si esto ocurre cuando el saldo esta entre 31 y 60
días de retraso, la tienda considera que el cliente se mueve al estado 2. Los
clientes que tienen más de 60 días de retraso se clasifican en la categoría
de una mala deuda (estado 3), en cuyo caso envía las cuentas a una
agencia de cobro.
MATRIZ DE TRANSICION
Lo que la tienda se pregunta
Aunque cada cliente acaba por llegar al estado 0 o al estado 3, la tienda se interesa en determinar la
probabilidad de que un cliente llegue a ser un mal deudor dado que la cuenta pertenece al estado de 1 a 30
días de retraso, y de igual forma, si se encuentra en 31 a 60 días de retraso. Se debe calcular 𝑓 y 𝑓

Más contenido relacionado

La actualidad más candente

Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaEmmanuelRuizG
 
Condiciones de kuhn tucker y lagrange 97
Condiciones de kuhn tucker y lagrange 97Condiciones de kuhn tucker y lagrange 97
Condiciones de kuhn tucker y lagrange 97Andrea Alfonzo Sanchez
 
Programacion Lineal Entera
Programacion Lineal EnteraProgramacion Lineal Entera
Programacion Lineal EnteraRoger Rodríguez
 
Unmsm fisi - programación lineal entera y binaria - io1 cl15 entera-binaria
Unmsm   fisi - programación lineal entera y binaria - io1 cl15 entera-binariaUnmsm   fisi - programación lineal entera y binaria - io1 cl15 entera-binaria
Unmsm fisi - programación lineal entera y binaria - io1 cl15 entera-binariaJulio Pari
 
Analisis de sensibilidad 2222222 (1)
Analisis de sensibilidad   2222222 (1)Analisis de sensibilidad   2222222 (1)
Analisis de sensibilidad 2222222 (1)Irene Sarcos
 
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...Databricks
 
Investigacion de Operaciones-Coste mínimo
Investigacion de Operaciones-Coste mínimoInvestigacion de Operaciones-Coste mínimo
Investigacion de Operaciones-Coste mínimoMari Cruz
 
Observaciones realizadas
Observaciones realizadasObservaciones realizadas
Observaciones realizadasmmaila94
 
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...Databricks
 
Ecuaciones Diferenciales con Aplicaciones 2da.Ed. Dennis G.Zill
Ecuaciones Diferenciales con Aplicaciones  2da.Ed.  Dennis G.ZillEcuaciones Diferenciales con Aplicaciones  2da.Ed.  Dennis G.Zill
Ecuaciones Diferenciales con Aplicaciones 2da.Ed. Dennis G.Zilljhonsoomelol
 
Ecuaciones diferenciales parciales E.D.P.
Ecuaciones diferenciales parciales E.D.P.Ecuaciones diferenciales parciales E.D.P.
Ecuaciones diferenciales parciales E.D.P.jordan rojas alarcon
 

La actualidad más candente (19)

Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
 
Condiciones de kuhn tucker y lagrange 97
Condiciones de kuhn tucker y lagrange 97Condiciones de kuhn tucker y lagrange 97
Condiciones de kuhn tucker y lagrange 97
 
Programacion Lineal Entera
Programacion Lineal EnteraProgramacion Lineal Entera
Programacion Lineal Entera
 
Inv. de operaciones
Inv. de operacionesInv. de operaciones
Inv. de operaciones
 
Unmsm fisi - programación lineal entera y binaria - io1 cl15 entera-binaria
Unmsm   fisi - programación lineal entera y binaria - io1 cl15 entera-binariaUnmsm   fisi - programación lineal entera y binaria - io1 cl15 entera-binaria
Unmsm fisi - programación lineal entera y binaria - io1 cl15 entera-binaria
 
Analisis de sensibilidad 2222222 (1)
Analisis de sensibilidad   2222222 (1)Analisis de sensibilidad   2222222 (1)
Analisis de sensibilidad 2222222 (1)
 
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
 
Soft computing Chapter 1
Soft computing Chapter 1Soft computing Chapter 1
Soft computing Chapter 1
 
Modelos matematicos
Modelos matematicosModelos matematicos
Modelos matematicos
 
Integracion. bloque-ll
Integracion. bloque-llIntegracion. bloque-ll
Integracion. bloque-ll
 
Investigacion de Operaciones-Coste mínimo
Investigacion de Operaciones-Coste mínimoInvestigacion de Operaciones-Coste mínimo
Investigacion de Operaciones-Coste mínimo
 
Observaciones realizadas
Observaciones realizadasObservaciones realizadas
Observaciones realizadas
 
7 procesos estocásticos
7 procesos estocásticos7 procesos estocásticos
7 procesos estocásticos
 
cadenas de markov
cadenas de markovcadenas de markov
cadenas de markov
 
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
Time Series Forecasting Using Recurrent Neural Network and Vector Autoregress...
 
Ecuaciones Diferenciales con Aplicaciones 2da.Ed. Dennis G.Zill
Ecuaciones Diferenciales con Aplicaciones  2da.Ed.  Dennis G.ZillEcuaciones Diferenciales con Aplicaciones  2da.Ed.  Dennis G.Zill
Ecuaciones Diferenciales con Aplicaciones 2da.Ed. Dennis G.Zill
 
08 dualidad
08 dualidad08 dualidad
08 dualidad
 
Investigacion operaciones
Investigacion operacionesInvestigacion operaciones
Investigacion operaciones
 
Ecuaciones diferenciales parciales E.D.P.
Ecuaciones diferenciales parciales E.D.P.Ecuaciones diferenciales parciales E.D.P.
Ecuaciones diferenciales parciales E.D.P.
 

Similar a markov (2).pdf (20)

Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
Cadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuoCadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuo
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Procesos y Cadenas de Markov
Procesos y Cadenas de MarkovProcesos y Cadenas de Markov
Procesos y Cadenas de Markov
 
Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPO
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Matriz transicion
Matriz transicionMatriz transicion
Matriz transicion
 
Cmtd
CmtdCmtd
Cmtd
 
SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
Final grupo markov
Final grupo markovFinal grupo markov
Final grupo markov
 
Cadenas marko
Cadenas markoCadenas marko
Cadenas marko
 
Bea cadenas marko
Bea cadenas markoBea cadenas marko
Bea cadenas marko
 
Bea cadenas marko (1)
Bea cadenas marko (1)Bea cadenas marko (1)
Bea cadenas marko (1)
 
Bea cadenas markov
Bea cadenas markovBea cadenas markov
Bea cadenas markov
 
Cadenas de Markov
Cadenas de MarkovCadenas de Markov
Cadenas de Markov
 
Problemas markov
Problemas markovProblemas markov
Problemas markov
 
Cadenas de markov io2
Cadenas de markov io2Cadenas de markov io2
Cadenas de markov io2
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 

Último

llllllllllllllllllllllllllllllllllllllllllllllllllllllllll
llllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllll
llllllllllllllllllllllllllllllllllllllllllllllllllllllllllJulietaCarbajalOsis
 
Novelas Turcas vs Series de EUA en audiencia (2024).pdf
Novelas Turcas vs Series de EUA en audiencia  (2024).pdfNovelas Turcas vs Series de EUA en audiencia  (2024).pdf
Novelas Turcas vs Series de EUA en audiencia (2024).pdfJC Díaz Herrera
 
Las familias más ricas del sionismo en el siglo XXI.pdf
Las familias más ricas del sionismo en el siglo XXI.pdfLas familias más ricas del sionismo en el siglo XXI.pdf
Las familias más ricas del sionismo en el siglo XXI.pdfJC Díaz Herrera
 
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdfPosiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdfJC Díaz Herrera
 
Triptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudirTriptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudirluis809799
 
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptxMÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptxCristianCastro978067
 
Las mujeres más ricas del mundo (2024).pdf
Las mujeres más ricas del mundo (2024).pdfLas mujeres más ricas del mundo (2024).pdf
Las mujeres más ricas del mundo (2024).pdfJC Díaz Herrera
 
Los idiomas más hablados en el mundo (2024).pdf
Los idiomas más hablados en el mundo  (2024).pdfLos idiomas más hablados en el mundo  (2024).pdf
Los idiomas más hablados en el mundo (2024).pdfJC Díaz Herrera
 
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdfCALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdfPOULANDERSONDELGADOA2
 
Posiciones en el IDH global de EUA (1950-2024).pdf
Posiciones en el IDH global de EUA (1950-2024).pdfPosiciones en el IDH global de EUA (1950-2024).pdf
Posiciones en el IDH global de EUA (1950-2024).pdfJC Díaz Herrera
 
Panorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATOPanorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATOJuan Carlos Fonseca Mata
 
Análisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de CyclisticAnálisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de CyclisticJamithGarcia1
 
Familias_más_ricas_de_AL_en_la_historia.pdf
Familias_más_ricas_de_AL_en_la_historia.pdfFamilias_más_ricas_de_AL_en_la_historia.pdf
Familias_más_ricas_de_AL_en_la_historia.pdfJC Díaz Herrera
 
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdf
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdfIndustria musical de EUA vs Industria musical Corea del Sur (2024).pdf
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdfJC Díaz Herrera
 
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdfReservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdfJC Díaz Herrera
 
PANTEÓN DE Paris en historia de la arquitectura
PANTEÓN DE Paris en historia de la arquitecturaPANTEÓN DE Paris en historia de la arquitectura
PANTEÓN DE Paris en historia de la arquitecturaRosaHurtado26
 
Los más ricos administradores de fondo de cobertura (1968-2024).pdf
Los más ricos administradores de fondo de cobertura (1968-2024).pdfLos más ricos administradores de fondo de cobertura (1968-2024).pdf
Los más ricos administradores de fondo de cobertura (1968-2024).pdfJC Díaz Herrera
 
COMUNICADO PARA TODO TIPO DE REUNIONES .
COMUNICADO PARA TODO TIPO DE REUNIONES .COMUNICADO PARA TODO TIPO DE REUNIONES .
COMUNICADO PARA TODO TIPO DE REUNIONES .GIANELAKAINACHALLCOJ2
 
Presentacion-Prevencion-Incendios-Forestales.pdf
Presentacion-Prevencion-Incendios-Forestales.pdfPresentacion-Prevencion-Incendios-Forestales.pdf
Presentacion-Prevencion-Incendios-Forestales.pdfDodiAcuaArstica
 
Listas de Fundamentos de Programación 2024
Listas de Fundamentos de Programación 2024Listas de Fundamentos de Programación 2024
Listas de Fundamentos de Programación 2024AndrsReinosoSnchez1
 

Último (20)

llllllllllllllllllllllllllllllllllllllllllllllllllllllllll
llllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllll
llllllllllllllllllllllllllllllllllllllllllllllllllllllllll
 
Novelas Turcas vs Series de EUA en audiencia (2024).pdf
Novelas Turcas vs Series de EUA en audiencia  (2024).pdfNovelas Turcas vs Series de EUA en audiencia  (2024).pdf
Novelas Turcas vs Series de EUA en audiencia (2024).pdf
 
Las familias más ricas del sionismo en el siglo XXI.pdf
Las familias más ricas del sionismo en el siglo XXI.pdfLas familias más ricas del sionismo en el siglo XXI.pdf
Las familias más ricas del sionismo en el siglo XXI.pdf
 
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdfPosiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
Posiciones_del_sionismo_en_los_imperios globales de la humanidad (2024).pdf
 
Triptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudirTriptico-del-Bullying qué es, cómo detectarlo, donde acudir
Triptico-del-Bullying qué es, cómo detectarlo, donde acudir
 
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptxMÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
MÍNIMO COMÚN MÚLTIPLO, MÁXIMO COMÚN DIVISOR.pptx
 
Las mujeres más ricas del mundo (2024).pdf
Las mujeres más ricas del mundo (2024).pdfLas mujeres más ricas del mundo (2024).pdf
Las mujeres más ricas del mundo (2024).pdf
 
Los idiomas más hablados en el mundo (2024).pdf
Los idiomas más hablados en el mundo  (2024).pdfLos idiomas más hablados en el mundo  (2024).pdf
Los idiomas más hablados en el mundo (2024).pdf
 
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdfCALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
CALENDARIZACIÓN ACTUALIZADA DEL 2024 alt.pdf
 
Posiciones en el IDH global de EUA (1950-2024).pdf
Posiciones en el IDH global de EUA (1950-2024).pdfPosiciones en el IDH global de EUA (1950-2024).pdf
Posiciones en el IDH global de EUA (1950-2024).pdf
 
Panorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATOPanorama Sociodemográfico de México 2020: GUANAJUATO
Panorama Sociodemográfico de México 2020: GUANAJUATO
 
Análisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de CyclisticAnálisis de datos en acción: Optimizando el crecimiento de Cyclistic
Análisis de datos en acción: Optimizando el crecimiento de Cyclistic
 
Familias_más_ricas_de_AL_en_la_historia.pdf
Familias_más_ricas_de_AL_en_la_historia.pdfFamilias_más_ricas_de_AL_en_la_historia.pdf
Familias_más_ricas_de_AL_en_la_historia.pdf
 
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdf
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdfIndustria musical de EUA vs Industria musical Corea del Sur (2024).pdf
Industria musical de EUA vs Industria musical Corea del Sur (2024).pdf
 
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdfReservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
Reservas de divisas y oro en México en sexenio de AMLO (2018-2024).pdf
 
PANTEÓN DE Paris en historia de la arquitectura
PANTEÓN DE Paris en historia de la arquitecturaPANTEÓN DE Paris en historia de la arquitectura
PANTEÓN DE Paris en historia de la arquitectura
 
Los más ricos administradores de fondo de cobertura (1968-2024).pdf
Los más ricos administradores de fondo de cobertura (1968-2024).pdfLos más ricos administradores de fondo de cobertura (1968-2024).pdf
Los más ricos administradores de fondo de cobertura (1968-2024).pdf
 
COMUNICADO PARA TODO TIPO DE REUNIONES .
COMUNICADO PARA TODO TIPO DE REUNIONES .COMUNICADO PARA TODO TIPO DE REUNIONES .
COMUNICADO PARA TODO TIPO DE REUNIONES .
 
Presentacion-Prevencion-Incendios-Forestales.pdf
Presentacion-Prevencion-Incendios-Forestales.pdfPresentacion-Prevencion-Incendios-Forestales.pdf
Presentacion-Prevencion-Incendios-Forestales.pdf
 
Listas de Fundamentos de Programación 2024
Listas de Fundamentos de Programación 2024Listas de Fundamentos de Programación 2024
Listas de Fundamentos de Programación 2024
 

markov (2).pdf

  • 2. * Modelos de probabilidad de procesos que evolucionan en el tiempo de una manera probabilística (Procesos Estocásticos) * Cadenas de Markov: Tipo especial de proceso, con la propiedad de que las probabilidades que describen la forma en que el proceso evolucionara en el futuro dependen solo del estado actual en que se encuentra el proceso y son independientes de los eventos que ocurrieron en el pasado. APLICACIONES: * Clasificación de clientes. *Secuencia del ADN *Análisis de redes genéticas *Estimación de la demanda de ventas a través del tiempo y el valor del crédito.
  • 3. PROCESO ESTOCASTICO (TIEMPO DISCRETO) Colección indexada de variables aleatorias donde el índice t toma valores en un conjunto T. (T pueden ser números Naturales, características de interés cuantificable en tiempo t). La condición actual del sistema puede estar en una de M+1 categorías mutuamente excluyentes llamadas estados. Por conveniencia en la notación, estos estados se etiquetan 0, 1, 2, . . ., M. La variable aleatoria representa el estado del sistema en el tiempo t, de manera que sus únicos valores posibles son 0, 1, . . ., M. El sistema se observa en puntos del tiempo dados, etiquetados t = 0, 1, 2, . . . De esta forma, los procesos estocásticos proporcionan una representación matemática de la forma en que evoluciona la condición del sistema físico a través del tiempo.
  • 4. EJEMPLO CLIMA El clima en el pueblo de Centerville puede cambiar con rapidez de un día a otro. Sin embargo, las posibilidades de tener clima seco (sin lluvia) mañana es de alguna forma mayor si hoy está seco, es decir, si no llueve. En particular, la probabilidad de que mañana este seco es de 0.8 si hoy está seco, pero es de solo 0.6 si hoy llueve. Estas probabilidades no cambian si se considera la información acerca del clima en los días anteriores a hoy. Estado 0 = El día t es seco Estado 1= El día t es lluvioso
  • 5. EJEMPLO INVENTARIOS La tienda de fotografía de Dave tiene el siguiente problema de inventario. El negocio tiene en almacén un modelo especial de cámara que se puede solicitar cada semana. Sean Representan las demandas respectivas de esta cámara (el número de unidades que se venderían si el inventario no se agota) durante la primera, segundas semanas,..., respectivamente, entonces, la variable aleatoria (para t = 1, 2, . . .) es 𝒕 = número de cámaras que se venderían en la semana t si el inventario no se agota. (Este número incluye las ventas perdidas cuando se agota el inventario.)
  • 6. 𝒕 son variables aleatorias independientes e idénticamente distribuidas que tienen una distribución Poisson con media de 1. 𝒕 numero de cámaras disponible es al final de la semana t. Suponga que 𝑿𝟎 = 𝟑 POLITICA DE PEDIDOS:
  • 7. El estado del sistema se puede evaluar iterativamente… Donde t=0,1,2,… son dependientes representan el estado del sistema al final de la semana t.
  • 8. CADENAS DE MARKOV Propiedad Esencial para establecer un proceso estocástico como cadena de Markov… Se dice que un proceso estocástico 𝑋 tiene la propiedad markoviana si 𝑃{𝑋 = 𝑗|𝑋 = 𝑘 , 𝑋 = 𝑘 , . . . , 𝑋 = 𝑘 , 𝑋 = 𝑖} = 𝑃{𝑋 = 𝑗|𝑋 = 𝑖}, para 𝑡 = 0, 1, . . . y toda sucesión 𝑖, 𝑗, 𝑘 , 𝑘 , . . . , 𝑘 . En palabras, esta propiedad markoviana establece que la probabilidad condicional de cualquier “evento” futuro dados cualquier “evento” pasado y el estado actual , es independiente de los eventos pasados y solo depende del estado actual del proceso.
  • 9. Probabilidades de transición estacionarias Las probabilidades condicionales 𝑃 𝑋 = 𝑗 𝑋 = 𝑖 , se llamarán Probabilidad de transición si … 𝑃 𝑋 = 𝑗 𝑋 = 𝑖 = 𝑃 𝑋 = 𝑗 𝑋 = 𝑖 Es decir que las probabilidades de transición no cambian con el tiempo. La existencia de probabilidades de transición (de un paso) estacionarias también implica que, para cada i, j y n (n = 0, 1, 2, . . .), 𝑃 𝑋 = 𝑗 𝑋 = 𝑖 = 𝑃 𝑋 = 𝑗 𝑋 = 𝑖 Estas probabilidades condicionales se llaman probabilidades de transición de n pasos.
  • 11. MATRIZ DE TRANSICION Observe que la probabilidad de transición en un renglón y columna dados es la de la transición del estado en ese renglón al estado en la columna. Cuando n=1, el superíndice n no se escribe y se hace referencia a esta como una matriz de transición.
  • 12. EJEMPLO CLIMA Estas probabilidades no cambian si también se toma en cuenta la información del clima antes del día de hoy (día t),
  • 13. MATRIZ DE TRANSICIÓN USANDO LA NOTACION para toda 𝑡 = 1, 2, . . . , por lo que estas son las probabilidades de transición estacionarias Del estado del renglón al estado de la columna
  • 15. EJEMPLO INVENTARIOS 𝒕 numero de cámaras disponible es al final de la semana t. 𝒕=i estado actual 𝒕 𝟏 demanda en la semana t+1
  • 21. EJEMPLO ACCIONES Al final de un día dado se registra el precio. Si la acción subió, la probabilidad de que suba mañana es de 0.7. Si la acción bajo, la probabilidad de que suba mañana es de solo 0.5 La matriz de transición que muestra cada probabilidad de ir desde un estado particular hoy hasta un estado particular mañana, está dada por…
  • 23. ACCIONES Suponga ahora que el modelo del mercado de acciones se cambia de manera que el hecho de que una acción suba mañana depende de que haya subido hoy y ayer.  Si la acción subió los dos días, ayer y hoy, la probabilidad de que suba mañana es de 0.9. Si la acción subió hoy pero ayer bajo, la probabilidad de que mañana suba es de 0.6. Si la acción bajo hoy pero ayer subió, la probabilidad de que mañana suba es de 0.5. Sí bajo durante estos dos días, la probabilidad de que mañana suba es de 0.3.
  • 24. MATRIZ DE TRANSICION(Y diagrama nodos)
  • 25. EJEMPLO JUEGO Suponga que un jugador tiene 1 dólar y que cada jugada gana 1 dólar con probabilidad p>0 o pierde 1 dólar con probabilidad 1 – p > 0.  El juego termina cuando el jugador acumula 3 dólares o cuando quiebra.  Este modelo es una cadena de Márkov en la que los estados representan la fortuna del jugador, esto es, 0, 1, 2 o 3 dólares.
  • 26. METODO PARA CALCULAR LAS PROBABILIDADES DE TRANSICION
  • 27. Matrices de transición de n pasos del ejemplo del clima Así, si el clima está en el estado 0 (seco) en un día particular, la probabilidad de estar en el estado 0 dos días después es 0.76, por lo que la probabilidad de estar en el estado 1 (lluvia) es 0.24.
  • 28. Tres, cuatro, cinco días después…
  • 30. CONCLUSION Ello refleja el hecho de que la probabilidad del clima que está en un estado particular es en esencia independiente del estado del clima cinco días antes. Por lo tanto, las probabilidades de cualquier renglón de esta matriz de transición de cinco pasos se denominan probabilidades del estado estable de la cadena de Márkov.
  • 31. MATRICES DE TRANSICIÓN DE N PASOS DEL EJEMPLO DE INVENTARIOS Por ejemplo, dado que se tiene una cámara en existencia al final de la semana, la probabilidad de que no haya cámaras en inventario dos semanas después es de 0.283
  • 33. CONCLUSION De nuevo, la razón es que las probabilidades en cualquier renglón son las probabilidades del estado estable de esta cadena de Márkov, es decir, las probabilidades del estado del sistema después de un tiempo suficiente han llegado a un punto en el que el estado inicial ya no es relevante.
  • 34. CLASISFICACION DE ESTADOS EN UNA CADENA DE MARKOV Que el estado sea estable solo es una característica de algunas cadenas de Márkov. No es válido para todas las cadenas de Márkov. Se dice que es estado j es accesible desde el estado i si para alguna Recordemos que es la probabilidad de llegar al estado j después de n, pasos. 1. Ejemplo el clima siempre se tiene para todo i j 2. Ejemplo inventarios ( ) siempre se tiene para todo i j 3. El ejemplo del juego no es accesible el estado 2 desde el estado 3. Esto ocurre ya que el jugador al llegar al estado 3 nunca lo deja. Aunque el estado 3 si es accesible desde el estado 3. EN NINGUN (n)
  • 35. Propiedades de Comunicación Los estados se comunican. Si el estado j es accesible desde el estado i y el estado i es accesible desde el estado j. 1. En el ejemplo de inventarios, todos los estados se comunican. 2. En el ejemplo de juegos los estados 2 y 3 no se comunican. En general:
  • 36. Lo anterior nos conduce a definir clases… Dos estados que se comunican están en la misma clase (Puede existir una clase de un estado) Si todos los estados se comunican se dice que la cadena de Márkov es irreductible 1. Tanto en el ejemplo del clima como en el de inventarios, la cadena de Márkov es irreducible. En el primer ejemplo de las acciones, la cadena de Márkov también es irreducible. 2. El ejemplo del juego contiene tres clases; el estado 0 forma una clase, el estado 3 forma otra y los estados 1 y 2 forman una tercera clase.
  • 37. Estados recurrentes y estados transitorios.. Un estado se llama estado transitorio si, después de haber entrado a este estado, el proceso nunca regresa a él. Por consiguiente, el estado i es transitorio si y solo si existe un estado j (j i) que es accesible desde el estado i, pero no viceversa, esto es, el estado i no es accesible desde el estado j. Son transitorios ya que el proceso los abandonara tarde o temprano. (1 y 2 transitorios)
  • 38. Por ejemplo, inventarios… Se dice que un estado es recurrente si, después de haber entrado a este estado, el proceso definitivamente regresara a ese estado. Por consiguiente, un estado es recurrente si y solo si no es transitorio. El proceso siempre regresara a cada uno de ellos. (Infinitas veces)
  • 39. EL EJEMPLO DE JUEGOS… Un estado se llama estado absorbente si, después de haber entrado ahí, el proceso nunca saldrá de él. Por consiguiente, el estado i es un estado absorbente si y solo si (0 y 3)
  • 40. Ejemplo: Suponga que un proceso de Márkov tiene la siguiente M.T.… El estado 2 es absorbente(recurrente) Ya que nunca sale de allí. El estado 3 es transitorio, ya que existe una probabilidad positiva de nunca regresar.  Los estados 0 y 1 son recurrentes. cuando el proceso se mueve de uno de estos estados al otro, siempre regresa al estado original.
  • 41. PROPIEDADES DE PERIODICIDAD El periodo de un estado i se define como el entero t (t >1) si para todo n En el problema del juego al comenzar en el estado 1, es posible que el proceso entre al estado 1 solo en los tiempos 2, 4, . . ., en cuyo caso se dice que el estado 1 tiene periodo 2, todos los estados de esa clase tienen periodo t.
  • 42. Aperiódico Si existen dos números consecutivos s y tales que el proceso puede encontrarse en el estado i en los tiempos s y , se dice que el estado tiene periodo 1 y se llama aperiódico. DEFINICION: En una cadena de Márkov de estado finito, los estados recurrentes aperiódicos se llaman ergódicos.
  • 43. PROPIEDADES A LARGO PLAZO PROBABILIDADES ESTADO ESTABLE Para n suficientemente grande, todos los renglones de la matriz tienen elementos idénticos, lo que significa que la probabilidad de que el sistema este en cada estado j ya no depende del estado inicial del sistema
  • 44. Observación:  Es importante observar que la probabilidad de estado estable no significa que el proceso se establezca en un estado. Por el contrario, el proceso continúa haciendo transiciones de un estado a otro y en cualquier paso n la probabilidad de transición del estado i al estado j es todavía
  • 45. EJEMPLO CLIMA Se obtiene un sistema de ecuaciones
  • 48. USANDO LA MATRIZ DE TRANSICION …
  • 49. OBSERVACION En lo anterior se tuvo en cuenta las cadenas de Márkov eran finitas irreductibles y que los estados eran ergódicos (recurrentes y aperiódicos). Si son aperiódicos puede ocurrir que → ( ) Ejemplo:
  • 50. Sin embargo, siempre existe… satisface las ecuaciones de estado estable.
  • 51. COSTO PROMEDIO ESPERADO POR UNIDAD DE TIEMPO Suponga que se incurre en un costo (u otra función de penalización) cuando el proceso se encuentra en el estado en el tiempo t, para . Observe que es una variable aleatoria que toma cualquiera de los valores C(0), C(1), . . ., C(M)
  • 52. EJEMPLO DE INVENTARIOS Suponga que la tienda de cámaras encuentra que se debe asignar un cargo por almacenamiento por cada cámara que permanece en la tienda al final de la semana. El costo se carga de la siguiente manera:
  • 53. El costo promedio esperado a largo plazo…
  • 54. ESTADOS ABSORBENTES Si , ya que al llegar al estado k permanece allí para siempre. La probabilidad de comenzar en un estado i y llegar al estado k se llamará probabilidad de absorción al estado k. Se notará 𝒊𝒌  Se satisface :
  • 55. EJEMPLO JUEGOS II Para ilustrar el uso de probabilidades de absorción en una caminata aleatoria, considere un ejemplo sobre juegos de azar: pero ahora suponga que dos jugadores (A y B), con 2 dolares cada uno, aceptan seguir jugando y apostar 1 dolar cada vez hasta que uno de ellos quiebre. La probabilidad de que A gane una apuesta es 1/3 , por lo que la probabilidad de que gane B es 2/3 . El número de dolares que tiene el jugador A antes de cada apuesta (0, 1, 2, 3 o 4) proporciona los estados de una cadena de Markov con la matriz de transición:
  • 57. Usando el sistema de ecuaciones anterior… + + + + + + + + + =0
  • 59. Se puede obtener la probabilidad de absorción en el estado 0.
  • 60. De manera similar, la probabilidad de que A termine con 4 dólares (B quiebre) cuando comienza con 2 dólares (estado 2) se obtiene al obtener ,
  • 61. Se puede obtener la probabilidad de absorción en el estado 4.
  • 62. CREDITO(ejercicio) Existen muchas otras situaciones en las cuales los estados absorbentes tienen un papel importante. Considere una tienda departamental que clasifica el saldo de la cuenta de un cliente como pagada (estado 0), 1 a 30 días de retraso (estado 1), 31 a 60 días de retraso (estado 2) o mala deuda (estado 3). Las cuentas se revisan cada mes y se determina el estado de cada cliente. En general, los créditos no se extienden y se espera que los deudores paguen sus cuentas lo más pronto posible. En ocasiones, los clientes no pagan en la fecha límite. Si esto ocurre cuando el saldo queda dentro de los 30 días de retraso, la tienda considera que este cliente permanece en el estado 1. Si esto ocurre cuando el saldo esta entre 31 y 60 días de retraso, la tienda considera que el cliente se mueve al estado 2. Los clientes que tienen más de 60 días de retraso se clasifican en la categoría de una mala deuda (estado 3), en cuyo caso envía las cuentas a una agencia de cobro.
  • 64. Lo que la tienda se pregunta Aunque cada cliente acaba por llegar al estado 0 o al estado 3, la tienda se interesa en determinar la probabilidad de que un cliente llegue a ser un mal deudor dado que la cuenta pertenece al estado de 1 a 30 días de retraso, y de igual forma, si se encuentra en 31 a 60 días de retraso. Se debe calcular 𝑓 y 𝑓