SlideShare una empresa de Scribd logo
1 de 19
Descargar para leer sin conexión
CADENAS DE MARKOV
Piero Cuneo M.
CONCEPTOSBÁSICOS
• Espacio muestral: es el conjunto de posibles valores
• resultados de un experimento
• Probabilidad: es la posibilidad de ocurrencia de un evento
• Evento: subconjunto del espacio muestral
• Función de distribución: función que asigna a cada evento
• una probabilidad
• Variable aleatoria: una función que asigna valores reales a los resultados de un
experimento.
• Es un proceso que se desarrolla de manera aleatoria en el tiempo.
¿QUÉ ES UN PROCESO ESTOCÁSTICO?
Mutaciones de un virus
• Es un proceso que se desarrolla de manera aleatoria en el tiempo.
¿QUÉ ES UN PROCESO ESTOCÁSTICO?
• Los ingresos por ventas de una compañía
• El desarrollo del tráfico en una ciudad
• Cantidad de productos en inventario
• Índice de homicidios de una región
• La demanda de la energía eléctrica.
• Estabilidad política de una región
• Asistentes a la universidad el día de parcial
Otros ejemplos
DEFINICIÓN FORMAL
• Proceso estocástico: es una familia de variables aleatorias
{ 𝑋(𝑡 ) , 𝑡 ∈ 𝑇 } en donde t toma valores del conjunto T.
DESCRIPCIÓN DE UN PROCESO ESTOCÁSTICO
{ 𝑋(𝑡), 𝑡∈ 𝑇 }
• Para describir un proceso estocástico basta conocer la distribución de probabilidad
conjunta de dichas variables.
• Para cada t el sistema se encuentra en uno de un número finito de
• estados mutuamente excluyentes; 0, 1, 2, … , M
• Si T es finito se trata de un proceso discreto
• Si T es un subconjunto de los reales se trata de un proceso continuo
• Una cadena de Markov es un proceso estocástico que cumple con la propiedad de
perdida de memoria.
• Los estados futuros del proceso dependen únicamente del presente, por lo mismo
son independientes del pasado.
• Las cadenas de Markov son modelos probabilísticos que se usan para predecir la
evolución y el comportamiento a corto y a largo plazo de determinados sistemas.
Cadenas de Markov
• Definición formal de un proceso markoviano:
• Considere el proceso ( 𝑋 𝑛+1, 𝑋 𝑛, 𝑋 𝑛−1,…, 𝑋1, 𝑋0)
• Si 𝑋 𝑛 = 𝑖→ el proceso se encuentra en el estado i en el tiempo
• o etapa n.
• Un proceso cumple con la propiedad markoviana si:
•
Cadenas de Markov
𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖, 𝑋 𝑛−1 = 𝐾 𝑛−1,…, 𝑋1 = 𝐾1, 𝑋0 =𝐾0)
= 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 =𝑖)
Presente Pasado
Probabilidad de transición
• La probabilidad 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖)se denomina probabilidad de transición.
Probabilidades estacionarias
• Se cumple: 0≤ 𝑃𝑖𝑗
𝑛 ≤1 𝑝𝑎𝑟𝑎 𝑡 𝑜 𝑑𝑜𝑖, 𝑗, 𝑛 =0,1,2,…
Cadenas de Markov
• Matriz de transición de una etapa: matriz cuadrada formada por las
probabilidades de transición.
Resume todas las probabilidades de transición para los M estados
posibles del sistema.
Cadenas de Markov
• Representación gráfica de un proceso de Markov
• Un proceso de Markov puede representarse gráficamente si se conocen los M
estados posibles del sistema y las probabilidades de transición asociadas a
ellos.
Cadenas de Markov
0 1
𝛼
𝛽
1−𝛽
𝛼
1−𝛽
0𝑃 =
1
0 1
1−𝛼
𝛽
1−𝛼
PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
• Diremos que un estado j es alcanzable desde el estado i, si existe una sucesión de arcos
(camino) que van desde i hasta j.
• Un estado j es absorbente si Pjj=1.Siempre que se ingresa a un estado absorbente nunca se
saldrá de el , es un conjunto cerrado que contiene un solo estado .
• Un estado i es un estado transitorio si existe un estado j que es alcanzable desde i , pero i no
es alcanzable desde j
• Si un estado no es transitorio , es un estado recurrente, se repite
• Un estado recurrente i es periódico si su trayectoria es k >1 y la trayectoria de regreso del
estado i al estado i es múltiplo de k .
• Un estado recurrente no es periódico, es aperiódico.
• Si todos loes estados de una cadena son recurrentes , aperiódicos y se comunican entre si ,
se dice que la cadena es ergodica.
CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
• Periodicidad:
• En la siguiente CM todos los estados son periódicos de periodo k=2:
• Cadenas ergodicas:
• Es posible avanzar desde un estado i hasta cualquier estado j , no es necesario que se logre
en un solo paso , pero debe ser posible para que cualquier resultado sea logrado. Deben de
ser recurrentes, aperiódicos y comunicados entre si.
CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
• Estado Estable:
• Se describe el comportamiento a largo plazo de las CM , refleja una probabilidad constante
luego de un largo periodo.
PROBABILIDADES DE ESTADO ESTABLE
• Concepto:
• Sea X una CM cuyos estados son todos transitorios o absorbentes. En tal caso diremos que
X es absorbente
CADENAS ABSORBENTES







I
RQ
P
0
'
• I: Matriz Identidad
• Q: M. de estados transitorios.
• R: Transiciones de estados transitorios a
estados absorbentes.
• 0: Matriz de ceros
• Concepto:
• El número medio de etapas que se estará en el estado transitorio j antes de la absorción,
suponiendo que empezamos en el estado transitorio i, viene dado por el elemento (i,j) de:
(I–Q’)–1
Proposición: La probabilidad de ser absorbido por un estado absorbente j, suponiendo que
empezamos en el estado transitorio i, viene dada por el elemento (i,j) de la matriz
(I–Q’)–1 R, que se denomina matriz fundamental de la CM
CADENAS ABSORBENTES







I
RQ
P
0
'• I: Matriz Identidad
• Q: M. de estados transitorios.
• R: Transiciones de estados transitorios a
estados absorbentes.
• 0: Matriz de ceros
Cadenas de markov io2

Más contenido relacionado

La actualidad más candente

Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovSocorro Lomeli Sanchez
 
Programación Dinámica
Programación DinámicaProgramación Dinámica
Programación DinámicaXavi2701
 
Árboles de decisión
Árboles de decisiónÁrboles de decisión
Árboles de decisiónMeivi2525
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaEmmanuelRuizG
 
Mercados institucionales y gubernamentales
Mercados institucionales y gubernamentalesMercados institucionales y gubernamentales
Mercados institucionales y gubernamentalesgustavo549155
 
Tema2. pronosticos de demanda
Tema2. pronosticos de demandaTema2. pronosticos de demanda
Tema2. pronosticos de demandaingRobertoBriceno
 
Unidad 2: Regresión lineal múltiple y correlación
Unidad 2: Regresión lineal múltiple y correlaciónUnidad 2: Regresión lineal múltiple y correlación
Unidad 2: Regresión lineal múltiple y correlaciónAlvaro Chavez
 
Unidad III generacion de variables aleatorias
Unidad III generacion de variables aleatoriasUnidad III generacion de variables aleatorias
Unidad III generacion de variables aleatoriasAnel Sosa
 
Unidad 1: Estadística administrativa II
Unidad 1: Estadística administrativa IIUnidad 1: Estadística administrativa II
Unidad 1: Estadística administrativa IIAlvaro Chavez
 
Proceso de nacimiento y muerte poisson
Proceso de nacimiento y muerte poissonProceso de nacimiento y muerte poisson
Proceso de nacimiento y muerte poissonKatia Arrayales Zamora
 
Simulación - Unidad 3 generacion de variables aleatorias
Simulación - Unidad 3 generacion de variables aleatoriasSimulación - Unidad 3 generacion de variables aleatorias
Simulación - Unidad 3 generacion de variables aleatoriasJosé Antonio Sandoval Acosta
 

La actualidad más candente (20)

Investigación de Operaciones
Investigación de OperacionesInvestigación de Operaciones
Investigación de Operaciones
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de Markov
 
Programación Dinámica
Programación DinámicaProgramación Dinámica
Programación Dinámica
 
Io 2da programacion lineal
Io 2da programacion linealIo 2da programacion lineal
Io 2da programacion lineal
 
Árboles de decisión
Árboles de decisiónÁrboles de decisión
Árboles de decisión
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Pruebas de bondad de ajuste
Pruebas de bondad de ajustePruebas de bondad de ajuste
Pruebas de bondad de ajuste
 
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la ActuaríaIntroducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
Introducción a los Procesos Estocásticos y sus Aplicaciones en la Actuaría
 
Mercados institucionales y gubernamentales
Mercados institucionales y gubernamentalesMercados institucionales y gubernamentales
Mercados institucionales y gubernamentales
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Tema2. pronosticos de demanda
Tema2. pronosticos de demandaTema2. pronosticos de demanda
Tema2. pronosticos de demanda
 
Final grupo markov
Final grupo markovFinal grupo markov
Final grupo markov
 
Unidad 2: Regresión lineal múltiple y correlación
Unidad 2: Regresión lineal múltiple y correlaciónUnidad 2: Regresión lineal múltiple y correlación
Unidad 2: Regresión lineal múltiple y correlación
 
Unidad III generacion de variables aleatorias
Unidad III generacion de variables aleatoriasUnidad III generacion de variables aleatorias
Unidad III generacion de variables aleatorias
 
Pruebas de bondad de ajuste vfinal
Pruebas de bondad de ajuste vfinalPruebas de bondad de ajuste vfinal
Pruebas de bondad de ajuste vfinal
 
Unidad 1: Estadística administrativa II
Unidad 1: Estadística administrativa IIUnidad 1: Estadística administrativa II
Unidad 1: Estadística administrativa II
 
Proceso de nacimiento y muerte poisson
Proceso de nacimiento y muerte poissonProceso de nacimiento y muerte poisson
Proceso de nacimiento y muerte poisson
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Simulación - Unidad 3 generacion de variables aleatorias
Simulación - Unidad 3 generacion de variables aleatoriasSimulación - Unidad 3 generacion de variables aleatorias
Simulación - Unidad 3 generacion de variables aleatorias
 

Similar a Cadenas de markov io2

Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOYoratzi Gonzalez
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Diagrama de transicion de estado.pptx
Diagrama de transicion de estado.pptxDiagrama de transicion de estado.pptx
Diagrama de transicion de estado.pptxBryanYunga3
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...arivasg91
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blogoskr2588
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacinespaquitootd
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1yesi arrieta
 
Presentación de Simulación Digital
Presentación de Simulación DigitalPresentación de Simulación Digital
Presentación de Simulación DigitalJavierVelasquezVivar
 
Jairo Rodriguez
Jairo RodriguezJairo Rodriguez
Jairo Rodriguezjairormw
 

Similar a Cadenas de markov io2 (20)

Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
 
Matriz transicion
Matriz transicionMatriz transicion
Matriz transicion
 
Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPO
 
Cmtd
CmtdCmtd
Cmtd
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
Diagrama de transicion de estado.pptx
Diagrama de transicion de estado.pptxDiagrama de transicion de estado.pptx
Diagrama de transicion de estado.pptx
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
 
markov (2).pdf
markov (2).pdfmarkov (2).pdf
markov (2).pdf
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blog
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
 
SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
 
Presentación de Simulación Digital
Presentación de Simulación DigitalPresentación de Simulación Digital
Presentación de Simulación Digital
 
Markov.pdf
Markov.pdfMarkov.pdf
Markov.pdf
 
Markov mono
Markov monoMarkov mono
Markov mono
 
Econometria
EconometriaEconometria
Econometria
 
Jairo Rodriguez
Jairo RodriguezJairo Rodriguez
Jairo Rodriguez
 

Cadenas de markov io2

  • 2. CONCEPTOSBÁSICOS • Espacio muestral: es el conjunto de posibles valores • resultados de un experimento • Probabilidad: es la posibilidad de ocurrencia de un evento • Evento: subconjunto del espacio muestral • Función de distribución: función que asigna a cada evento • una probabilidad • Variable aleatoria: una función que asigna valores reales a los resultados de un experimento.
  • 3. • Es un proceso que se desarrolla de manera aleatoria en el tiempo. ¿QUÉ ES UN PROCESO ESTOCÁSTICO? Mutaciones de un virus
  • 4. • Es un proceso que se desarrolla de manera aleatoria en el tiempo. ¿QUÉ ES UN PROCESO ESTOCÁSTICO? • Los ingresos por ventas de una compañía • El desarrollo del tráfico en una ciudad • Cantidad de productos en inventario • Índice de homicidios de una región • La demanda de la energía eléctrica. • Estabilidad política de una región • Asistentes a la universidad el día de parcial Otros ejemplos
  • 5. DEFINICIÓN FORMAL • Proceso estocástico: es una familia de variables aleatorias { 𝑋(𝑡 ) , 𝑡 ∈ 𝑇 } en donde t toma valores del conjunto T.
  • 6. DESCRIPCIÓN DE UN PROCESO ESTOCÁSTICO { 𝑋(𝑡), 𝑡∈ 𝑇 } • Para describir un proceso estocástico basta conocer la distribución de probabilidad conjunta de dichas variables. • Para cada t el sistema se encuentra en uno de un número finito de • estados mutuamente excluyentes; 0, 1, 2, … , M • Si T es finito se trata de un proceso discreto • Si T es un subconjunto de los reales se trata de un proceso continuo
  • 7. • Una cadena de Markov es un proceso estocástico que cumple con la propiedad de perdida de memoria. • Los estados futuros del proceso dependen únicamente del presente, por lo mismo son independientes del pasado. • Las cadenas de Markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Cadenas de Markov
  • 8. • Definición formal de un proceso markoviano: • Considere el proceso ( 𝑋 𝑛+1, 𝑋 𝑛, 𝑋 𝑛−1,…, 𝑋1, 𝑋0) • Si 𝑋 𝑛 = 𝑖→ el proceso se encuentra en el estado i en el tiempo • o etapa n. • Un proceso cumple con la propiedad markoviana si: • Cadenas de Markov 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖, 𝑋 𝑛−1 = 𝐾 𝑛−1,…, 𝑋1 = 𝐾1, 𝑋0 =𝐾0) = 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 =𝑖) Presente Pasado
  • 9. Probabilidad de transición • La probabilidad 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖)se denomina probabilidad de transición. Probabilidades estacionarias • Se cumple: 0≤ 𝑃𝑖𝑗 𝑛 ≤1 𝑝𝑎𝑟𝑎 𝑡 𝑜 𝑑𝑜𝑖, 𝑗, 𝑛 =0,1,2,… Cadenas de Markov
  • 10. • Matriz de transición de una etapa: matriz cuadrada formada por las probabilidades de transición. Resume todas las probabilidades de transición para los M estados posibles del sistema. Cadenas de Markov
  • 11. • Representación gráfica de un proceso de Markov • Un proceso de Markov puede representarse gráficamente si se conocen los M estados posibles del sistema y las probabilidades de transición asociadas a ellos. Cadenas de Markov 0 1 𝛼 𝛽 1−𝛽 𝛼 1−𝛽 0𝑃 = 1 0 1 1−𝛼 𝛽 1−𝛼
  • 12. PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
  • 13. PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
  • 14. • Diremos que un estado j es alcanzable desde el estado i, si existe una sucesión de arcos (camino) que van desde i hasta j. • Un estado j es absorbente si Pjj=1.Siempre que se ingresa a un estado absorbente nunca se saldrá de el , es un conjunto cerrado que contiene un solo estado . • Un estado i es un estado transitorio si existe un estado j que es alcanzable desde i , pero i no es alcanzable desde j • Si un estado no es transitorio , es un estado recurrente, se repite • Un estado recurrente i es periódico si su trayectoria es k >1 y la trayectoria de regreso del estado i al estado i es múltiplo de k . • Un estado recurrente no es periódico, es aperiódico. • Si todos loes estados de una cadena son recurrentes , aperiódicos y se comunican entre si , se dice que la cadena es ergodica. CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
  • 15. • Periodicidad: • En la siguiente CM todos los estados son periódicos de periodo k=2: • Cadenas ergodicas: • Es posible avanzar desde un estado i hasta cualquier estado j , no es necesario que se logre en un solo paso , pero debe ser posible para que cualquier resultado sea logrado. Deben de ser recurrentes, aperiódicos y comunicados entre si. CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
  • 16. • Estado Estable: • Se describe el comportamiento a largo plazo de las CM , refleja una probabilidad constante luego de un largo periodo. PROBABILIDADES DE ESTADO ESTABLE
  • 17. • Concepto: • Sea X una CM cuyos estados son todos transitorios o absorbentes. En tal caso diremos que X es absorbente CADENAS ABSORBENTES        I RQ P 0 ' • I: Matriz Identidad • Q: M. de estados transitorios. • R: Transiciones de estados transitorios a estados absorbentes. • 0: Matriz de ceros
  • 18. • Concepto: • El número medio de etapas que se estará en el estado transitorio j antes de la absorción, suponiendo que empezamos en el estado transitorio i, viene dado por el elemento (i,j) de: (I–Q’)–1 Proposición: La probabilidad de ser absorbido por un estado absorbente j, suponiendo que empezamos en el estado transitorio i, viene dada por el elemento (i,j) de la matriz (I–Q’)–1 R, que se denomina matriz fundamental de la CM CADENAS ABSORBENTES        I RQ P 0 '• I: Matriz Identidad • Q: M. de estados transitorios. • R: Transiciones de estados transitorios a estados absorbentes. • 0: Matriz de ceros