SlideShare una empresa de Scribd logo
CADENAS DE MARKOV
Piero Cuneo M.
CONCEPTOSBÁSICOS
• Espacio muestral: es el conjunto de posibles valores
• resultados de un experimento
• Probabilidad: es la posibilidad de ocurrencia de un evento
• Evento: subconjunto del espacio muestral
• Función de distribución: función que asigna a cada evento
• una probabilidad
• Variable aleatoria: una función que asigna valores reales a los resultados de un
experimento.
• Es un proceso que se desarrolla de manera aleatoria en el tiempo.
¿QUÉ ES UN PROCESO ESTOCÁSTICO?
Mutaciones de un virus
• Es un proceso que se desarrolla de manera aleatoria en el tiempo.
¿QUÉ ES UN PROCESO ESTOCÁSTICO?
• Los ingresos por ventas de una compañía
• El desarrollo del tráfico en una ciudad
• Cantidad de productos en inventario
• Índice de homicidios de una región
• La demanda de la energía eléctrica.
• Estabilidad política de una región
• Asistentes a la universidad el día de parcial
Otros ejemplos
DEFINICIÓN FORMAL
• Proceso estocástico: es una familia de variables aleatorias
{ 𝑋(𝑡 ) , 𝑡 ∈ 𝑇 } en donde t toma valores del conjunto T.
DESCRIPCIÓN DE UN PROCESO ESTOCÁSTICO
{ 𝑋(𝑡), 𝑡∈ 𝑇 }
• Para describir un proceso estocástico basta conocer la distribución de probabilidad
conjunta de dichas variables.
• Para cada t el sistema se encuentra en uno de un número finito de
• estados mutuamente excluyentes; 0, 1, 2, … , M
• Si T es finito se trata de un proceso discreto
• Si T es un subconjunto de los reales se trata de un proceso continuo
• Una cadena de Markov es un proceso estocástico que cumple con la propiedad de
perdida de memoria.
• Los estados futuros del proceso dependen únicamente del presente, por lo mismo
son independientes del pasado.
• Las cadenas de Markov son modelos probabilísticos que se usan para predecir la
evolución y el comportamiento a corto y a largo plazo de determinados sistemas.
Cadenas de Markov
• Definición formal de un proceso markoviano:
• Considere el proceso ( 𝑋 𝑛+1, 𝑋 𝑛, 𝑋 𝑛−1,…, 𝑋1, 𝑋0)
• Si 𝑋 𝑛 = 𝑖→ el proceso se encuentra en el estado i en el tiempo
• o etapa n.
• Un proceso cumple con la propiedad markoviana si:
•
Cadenas de Markov
𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖, 𝑋 𝑛−1 = 𝐾 𝑛−1,…, 𝑋1 = 𝐾1, 𝑋0 =𝐾0)
= 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 =𝑖)
Presente Pasado
Probabilidad de transición
• La probabilidad 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖)se denomina probabilidad de transición.
Probabilidades estacionarias
• Se cumple: 0≤ 𝑃𝑖𝑗
𝑛 ≤1 𝑝𝑎𝑟𝑎 𝑡 𝑜 𝑑𝑜𝑖, 𝑗, 𝑛 =0,1,2,…
Cadenas de Markov
• Matriz de transición de una etapa: matriz cuadrada formada por las
probabilidades de transición.
Resume todas las probabilidades de transición para los M estados
posibles del sistema.
Cadenas de Markov
• Representación gráfica de un proceso de Markov
• Un proceso de Markov puede representarse gráficamente si se conocen los M
estados posibles del sistema y las probabilidades de transición asociadas a
ellos.
Cadenas de Markov
0 1
𝛼
𝛽
1−𝛽
𝛼
1−𝛽
0𝑃 =
1
0 1
1−𝛼
𝛽
1−𝛼
PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
• Diremos que un estado j es alcanzable desde el estado i, si existe una sucesión de arcos
(camino) que van desde i hasta j.
• Un estado j es absorbente si Pjj=1.Siempre que se ingresa a un estado absorbente nunca se
saldrá de el , es un conjunto cerrado que contiene un solo estado .
• Un estado i es un estado transitorio si existe un estado j que es alcanzable desde i , pero i no
es alcanzable desde j
• Si un estado no es transitorio , es un estado recurrente, se repite
• Un estado recurrente i es periódico si su trayectoria es k >1 y la trayectoria de regreso del
estado i al estado i es múltiplo de k .
• Un estado recurrente no es periódico, es aperiódico.
• Si todos loes estados de una cadena son recurrentes , aperiódicos y se comunican entre si ,
se dice que la cadena es ergodica.
CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
• Periodicidad:
• En la siguiente CM todos los estados son periódicos de periodo k=2:
• Cadenas ergodicas:
• Es posible avanzar desde un estado i hasta cualquier estado j , no es necesario que se logre
en un solo paso , pero debe ser posible para que cualquier resultado sea logrado. Deben de
ser recurrentes, aperiódicos y comunicados entre si.
CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
• Estado Estable:
• Se describe el comportamiento a largo plazo de las CM , refleja una probabilidad constante
luego de un largo periodo.
PROBABILIDADES DE ESTADO ESTABLE
• Concepto:
• Sea X una CM cuyos estados son todos transitorios o absorbentes. En tal caso diremos que
X es absorbente
CADENAS ABSORBENTES







I
RQ
P
0
'
• I: Matriz Identidad
• Q: M. de estados transitorios.
• R: Transiciones de estados transitorios a
estados absorbentes.
• 0: Matriz de ceros
• Concepto:
• El número medio de etapas que se estará en el estado transitorio j antes de la absorción,
suponiendo que empezamos en el estado transitorio i, viene dado por el elemento (i,j) de:
(I–Q’)–1
Proposición: La probabilidad de ser absorbido por un estado absorbente j, suponiendo que
empezamos en el estado transitorio i, viene dada por el elemento (i,j) de la matriz
(I–Q’)–1 R, que se denomina matriz fundamental de la CM
CADENAS ABSORBENTES







I
RQ
P
0
'• I: Matriz Identidad
• Q: M. de estados transitorios.
• R: Transiciones de estados transitorios a
estados absorbentes.
• 0: Matriz de ceros
Cadenas de markov io2

Más contenido relacionado

La actualidad más candente

Final grupo markov
Final grupo markovFinal grupo markov
Final grupo markov
ludovicosforza12
 
Colas teoría
Colas teoríaColas teoría
Colas teoría
Amelia
 
Teoria de colas exposicion
Teoria de colas exposicionTeoria de colas exposicion
Teoria de colas exposicionMiguel Lozano
 
2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)Pierina Diaz Meza
 
Problemas Resueltos de Teoría de Colas
Problemas Resueltos de Teoría de ColasProblemas Resueltos de Teoría de Colas
Problemas Resueltos de Teoría de Colas
Carlos Farley Zamudio Melo
 
Modelo Md1
Modelo Md1Modelo Md1
Modelo Md1
Guido Pineda
 
5.5 flujo a costo minimo
5.5 flujo a costo minimo5.5 flujo a costo minimo
5.5 flujo a costo minimo
ADRIANA NIETO
 
50 ejercicio de estadistica.docx1
50 ejercicio de estadistica.docx150 ejercicio de estadistica.docx1
50 ejercicio de estadistica.docx1
Juan Zaruma
 
Programación lineal de transporte
Programación lineal de transporteProgramación lineal de transporte
Programación lineal de transportecastrov
 
LOGÍSTICA DE LOS NEGOCIOS Y LA CADENA DE SUMINISTROS I
LOGÍSTICA DE LOS NEGOCIOS Y LA CADENA DE SUMINISTROS ILOGÍSTICA DE LOS NEGOCIOS Y LA CADENA DE SUMINISTROS I
LOGÍSTICA DE LOS NEGOCIOS Y LA CADENA DE SUMINISTROS I
Miguel Angel Frias Ponce
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
yesi arrieta
 
Resolucion problemas 5
Resolucion problemas 5Resolucion problemas 5
Resolucion problemas 5lineal
 
El problema del agente viajero resuelto por fuerza, programación dinámica y v...
El problema del agente viajero resuelto por fuerza, programación dinámica y v...El problema del agente viajero resuelto por fuerza, programación dinámica y v...
El problema del agente viajero resuelto por fuerza, programación dinámica y v...
Luis Alfredo Moctezuma Pascual
 
Sistema de colas mmc
Sistema de colas mmcSistema de colas mmc
Sistema de colas mmcJosé Mendoza
 
Modelos de inventarios probabilísticos
Modelos de inventarios probabilísticosModelos de inventarios probabilísticos
Modelos de inventarios probabilísticosJoselyn Salazar
 

La actualidad más candente (20)

Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Metodo De Transporte & Transbordo
Metodo De Transporte & TransbordoMetodo De Transporte & Transbordo
Metodo De Transporte & Transbordo
 
Practica de teoria de colas (1)
Practica de teoria de colas (1)Practica de teoria de colas (1)
Practica de teoria de colas (1)
 
Final grupo markov
Final grupo markovFinal grupo markov
Final grupo markov
 
Colas teoría
Colas teoríaColas teoría
Colas teoría
 
Teoria de colas exposicion
Teoria de colas exposicionTeoria de colas exposicion
Teoria de colas exposicion
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)
 
Problemas Resueltos de Teoría de Colas
Problemas Resueltos de Teoría de ColasProblemas Resueltos de Teoría de Colas
Problemas Resueltos de Teoría de Colas
 
Modelo Md1
Modelo Md1Modelo Md1
Modelo Md1
 
5.5 flujo a costo minimo
5.5 flujo a costo minimo5.5 flujo a costo minimo
5.5 flujo a costo minimo
 
50 ejercicio de estadistica.docx1
50 ejercicio de estadistica.docx150 ejercicio de estadistica.docx1
50 ejercicio de estadistica.docx1
 
Programación lineal de transporte
Programación lineal de transporteProgramación lineal de transporte
Programación lineal de transporte
 
LOGÍSTICA DE LOS NEGOCIOS Y LA CADENA DE SUMINISTROS I
LOGÍSTICA DE LOS NEGOCIOS Y LA CADENA DE SUMINISTROS ILOGÍSTICA DE LOS NEGOCIOS Y LA CADENA DE SUMINISTROS I
LOGÍSTICA DE LOS NEGOCIOS Y LA CADENA DE SUMINISTROS I
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
 
Resolucion problemas 5
Resolucion problemas 5Resolucion problemas 5
Resolucion problemas 5
 
El problema del agente viajero resuelto por fuerza, programación dinámica y v...
El problema del agente viajero resuelto por fuerza, programación dinámica y v...El problema del agente viajero resuelto por fuerza, programación dinámica y v...
El problema del agente viajero resuelto por fuerza, programación dinámica y v...
 
Sistema de colas mmc
Sistema de colas mmcSistema de colas mmc
Sistema de colas mmc
 
Probabilidades de estado estable
Probabilidades de estado estableProbabilidades de estado estable
Probabilidades de estado estable
 
Modelos de inventarios probabilísticos
Modelos de inventarios probabilísticosModelos de inventarios probabilísticos
Modelos de inventarios probabilísticos
 

Similar a Cadenas de markov io2

Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
Paola Vasquez
 
Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPO
Yoratzi Gonzalez
 
Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de Markov
Socorro Lomeli Sanchez
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blogingverdu
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
denicebrea
 
cadenas de markov
cadenas de markovcadenas de markov
cadenas de markov
Leo Quinonez
 
Diagrama de transicion de estado.pptx
Diagrama de transicion de estado.pptxDiagrama de transicion de estado.pptx
Diagrama de transicion de estado.pptx
BryanYunga3
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
arivasg91
 
markov (2).pdf
markov (2).pdfmarkov (2).pdf
markov (2).pdf
IvanArciniegasCeron
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blogoskr2588
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacinespaquitootd
 
Cadena de markov
Cadena de markovCadena de markov
SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
Edinsonorozcoaponte
 
Presentación de Simulación Digital
Presentación de Simulación DigitalPresentación de Simulación Digital
Presentación de Simulación Digital
JavierVelasquezVivar
 
Markov.pdf
Markov.pdfMarkov.pdf
Markov.pdf
AdolfoAguilar30
 

Similar a Cadenas de markov io2 (20)

Cadenas markov (1)
Cadenas markov (1)Cadenas markov (1)
Cadenas markov (1)
 
Matriz transicion
Matriz transicionMatriz transicion
Matriz transicion
 
Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPO
 
Cmtd
CmtdCmtd
Cmtd
 
Unidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de MarkovUnidad II Introduccion a los procesos de Markov
Unidad II Introduccion a los procesos de Markov
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Procesos estocasticos blog
Procesos estocasticos blogProcesos estocasticos blog
Procesos estocasticos blog
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
cadenas de markov
cadenas de markovcadenas de markov
cadenas de markov
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Diagrama de transicion de estado.pptx
Diagrama de transicion de estado.pptxDiagrama de transicion de estado.pptx
Diagrama de transicion de estado.pptx
 
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
Estudio sobre el pronóstico de la tendencia del mercado de valores basado en ...
 
markov (2).pdf
markov (2).pdfmarkov (2).pdf
markov (2).pdf
 
Cadenas de markov blog
Cadenas de markov blogCadenas de markov blog
Cadenas de markov blog
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
Presentación de Simulación Digital
Presentación de Simulación DigitalPresentación de Simulación Digital
Presentación de Simulación Digital
 
Markov.pdf
Markov.pdfMarkov.pdf
Markov.pdf
 

Último

TEORÍA CRÍTICA, ESCUELA DE FRANKFURT, COMUNICACION
TEORÍA CRÍTICA, ESCUELA DE FRANKFURT, COMUNICACIONTEORÍA CRÍTICA, ESCUELA DE FRANKFURT, COMUNICACION
TEORÍA CRÍTICA, ESCUELA DE FRANKFURT, COMUNICACION
LautiCalveira
 
Marketing Digital - Tema 4 de fundamentos del marketing
Marketing Digital - Tema 4 de fundamentos del marketingMarketing Digital - Tema 4 de fundamentos del marketing
Marketing Digital - Tema 4 de fundamentos del marketing
Renato524351
 
Conciertos Marenostrum Fuengirola 2024 - Fechas y Artistas
Conciertos Marenostrum Fuengirola 2024 - Fechas y ArtistasConciertos Marenostrum Fuengirola 2024 - Fechas y Artistas
Conciertos Marenostrum Fuengirola 2024 - Fechas y Artistas
holabuscafiesta
 
COMPORTAMIENTO DEL CONSUMIDOR-EQUIPO 5.pdf
COMPORTAMIENTO DEL CONSUMIDOR-EQUIPO 5.pdfCOMPORTAMIENTO DEL CONSUMIDOR-EQUIPO 5.pdf
COMPORTAMIENTO DEL CONSUMIDOR-EQUIPO 5.pdf
RUIZMendozaMariam
 
Inteligencia Artificial para emprender.pdf
Inteligencia Artificial para emprender.pdfInteligencia Artificial para emprender.pdf
Inteligencia Artificial para emprender.pdf
RevistaMuyU
 
Agència Bombó Magazine
Agència Bombó MagazineAgència Bombó Magazine
Agència Bombó Magazine
JaimeSamuelJustinian
 

Último (6)

TEORÍA CRÍTICA, ESCUELA DE FRANKFURT, COMUNICACION
TEORÍA CRÍTICA, ESCUELA DE FRANKFURT, COMUNICACIONTEORÍA CRÍTICA, ESCUELA DE FRANKFURT, COMUNICACION
TEORÍA CRÍTICA, ESCUELA DE FRANKFURT, COMUNICACION
 
Marketing Digital - Tema 4 de fundamentos del marketing
Marketing Digital - Tema 4 de fundamentos del marketingMarketing Digital - Tema 4 de fundamentos del marketing
Marketing Digital - Tema 4 de fundamentos del marketing
 
Conciertos Marenostrum Fuengirola 2024 - Fechas y Artistas
Conciertos Marenostrum Fuengirola 2024 - Fechas y ArtistasConciertos Marenostrum Fuengirola 2024 - Fechas y Artistas
Conciertos Marenostrum Fuengirola 2024 - Fechas y Artistas
 
COMPORTAMIENTO DEL CONSUMIDOR-EQUIPO 5.pdf
COMPORTAMIENTO DEL CONSUMIDOR-EQUIPO 5.pdfCOMPORTAMIENTO DEL CONSUMIDOR-EQUIPO 5.pdf
COMPORTAMIENTO DEL CONSUMIDOR-EQUIPO 5.pdf
 
Inteligencia Artificial para emprender.pdf
Inteligencia Artificial para emprender.pdfInteligencia Artificial para emprender.pdf
Inteligencia Artificial para emprender.pdf
 
Agència Bombó Magazine
Agència Bombó MagazineAgència Bombó Magazine
Agència Bombó Magazine
 

Cadenas de markov io2

  • 2. CONCEPTOSBÁSICOS • Espacio muestral: es el conjunto de posibles valores • resultados de un experimento • Probabilidad: es la posibilidad de ocurrencia de un evento • Evento: subconjunto del espacio muestral • Función de distribución: función que asigna a cada evento • una probabilidad • Variable aleatoria: una función que asigna valores reales a los resultados de un experimento.
  • 3. • Es un proceso que se desarrolla de manera aleatoria en el tiempo. ¿QUÉ ES UN PROCESO ESTOCÁSTICO? Mutaciones de un virus
  • 4. • Es un proceso que se desarrolla de manera aleatoria en el tiempo. ¿QUÉ ES UN PROCESO ESTOCÁSTICO? • Los ingresos por ventas de una compañía • El desarrollo del tráfico en una ciudad • Cantidad de productos en inventario • Índice de homicidios de una región • La demanda de la energía eléctrica. • Estabilidad política de una región • Asistentes a la universidad el día de parcial Otros ejemplos
  • 5. DEFINICIÓN FORMAL • Proceso estocástico: es una familia de variables aleatorias { 𝑋(𝑡 ) , 𝑡 ∈ 𝑇 } en donde t toma valores del conjunto T.
  • 6. DESCRIPCIÓN DE UN PROCESO ESTOCÁSTICO { 𝑋(𝑡), 𝑡∈ 𝑇 } • Para describir un proceso estocástico basta conocer la distribución de probabilidad conjunta de dichas variables. • Para cada t el sistema se encuentra en uno de un número finito de • estados mutuamente excluyentes; 0, 1, 2, … , M • Si T es finito se trata de un proceso discreto • Si T es un subconjunto de los reales se trata de un proceso continuo
  • 7. • Una cadena de Markov es un proceso estocástico que cumple con la propiedad de perdida de memoria. • Los estados futuros del proceso dependen únicamente del presente, por lo mismo son independientes del pasado. • Las cadenas de Markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Cadenas de Markov
  • 8. • Definición formal de un proceso markoviano: • Considere el proceso ( 𝑋 𝑛+1, 𝑋 𝑛, 𝑋 𝑛−1,…, 𝑋1, 𝑋0) • Si 𝑋 𝑛 = 𝑖→ el proceso se encuentra en el estado i en el tiempo • o etapa n. • Un proceso cumple con la propiedad markoviana si: • Cadenas de Markov 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖, 𝑋 𝑛−1 = 𝐾 𝑛−1,…, 𝑋1 = 𝐾1, 𝑋0 =𝐾0) = 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 =𝑖) Presente Pasado
  • 9. Probabilidad de transición • La probabilidad 𝑃(𝑋 𝑛+1 = 𝑗/𝑋 𝑛 = 𝑖)se denomina probabilidad de transición. Probabilidades estacionarias • Se cumple: 0≤ 𝑃𝑖𝑗 𝑛 ≤1 𝑝𝑎𝑟𝑎 𝑡 𝑜 𝑑𝑜𝑖, 𝑗, 𝑛 =0,1,2,… Cadenas de Markov
  • 10. • Matriz de transición de una etapa: matriz cuadrada formada por las probabilidades de transición. Resume todas las probabilidades de transición para los M estados posibles del sistema. Cadenas de Markov
  • 11. • Representación gráfica de un proceso de Markov • Un proceso de Markov puede representarse gráficamente si se conocen los M estados posibles del sistema y las probabilidades de transición asociadas a ellos. Cadenas de Markov 0 1 𝛼 𝛽 1−𝛽 𝛼 1−𝛽 0𝑃 = 1 0 1 1−𝛼 𝛽 1−𝛼
  • 12. PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
  • 13. PROBABILIDADES DE TRANSICIÓN A LA “n-ésima “ ETAPA
  • 14. • Diremos que un estado j es alcanzable desde el estado i, si existe una sucesión de arcos (camino) que van desde i hasta j. • Un estado j es absorbente si Pjj=1.Siempre que se ingresa a un estado absorbente nunca se saldrá de el , es un conjunto cerrado que contiene un solo estado . • Un estado i es un estado transitorio si existe un estado j que es alcanzable desde i , pero i no es alcanzable desde j • Si un estado no es transitorio , es un estado recurrente, se repite • Un estado recurrente i es periódico si su trayectoria es k >1 y la trayectoria de regreso del estado i al estado i es múltiplo de k . • Un estado recurrente no es periódico, es aperiódico. • Si todos loes estados de una cadena son recurrentes , aperiódicos y se comunican entre si , se dice que la cadena es ergodica. CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
  • 15. • Periodicidad: • En la siguiente CM todos los estados son periódicos de periodo k=2: • Cadenas ergodicas: • Es posible avanzar desde un estado i hasta cualquier estado j , no es necesario que se logre en un solo paso , pero debe ser posible para que cualquier resultado sea logrado. Deben de ser recurrentes, aperiódicos y comunicados entre si. CLASIFICACIÓN DE ESTADO DE UNA CADENA DE MARKOV
  • 16. • Estado Estable: • Se describe el comportamiento a largo plazo de las CM , refleja una probabilidad constante luego de un largo periodo. PROBABILIDADES DE ESTADO ESTABLE
  • 17. • Concepto: • Sea X una CM cuyos estados son todos transitorios o absorbentes. En tal caso diremos que X es absorbente CADENAS ABSORBENTES        I RQ P 0 ' • I: Matriz Identidad • Q: M. de estados transitorios. • R: Transiciones de estados transitorios a estados absorbentes. • 0: Matriz de ceros
  • 18. • Concepto: • El número medio de etapas que se estará en el estado transitorio j antes de la absorción, suponiendo que empezamos en el estado transitorio i, viene dado por el elemento (i,j) de: (I–Q’)–1 Proposición: La probabilidad de ser absorbido por un estado absorbente j, suponiendo que empezamos en el estado transitorio i, viene dada por el elemento (i,j) de la matriz (I–Q’)–1 R, que se denomina matriz fundamental de la CM CADENAS ABSORBENTES        I RQ P 0 '• I: Matriz Identidad • Q: M. de estados transitorios. • R: Transiciones de estados transitorios a estados absorbentes. • 0: Matriz de ceros