SlideShare una empresa de Scribd logo
1 de 14
Procesos y Cadenas
de Markov
Modelos de Investigación de
Operaciones
Expositor: Luis Coba
Ejemplo
Suponga que un jugador A apuesta sucesivamente contra un jugador B.
Inicialmente el jugador A tiene k dólares, y B tiene N − k dólares, es decir, el capital
conjunto entre los dos jugadores es de N dólares. En cada apuesta el jugador A
tiene la probabilidad p de ganar, y probabilidad q = 1−p de perder.
Sea Xn la fortuna del jugador A al tiempo n.
{Xn: n = 0, 1, . . ,11} es una caminata aleatoria que inicia en el estado k.
El jugador A ha perdido el juego, cuando llega al estado 0.
El jugador A ha ganado el juego, cuando llega al estado N.
El proceso Xn esta constituido por variables aleatorias independientes.
Ejemplo: lanzar un dado o una moneda repetidas veces.
Conclusión:
El resultado u observación del proceso en un momento cualquiera es,
independiente de cualquier otra observación pasada o futura del proceso.
El proceso de Markov, está caracterizado por movimientos o transiciones
aleatorias.
Este modelo representa una sucesión de ensayos independientes de un
mismo experimento aleatorio.
Cadena de Markov
Una “CADENA“ es un proceso en el que una variable aleatoria “Xn” va cambiando
con el paso del tiempo.
Definición: Suponiendo conocido el estado presente del sistema, los estados
anteriores no tienen influencia en los estados futuros del sistema.
Para cualesquiera estados x0, x1, . . . , xn−1 (pasado), xn (presente), xn+1 (futuro), se
cumple la igualdad
P(Xn+1=xn+1|X0=x0,…,Xn=xn)=P(Xn+1=xn+1|Xn=xn)
La probabilidad del evento futuro (Xn = xn) sólo depende el evento (Xn-
1 = xn-1), mientras que la información correspondiente al evento pasado
(X0 = x0,. . . ,Xn−2 = xn−2) es irrelevante.
La probabilidad de que Xn=xn solo depende del estado
inmediatamente anterior Xn-1
Matriz de transición
Ejemplo 1.
Supongamos que el clima es lluvioso o despejado. Como resultado de un amplio
registro, se determina que:
La probabilidad de que se dé un día lluvioso después de un día despejado es 1/3, y la
probabilidad de que se tenga un día lluvioso después de otro día lluvioso es 1/2.
D: estado de un día despejado
R: estado de un día lluvioso
T matriz de transición de esta
cadena de Markov
Matriz de transición
Ejemplo 2.
Una empresa investigadora de mercados analiza un gran grupo de consumidores de
café. Se han determinado que:
50% de las personas que actualmente utilizan la marca A, la comprarán de nuevo la
próxima semana, 25% cambiara a la marca B, y 25% preferirá alguna otra.
De las personas que ahora consumen la marca B, 30% la comprará otra vez la próxima
semana, 60% optará por la marca A y 10% cambiará a otra.
De los consumidores que actualmente compran otra marca, 30% adquirirá de nuevo otra
marca la próxima semana, 40% escogerá la marca A y 30% cambiará a la marca B.
Teorema
Si T es la matriz de transición de un proceso de Markov, el vector x(k+1)
, en el (k+1)-esimo
periodo de observación, puede determinarse a partir del vector de estado x(k)
x(k+1)
= Tx(k)
Esto significa que para obtener el vector de estado en el periodo (k+1) se
multiplica la matriz de transición por el vector de estado en el periodo k.
x(1)
= Tx(0)
x(2)
= Tx(1)
= T(Tx(0)
) = T2
x(0)
x(3)
= Tx(2)
= T(T2
x(0)
) = T3
x(0)
Ahora utilizaremos la matriz de transición del proceso de Markov para
determinar la probabilidad de que el sistema se encuentre en cualquiera de
los n estados en el futuro.
Ejemplo 1.
Suponga que comenzamos nuestra observación(día 0) en un día despejado, de
modo que el vector de estado inicial es:
Entonces el vector del día 1 es:
La probabilidad de que no llueva el día 1 es 0.67 y la probabilidad de que llueva
es 0.33
De manera similar,
A partir del cuarto día, el vector de estado del sistema es siempre el mismo
Esto significa que, a partir del cuarto día, no llueve en 60% del tiempo y llueve
40% del tiempo
Ejemplo 2.
Supongamos que al iniciar el estudio vemos que la marca A tiene un 20% del
mercado, la marca B tiene 20% y las otras marcas tienen el 60% restante.
Entonces, el vector dedo inicial x(0)
es:
El vector de estado después de la primera semana es:
En consecuencia cuando n crece, los vectores de estado tienden al vector fijo
Esto significa que, a largo plazo, la marca A tendrá el control de cerca de 51% del
mercado, la marca B dominará más o menos 27 % del mismo y las otras marcas
tendrán la predilección del 22%.
De manera análoga,
Resumen
Consideremos que un sistema está, en cualquier momento en uno y sólo un estado
entre una cantidad finita de ellos.
Por ejemplo, el clima en cierta área puede ser lluvioso o despejado; una persona
puede fumar o no fumar; vamos o no vamos a la escuela; vivimos en un área
urbana, suburbana o rural; contamos con un nivel de ingresos bajo , medio o alto;
compramos un auto Chevrolet, Ford o de alguna otra marca.
Al pasar el tiempo el sistema puede pasar de un estado a otro supondremos que el
estado del sistema es observado a periodos fijos(digamos cada día, cada hora, etc.)
En muchas aplicaciones conocemos el estado actual del sistema y queremos
predecir el que tendrá en el siguiente periodo de observación o en cualquier otro.
Con frecuencia podemos predecir, a partir de datos históricos, la probabilidad de
que el sistema este en cierto estado particular en determinado periodo de
observación.
Bibliografía
 Algebra Lineal, autor Bernard Kolman
 Introducción a los PROCESOS ESTOCÁSTICOS, autor Luis Rincón
 http://es.slideshare.net/oskr2588/cadenas-de-markov-blog

Más contenido relacionado

La actualidad más candente (20)

Distribucion de probabilidad
Distribucion de probabilidadDistribucion de probabilidad
Distribucion de probabilidad
 
Manual lindo
Manual lindoManual lindo
Manual lindo
 
Modelos estocasticos
Modelos estocasticosModelos estocasticos
Modelos estocasticos
 
Distribucion de bernoulli ejercicios
Distribucion de bernoulli  ejerciciosDistribucion de bernoulli  ejercicios
Distribucion de bernoulli ejercicios
 
Final grupo markov
Final grupo markovFinal grupo markov
Final grupo markov
 
Distribucion geometrica
Distribucion geometricaDistribucion geometrica
Distribucion geometrica
 
PROGRAMACION LINEAL - METODO SIMPLEX
PROGRAMACION LINEAL - METODO SIMPLEXPROGRAMACION LINEAL - METODO SIMPLEX
PROGRAMACION LINEAL - METODO SIMPLEX
 
la distribucion de poisson
la distribucion de poissonla distribucion de poisson
la distribucion de poisson
 
Distribución de poisson
Distribución de poissonDistribución de poisson
Distribución de poisson
 
Problemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markovProblemas resueltos-cadenas-de-markov
Problemas resueltos-cadenas-de-markov
 
Distribuciones discretas
Distribuciones  discretasDistribuciones  discretas
Distribuciones discretas
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markov
 
Estadistica practic
Estadistica practicEstadistica practic
Estadistica practic
 
Distribuciones Probabilisticas
Distribuciones ProbabilisticasDistribuciones Probabilisticas
Distribuciones Probabilisticas
 
Prueba de hipótesis de la varianza
Prueba de hipótesis de la varianzaPrueba de hipótesis de la varianza
Prueba de hipótesis de la varianza
 
Distribucion de poisson
Distribucion de poissonDistribucion de poisson
Distribucion de poisson
 
Cadena de markov
Cadena de markovCadena de markov
Cadena de markov
 
Trabajo final
Trabajo finalTrabajo final
Trabajo final
 
Distribucion geometrica
Distribucion geometricaDistribucion geometrica
Distribucion geometrica
 
Operadres diferenciales 2
Operadres diferenciales 2Operadres diferenciales 2
Operadres diferenciales 2
 

Similar a Procesos y Cadenas de Markov

Similar a Procesos y Cadenas de Markov (20)

Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
Cadenas de markov 1
Cadenas de markov 1Cadenas de markov 1
Cadenas de markov 1
 
cadenas de markov
cadenas de markovcadenas de markov
cadenas de markov
 
Cadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPOCadenas de Markov_BLOG_UNEXPO
Cadenas de Markov_BLOG_UNEXPO
 
Cadenas de Markov
Cadenas de MarkovCadenas de Markov
Cadenas de Markov
 
Cadenas de markov
Cadenas de markovCadenas de markov
Cadenas de markov
 
markov (2).pdf
markov (2).pdfmarkov (2).pdf
markov (2).pdf
 
Cadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuoCadenas de Markov - Estados absorbentes y de tiempo continuo
Cadenas de Markov - Estados absorbentes y de tiempo continuo
 
Mpro3 u3 a1_livv
Mpro3 u3 a1_livvMpro3 u3 a1_livv
Mpro3 u3 a1_livv
 
Simulacion digital variables de estados - Nestor Gonzalez
Simulacion digital variables de estados - Nestor Gonzalez Simulacion digital variables de estados - Nestor Gonzalez
Simulacion digital variables de estados - Nestor Gonzalez
 
Interpretacioncinematica
InterpretacioncinematicaInterpretacioncinematica
Interpretacioncinematica
 
SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Matriz transicion
Matriz transicionMatriz transicion
Matriz transicion
 
Procesos estocasticos y cadenas de markov
Procesos estocasticos y cadenas de markovProcesos estocasticos y cadenas de markov
Procesos estocasticos y cadenas de markov
 
La derivada, concepto y reglas
La derivada, concepto y  reglasLa derivada, concepto y  reglas
La derivada, concepto y reglas
 
Programacion Dinamica Intro
Programacion Dinamica IntroProgramacion Dinamica Intro
Programacion Dinamica Intro
 
Cmtd
CmtdCmtd
Cmtd
 
cpfund10.pdf
cpfund10.pdfcpfund10.pdf
cpfund10.pdf
 
Matematica 1
Matematica 1Matematica 1
Matematica 1
 

Último

La Evaluacion Formativa SM6 Ccesa007.pdf
La Evaluacion Formativa SM6  Ccesa007.pdfLa Evaluacion Formativa SM6  Ccesa007.pdf
La Evaluacion Formativa SM6 Ccesa007.pdfDemetrio Ccesa Rayme
 
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLAACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
 
AEC 2. Aventura en el Antiguo Egipto.pptx
AEC 2. Aventura en el Antiguo Egipto.pptxAEC 2. Aventura en el Antiguo Egipto.pptx
AEC 2. Aventura en el Antiguo Egipto.pptxhenarfdez
 
Posición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptxPosición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptxBeatrizQuijano2
 
Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024IES Vicent Andres Estelles
 
Tema 19. Inmunología y el sistema inmunitario 2024
Tema 19. Inmunología y el sistema inmunitario 2024Tema 19. Inmunología y el sistema inmunitario 2024
Tema 19. Inmunología y el sistema inmunitario 2024IES Vicent Andres Estelles
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Juan Martín Martín
 
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docxPLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docxiemerc2024
 
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...Katherine Concepcion Gonzalez
 
La Sostenibilidad Corporativa. Administración Ambiental
La Sostenibilidad Corporativa. Administración AmbientalLa Sostenibilidad Corporativa. Administración Ambiental
La Sostenibilidad Corporativa. Administración AmbientalJonathanCovena1
 
prostitución en España: una mirada integral!
prostitución en España: una mirada integral!prostitución en España: una mirada integral!
prostitución en España: una mirada integral!CatalinaAlfaroChryso
 
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPCTRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPCCarlosEduardoSosa2
 
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...JoseMartinMalpartida1
 
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxConcepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxFernando Solis
 
6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primariaWilian24
 

Último (20)

La Evaluacion Formativa SM6 Ccesa007.pdf
La Evaluacion Formativa SM6  Ccesa007.pdfLa Evaluacion Formativa SM6  Ccesa007.pdf
La Evaluacion Formativa SM6 Ccesa007.pdf
 
Lecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigosLecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigos
 
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLAACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
 
AEC 2. Aventura en el Antiguo Egipto.pptx
AEC 2. Aventura en el Antiguo Egipto.pptxAEC 2. Aventura en el Antiguo Egipto.pptx
AEC 2. Aventura en el Antiguo Egipto.pptx
 
Posición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptxPosición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptx
 
Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024
 
Tema 19. Inmunología y el sistema inmunitario 2024
Tema 19. Inmunología y el sistema inmunitario 2024Tema 19. Inmunología y el sistema inmunitario 2024
Tema 19. Inmunología y el sistema inmunitario 2024
 
Novena de Pentecostés con textos de san Juan Eudes
Novena de Pentecostés con textos de san Juan EudesNovena de Pentecostés con textos de san Juan Eudes
Novena de Pentecostés con textos de san Juan Eudes
 
Usos y desusos de la inteligencia artificial en revistas científicas
Usos y desusos de la inteligencia artificial en revistas científicasUsos y desusos de la inteligencia artificial en revistas científicas
Usos y desusos de la inteligencia artificial en revistas científicas
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024
 
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docxPLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
 
Tema 11. Dinámica de la hidrosfera 2024
Tema 11.  Dinámica de la hidrosfera 2024Tema 11.  Dinámica de la hidrosfera 2024
Tema 11. Dinámica de la hidrosfera 2024
 
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
 
La Sostenibilidad Corporativa. Administración Ambiental
La Sostenibilidad Corporativa. Administración AmbientalLa Sostenibilidad Corporativa. Administración Ambiental
La Sostenibilidad Corporativa. Administración Ambiental
 
PP_Comunicacion en Salud: Objetivación de signos y síntomas
PP_Comunicacion en Salud: Objetivación de signos y síntomasPP_Comunicacion en Salud: Objetivación de signos y síntomas
PP_Comunicacion en Salud: Objetivación de signos y síntomas
 
prostitución en España: una mirada integral!
prostitución en España: una mirada integral!prostitución en España: una mirada integral!
prostitución en España: una mirada integral!
 
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPCTRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
 
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
 
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxConcepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptx
 
6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria
 

Procesos y Cadenas de Markov

  • 1. Procesos y Cadenas de Markov Modelos de Investigación de Operaciones Expositor: Luis Coba
  • 2. Ejemplo Suponga que un jugador A apuesta sucesivamente contra un jugador B. Inicialmente el jugador A tiene k dólares, y B tiene N − k dólares, es decir, el capital conjunto entre los dos jugadores es de N dólares. En cada apuesta el jugador A tiene la probabilidad p de ganar, y probabilidad q = 1−p de perder. Sea Xn la fortuna del jugador A al tiempo n. {Xn: n = 0, 1, . . ,11} es una caminata aleatoria que inicia en el estado k. El jugador A ha perdido el juego, cuando llega al estado 0. El jugador A ha ganado el juego, cuando llega al estado N.
  • 3. El proceso Xn esta constituido por variables aleatorias independientes. Ejemplo: lanzar un dado o una moneda repetidas veces. Conclusión: El resultado u observación del proceso en un momento cualquiera es, independiente de cualquier otra observación pasada o futura del proceso. El proceso de Markov, está caracterizado por movimientos o transiciones aleatorias. Este modelo representa una sucesión de ensayos independientes de un mismo experimento aleatorio.
  • 4. Cadena de Markov Una “CADENA“ es un proceso en el que una variable aleatoria “Xn” va cambiando con el paso del tiempo. Definición: Suponiendo conocido el estado presente del sistema, los estados anteriores no tienen influencia en los estados futuros del sistema. Para cualesquiera estados x0, x1, . . . , xn−1 (pasado), xn (presente), xn+1 (futuro), se cumple la igualdad P(Xn+1=xn+1|X0=x0,…,Xn=xn)=P(Xn+1=xn+1|Xn=xn)
  • 5. La probabilidad del evento futuro (Xn = xn) sólo depende el evento (Xn- 1 = xn-1), mientras que la información correspondiente al evento pasado (X0 = x0,. . . ,Xn−2 = xn−2) es irrelevante. La probabilidad de que Xn=xn solo depende del estado inmediatamente anterior Xn-1
  • 6. Matriz de transición Ejemplo 1. Supongamos que el clima es lluvioso o despejado. Como resultado de un amplio registro, se determina que: La probabilidad de que se dé un día lluvioso después de un día despejado es 1/3, y la probabilidad de que se tenga un día lluvioso después de otro día lluvioso es 1/2. D: estado de un día despejado R: estado de un día lluvioso T matriz de transición de esta cadena de Markov
  • 7. Matriz de transición Ejemplo 2. Una empresa investigadora de mercados analiza un gran grupo de consumidores de café. Se han determinado que: 50% de las personas que actualmente utilizan la marca A, la comprarán de nuevo la próxima semana, 25% cambiara a la marca B, y 25% preferirá alguna otra. De las personas que ahora consumen la marca B, 30% la comprará otra vez la próxima semana, 60% optará por la marca A y 10% cambiará a otra. De los consumidores que actualmente compran otra marca, 30% adquirirá de nuevo otra marca la próxima semana, 40% escogerá la marca A y 30% cambiará a la marca B.
  • 8. Teorema Si T es la matriz de transición de un proceso de Markov, el vector x(k+1) , en el (k+1)-esimo periodo de observación, puede determinarse a partir del vector de estado x(k) x(k+1) = Tx(k) Esto significa que para obtener el vector de estado en el periodo (k+1) se multiplica la matriz de transición por el vector de estado en el periodo k. x(1) = Tx(0) x(2) = Tx(1) = T(Tx(0) ) = T2 x(0) x(3) = Tx(2) = T(T2 x(0) ) = T3 x(0)
  • 9. Ahora utilizaremos la matriz de transición del proceso de Markov para determinar la probabilidad de que el sistema se encuentre en cualquiera de los n estados en el futuro. Ejemplo 1. Suponga que comenzamos nuestra observación(día 0) en un día despejado, de modo que el vector de estado inicial es: Entonces el vector del día 1 es: La probabilidad de que no llueva el día 1 es 0.67 y la probabilidad de que llueva es 0.33
  • 10. De manera similar, A partir del cuarto día, el vector de estado del sistema es siempre el mismo Esto significa que, a partir del cuarto día, no llueve en 60% del tiempo y llueve 40% del tiempo
  • 11. Ejemplo 2. Supongamos que al iniciar el estudio vemos que la marca A tiene un 20% del mercado, la marca B tiene 20% y las otras marcas tienen el 60% restante. Entonces, el vector dedo inicial x(0) es: El vector de estado después de la primera semana es:
  • 12. En consecuencia cuando n crece, los vectores de estado tienden al vector fijo Esto significa que, a largo plazo, la marca A tendrá el control de cerca de 51% del mercado, la marca B dominará más o menos 27 % del mismo y las otras marcas tendrán la predilección del 22%. De manera análoga,
  • 13. Resumen Consideremos que un sistema está, en cualquier momento en uno y sólo un estado entre una cantidad finita de ellos. Por ejemplo, el clima en cierta área puede ser lluvioso o despejado; una persona puede fumar o no fumar; vamos o no vamos a la escuela; vivimos en un área urbana, suburbana o rural; contamos con un nivel de ingresos bajo , medio o alto; compramos un auto Chevrolet, Ford o de alguna otra marca. Al pasar el tiempo el sistema puede pasar de un estado a otro supondremos que el estado del sistema es observado a periodos fijos(digamos cada día, cada hora, etc.) En muchas aplicaciones conocemos el estado actual del sistema y queremos predecir el que tendrá en el siguiente periodo de observación o en cualquier otro. Con frecuencia podemos predecir, a partir de datos históricos, la probabilidad de que el sistema este en cierto estado particular en determinado periodo de observación.
  • 14. Bibliografía  Algebra Lineal, autor Bernard Kolman  Introducción a los PROCESOS ESTOCÁSTICOS, autor Luis Rincón  http://es.slideshare.net/oskr2588/cadenas-de-markov-blog