Se ha denunciado esta presentación.
Utilizamos tu perfil de LinkedIn y tus datos de actividad para personalizar los anuncios y mostrarte publicidad más relevante. Puedes cambiar tus preferencias de publicidad en cualquier momento.
Procesos y Cadenas
de Markov
Modelos de Investigación de
Operaciones
Expositor: Luis Coba
Ejemplo
Suponga que un jugador A apuesta sucesivamente contra un jugador B.
Inicialmente el jugador A tiene k dólares, y B...
El proceso Xn esta constituido por variables aleatorias independientes.
Ejemplo: lanzar un dado o una moneda repetidas vec...
Cadena de Markov
Una “CADENA“ es un proceso en el que una variable aleatoria “Xn” va cambiando
con el paso del tiempo.
Def...
La probabilidad del evento futuro (Xn = xn) sólo depende el evento (Xn-
1 = xn-1), mientras que la información correspondi...
Matriz de transición
Ejemplo 1.
Supongamos que el clima es lluvioso o despejado. Como resultado de un amplio
registro, se ...
Matriz de transición
Ejemplo 2.
Una empresa investigadora de mercados analiza un gran grupo de consumidores de
café. Se ha...
Teorema
Si T es la matriz de transición de un proceso de Markov, el vector x(k+1)
, en el (k+1)-esimo
periodo de observaci...
Ahora utilizaremos la matriz de transición del proceso de Markov para
determinar la probabilidad de que el sistema se encu...
De manera similar,
A partir del cuarto día, el vector de estado del sistema es siempre el mismo
Esto significa que, a part...
Ejemplo 2.
Supongamos que al iniciar el estudio vemos que la marca A tiene un 20% del
mercado, la marca B tiene 20% y las ...
En consecuencia cuando n crece, los vectores de estado tienden al vector fijo
Esto significa que, a largo plazo, la marca ...
Resumen
Consideremos que un sistema está, en cualquier momento en uno y sólo un estado
entre una cantidad finita de ellos....
Bibliografía
 Algebra Lineal, autor Bernard Kolman
 Introducción a los PROCESOS ESTOCÁSTICOS, autor Luis Rincón
 http:/...
Próxima SlideShare
Cargando en…5
×

Procesos y Cadenas de Markov

2.357 visualizaciones

Publicado el

Aquí se describe brevemente con 2 ejemplos lo que son los procesos y cadenas de Markov, una aplicación de Procesos Estocásticos.
Las explicaciones fueron tomadas del libro de Proceso Estocásticos de Luis Rincón y los ejemplos del libro de Álgebra Lineal de Bernard Kolman.

Publicado en: Educación
  • Want to preview some of our plans? You can get 50 Woodworking Plans and a 440-Page "The Art of Woodworking" Book... Absolutely FREE ◆◆◆ http://tinyurl.com/yy9yh8fu
       Responder 
    ¿Estás seguro?    No
    Tu mensaje aparecerá aquí
  • Want to preview some of our plans? You can get 50 Woodworking Plans and a 440-Page "The Art of Woodworking" Book... Absolutely FREE ➤➤ http://tinyurl.com/yy9yh8fu
       Responder 
    ¿Estás seguro?    No
    Tu mensaje aparecerá aquí
  • Get access to 16,000 woodworking plans, Download 50 FREE Plans... ♣♣♣ http://ishbv.com/tedsplans/pdf
       Responder 
    ¿Estás seguro?    No
    Tu mensaje aparecerá aquí
  • Sé el primero en recomendar esto

Procesos y Cadenas de Markov

  1. 1. Procesos y Cadenas de Markov Modelos de Investigación de Operaciones Expositor: Luis Coba
  2. 2. Ejemplo Suponga que un jugador A apuesta sucesivamente contra un jugador B. Inicialmente el jugador A tiene k dólares, y B tiene N − k dólares, es decir, el capital conjunto entre los dos jugadores es de N dólares. En cada apuesta el jugador A tiene la probabilidad p de ganar, y probabilidad q = 1−p de perder. Sea Xn la fortuna del jugador A al tiempo n. {Xn: n = 0, 1, . . ,11} es una caminata aleatoria que inicia en el estado k. El jugador A ha perdido el juego, cuando llega al estado 0. El jugador A ha ganado el juego, cuando llega al estado N.
  3. 3. El proceso Xn esta constituido por variables aleatorias independientes. Ejemplo: lanzar un dado o una moneda repetidas veces. Conclusión: El resultado u observación del proceso en un momento cualquiera es, independiente de cualquier otra observación pasada o futura del proceso. El proceso de Markov, está caracterizado por movimientos o transiciones aleatorias. Este modelo representa una sucesión de ensayos independientes de un mismo experimento aleatorio.
  4. 4. Cadena de Markov Una “CADENA“ es un proceso en el que una variable aleatoria “Xn” va cambiando con el paso del tiempo. Definición: Suponiendo conocido el estado presente del sistema, los estados anteriores no tienen influencia en los estados futuros del sistema. Para cualesquiera estados x0, x1, . . . , xn−1 (pasado), xn (presente), xn+1 (futuro), se cumple la igualdad P(Xn+1=xn+1|X0=x0,…,Xn=xn)=P(Xn+1=xn+1|Xn=xn)
  5. 5. La probabilidad del evento futuro (Xn = xn) sólo depende el evento (Xn- 1 = xn-1), mientras que la información correspondiente al evento pasado (X0 = x0,. . . ,Xn−2 = xn−2) es irrelevante. La probabilidad de que Xn=xn solo depende del estado inmediatamente anterior Xn-1
  6. 6. Matriz de transición Ejemplo 1. Supongamos que el clima es lluvioso o despejado. Como resultado de un amplio registro, se determina que: La probabilidad de que se dé un día lluvioso después de un día despejado es 1/3, y la probabilidad de que se tenga un día lluvioso después de otro día lluvioso es 1/2. D: estado de un día despejado R: estado de un día lluvioso T matriz de transición de esta cadena de Markov
  7. 7. Matriz de transición Ejemplo 2. Una empresa investigadora de mercados analiza un gran grupo de consumidores de café. Se han determinado que: 50% de las personas que actualmente utilizan la marca A, la comprarán de nuevo la próxima semana, 25% cambiara a la marca B, y 25% preferirá alguna otra. De las personas que ahora consumen la marca B, 30% la comprará otra vez la próxima semana, 60% optará por la marca A y 10% cambiará a otra. De los consumidores que actualmente compran otra marca, 30% adquirirá de nuevo otra marca la próxima semana, 40% escogerá la marca A y 30% cambiará a la marca B.
  8. 8. Teorema Si T es la matriz de transición de un proceso de Markov, el vector x(k+1) , en el (k+1)-esimo periodo de observación, puede determinarse a partir del vector de estado x(k) x(k+1) = Tx(k) Esto significa que para obtener el vector de estado en el periodo (k+1) se multiplica la matriz de transición por el vector de estado en el periodo k. x(1) = Tx(0) x(2) = Tx(1) = T(Tx(0) ) = T2 x(0) x(3) = Tx(2) = T(T2 x(0) ) = T3 x(0)
  9. 9. Ahora utilizaremos la matriz de transición del proceso de Markov para determinar la probabilidad de que el sistema se encuentre en cualquiera de los n estados en el futuro. Ejemplo 1. Suponga que comenzamos nuestra observación(día 0) en un día despejado, de modo que el vector de estado inicial es: Entonces el vector del día 1 es: La probabilidad de que no llueva el día 1 es 0.67 y la probabilidad de que llueva es 0.33
  10. 10. De manera similar, A partir del cuarto día, el vector de estado del sistema es siempre el mismo Esto significa que, a partir del cuarto día, no llueve en 60% del tiempo y llueve 40% del tiempo
  11. 11. Ejemplo 2. Supongamos que al iniciar el estudio vemos que la marca A tiene un 20% del mercado, la marca B tiene 20% y las otras marcas tienen el 60% restante. Entonces, el vector dedo inicial x(0) es: El vector de estado después de la primera semana es:
  12. 12. En consecuencia cuando n crece, los vectores de estado tienden al vector fijo Esto significa que, a largo plazo, la marca A tendrá el control de cerca de 51% del mercado, la marca B dominará más o menos 27 % del mismo y las otras marcas tendrán la predilección del 22%. De manera análoga,
  13. 13. Resumen Consideremos que un sistema está, en cualquier momento en uno y sólo un estado entre una cantidad finita de ellos. Por ejemplo, el clima en cierta área puede ser lluvioso o despejado; una persona puede fumar o no fumar; vamos o no vamos a la escuela; vivimos en un área urbana, suburbana o rural; contamos con un nivel de ingresos bajo , medio o alto; compramos un auto Chevrolet, Ford o de alguna otra marca. Al pasar el tiempo el sistema puede pasar de un estado a otro supondremos que el estado del sistema es observado a periodos fijos(digamos cada día, cada hora, etc.) En muchas aplicaciones conocemos el estado actual del sistema y queremos predecir el que tendrá en el siguiente periodo de observación o en cualquier otro. Con frecuencia podemos predecir, a partir de datos históricos, la probabilidad de que el sistema este en cierto estado particular en determinado periodo de observación.
  14. 14. Bibliografía  Algebra Lineal, autor Bernard Kolman  Introducción a los PROCESOS ESTOCÁSTICOS, autor Luis Rincón  http://es.slideshare.net/oskr2588/cadenas-de-markov-blog

×