SlideShare una empresa de Scribd logo
MODELOS OCULTOS DE
     MARKOV



                        Adriana Becerra A.
                         Marcela Gómez
                           Byron Macas
                        Fernanda Ordóñez



ABE – MGO – BMA – FOR                        IAA – ECC – UTPL – 2009
Definición
 Un modelo oculto de Markov o HMM (por sus siglas del
  inglés, Hidden Markov Model), es un proceso por el cual
  se observa el comportamiento del sistema de manera
  indirecta pues los estados del mismo permanecen
  ocultos para el observador.
                          x — estados ocultos
                          y — salidas observables
                          a — probabilidades de transición
                          b — probabilidades de salida


    Describen un proceso de probabilidad el cual produce
    una secuencia de eventos simbólicos observables.
Descripción del modelo

 Un HMM se caracteriza por un conjunto de
  parámetros
                 λ = (A,B, Π)

 Matriz A. Matriz de transición de
  probabilidades.
 Matriz B. Matriz de probabilidad de salida.
 Vector π. Representa la distribución inicial de
  los estados.
Arquitectura de los HMM

 Esta arquitectura se da de acuerdo al número
  de estados que lo componen y las
  transiciones permitidas entre dichos estados.
  Los principales modelos existentes son:

 Modelos de izquierda a derecha
 Modelos ergódicos.
Modelos de izquierda a
derecha
 Los elementos de la matriz de probabilidades de
  transición A deben cumplir la siguiente
  condición: aij = 0 j <i , es decir , si en el instante
  t, el modelo se encuentra en el estado i-ésimo,
  en el siguiente instante de tiempo, t+1, el
  modelo permanecerá en el mismo estado con
  probabilidad aii, o bien el modelo pasará al
  estado j-ésimo (j>i) con probabilidad a ij. Esta
  configuración de la matriz de transiciones A da
  lugar a modelos con arquitecturas que se
  denominan de izquierda a derecha.
Modelos de izquierda a
derecha (2)



 Como se muestra en la figura 1, el estado 1 (estado
  inicial) y el 3 (estado final) se denominan no
  emisores y las flechas en líneas continuas indican
  las posibles transiciones entre estados. Podemos
  notar la particularidad de que las transiciones se
  dan solamente de izquierda a derecha.
Modelos Ergódicos




 Pueden evolucionar desde cualquier estado a
  otro en un número finito de transiciones,
  todas las transiciones son posibles.
Tipos de Modelos Ocultos de
Markov

 HMM Discretos
 HMM Continuos y
 HMM Semicontinuos
Tipos de HMM (2)

 HMM discretos

 Aquí las observaciones son vectores de símbolos de
  un alfabeto finito con M + 1 elementos diferentes,
  cada uno denominado codeward, que se agrupan en
  un codebook, V = {v0,.....,vm}.
 La distribución de probabilidad de un símbolo
  entonces se define como B = {bj (k)} donde

           b      PY v X s
            j(k) = ( t = k | t = j)


 es la probabilidad de observación del codebook vk
Tipos de HMM (3)

 HMM contínuos


 Aquí se asume que las distribuciones de los
  símbolos observables son densidades de
  probabilidad definidas sobre espacios de
  observación contínuos.
 La forma mas extendida de distribución es la
  de una mezcla de funciones de densidad de
  tipo gaussiano.
Tipos de HMM (4)

 HMM semicontinuos

 Al igual que los continuos se modelan a partir de
  un conjunto de mezclas de funciones de
  densidad de probabilidad gaussiana.
 La principal diferencia radica en que las
  funciones base son comunes o todos los
  modelos, como ocurre en el caso de los modelos
  discretos donde existe un codebook común a
  todos ellos.
Problemas básicos de los
HMMs

 Problema de evaluación
 Problema de la decodificación
 Problema del Entrenamiento
Primer Problema Básico:
Problema de evaluación
 Consiste en calcular la probabilidad de la
  secuencia de observación O = (o1o2 ... oT ) ,
  dado el modelo l , es decir, P(O|l) . La forma
  más simple de resolver el problema 1 consiste
  en enumerar todas las posibles secuencias de
  estado de longitud T
 Forward algorithm
 Backward algorithm
Segundo Problema Básico:
Problema de decodificación


 Determinar la secuencia de estado del
  modelo dada una secuencia de simbolos
 Optimalidad de Bellman
 Algoritmo de Viterbi
Tercer Problema Básico:
Problema del Entrenamiento
 Se rige principalmente en la secuencia de
  estados más probables, entre las secuencias
  más comunes para esta comparación están
  los patrones, perfiles y HMMs
 Algoritmo Expectation Maximization (EM)
 Algritmo de Baum - Welch
 Algoritmo de Viterbi
Algoritmo EM

 Se utiliza para encontrar, en cada paso una
  estimación del conjunto de parámetros del
  modelo, para luego, tratar de maximizar la
  probabilidad de generación de los datos de
  entrenamiento, de forma que la probabilidad
  asociada al nuevo modelo sea mayor o igual a
  la del modelo anterior.
Algoritmo EM

 Dada una estimación inicial de los
  parámetros obtener la verosimilitud
 de una secuencia y después utilizarla para
  reestimar los parámetros.
Algoritmo de Baum-Welch I
Algoritmo de Viterbi

 El algoritmo de Viterbi permite encontrar las
  secuencia de estados más probable en un
  Modelo oculto de Markov, S=(q1,q2, ..., qT), a
  partir de una observación O=(o1,o2,..., oT), es
  decir, obtiene la secuencia óptima que mejor
  explica la secuencia de observaciones.
Algoritmo de Viterbi

 Inicio. T=0. Se calcula para cada estado Sj con
  j=1,2, .. N, la probabilidad maxima.
  Inicialmente , se considera que no existen
  supervivientes.
 Paso de recursion. Se calcula la probabilidad
  maxima en el siguiente instante de tiempo ,
  t+1, en función de la probabilidad maxima en
  el instante anterior
Algoritmo de Viterbi

 Se guardan los supervivientes para cada
  estado.
 Si t < T, siendo T el número máximo de
  símbolos emitidos, se incrementa t=t+1 y se
  vuelve al paso de recursion . En caso
  contrario, el algoritmo finaliza
 Finalización. Se calcula la probabilidad
  maxima y su estado óptimo correspondiente
Algoritmo de Viterbi

 Finalmente, la secuencia de estados que
 proporciona la mayor probabilidad (o camino
 óptimo), dada una secuencia de símbolos.
Aplicación del Algoritmo
Vitervi
 Una de las aplicaciones del algoritmo de Viterbi es                      la
  desambiguación léxica categorial
 Los elementos de un MOM serían:
    El conjunto Q de estados sería el conjunto de posibles etiquetas
     (categorías gramaticales) para las palabras.
    El conjunto V de observables en cada uno de los estados corresponde
     con el conjunto de palabras distintas.
    El conjunto A de probabilidades de transiciones entre estados sería la
     probabilidad de que una determinada categoría categorial siga a otra.
     Por ejemplo, la probabilidad de que la categoría nombre vaya detrás de la
     categoría determinante.
    El conjunto B de probabilidades de las observaciones correspondería con
     la probabilidad de pertenencia de una palabra (un observable) a una
     determinada categoría. Por ejemplo, la probabilidad de que la palabra
     casa sea verbo, que será menor que la probabilidad de que esta misma
     palabra tenga la categoría gramatical nombre.
Aplicaciones en
reconocimiento de gestos
 Definicion de estados:
 Para los ojos:cerrado. Semicerrado y abierto
 Para la apertura de la boca: abierta,
  semiabierta y cerrada
 Para el estiramiento de la boca: estirada,
  semiestirada y encogida.
Reconocimiento de gestos

 Se capturan observaciones de cada tipo (boca
  y ojos) y se efectúa el entrenamiento.
Reconocimiento de gestos

 A partir de la información anterior se pueden
  reconocer los siguientes gestos:
Las tres grandes preguntas sobre HMMs


 Evaluación
  DADO un HMM M, y una secuencia x,
  ENCUENTRE  Prob[ x | M ]


 Decodificación
  DADO un HMM M, y una secuencia x,
  ENCUENTRE  la secuencia de estados que maximiza P[ x, | M ]

  Aprendizaje
  DADOS un HMM M, con probs transición/emisión desconocidas,
      y una secuencia x,
  ENCUENTRE los parámetros = (ei(.), aij) que maximizan P[ x | ]
Ejemplo: El Casino deshonesto

Un casino tiene dos dados:
 Dado “justo”
    P(1) = P(2) = P(3) = P(5) = P(6) = 1/6
 Dado cargado
    P(1) = P(2) = P(3) = P(5) = 1/10
    P(6) = 1/2
El casino alterna entre el dado justo y el
    cargado una vez cada 20 turnos

Juego:
1. Apostamos $1
2. Tiramos (siempre con un dado justo)
3. El Casino tira (tal vez con un dado
   justo, tal vez con uno cargado)
4. EL número mas alto gana $2
Pregunta # 1 – Evaluación

 Dada

 Una secuencia de tiradas del casino

 1245526462146146136136661664661636616366163616515615115146123562344



 PREGUNTA

 ¿Cuan probable es esta secuencia, dado nuestro modelo de
   como opera el casino?

 Este es el problema de EVALUACIÓN en HMMs
Pregunta # 2 – Decodificación

 Dada

 Una secuencia de tiradas del casino

 1245526462146146136136661664661636616366163616515615115146123562344



 PREGUNTA

 ¿Que partes de la secuencia fueron generadas por el dado
   cargado y cuales por el dado justo?

 Este es el problema de DECODIFICACIÓN en HMMs
Pregunta # 3 – Aprendizaje

 Dada

 Una secuencia de tiradas del casino

 1245526462146146136136661664661636616366163616515615115146123562344



 PREGUNTA

 ¿Cómo está cargado el dado cargado? ¿Cada cuanto cambia el
   casino entre el dado cargado y el justo?

 Este es el problema de APRENDIZAJE en HMMs
El HMM del casino deshonesto


   0.95                0.05
                                        0.95

                              CARGAD
               JUSTO            O



P(1|F) = 1/6                      P(1|L) = 1/10
                       0.05
P(2|F) = 1/6                      P(2|L) = 1/10
P(3|F) = 1/6                      P(3|L) = 1/10
P(4|F) = 1/6                      P(4|L) = 1/10
P(5|F) = 1/6                      P(5|L) = 1/10
P(6|F) = 1/6                      P(6|L) = 1/2
Ejemplo: El casino deshonesto
Imaginemos que la secuencia de dados es:

x = 1, 2, 1, 5, 6, 2, 1, 6, 2, 4 (secuen. mod)

Entonces, cuan probable es

   = justo, justo, justo, justo, justo, justo, justo, justo, justo, justo?

(imaginemos inicialmente prob. iguales a0justo = ½, aoCargado = ½)

½ P(1 | justo) P(justo | justo) P(2 | justo) P(justo | justo) … P(4 |
 justo) =

½ (1/6)10 (0.95)9 = 0,00000000521158647211 = 0.5 10-9
Ejemplo: El casino deshonesto

Entonces, la probabilidad de que el dado sea justo
En toda la corrida es solamente 0.521 10-9

Pero…¿Cual es la probabilidad de

    = Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado,
    Cargado, Cargado, Cargado?

½ P(1 | Cargado) P(Cargado, Cargado) … P(4 | Cargado) =

½ (1/10)8 (1/2)2 (0.95)9 = 0,00000000078781176215 = 7.9 10-10
Sumando probabilidades nos da 0.599 +   6

Entonces, despues de todo es 6.59 veces mas probable que el dado haya sido
   siempre justo, a que haya sido siempre deshonesto o cargado.
GRACIAS…

Más contenido relacionado

La actualidad más candente

Riesgos computacionales
Riesgos computacionalesRiesgos computacionales
Riesgos computacionales
Leidy Johana Jaramillo Montoya
 
Algoritmo md5
Algoritmo md5Algoritmo md5
Algoritmo md5
Russell Carbajal Vilca
 
Tecnologías inalámbricas fijas
Tecnologías inalámbricas fijasTecnologías inalámbricas fijas
Tecnologías inalámbricas fijas
ablopz
 
Codificación de línea
Codificación de líneaCodificación de línea
Codificación de línea
Luis Antonio Rincón Rodríguez
 
Definición e historia de las herramientas case
Definición e historia de las herramientas caseDefinición e historia de las herramientas case
Definición e historia de las herramientas case
IngenierosD
 
Internet Protocol Secure (IPSec)
Internet Protocol Secure (IPSec)Internet Protocol Secure (IPSec)
Internet Protocol Secure (IPSec)
Saúl Vázquez
 
Practica #15 modulacion - demodulacion FSK
Practica #15 modulacion - demodulacion FSKPractica #15 modulacion - demodulacion FSK
Practica #15 modulacion - demodulacion FSK
Fernando Ojeda
 
Metodos de deteccion y correcion de errores
Metodos de deteccion y correcion de erroresMetodos de deteccion y correcion de errores
Metodos de deteccion y correcion de errores
Fernando Luz
 
ERS (Especificación de Requerimientos de Software)
ERS (Especificación de Requerimientos de Software)ERS (Especificación de Requerimientos de Software)
ERS (Especificación de Requerimientos de Software)
ignagonzalez
 
Modulación por impulsos codificados
Modulación por impulsos codificadosModulación por impulsos codificados
Modulación por impulsos codificados
Henry Aguilar Alarcón
 
Lógica Difusa
Lógica DifusaLógica Difusa
Lógica Difusa
Jorge Cortés Alvarez
 
Tipos de Ruido en las telecomunicaciones
Tipos de Ruido en las telecomunicacionesTipos de Ruido en las telecomunicaciones
Tipos de Ruido en las telecomunicaciones
Saúl Vázquez
 
CCNA - Subredes
CCNA - SubredesCCNA - Subredes
CCNA - Subredes
Juan Zambrano Burgos
 
Códigos
Códigos Códigos
Códigos
Limber_Alberto
 
Redes informaticas slideshare
Redes informaticas slideshareRedes informaticas slideshare
Redes informaticas slideshare
VivianaValeria1991
 
Arquitectura de Von Neumann
Arquitectura de Von NeumannArquitectura de Von Neumann
Arquitectura de Von Neumann
victor medra
 
Simbologia de cisco
Simbologia de ciscoSimbologia de cisco
Simbologia de cisco
Maatva Rg
 
Conmutacion de circuitos y paquetes
Conmutacion de circuitos y paquetesConmutacion de circuitos y paquetes
Conmutacion de circuitos y paquetes
Jarvey Gonzalez
 
PCM y Delta - Telecomunicaciones III
PCM y Delta - Telecomunicaciones IIIPCM y Delta - Telecomunicaciones III
PCM y Delta - Telecomunicaciones III
Andy Juan Sarango Veliz
 
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
nica2009
 

La actualidad más candente (20)

Riesgos computacionales
Riesgos computacionalesRiesgos computacionales
Riesgos computacionales
 
Algoritmo md5
Algoritmo md5Algoritmo md5
Algoritmo md5
 
Tecnologías inalámbricas fijas
Tecnologías inalámbricas fijasTecnologías inalámbricas fijas
Tecnologías inalámbricas fijas
 
Codificación de línea
Codificación de líneaCodificación de línea
Codificación de línea
 
Definición e historia de las herramientas case
Definición e historia de las herramientas caseDefinición e historia de las herramientas case
Definición e historia de las herramientas case
 
Internet Protocol Secure (IPSec)
Internet Protocol Secure (IPSec)Internet Protocol Secure (IPSec)
Internet Protocol Secure (IPSec)
 
Practica #15 modulacion - demodulacion FSK
Practica #15 modulacion - demodulacion FSKPractica #15 modulacion - demodulacion FSK
Practica #15 modulacion - demodulacion FSK
 
Metodos de deteccion y correcion de errores
Metodos de deteccion y correcion de erroresMetodos de deteccion y correcion de errores
Metodos de deteccion y correcion de errores
 
ERS (Especificación de Requerimientos de Software)
ERS (Especificación de Requerimientos de Software)ERS (Especificación de Requerimientos de Software)
ERS (Especificación de Requerimientos de Software)
 
Modulación por impulsos codificados
Modulación por impulsos codificadosModulación por impulsos codificados
Modulación por impulsos codificados
 
Lógica Difusa
Lógica DifusaLógica Difusa
Lógica Difusa
 
Tipos de Ruido en las telecomunicaciones
Tipos de Ruido en las telecomunicacionesTipos de Ruido en las telecomunicaciones
Tipos de Ruido en las telecomunicaciones
 
CCNA - Subredes
CCNA - SubredesCCNA - Subredes
CCNA - Subredes
 
Códigos
Códigos Códigos
Códigos
 
Redes informaticas slideshare
Redes informaticas slideshareRedes informaticas slideshare
Redes informaticas slideshare
 
Arquitectura de Von Neumann
Arquitectura de Von NeumannArquitectura de Von Neumann
Arquitectura de Von Neumann
 
Simbologia de cisco
Simbologia de ciscoSimbologia de cisco
Simbologia de cisco
 
Conmutacion de circuitos y paquetes
Conmutacion de circuitos y paquetesConmutacion de circuitos y paquetes
Conmutacion de circuitos y paquetes
 
PCM y Delta - Telecomunicaciones III
PCM y Delta - Telecomunicaciones IIIPCM y Delta - Telecomunicaciones III
PCM y Delta - Telecomunicaciones III
 
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
Lecture 21 detección de códigos de redundancia cíclicos. probabilidad de erro...
 

Destacado

Utilización de trifonemas como modelo acústico para el reconocimiento del habla
Utilización de trifonemas como modelo acústico para el reconocimiento del hablaUtilización de trifonemas como modelo acústico para el reconocimiento del habla
Utilización de trifonemas como modelo acústico para el reconocimiento del habla
Daniel Garrido
 
Modelos Ocultos de Márkov presentación
Modelos Ocultos de Márkov presentaciónModelos Ocultos de Márkov presentación
Modelos Ocultos de Márkov presentación
John Diaz
 
Detección y corrección de errores
Detección y corrección de erroresDetección y corrección de errores
Detección y corrección de errores
Arnold Alfonso
 
Modelos Oculto de Markov - Problemas de entrenamiento
Modelos Oculto de Markov - Problemas de entrenamientoModelos Oculto de Markov - Problemas de entrenamiento
Modelos Oculto de Markov - Problemas de entrenamiento
MAC Cartuche
 
Reconocimiento de voz
Reconocimiento de vozReconocimiento de voz
Reconocimiento de voz
Adriana Becerra
 
Modelos Ocultos De Markov
Modelos Ocultos De MarkovModelos Ocultos De Markov
Modelos Ocultos De Markov
Edwin Cuenca
 
Deteccion Y Control De
Deteccion Y Control DeDeteccion Y Control De
Deteccion Y Control De
guestc9b52b
 
Codificación convolucional
Codificación convolucionalCodificación convolucional
Codificación convolucional
Ángel María
 
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo CódigoCodificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
Oscar Javier Jimenez Revelo
 
Trellis Y Viterbi
Trellis Y ViterbiTrellis Y Viterbi

Destacado (10)

Utilización de trifonemas como modelo acústico para el reconocimiento del habla
Utilización de trifonemas como modelo acústico para el reconocimiento del hablaUtilización de trifonemas como modelo acústico para el reconocimiento del habla
Utilización de trifonemas como modelo acústico para el reconocimiento del habla
 
Modelos Ocultos de Márkov presentación
Modelos Ocultos de Márkov presentaciónModelos Ocultos de Márkov presentación
Modelos Ocultos de Márkov presentación
 
Detección y corrección de errores
Detección y corrección de erroresDetección y corrección de errores
Detección y corrección de errores
 
Modelos Oculto de Markov - Problemas de entrenamiento
Modelos Oculto de Markov - Problemas de entrenamientoModelos Oculto de Markov - Problemas de entrenamiento
Modelos Oculto de Markov - Problemas de entrenamiento
 
Reconocimiento de voz
Reconocimiento de vozReconocimiento de voz
Reconocimiento de voz
 
Modelos Ocultos De Markov
Modelos Ocultos De MarkovModelos Ocultos De Markov
Modelos Ocultos De Markov
 
Deteccion Y Control De
Deteccion Y Control DeDeteccion Y Control De
Deteccion Y Control De
 
Codificación convolucional
Codificación convolucionalCodificación convolucional
Codificación convolucional
 
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo CódigoCodificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
 
Trellis Y Viterbi
Trellis Y ViterbiTrellis Y Viterbi
Trellis Y Viterbi
 

Similar a Modelos Ocultos De Markov

SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
Edinsonorozcoaponte
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
paquitootd
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
Alvaro Gil
 
numerosAleatorios.pptx
numerosAleatorios.pptxnumerosAleatorios.pptx
numerosAleatorios.pptx
BetsabeMilagros1
 
Metodos de monte carlo en mecánica estadistica
Metodos de monte carlo en mecánica estadisticaMetodos de monte carlo en mecánica estadistica
Metodos de monte carlo en mecánica estadistica
Alejandro Claro Mosqueda
 
Aplicación de la matriceses
Aplicación de la matriceses Aplicación de la matriceses
Aplicación de la matriceses
FernandaMoralesMoren
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con Eviews
Rodrigo Paniagua
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markov
Fabian Velazquez
 
Ejmarkov
EjmarkovEjmarkov
Ejmarkov
Mike Snow
 
Propiedades mco
Propiedades mcoPropiedades mco
Propiedades mco
jecuy
 
Post Del 2 Bibimwestre
Post Del 2 BibimwestrePost Del 2 Bibimwestre
Post Del 2 Bibimwestre
rodrigo.granda209
 
Post Del 2 Bibimwestre
Post Del 2 BibimwestrePost Del 2 Bibimwestre
Post Del 2 Bibimwestre
rodrigo.granda209
 
Algoritmos Voraces (Greedy)
Algoritmos Voraces (Greedy)Algoritmos Voraces (Greedy)
Algoritmos Voraces (Greedy)
luzenith_g
 
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Rubén Colomina Citoler
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
Adriana Avila
 
Modelo Markov
Modelo MarkovModelo Markov
Modelo Markov
Adriana Avila
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
guest3066cc
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
Adriana Avila
 
Simulacion uam
Simulacion uamSimulacion uam
Cadenas de Markov
Cadenas de MarkovCadenas de Markov
Cadenas de Markov
NievesCursoCYL
 

Similar a Modelos Ocultos De Markov (20)

SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
 
numerosAleatorios.pptx
numerosAleatorios.pptxnumerosAleatorios.pptx
numerosAleatorios.pptx
 
Metodos de monte carlo en mecánica estadistica
Metodos de monte carlo en mecánica estadisticaMetodos de monte carlo en mecánica estadistica
Metodos de monte carlo en mecánica estadistica
 
Aplicación de la matriceses
Aplicación de la matriceses Aplicación de la matriceses
Aplicación de la matriceses
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con Eviews
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markov
 
Ejmarkov
EjmarkovEjmarkov
Ejmarkov
 
Propiedades mco
Propiedades mcoPropiedades mco
Propiedades mco
 
Post Del 2 Bibimwestre
Post Del 2 BibimwestrePost Del 2 Bibimwestre
Post Del 2 Bibimwestre
 
Post Del 2 Bibimwestre
Post Del 2 BibimwestrePost Del 2 Bibimwestre
Post Del 2 Bibimwestre
 
Algoritmos Voraces (Greedy)
Algoritmos Voraces (Greedy)Algoritmos Voraces (Greedy)
Algoritmos Voraces (Greedy)
 
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
 
Modelo Markov
Modelo MarkovModelo Markov
Modelo Markov
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
 
Simulacion uam
Simulacion uamSimulacion uam
Simulacion uam
 
Cadenas de Markov
Cadenas de MarkovCadenas de Markov
Cadenas de Markov
 

Último

Revista Universidad de Deusto - Número 155 / Año 2024
Revista Universidad de Deusto - Número 155 / Año 2024Revista Universidad de Deusto - Número 155 / Año 2024
Revista Universidad de Deusto - Número 155 / Año 2024
Universidad de Deusto - Deustuko Unibertsitatea - University of Deusto
 
Taller intensivo de formación continua. Puebla.
Taller intensivo de formación continua. Puebla.Taller intensivo de formación continua. Puebla.
Taller intensivo de formación continua. Puebla.
OscarCruzyCruz
 
Informe de Evaluacion Diagnostica de Matematica 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Matematica 1-5 Ccesa007.pdfInforme de Evaluacion Diagnostica de Matematica 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Matematica 1-5 Ccesa007.pdf
Demetrio Ccesa Rayme
 
Reglamento del salón - Intensa-mente.pdf
Reglamento del salón - Intensa-mente.pdfReglamento del salón - Intensa-mente.pdf
Reglamento del salón - Intensa-mente.pdf
Adri G Ch
 
Lec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdfLec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdf
Alejandrino Halire Ccahuana
 
Introducción a la seguridad básica (3 de julio de 2024)
Introducción a la seguridad básica (3 de julio de 2024)Introducción a la seguridad básica (3 de julio de 2024)
Introducción a la seguridad básica (3 de julio de 2024)
Cátedra Banco Santander
 
Los Formularios de Google: creación, gestión y administración de respuestas (...
Los Formularios de Google: creación, gestión y administración de respuestas (...Los Formularios de Google: creación, gestión y administración de respuestas (...
Los Formularios de Google: creación, gestión y administración de respuestas (...
Cátedra Banco Santander
 
Introducción a los Sistemas Integrados de Gestión
Introducción a los Sistemas Integrados de GestiónIntroducción a los Sistemas Integrados de Gestión
Introducción a los Sistemas Integrados de Gestión
JonathanCovena1
 
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdfInforme de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Demetrio Ccesa Rayme
 
Un clavado a tu cerebro - Doctor Eduardo Calixto
Un clavado a tu cerebro - Doctor Eduardo CalixtoUn clavado a tu cerebro - Doctor Eduardo Calixto
Un clavado a tu cerebro - Doctor Eduardo Calixto
XymbyAustin
 
Toxina Botulínica (Botox)
Toxina Botulínica (Botox)Toxina Botulínica (Botox)
Toxina Botulínica (Botox)
Edwin Daniel Maldonado Domínguez
 
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLAACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
JAVIER SOLIS NOYOLA
 
6°_GRADO_-_ACTIVIDAD_DEL_08_DE_JULIO.doc
6°_GRADO_-_ACTIVIDAD_DEL_08_DE_JULIO.doc6°_GRADO_-_ACTIVIDAD_DEL_08_DE_JULIO.doc
6°_GRADO_-_ACTIVIDAD_DEL_08_DE_JULIO.doc
Gina Quezada Sanchez
 
Introducción a las herramientas de Google Apps (3 de julio de 2024)
Introducción a las herramientas de Google Apps (3 de julio de 2024)Introducción a las herramientas de Google Apps (3 de julio de 2024)
Introducción a las herramientas de Google Apps (3 de julio de 2024)
Cátedra Banco Santander
 
Filigramma #17, revista literaria del Círculo de Escritores Sabersinfin
Filigramma #17, revista literaria del Círculo de Escritores SabersinfinFiligramma #17, revista literaria del Círculo de Escritores Sabersinfin
Filigramma #17, revista literaria del Círculo de Escritores Sabersinfin
Sabersinfin Portal
 
diapositivas paco yunque.pptx cartelera literaria
diapositivas paco yunque.pptx cartelera literariadiapositivas paco yunque.pptx cartelera literaria
diapositivas paco yunque.pptx cartelera literaria
TheeffitaSantosMedin
 
CUESTIONARIO.METROLOGIA GRADOSANTA TERERSA DE JESUS11pptx
CUESTIONARIO.METROLOGIA GRADOSANTA TERERSA DE JESUS11pptxCUESTIONARIO.METROLOGIA GRADOSANTA TERERSA DE JESUS11pptx
CUESTIONARIO.METROLOGIA GRADOSANTA TERERSA DE JESUS11pptx
nelsontobontrujillo
 
Flipped Classroom con TIC (1 de julio de 2024)
Flipped Classroom con TIC (1 de julio de 2024)Flipped Classroom con TIC (1 de julio de 2024)
Flipped Classroom con TIC (1 de julio de 2024)
Cátedra Banco Santander
 
Plataformas de vídeo online (2 de julio de 2024)
Plataformas de vídeo online (2 de julio de 2024)Plataformas de vídeo online (2 de julio de 2024)
Plataformas de vídeo online (2 de julio de 2024)
Cátedra Banco Santander
 
PPT: Un día en el ministerio de Jesús.pptx
PPT: Un día en el ministerio de Jesús.pptxPPT: Un día en el ministerio de Jesús.pptx
PPT: Un día en el ministerio de Jesús.pptx
https://gramadal.wordpress.com/
 

Último (20)

Revista Universidad de Deusto - Número 155 / Año 2024
Revista Universidad de Deusto - Número 155 / Año 2024Revista Universidad de Deusto - Número 155 / Año 2024
Revista Universidad de Deusto - Número 155 / Año 2024
 
Taller intensivo de formación continua. Puebla.
Taller intensivo de formación continua. Puebla.Taller intensivo de formación continua. Puebla.
Taller intensivo de formación continua. Puebla.
 
Informe de Evaluacion Diagnostica de Matematica 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Matematica 1-5 Ccesa007.pdfInforme de Evaluacion Diagnostica de Matematica 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Matematica 1-5 Ccesa007.pdf
 
Reglamento del salón - Intensa-mente.pdf
Reglamento del salón - Intensa-mente.pdfReglamento del salón - Intensa-mente.pdf
Reglamento del salón - Intensa-mente.pdf
 
Lec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdfLec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdf
 
Introducción a la seguridad básica (3 de julio de 2024)
Introducción a la seguridad básica (3 de julio de 2024)Introducción a la seguridad básica (3 de julio de 2024)
Introducción a la seguridad básica (3 de julio de 2024)
 
Los Formularios de Google: creación, gestión y administración de respuestas (...
Los Formularios de Google: creación, gestión y administración de respuestas (...Los Formularios de Google: creación, gestión y administración de respuestas (...
Los Formularios de Google: creación, gestión y administración de respuestas (...
 
Introducción a los Sistemas Integrados de Gestión
Introducción a los Sistemas Integrados de GestiónIntroducción a los Sistemas Integrados de Gestión
Introducción a los Sistemas Integrados de Gestión
 
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdfInforme de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
 
Un clavado a tu cerebro - Doctor Eduardo Calixto
Un clavado a tu cerebro - Doctor Eduardo CalixtoUn clavado a tu cerebro - Doctor Eduardo Calixto
Un clavado a tu cerebro - Doctor Eduardo Calixto
 
Toxina Botulínica (Botox)
Toxina Botulínica (Botox)Toxina Botulínica (Botox)
Toxina Botulínica (Botox)
 
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLAACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
 
6°_GRADO_-_ACTIVIDAD_DEL_08_DE_JULIO.doc
6°_GRADO_-_ACTIVIDAD_DEL_08_DE_JULIO.doc6°_GRADO_-_ACTIVIDAD_DEL_08_DE_JULIO.doc
6°_GRADO_-_ACTIVIDAD_DEL_08_DE_JULIO.doc
 
Introducción a las herramientas de Google Apps (3 de julio de 2024)
Introducción a las herramientas de Google Apps (3 de julio de 2024)Introducción a las herramientas de Google Apps (3 de julio de 2024)
Introducción a las herramientas de Google Apps (3 de julio de 2024)
 
Filigramma #17, revista literaria del Círculo de Escritores Sabersinfin
Filigramma #17, revista literaria del Círculo de Escritores SabersinfinFiligramma #17, revista literaria del Círculo de Escritores Sabersinfin
Filigramma #17, revista literaria del Círculo de Escritores Sabersinfin
 
diapositivas paco yunque.pptx cartelera literaria
diapositivas paco yunque.pptx cartelera literariadiapositivas paco yunque.pptx cartelera literaria
diapositivas paco yunque.pptx cartelera literaria
 
CUESTIONARIO.METROLOGIA GRADOSANTA TERERSA DE JESUS11pptx
CUESTIONARIO.METROLOGIA GRADOSANTA TERERSA DE JESUS11pptxCUESTIONARIO.METROLOGIA GRADOSANTA TERERSA DE JESUS11pptx
CUESTIONARIO.METROLOGIA GRADOSANTA TERERSA DE JESUS11pptx
 
Flipped Classroom con TIC (1 de julio de 2024)
Flipped Classroom con TIC (1 de julio de 2024)Flipped Classroom con TIC (1 de julio de 2024)
Flipped Classroom con TIC (1 de julio de 2024)
 
Plataformas de vídeo online (2 de julio de 2024)
Plataformas de vídeo online (2 de julio de 2024)Plataformas de vídeo online (2 de julio de 2024)
Plataformas de vídeo online (2 de julio de 2024)
 
PPT: Un día en el ministerio de Jesús.pptx
PPT: Un día en el ministerio de Jesús.pptxPPT: Un día en el ministerio de Jesús.pptx
PPT: Un día en el ministerio de Jesús.pptx
 

Modelos Ocultos De Markov

  • 1. MODELOS OCULTOS DE MARKOV Adriana Becerra A. Marcela Gómez Byron Macas Fernanda Ordóñez ABE – MGO – BMA – FOR IAA – ECC – UTPL – 2009
  • 2. Definición  Un modelo oculto de Markov o HMM (por sus siglas del inglés, Hidden Markov Model), es un proceso por el cual se observa el comportamiento del sistema de manera indirecta pues los estados del mismo permanecen ocultos para el observador. x — estados ocultos y — salidas observables a — probabilidades de transición b — probabilidades de salida Describen un proceso de probabilidad el cual produce una secuencia de eventos simbólicos observables.
  • 3. Descripción del modelo  Un HMM se caracteriza por un conjunto de parámetros λ = (A,B, Π)  Matriz A. Matriz de transición de probabilidades.  Matriz B. Matriz de probabilidad de salida.  Vector π. Representa la distribución inicial de los estados.
  • 4. Arquitectura de los HMM  Esta arquitectura se da de acuerdo al número de estados que lo componen y las transiciones permitidas entre dichos estados. Los principales modelos existentes son:  Modelos de izquierda a derecha  Modelos ergódicos.
  • 5. Modelos de izquierda a derecha  Los elementos de la matriz de probabilidades de transición A deben cumplir la siguiente condición: aij = 0 j <i , es decir , si en el instante t, el modelo se encuentra en el estado i-ésimo, en el siguiente instante de tiempo, t+1, el modelo permanecerá en el mismo estado con probabilidad aii, o bien el modelo pasará al estado j-ésimo (j>i) con probabilidad a ij. Esta configuración de la matriz de transiciones A da lugar a modelos con arquitecturas que se denominan de izquierda a derecha.
  • 6. Modelos de izquierda a derecha (2)  Como se muestra en la figura 1, el estado 1 (estado inicial) y el 3 (estado final) se denominan no emisores y las flechas en líneas continuas indican las posibles transiciones entre estados. Podemos notar la particularidad de que las transiciones se dan solamente de izquierda a derecha.
  • 7. Modelos Ergódicos  Pueden evolucionar desde cualquier estado a otro en un número finito de transiciones, todas las transiciones son posibles.
  • 8. Tipos de Modelos Ocultos de Markov  HMM Discretos  HMM Continuos y  HMM Semicontinuos
  • 9. Tipos de HMM (2)  HMM discretos  Aquí las observaciones son vectores de símbolos de un alfabeto finito con M + 1 elementos diferentes, cada uno denominado codeward, que se agrupan en un codebook, V = {v0,.....,vm}.  La distribución de probabilidad de un símbolo entonces se define como B = {bj (k)} donde b PY v X s j(k) = ( t = k | t = j)  es la probabilidad de observación del codebook vk
  • 10. Tipos de HMM (3)  HMM contínuos  Aquí se asume que las distribuciones de los símbolos observables son densidades de probabilidad definidas sobre espacios de observación contínuos.  La forma mas extendida de distribución es la de una mezcla de funciones de densidad de tipo gaussiano.
  • 11. Tipos de HMM (4)  HMM semicontinuos   Al igual que los continuos se modelan a partir de un conjunto de mezclas de funciones de densidad de probabilidad gaussiana.  La principal diferencia radica en que las funciones base son comunes o todos los modelos, como ocurre en el caso de los modelos discretos donde existe un codebook común a todos ellos.
  • 12. Problemas básicos de los HMMs  Problema de evaluación  Problema de la decodificación  Problema del Entrenamiento
  • 13. Primer Problema Básico: Problema de evaluación  Consiste en calcular la probabilidad de la secuencia de observación O = (o1o2 ... oT ) , dado el modelo l , es decir, P(O|l) . La forma más simple de resolver el problema 1 consiste en enumerar todas las posibles secuencias de estado de longitud T  Forward algorithm  Backward algorithm
  • 14. Segundo Problema Básico: Problema de decodificación  Determinar la secuencia de estado del modelo dada una secuencia de simbolos  Optimalidad de Bellman  Algoritmo de Viterbi
  • 15. Tercer Problema Básico: Problema del Entrenamiento  Se rige principalmente en la secuencia de estados más probables, entre las secuencias más comunes para esta comparación están los patrones, perfiles y HMMs  Algoritmo Expectation Maximization (EM)  Algritmo de Baum - Welch  Algoritmo de Viterbi
  • 16. Algoritmo EM  Se utiliza para encontrar, en cada paso una estimación del conjunto de parámetros del modelo, para luego, tratar de maximizar la probabilidad de generación de los datos de entrenamiento, de forma que la probabilidad asociada al nuevo modelo sea mayor o igual a la del modelo anterior.
  • 17. Algoritmo EM  Dada una estimación inicial de los parámetros obtener la verosimilitud  de una secuencia y después utilizarla para reestimar los parámetros.
  • 19. Algoritmo de Viterbi  El algoritmo de Viterbi permite encontrar las secuencia de estados más probable en un Modelo oculto de Markov, S=(q1,q2, ..., qT), a partir de una observación O=(o1,o2,..., oT), es decir, obtiene la secuencia óptima que mejor explica la secuencia de observaciones.
  • 20. Algoritmo de Viterbi  Inicio. T=0. Se calcula para cada estado Sj con j=1,2, .. N, la probabilidad maxima. Inicialmente , se considera que no existen supervivientes.  Paso de recursion. Se calcula la probabilidad maxima en el siguiente instante de tiempo , t+1, en función de la probabilidad maxima en el instante anterior
  • 21. Algoritmo de Viterbi  Se guardan los supervivientes para cada estado.  Si t < T, siendo T el número máximo de símbolos emitidos, se incrementa t=t+1 y se vuelve al paso de recursion . En caso contrario, el algoritmo finaliza  Finalización. Se calcula la probabilidad maxima y su estado óptimo correspondiente
  • 22. Algoritmo de Viterbi  Finalmente, la secuencia de estados que proporciona la mayor probabilidad (o camino óptimo), dada una secuencia de símbolos.
  • 23. Aplicación del Algoritmo Vitervi  Una de las aplicaciones del algoritmo de Viterbi es la desambiguación léxica categorial  Los elementos de un MOM serían:  El conjunto Q de estados sería el conjunto de posibles etiquetas (categorías gramaticales) para las palabras.  El conjunto V de observables en cada uno de los estados corresponde con el conjunto de palabras distintas.  El conjunto A de probabilidades de transiciones entre estados sería la probabilidad de que una determinada categoría categorial siga a otra. Por ejemplo, la probabilidad de que la categoría nombre vaya detrás de la categoría determinante.  El conjunto B de probabilidades de las observaciones correspondería con la probabilidad de pertenencia de una palabra (un observable) a una determinada categoría. Por ejemplo, la probabilidad de que la palabra casa sea verbo, que será menor que la probabilidad de que esta misma palabra tenga la categoría gramatical nombre.
  • 24. Aplicaciones en reconocimiento de gestos  Definicion de estados:  Para los ojos:cerrado. Semicerrado y abierto  Para la apertura de la boca: abierta, semiabierta y cerrada  Para el estiramiento de la boca: estirada, semiestirada y encogida.
  • 25. Reconocimiento de gestos  Se capturan observaciones de cada tipo (boca y ojos) y se efectúa el entrenamiento.
  • 26. Reconocimiento de gestos  A partir de la información anterior se pueden reconocer los siguientes gestos:
  • 27. Las tres grandes preguntas sobre HMMs  Evaluación DADO un HMM M, y una secuencia x, ENCUENTRE Prob[ x | M ]  Decodificación DADO un HMM M, y una secuencia x, ENCUENTRE la secuencia de estados que maximiza P[ x, | M ] Aprendizaje DADOS un HMM M, con probs transición/emisión desconocidas, y una secuencia x, ENCUENTRE los parámetros = (ei(.), aij) que maximizan P[ x | ]
  • 28. Ejemplo: El Casino deshonesto Un casino tiene dos dados:  Dado “justo” P(1) = P(2) = P(3) = P(5) = P(6) = 1/6  Dado cargado P(1) = P(2) = P(3) = P(5) = 1/10 P(6) = 1/2 El casino alterna entre el dado justo y el cargado una vez cada 20 turnos Juego: 1. Apostamos $1 2. Tiramos (siempre con un dado justo) 3. El Casino tira (tal vez con un dado justo, tal vez con uno cargado) 4. EL número mas alto gana $2
  • 29. Pregunta # 1 – Evaluación Dada Una secuencia de tiradas del casino 1245526462146146136136661664661636616366163616515615115146123562344 PREGUNTA ¿Cuan probable es esta secuencia, dado nuestro modelo de como opera el casino? Este es el problema de EVALUACIÓN en HMMs
  • 30. Pregunta # 2 – Decodificación Dada Una secuencia de tiradas del casino 1245526462146146136136661664661636616366163616515615115146123562344 PREGUNTA ¿Que partes de la secuencia fueron generadas por el dado cargado y cuales por el dado justo? Este es el problema de DECODIFICACIÓN en HMMs
  • 31. Pregunta # 3 – Aprendizaje Dada Una secuencia de tiradas del casino 1245526462146146136136661664661636616366163616515615115146123562344 PREGUNTA ¿Cómo está cargado el dado cargado? ¿Cada cuanto cambia el casino entre el dado cargado y el justo? Este es el problema de APRENDIZAJE en HMMs
  • 32. El HMM del casino deshonesto 0.95 0.05 0.95 CARGAD JUSTO O P(1|F) = 1/6 P(1|L) = 1/10 0.05 P(2|F) = 1/6 P(2|L) = 1/10 P(3|F) = 1/6 P(3|L) = 1/10 P(4|F) = 1/6 P(4|L) = 1/10 P(5|F) = 1/6 P(5|L) = 1/10 P(6|F) = 1/6 P(6|L) = 1/2
  • 33. Ejemplo: El casino deshonesto Imaginemos que la secuencia de dados es: x = 1, 2, 1, 5, 6, 2, 1, 6, 2, 4 (secuen. mod) Entonces, cuan probable es = justo, justo, justo, justo, justo, justo, justo, justo, justo, justo? (imaginemos inicialmente prob. iguales a0justo = ½, aoCargado = ½) ½ P(1 | justo) P(justo | justo) P(2 | justo) P(justo | justo) … P(4 | justo) = ½ (1/6)10 (0.95)9 = 0,00000000521158647211 = 0.5 10-9
  • 34. Ejemplo: El casino deshonesto Entonces, la probabilidad de que el dado sea justo En toda la corrida es solamente 0.521 10-9 Pero…¿Cual es la probabilidad de = Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado? ½ P(1 | Cargado) P(Cargado, Cargado) … P(4 | Cargado) = ½ (1/10)8 (1/2)2 (0.95)9 = 0,00000000078781176215 = 7.9 10-10 Sumando probabilidades nos da 0.599 + 6 Entonces, despues de todo es 6.59 veces mas probable que el dado haya sido siempre justo, a que haya sido siempre deshonesto o cargado.