SlideShare una empresa de Scribd logo
MODELOS OCULTOS DE
     MARKOV



                        Adriana Becerra A.
                         Marcela Gómez
                           Byron Macas
                        Fernanda Ordóñez



ABE – MGO – BMA – FOR                        IAA – ECC – UTPL – 2009
Definición
 Un modelo oculto de Markov o HMM (por sus siglas del
  inglés, Hidden Markov Model), es un proceso por el cual
  se observa el comportamiento del sistema de manera
  indirecta pues los estados del mismo permanecen
  ocultos para el observador.
                          x — estados ocultos
                          y — salidas observables
                          a — probabilidades de transición
                          b — probabilidades de salida


    Describen un proceso de probabilidad el cual produce
    una secuencia de eventos simbólicos observables.
Descripción del modelo

 Un HMM se caracteriza por un conjunto de
  parámetros
                 λ = (A,B, Π)

 Matriz A. Matriz de transición de
  probabilidades.
 Matriz B. Matriz de probabilidad de salida.
 Vector π. Representa la distribución inicial de
  los estados.
Arquitectura de los HMM

 Esta arquitectura se da de acuerdo al número
  de estados que lo componen y las
  transiciones permitidas entre dichos estados.
  Los principales modelos existentes son:

 Modelos de izquierda a derecha
 Modelos ergódicos.
Modelos de izquierda a
derecha
 Los elementos de la matriz de probabilidades de
  transición A deben cumplir la siguiente
  condición: aij = 0 j <i , es decir , si en el instante
  t, el modelo se encuentra en el estado i-ésimo,
  en el siguiente instante de tiempo, t+1, el
  modelo permanecerá en el mismo estado con
  probabilidad aii, o bien el modelo pasará al
  estado j-ésimo (j>i) con probabilidad a ij. Esta
  configuración de la matriz de transiciones A da
  lugar a modelos con arquitecturas que se
  denominan de izquierda a derecha.
Modelos de izquierda a
derecha (2)



 Como se muestra en la figura 1, el estado 1 (estado
  inicial) y el 3 (estado final) se denominan no
  emisores y las flechas en líneas continuas indican
  las posibles transiciones entre estados. Podemos
  notar la particularidad de que las transiciones se
  dan solamente de izquierda a derecha.
Modelos Ergódicos




 Pueden evolucionar desde cualquier estado a
  otro en un número finito de transiciones,
  todas las transiciones son posibles.
Tipos de Modelos Ocultos de
Markov

 HMM Discretos
 HMM Continuos y
 HMM Semicontinuos
Tipos de HMM (2)

 HMM discretos

 Aquí las observaciones son vectores de símbolos de
  un alfabeto finito con M + 1 elementos diferentes,
  cada uno denominado codeward, que se agrupan en
  un codebook, V = {v0,.....,vm}.
 La distribución de probabilidad de un símbolo
  entonces se define como B = {bj (k)} donde

           b      PY v X s
            j(k) = ( t = k | t = j)


 es la probabilidad de observación del codebook vk
Tipos de HMM (3)

 HMM contínuos


 Aquí se asume que las distribuciones de los
  símbolos observables son densidades de
  probabilidad definidas sobre espacios de
  observación contínuos.
 La forma mas extendida de distribución es la
  de una mezcla de funciones de densidad de
  tipo gaussiano.
Tipos de HMM (4)

 HMM semicontinuos

 Al igual que los continuos se modelan a partir de
  un conjunto de mezclas de funciones de
  densidad de probabilidad gaussiana.
 La principal diferencia radica en que las
  funciones base son comunes o todos los
  modelos, como ocurre en el caso de los modelos
  discretos donde existe un codebook común a
  todos ellos.
Problemas básicos de los
HMMs

 Problema de evaluación
 Problema de la decodificación
 Problema del Entrenamiento
Primer Problema Básico:
Problema de evaluación
 Consiste en calcular la probabilidad de la
  secuencia de observación O = (o1o2 ... oT ) ,
  dado el modelo l , es decir, P(O|l) . La forma
  más simple de resolver el problema 1 consiste
  en enumerar todas las posibles secuencias de
  estado de longitud T
 Forward algorithm
 Backward algorithm
Segundo Problema Básico:
Problema de decodificación


 Determinar la secuencia de estado del
  modelo dada una secuencia de simbolos
 Optimalidad de Bellman
 Algoritmo de Viterbi
Tercer Problema Básico:
Problema del Entrenamiento
 Se rige principalmente en la secuencia de
  estados más probables, entre las secuencias
  más comunes para esta comparación están
  los patrones, perfiles y HMMs
 Algoritmo Expectation Maximization (EM)
 Algritmo de Baum - Welch
 Algoritmo de Viterbi
Algoritmo EM

 Se utiliza para encontrar, en cada paso una
  estimación del conjunto de parámetros del
  modelo, para luego, tratar de maximizar la
  probabilidad de generación de los datos de
  entrenamiento, de forma que la probabilidad
  asociada al nuevo modelo sea mayor o igual a
  la del modelo anterior.
Algoritmo EM

 Dada una estimación inicial de los
  parámetros obtener la verosimilitud
 de una secuencia y después utilizarla para
  reestimar los parámetros.
Algoritmo de Baum-Welch I
Algoritmo de Viterbi

 El algoritmo de Viterbi permite encontrar las
  secuencia de estados más probable en un
  Modelo oculto de Markov, S=(q1,q2, ..., qT), a
  partir de una observación O=(o1,o2,..., oT), es
  decir, obtiene la secuencia óptima que mejor
  explica la secuencia de observaciones.
Algoritmo de Viterbi

 Inicio. T=0. Se calcula para cada estado Sj con
  j=1,2, .. N, la probabilidad maxima.
  Inicialmente , se considera que no existen
  supervivientes.
 Paso de recursion. Se calcula la probabilidad
  maxima en el siguiente instante de tiempo ,
  t+1, en función de la probabilidad maxima en
  el instante anterior
Algoritmo de Viterbi

 Se guardan los supervivientes para cada
  estado.
 Si t < T, siendo T el número máximo de
  símbolos emitidos, se incrementa t=t+1 y se
  vuelve al paso de recursion . En caso
  contrario, el algoritmo finaliza
 Finalización. Se calcula la probabilidad
  maxima y su estado óptimo correspondiente
Algoritmo de Viterbi

 Finalmente, la secuencia de estados que
 proporciona la mayor probabilidad (o camino
 óptimo), dada una secuencia de símbolos.
Aplicación del Algoritmo
Vitervi
 Una de las aplicaciones del algoritmo de Viterbi es                      la
  desambiguación léxica categorial
 Los elementos de un MOM serían:
    El conjunto Q de estados sería el conjunto de posibles etiquetas
     (categorías gramaticales) para las palabras.
    El conjunto V de observables en cada uno de los estados corresponde
     con el conjunto de palabras distintas.
    El conjunto A de probabilidades de transiciones entre estados sería la
     probabilidad de que una determinada categoría categorial siga a otra.
     Por ejemplo, la probabilidad de que la categoría nombre vaya detrás de la
     categoría determinante.
    El conjunto B de probabilidades de las observaciones correspondería con
     la probabilidad de pertenencia de una palabra (un observable) a una
     determinada categoría. Por ejemplo, la probabilidad de que la palabra
     casa sea verbo, que será menor que la probabilidad de que esta misma
     palabra tenga la categoría gramatical nombre.
Aplicaciones en
reconocimiento de gestos
 Definicion de estados:
 Para los ojos:cerrado. Semicerrado y abierto
 Para la apertura de la boca: abierta,
  semiabierta y cerrada
 Para el estiramiento de la boca: estirada,
  semiestirada y encogida.
Reconocimiento de gestos

 Se capturan observaciones de cada tipo (boca
  y ojos) y se efectúa el entrenamiento.
Reconocimiento de gestos

 A partir de la información anterior se pueden
  reconocer los siguientes gestos:
Las tres grandes preguntas sobre HMMs


 Evaluación
  DADO un HMM M, y una secuencia x,
  ENCUENTRE  Prob[ x | M ]


 Decodificación
  DADO un HMM M, y una secuencia x,
  ENCUENTRE  la secuencia de estados que maximiza P[ x, | M ]

  Aprendizaje
  DADOS un HMM M, con probs transición/emisión desconocidas,
      y una secuencia x,
  ENCUENTRE los parámetros = (ei(.), aij) que maximizan P[ x | ]
Ejemplo: El Casino deshonesto

Un casino tiene dos dados:
 Dado “justo”
    P(1) = P(2) = P(3) = P(5) = P(6) = 1/6
 Dado cargado
    P(1) = P(2) = P(3) = P(5) = 1/10
    P(6) = 1/2
El casino alterna entre el dado justo y el
    cargado una vez cada 20 turnos

Juego:
1. Apostamos $1
2. Tiramos (siempre con un dado justo)
3. El Casino tira (tal vez con un dado
   justo, tal vez con uno cargado)
4. EL número mas alto gana $2
Pregunta # 1 – Evaluación

 Dada

 Una secuencia de tiradas del casino

 1245526462146146136136661664661636616366163616515615115146123562344



 PREGUNTA

 ¿Cuan probable es esta secuencia, dado nuestro modelo de
   como opera el casino?

 Este es el problema de EVALUACIÓN en HMMs
Pregunta # 2 – Decodificación

 Dada

 Una secuencia de tiradas del casino

 1245526462146146136136661664661636616366163616515615115146123562344



 PREGUNTA

 ¿Que partes de la secuencia fueron generadas por el dado
   cargado y cuales por el dado justo?

 Este es el problema de DECODIFICACIÓN en HMMs
Pregunta # 3 – Aprendizaje

 Dada

 Una secuencia de tiradas del casino

 1245526462146146136136661664661636616366163616515615115146123562344



 PREGUNTA

 ¿Cómo está cargado el dado cargado? ¿Cada cuanto cambia el
   casino entre el dado cargado y el justo?

 Este es el problema de APRENDIZAJE en HMMs
El HMM del casino deshonesto


   0.95                0.05
                                        0.95

                              CARGAD
               JUSTO            O



P(1|F) = 1/6                      P(1|L) = 1/10
                       0.05
P(2|F) = 1/6                      P(2|L) = 1/10
P(3|F) = 1/6                      P(3|L) = 1/10
P(4|F) = 1/6                      P(4|L) = 1/10
P(5|F) = 1/6                      P(5|L) = 1/10
P(6|F) = 1/6                      P(6|L) = 1/2
Ejemplo: El casino deshonesto
Imaginemos que la secuencia de dados es:

x = 1, 2, 1, 5, 6, 2, 1, 6, 2, 4 (secuen. mod)

Entonces, cuan probable es

   = justo, justo, justo, justo, justo, justo, justo, justo, justo, justo?

(imaginemos inicialmente prob. iguales a0justo = ½, aoCargado = ½)

½ P(1 | justo) P(justo | justo) P(2 | justo) P(justo | justo) … P(4 |
 justo) =

½ (1/6)10 (0.95)9 = 0,00000000521158647211 = 0.5 10-9
Ejemplo: El casino deshonesto

Entonces, la probabilidad de que el dado sea justo
En toda la corrida es solamente 0.521 10-9

Pero…¿Cual es la probabilidad de

    = Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado,
    Cargado, Cargado, Cargado?

½ P(1 | Cargado) P(Cargado, Cargado) … P(4 | Cargado) =

½ (1/10)8 (1/2)2 (0.95)9 = 0,00000000078781176215 = 7.9 10-10
Sumando probabilidades nos da 0.599 +   6

Entonces, despues de todo es 6.59 veces mas probable que el dado haya sido
   siempre justo, a que haya sido siempre deshonesto o cargado.
GRACIAS…

Más contenido relacionado

La actualidad más candente

Bloqueos mutuos
Bloqueos mutuosBloqueos mutuos
Bloqueos mutuos
ozkar21
 
Búsqueda secuencial y binaria
Búsqueda secuencial y binariaBúsqueda secuencial y binaria
Búsqueda secuencial y binaria
Alvaro Enrique Ruano
 
Automatas finitos
Automatas finitosAutomatas finitos
Automatas finitos
Oscar Eduardo
 
Java Threads (Hilos en Java)
Java Threads (Hilos en Java)Java Threads (Hilos en Java)
Java Threads (Hilos en Java)
José Guillermo Cemé Canul
 
TRABAJO-TEMA-01.docx
TRABAJO-TEMA-01.docxTRABAJO-TEMA-01.docx
TRABAJO-TEMA-01.docx
HubertMezaRamos
 
Expresiones regulares
Expresiones regularesExpresiones regulares
Expresiones regulares
Rennytox Hernandez
 
Lógica de predicado de primer orden y orden
Lógica de predicado de primer orden y ordenLógica de predicado de primer orden y orden
Lógica de predicado de primer orden y orden
Facultad de Ciencias y Sistemas
 
CODIGO DE HUFFMAN
CODIGO DE HUFFMANCODIGO DE HUFFMAN
CODIGO DE HUFFMAN
Gustavo Salazar Loor
 
Evaluación de expresiones - Método divide y vencerás
Evaluación de expresiones - Método divide y vencerás Evaluación de expresiones - Método divide y vencerás
Evaluación de expresiones - Método divide y vencerás
lensen
 
Simulación - Algoritmo de productos medios
Simulación - Algoritmo de productos mediosSimulación - Algoritmo de productos medios
Simulación - Algoritmo de productos medios
José Antonio Sandoval Acosta
 
Java io
Java ioJava io
Unidad III procedimientos
Unidad III procedimientosUnidad III procedimientos
Unidad III procedimientos
aaronastorga4
 
Componentes y evolucion del modelado de negocios(investigacion)
Componentes y evolucion del modelado de negocios(investigacion)Componentes y evolucion del modelado de negocios(investigacion)
Componentes y evolucion del modelado de negocios(investigacion)
Anel Sosa
 
Analisis Algoritmo
Analisis AlgoritmoAnalisis Algoritmo
Analisis Algoritmo
Esteban Andres Diaz Mina
 
Autómatas y complejidad
Autómatas y complejidadAutómatas y complejidad
Autómatas y complejidad
Renzo Jose Fuentes Ramos
 
Tema 4 Sistemas Basados En Reglas Difusas
Tema 4 Sistemas Basados En Reglas DifusasTema 4 Sistemas Basados En Reglas Difusas
Tema 4 Sistemas Basados En Reglas Difusas
ESCOM
 
Pcm
PcmPcm
Lenguajes no regulares
Lenguajes no regularesLenguajes no regulares
Lenguajes no regulares
Alfredo Armendáriz
 
5 polimorfismo
5 polimorfismo5 polimorfismo

La actualidad más candente (19)

Bloqueos mutuos
Bloqueos mutuosBloqueos mutuos
Bloqueos mutuos
 
Búsqueda secuencial y binaria
Búsqueda secuencial y binariaBúsqueda secuencial y binaria
Búsqueda secuencial y binaria
 
Automatas finitos
Automatas finitosAutomatas finitos
Automatas finitos
 
Java Threads (Hilos en Java)
Java Threads (Hilos en Java)Java Threads (Hilos en Java)
Java Threads (Hilos en Java)
 
TRABAJO-TEMA-01.docx
TRABAJO-TEMA-01.docxTRABAJO-TEMA-01.docx
TRABAJO-TEMA-01.docx
 
Expresiones regulares
Expresiones regularesExpresiones regulares
Expresiones regulares
 
Lógica de predicado de primer orden y orden
Lógica de predicado de primer orden y ordenLógica de predicado de primer orden y orden
Lógica de predicado de primer orden y orden
 
CODIGO DE HUFFMAN
CODIGO DE HUFFMANCODIGO DE HUFFMAN
CODIGO DE HUFFMAN
 
Evaluación de expresiones - Método divide y vencerás
Evaluación de expresiones - Método divide y vencerás Evaluación de expresiones - Método divide y vencerás
Evaluación de expresiones - Método divide y vencerás
 
Simulación - Algoritmo de productos medios
Simulación - Algoritmo de productos mediosSimulación - Algoritmo de productos medios
Simulación - Algoritmo de productos medios
 
Java io
Java ioJava io
Java io
 
Unidad III procedimientos
Unidad III procedimientosUnidad III procedimientos
Unidad III procedimientos
 
Componentes y evolucion del modelado de negocios(investigacion)
Componentes y evolucion del modelado de negocios(investigacion)Componentes y evolucion del modelado de negocios(investigacion)
Componentes y evolucion del modelado de negocios(investigacion)
 
Analisis Algoritmo
Analisis AlgoritmoAnalisis Algoritmo
Analisis Algoritmo
 
Autómatas y complejidad
Autómatas y complejidadAutómatas y complejidad
Autómatas y complejidad
 
Tema 4 Sistemas Basados En Reglas Difusas
Tema 4 Sistemas Basados En Reglas DifusasTema 4 Sistemas Basados En Reglas Difusas
Tema 4 Sistemas Basados En Reglas Difusas
 
Pcm
PcmPcm
Pcm
 
Lenguajes no regulares
Lenguajes no regularesLenguajes no regulares
Lenguajes no regulares
 
5 polimorfismo
5 polimorfismo5 polimorfismo
5 polimorfismo
 

Destacado

Utilización de trifonemas como modelo acústico para el reconocimiento del habla
Utilización de trifonemas como modelo acústico para el reconocimiento del hablaUtilización de trifonemas como modelo acústico para el reconocimiento del habla
Utilización de trifonemas como modelo acústico para el reconocimiento del habla
Daniel Garrido
 
Modelos Ocultos de Márkov presentación
Modelos Ocultos de Márkov presentaciónModelos Ocultos de Márkov presentación
Modelos Ocultos de Márkov presentación
John Diaz
 
Detección y corrección de errores
Detección y corrección de erroresDetección y corrección de errores
Detección y corrección de errores
Arnold Alfonso
 
Modelos Oculto de Markov - Problemas de entrenamiento
Modelos Oculto de Markov - Problemas de entrenamientoModelos Oculto de Markov - Problemas de entrenamiento
Modelos Oculto de Markov - Problemas de entrenamiento
MAC Cartuche
 
Reconocimiento de voz
Reconocimiento de vozReconocimiento de voz
Reconocimiento de voz
Adriana Becerra
 
Modelos Ocultos De Markov
Modelos Ocultos De MarkovModelos Ocultos De Markov
Modelos Ocultos De Markov
Edwin Cuenca
 
Deteccion Y Control De
Deteccion Y Control DeDeteccion Y Control De
Deteccion Y Control De
guestc9b52b
 
Codificación convolucional
Codificación convolucionalCodificación convolucional
Codificación convolucional
Ángel María
 
Metodos de deteccion y correcion de errores
Metodos de deteccion y correcion de erroresMetodos de deteccion y correcion de errores
Metodos de deteccion y correcion de errores
Fernando Luz
 
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo CódigoCodificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
Oscar Javier Jimenez Revelo
 
Trellis Y Viterbi
Trellis Y ViterbiTrellis Y Viterbi

Destacado (11)

Utilización de trifonemas como modelo acústico para el reconocimiento del habla
Utilización de trifonemas como modelo acústico para el reconocimiento del hablaUtilización de trifonemas como modelo acústico para el reconocimiento del habla
Utilización de trifonemas como modelo acústico para el reconocimiento del habla
 
Modelos Ocultos de Márkov presentación
Modelos Ocultos de Márkov presentaciónModelos Ocultos de Márkov presentación
Modelos Ocultos de Márkov presentación
 
Detección y corrección de errores
Detección y corrección de erroresDetección y corrección de errores
Detección y corrección de errores
 
Modelos Oculto de Markov - Problemas de entrenamiento
Modelos Oculto de Markov - Problemas de entrenamientoModelos Oculto de Markov - Problemas de entrenamiento
Modelos Oculto de Markov - Problemas de entrenamiento
 
Reconocimiento de voz
Reconocimiento de vozReconocimiento de voz
Reconocimiento de voz
 
Modelos Ocultos De Markov
Modelos Ocultos De MarkovModelos Ocultos De Markov
Modelos Ocultos De Markov
 
Deteccion Y Control De
Deteccion Y Control DeDeteccion Y Control De
Deteccion Y Control De
 
Codificación convolucional
Codificación convolucionalCodificación convolucional
Codificación convolucional
 
Metodos de deteccion y correcion de errores
Metodos de deteccion y correcion de erroresMetodos de deteccion y correcion de errores
Metodos de deteccion y correcion de errores
 
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo CódigoCodificación Convolucional, Decodificador de Viterbi y Turbo Código
Codificación Convolucional, Decodificador de Viterbi y Turbo Código
 
Trellis Y Viterbi
Trellis Y ViterbiTrellis Y Viterbi
Trellis Y Viterbi
 

Similar a Modelos Ocultos De Markov

SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
Edinsonorozcoaponte
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
paquitootd
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
Alvaro Gil
 
numerosAleatorios.pptx
numerosAleatorios.pptxnumerosAleatorios.pptx
numerosAleatorios.pptx
BetsabeMilagros1
 
Metodos de monte carlo en mecánica estadistica
Metodos de monte carlo en mecánica estadisticaMetodos de monte carlo en mecánica estadistica
Metodos de monte carlo en mecánica estadistica
Alejandro Claro Mosqueda
 
Aplicación de la matriceses
Aplicación de la matriceses Aplicación de la matriceses
Aplicación de la matriceses
FernandaMoralesMoren
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con Eviews
Rodrigo Paniagua
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markov
Fabian Velazquez
 
Ejmarkov
EjmarkovEjmarkov
Ejmarkov
Mike Snow
 
Propiedades mco
Propiedades mcoPropiedades mco
Propiedades mco
jecuy
 
Post Del 2 Bibimwestre
Post Del 2 BibimwestrePost Del 2 Bibimwestre
Post Del 2 Bibimwestre
rodrigo.granda209
 
Post Del 2 Bibimwestre
Post Del 2 BibimwestrePost Del 2 Bibimwestre
Post Del 2 Bibimwestre
rodrigo.granda209
 
Algoritmos Voraces (Greedy)
Algoritmos Voraces (Greedy)Algoritmos Voraces (Greedy)
Algoritmos Voraces (Greedy)
luzenith_g
 
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Rubén Colomina Citoler
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
guest3066cc
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
Adriana Avila
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
Adriana Avila
 
Modelo Markov
Modelo MarkovModelo Markov
Modelo Markov
Adriana Avila
 
Simulacion uam
Simulacion uamSimulacion uam
Cadenas de Markov
Cadenas de MarkovCadenas de Markov
Cadenas de Markov
NievesCursoCYL
 

Similar a Modelos Ocultos De Markov (20)

SESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptxSESION4_CADENA_DE_MARKOV.pptx
SESION4_CADENA_DE_MARKOV.pptx
 
Estadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De OperacinesEstadistica, Probabilidad E Investigacin De Operacines
Estadistica, Probabilidad E Investigacin De Operacines
 
Simulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con PromodelSimulación: Teoría y aplicaciones con Promodel
Simulación: Teoría y aplicaciones con Promodel
 
numerosAleatorios.pptx
numerosAleatorios.pptxnumerosAleatorios.pptx
numerosAleatorios.pptx
 
Metodos de monte carlo en mecánica estadistica
Metodos de monte carlo en mecánica estadisticaMetodos de monte carlo en mecánica estadistica
Metodos de monte carlo en mecánica estadistica
 
Aplicación de la matriceses
Aplicación de la matriceses Aplicación de la matriceses
Aplicación de la matriceses
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con Eviews
 
Ejemplos de cadenas de markov
Ejemplos de cadenas de markovEjemplos de cadenas de markov
Ejemplos de cadenas de markov
 
Ejmarkov
EjmarkovEjmarkov
Ejmarkov
 
Propiedades mco
Propiedades mcoPropiedades mco
Propiedades mco
 
Post Del 2 Bibimwestre
Post Del 2 BibimwestrePost Del 2 Bibimwestre
Post Del 2 Bibimwestre
 
Post Del 2 Bibimwestre
Post Del 2 BibimwestrePost Del 2 Bibimwestre
Post Del 2 Bibimwestre
 
Algoritmos Voraces (Greedy)
Algoritmos Voraces (Greedy)Algoritmos Voraces (Greedy)
Algoritmos Voraces (Greedy)
 
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
Mote Carlo y Quasi-Monte Carlo aplicado a los mercados financieros
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
 
Presentacion Modelo Markov
Presentacion Modelo MarkovPresentacion Modelo Markov
Presentacion Modelo Markov
 
Modelo Markov
Modelo MarkovModelo Markov
Modelo Markov
 
Simulacion uam
Simulacion uamSimulacion uam
Simulacion uam
 
Cadenas de Markov
Cadenas de MarkovCadenas de Markov
Cadenas de Markov
 

Último

PANDERETAS DECORADAS CON MOTIVOS DE LA RIOJA
PANDERETAS DECORADAS CON MOTIVOS DE LA RIOJAPANDERETAS DECORADAS CON MOTIVOS DE LA RIOJA
PANDERETAS DECORADAS CON MOTIVOS DE LA RIOJA
estroba5
 
Power Point: El conflicto inminente (Bosquejo)
Power Point: El conflicto inminente (Bosquejo)Power Point: El conflicto inminente (Bosquejo)
Power Point: El conflicto inminente (Bosquejo)
https://gramadal.wordpress.com/
 
interfaz de la herramienta geogebra .pptx
interfaz de la herramienta geogebra .pptxinterfaz de la herramienta geogebra .pptx
interfaz de la herramienta geogebra .pptx
victoriaGuamn
 
Este documento contiene, el programa completo de un acto para realizar la pro...
Este documento contiene, el programa completo de un acto para realizar la pro...Este documento contiene, el programa completo de un acto para realizar la pro...
Este documento contiene, el programa completo de un acto para realizar la pro...
romina395894
 
SEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptx
SEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptxSEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptx
SEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptx
Osiris Urbano
 
Los Dominios y Reinos de los Seres Vivos
Los Dominios y Reinos de los Seres VivosLos Dominios y Reinos de los Seres Vivos
Los Dominios y Reinos de los Seres Vivos
karlafreire0608
 
Clase Prensencial, Actividad 2.pdf.......
Clase Prensencial, Actividad 2.pdf.......Clase Prensencial, Actividad 2.pdf.......
Clase Prensencial, Actividad 2.pdf.......
LuanaJaime1
 
1° T3 Examen Zany de primer grado compl
1° T3 Examen Zany  de primer grado compl1° T3 Examen Zany  de primer grado compl
1° T3 Examen Zany de primer grado compl
ROCIORUIZQUEZADA
 
UrkuninaLab.pdfsadsadasddassadsadsadasdsad
UrkuninaLab.pdfsadsadasddassadsadsadasdsadUrkuninaLab.pdfsadsadasddassadsadsadasdsad
UrkuninaLab.pdfsadsadasddassadsadsadasdsad
JorgeVillota6
 
200. Efemerides junio para trabajar en periodico mural
200. Efemerides junio para trabajar en periodico mural200. Efemerides junio para trabajar en periodico mural
200. Efemerides junio para trabajar en periodico mural
shirherrer
 
Prueba/test conoce tus heridas de la infancia
Prueba/test conoce tus heridas de la infanciaPrueba/test conoce tus heridas de la infancia
Prueba/test conoce tus heridas de la infancia
LudmilaOrtega3
 
Manual de procedimiento para gráficos HC
Manual de procedimiento para gráficos HCManual de procedimiento para gráficos HC
Manual de procedimiento para gráficos HC
josseanlo1581
 
2° año LA VESTIMENTA-ciencias sociales 2 grado
2° año LA VESTIMENTA-ciencias sociales 2 grado2° año LA VESTIMENTA-ciencias sociales 2 grado
2° año LA VESTIMENTA-ciencias sociales 2 grado
GiselaBerrios3
 
Presentación de proyecto en acuarela moderna verde.pdf
Presentación de proyecto en acuarela moderna verde.pdfPresentación de proyecto en acuarela moderna verde.pdf
Presentación de proyecto en acuarela moderna verde.pdf
LuanaJaime1
 
Escuela Sabática. El conflicto inminente.pdf
Escuela Sabática. El conflicto inminente.pdfEscuela Sabática. El conflicto inminente.pdf
Escuela Sabática. El conflicto inminente.pdf
Alejandrino Halire Ccahuana
 
1° T3 Examen Mtro JP 23-24.pdf completos
1° T3 Examen Mtro JP 23-24.pdf completos1° T3 Examen Mtro JP 23-24.pdf completos
1° T3 Examen Mtro JP 23-24.pdf completos
ROCIORUIZQUEZADA
 
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLM
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLMExamen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLM
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLM
Juan Martín Martín
 
ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...
ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...
ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...
JAVIER SOLIS NOYOLA
 
CONCURSOS EDUCATIVOS 2024-PRESENTACIÓN ORIENTACIONES ETAPA IE (1).pptx
CONCURSOS EDUCATIVOS 2024-PRESENTACIÓN ORIENTACIONES ETAPA IE (1).pptxCONCURSOS EDUCATIVOS 2024-PRESENTACIÓN ORIENTACIONES ETAPA IE (1).pptx
CONCURSOS EDUCATIVOS 2024-PRESENTACIÓN ORIENTACIONES ETAPA IE (1).pptx
CARMENSnchez854591
 
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdfAPUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
VeronicaCabrera50
 

Último (20)

PANDERETAS DECORADAS CON MOTIVOS DE LA RIOJA
PANDERETAS DECORADAS CON MOTIVOS DE LA RIOJAPANDERETAS DECORADAS CON MOTIVOS DE LA RIOJA
PANDERETAS DECORADAS CON MOTIVOS DE LA RIOJA
 
Power Point: El conflicto inminente (Bosquejo)
Power Point: El conflicto inminente (Bosquejo)Power Point: El conflicto inminente (Bosquejo)
Power Point: El conflicto inminente (Bosquejo)
 
interfaz de la herramienta geogebra .pptx
interfaz de la herramienta geogebra .pptxinterfaz de la herramienta geogebra .pptx
interfaz de la herramienta geogebra .pptx
 
Este documento contiene, el programa completo de un acto para realizar la pro...
Este documento contiene, el programa completo de un acto para realizar la pro...Este documento contiene, el programa completo de un acto para realizar la pro...
Este documento contiene, el programa completo de un acto para realizar la pro...
 
SEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptx
SEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptxSEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptx
SEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptx
 
Los Dominios y Reinos de los Seres Vivos
Los Dominios y Reinos de los Seres VivosLos Dominios y Reinos de los Seres Vivos
Los Dominios y Reinos de los Seres Vivos
 
Clase Prensencial, Actividad 2.pdf.......
Clase Prensencial, Actividad 2.pdf.......Clase Prensencial, Actividad 2.pdf.......
Clase Prensencial, Actividad 2.pdf.......
 
1° T3 Examen Zany de primer grado compl
1° T3 Examen Zany  de primer grado compl1° T3 Examen Zany  de primer grado compl
1° T3 Examen Zany de primer grado compl
 
UrkuninaLab.pdfsadsadasddassadsadsadasdsad
UrkuninaLab.pdfsadsadasddassadsadsadasdsadUrkuninaLab.pdfsadsadasddassadsadsadasdsad
UrkuninaLab.pdfsadsadasddassadsadsadasdsad
 
200. Efemerides junio para trabajar en periodico mural
200. Efemerides junio para trabajar en periodico mural200. Efemerides junio para trabajar en periodico mural
200. Efemerides junio para trabajar en periodico mural
 
Prueba/test conoce tus heridas de la infancia
Prueba/test conoce tus heridas de la infanciaPrueba/test conoce tus heridas de la infancia
Prueba/test conoce tus heridas de la infancia
 
Manual de procedimiento para gráficos HC
Manual de procedimiento para gráficos HCManual de procedimiento para gráficos HC
Manual de procedimiento para gráficos HC
 
2° año LA VESTIMENTA-ciencias sociales 2 grado
2° año LA VESTIMENTA-ciencias sociales 2 grado2° año LA VESTIMENTA-ciencias sociales 2 grado
2° año LA VESTIMENTA-ciencias sociales 2 grado
 
Presentación de proyecto en acuarela moderna verde.pdf
Presentación de proyecto en acuarela moderna verde.pdfPresentación de proyecto en acuarela moderna verde.pdf
Presentación de proyecto en acuarela moderna verde.pdf
 
Escuela Sabática. El conflicto inminente.pdf
Escuela Sabática. El conflicto inminente.pdfEscuela Sabática. El conflicto inminente.pdf
Escuela Sabática. El conflicto inminente.pdf
 
1° T3 Examen Mtro JP 23-24.pdf completos
1° T3 Examen Mtro JP 23-24.pdf completos1° T3 Examen Mtro JP 23-24.pdf completos
1° T3 Examen Mtro JP 23-24.pdf completos
 
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLM
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLMExamen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLM
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLM
 
ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...
ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...
ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...
 
CONCURSOS EDUCATIVOS 2024-PRESENTACIÓN ORIENTACIONES ETAPA IE (1).pptx
CONCURSOS EDUCATIVOS 2024-PRESENTACIÓN ORIENTACIONES ETAPA IE (1).pptxCONCURSOS EDUCATIVOS 2024-PRESENTACIÓN ORIENTACIONES ETAPA IE (1).pptx
CONCURSOS EDUCATIVOS 2024-PRESENTACIÓN ORIENTACIONES ETAPA IE (1).pptx
 
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdfAPUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
 

Modelos Ocultos De Markov

  • 1. MODELOS OCULTOS DE MARKOV Adriana Becerra A. Marcela Gómez Byron Macas Fernanda Ordóñez ABE – MGO – BMA – FOR IAA – ECC – UTPL – 2009
  • 2. Definición  Un modelo oculto de Markov o HMM (por sus siglas del inglés, Hidden Markov Model), es un proceso por el cual se observa el comportamiento del sistema de manera indirecta pues los estados del mismo permanecen ocultos para el observador. x — estados ocultos y — salidas observables a — probabilidades de transición b — probabilidades de salida Describen un proceso de probabilidad el cual produce una secuencia de eventos simbólicos observables.
  • 3. Descripción del modelo  Un HMM se caracteriza por un conjunto de parámetros λ = (A,B, Π)  Matriz A. Matriz de transición de probabilidades.  Matriz B. Matriz de probabilidad de salida.  Vector π. Representa la distribución inicial de los estados.
  • 4. Arquitectura de los HMM  Esta arquitectura se da de acuerdo al número de estados que lo componen y las transiciones permitidas entre dichos estados. Los principales modelos existentes son:  Modelos de izquierda a derecha  Modelos ergódicos.
  • 5. Modelos de izquierda a derecha  Los elementos de la matriz de probabilidades de transición A deben cumplir la siguiente condición: aij = 0 j <i , es decir , si en el instante t, el modelo se encuentra en el estado i-ésimo, en el siguiente instante de tiempo, t+1, el modelo permanecerá en el mismo estado con probabilidad aii, o bien el modelo pasará al estado j-ésimo (j>i) con probabilidad a ij. Esta configuración de la matriz de transiciones A da lugar a modelos con arquitecturas que se denominan de izquierda a derecha.
  • 6. Modelos de izquierda a derecha (2)  Como se muestra en la figura 1, el estado 1 (estado inicial) y el 3 (estado final) se denominan no emisores y las flechas en líneas continuas indican las posibles transiciones entre estados. Podemos notar la particularidad de que las transiciones se dan solamente de izquierda a derecha.
  • 7. Modelos Ergódicos  Pueden evolucionar desde cualquier estado a otro en un número finito de transiciones, todas las transiciones son posibles.
  • 8. Tipos de Modelos Ocultos de Markov  HMM Discretos  HMM Continuos y  HMM Semicontinuos
  • 9. Tipos de HMM (2)  HMM discretos  Aquí las observaciones son vectores de símbolos de un alfabeto finito con M + 1 elementos diferentes, cada uno denominado codeward, que se agrupan en un codebook, V = {v0,.....,vm}.  La distribución de probabilidad de un símbolo entonces se define como B = {bj (k)} donde b PY v X s j(k) = ( t = k | t = j)  es la probabilidad de observación del codebook vk
  • 10. Tipos de HMM (3)  HMM contínuos  Aquí se asume que las distribuciones de los símbolos observables son densidades de probabilidad definidas sobre espacios de observación contínuos.  La forma mas extendida de distribución es la de una mezcla de funciones de densidad de tipo gaussiano.
  • 11. Tipos de HMM (4)  HMM semicontinuos   Al igual que los continuos se modelan a partir de un conjunto de mezclas de funciones de densidad de probabilidad gaussiana.  La principal diferencia radica en que las funciones base son comunes o todos los modelos, como ocurre en el caso de los modelos discretos donde existe un codebook común a todos ellos.
  • 12. Problemas básicos de los HMMs  Problema de evaluación  Problema de la decodificación  Problema del Entrenamiento
  • 13. Primer Problema Básico: Problema de evaluación  Consiste en calcular la probabilidad de la secuencia de observación O = (o1o2 ... oT ) , dado el modelo l , es decir, P(O|l) . La forma más simple de resolver el problema 1 consiste en enumerar todas las posibles secuencias de estado de longitud T  Forward algorithm  Backward algorithm
  • 14. Segundo Problema Básico: Problema de decodificación  Determinar la secuencia de estado del modelo dada una secuencia de simbolos  Optimalidad de Bellman  Algoritmo de Viterbi
  • 15. Tercer Problema Básico: Problema del Entrenamiento  Se rige principalmente en la secuencia de estados más probables, entre las secuencias más comunes para esta comparación están los patrones, perfiles y HMMs  Algoritmo Expectation Maximization (EM)  Algritmo de Baum - Welch  Algoritmo de Viterbi
  • 16. Algoritmo EM  Se utiliza para encontrar, en cada paso una estimación del conjunto de parámetros del modelo, para luego, tratar de maximizar la probabilidad de generación de los datos de entrenamiento, de forma que la probabilidad asociada al nuevo modelo sea mayor o igual a la del modelo anterior.
  • 17. Algoritmo EM  Dada una estimación inicial de los parámetros obtener la verosimilitud  de una secuencia y después utilizarla para reestimar los parámetros.
  • 19. Algoritmo de Viterbi  El algoritmo de Viterbi permite encontrar las secuencia de estados más probable en un Modelo oculto de Markov, S=(q1,q2, ..., qT), a partir de una observación O=(o1,o2,..., oT), es decir, obtiene la secuencia óptima que mejor explica la secuencia de observaciones.
  • 20. Algoritmo de Viterbi  Inicio. T=0. Se calcula para cada estado Sj con j=1,2, .. N, la probabilidad maxima. Inicialmente , se considera que no existen supervivientes.  Paso de recursion. Se calcula la probabilidad maxima en el siguiente instante de tiempo , t+1, en función de la probabilidad maxima en el instante anterior
  • 21. Algoritmo de Viterbi  Se guardan los supervivientes para cada estado.  Si t < T, siendo T el número máximo de símbolos emitidos, se incrementa t=t+1 y se vuelve al paso de recursion . En caso contrario, el algoritmo finaliza  Finalización. Se calcula la probabilidad maxima y su estado óptimo correspondiente
  • 22. Algoritmo de Viterbi  Finalmente, la secuencia de estados que proporciona la mayor probabilidad (o camino óptimo), dada una secuencia de símbolos.
  • 23. Aplicación del Algoritmo Vitervi  Una de las aplicaciones del algoritmo de Viterbi es la desambiguación léxica categorial  Los elementos de un MOM serían:  El conjunto Q de estados sería el conjunto de posibles etiquetas (categorías gramaticales) para las palabras.  El conjunto V de observables en cada uno de los estados corresponde con el conjunto de palabras distintas.  El conjunto A de probabilidades de transiciones entre estados sería la probabilidad de que una determinada categoría categorial siga a otra. Por ejemplo, la probabilidad de que la categoría nombre vaya detrás de la categoría determinante.  El conjunto B de probabilidades de las observaciones correspondería con la probabilidad de pertenencia de una palabra (un observable) a una determinada categoría. Por ejemplo, la probabilidad de que la palabra casa sea verbo, que será menor que la probabilidad de que esta misma palabra tenga la categoría gramatical nombre.
  • 24. Aplicaciones en reconocimiento de gestos  Definicion de estados:  Para los ojos:cerrado. Semicerrado y abierto  Para la apertura de la boca: abierta, semiabierta y cerrada  Para el estiramiento de la boca: estirada, semiestirada y encogida.
  • 25. Reconocimiento de gestos  Se capturan observaciones de cada tipo (boca y ojos) y se efectúa el entrenamiento.
  • 26. Reconocimiento de gestos  A partir de la información anterior se pueden reconocer los siguientes gestos:
  • 27. Las tres grandes preguntas sobre HMMs  Evaluación DADO un HMM M, y una secuencia x, ENCUENTRE Prob[ x | M ]  Decodificación DADO un HMM M, y una secuencia x, ENCUENTRE la secuencia de estados que maximiza P[ x, | M ] Aprendizaje DADOS un HMM M, con probs transición/emisión desconocidas, y una secuencia x, ENCUENTRE los parámetros = (ei(.), aij) que maximizan P[ x | ]
  • 28. Ejemplo: El Casino deshonesto Un casino tiene dos dados:  Dado “justo” P(1) = P(2) = P(3) = P(5) = P(6) = 1/6  Dado cargado P(1) = P(2) = P(3) = P(5) = 1/10 P(6) = 1/2 El casino alterna entre el dado justo y el cargado una vez cada 20 turnos Juego: 1. Apostamos $1 2. Tiramos (siempre con un dado justo) 3. El Casino tira (tal vez con un dado justo, tal vez con uno cargado) 4. EL número mas alto gana $2
  • 29. Pregunta # 1 – Evaluación Dada Una secuencia de tiradas del casino 1245526462146146136136661664661636616366163616515615115146123562344 PREGUNTA ¿Cuan probable es esta secuencia, dado nuestro modelo de como opera el casino? Este es el problema de EVALUACIÓN en HMMs
  • 30. Pregunta # 2 – Decodificación Dada Una secuencia de tiradas del casino 1245526462146146136136661664661636616366163616515615115146123562344 PREGUNTA ¿Que partes de la secuencia fueron generadas por el dado cargado y cuales por el dado justo? Este es el problema de DECODIFICACIÓN en HMMs
  • 31. Pregunta # 3 – Aprendizaje Dada Una secuencia de tiradas del casino 1245526462146146136136661664661636616366163616515615115146123562344 PREGUNTA ¿Cómo está cargado el dado cargado? ¿Cada cuanto cambia el casino entre el dado cargado y el justo? Este es el problema de APRENDIZAJE en HMMs
  • 32. El HMM del casino deshonesto 0.95 0.05 0.95 CARGAD JUSTO O P(1|F) = 1/6 P(1|L) = 1/10 0.05 P(2|F) = 1/6 P(2|L) = 1/10 P(3|F) = 1/6 P(3|L) = 1/10 P(4|F) = 1/6 P(4|L) = 1/10 P(5|F) = 1/6 P(5|L) = 1/10 P(6|F) = 1/6 P(6|L) = 1/2
  • 33. Ejemplo: El casino deshonesto Imaginemos que la secuencia de dados es: x = 1, 2, 1, 5, 6, 2, 1, 6, 2, 4 (secuen. mod) Entonces, cuan probable es = justo, justo, justo, justo, justo, justo, justo, justo, justo, justo? (imaginemos inicialmente prob. iguales a0justo = ½, aoCargado = ½) ½ P(1 | justo) P(justo | justo) P(2 | justo) P(justo | justo) … P(4 | justo) = ½ (1/6)10 (0.95)9 = 0,00000000521158647211 = 0.5 10-9
  • 34. Ejemplo: El casino deshonesto Entonces, la probabilidad de que el dado sea justo En toda la corrida es solamente 0.521 10-9 Pero…¿Cual es la probabilidad de = Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado, Cargado? ½ P(1 | Cargado) P(Cargado, Cargado) … P(4 | Cargado) = ½ (1/10)8 (1/2)2 (0.95)9 = 0,00000000078781176215 = 7.9 10-10 Sumando probabilidades nos da 0.599 + 6 Entonces, despues de todo es 6.59 veces mas probable que el dado haya sido siempre justo, a que haya sido siempre deshonesto o cargado.