SlideShare una empresa de Scribd logo
1 de 21
Descargar para leer sin conexión
5/12/2015 7th #ぞくパタ 1
続・わかりやすいパターン認識
第7章 マルコフモデル(pp.123-132)
@tanimocchi
5/12/2015 7th #ぞくパタ 2
自己紹介
 Twitter ID: @tanimocchi
(もっちぃ)
 修士(数学)、博士(情報科学)
 所属: Rの付く半導体
 仕事: 車載Security(産業も)
 ビジネスモデル構築・市場開拓、セキュリティ・プロトコル/サーバ・ソ
フト/DBスキーマの仕様設計・開発管理
 プロセッサアーキテクチャ拡張仕様定義もこれから手伝う感じ?
 とはいえ、統計解析とパターン認識・機械学習は必要! だと信じてる。
 統数研公開講座に参加するかもですので、ご一緒の際は宜しくお願いします。
 バイタル・センサシングでのある種の推定モデル開発にも従事
5/12/2015 7th #ぞくパタ 3
7.1 マルコフ性とマルコフモデル
目的
・試行の独立性が成り立たず、過去の試行に
影響される場合を扱う
5/12/2015 7th #ぞくパタ 4
仮想的なサイコロ投げ [1/3]
 サイコロと聞くと“独立試行”と条件反射する前に……
 現実に存在するサイコロは、その出る目の確率が等確率で
はない(そんなサイコロは作れない)
 限りなく重心が中心にあるサイコロ:販売価格 ¥47,500 (税抜)
 http://www.iriso-seimitsu.co.jp/tech/showcase3
6つの四角錘を組み合わせたとき、
設計理論上中心から各底面までの
距離の一致度は99.99999999%
5/12/2015 7th #ぞくパタ 5
仮想的なサイコロ投げ [2/3]
 独立試行が成り立たない例
 出る目の確率が均等でないサイコロがc種類存在し、全体でc個
 全サイコロの目の数はm個
 c個のサイコロの中かから復元抽出に従い選択し、n回振る
 ここで、t回目に取り出したサイコロは、(t-1)回目に取り出したサイコロに
依存して決定される
   
   
 nt
ts
tvvvx
ct
mt
,,2,1
:,,,
:,,,
21
21






 ここで、 
取り出したサイコロでの状態時点
サイコロの目での観測結果時点

5/12/2015 7th #ぞくパタ 6
仮想的なサイコロ投げ [3/3]
 (t-1)回目のサイコロから、t回目のサイコロが選択される確率
 t回目のサイコロの出る目の確率
        
   
   が成り立つ。  また、 
ここで、
  
cia
sPssP
cjissPaant
c
j
ij
jij
itjtjiij
,,2,11
,,2,1,,,,,2,1
1
101
1









i
1
2
j
c
(t-1)回目
t回目
起
り
得
る
全
事
象
……
        
   が成り立つ。  また、 
  
cjb
cjisvxPvbbnt
m
k
jk
jtktkjjk
,,2,11
,,2,1,,,,,2,1
1






j
1v
2v
kv
mv
t回目に選択
したサイコロ
そのサイコロの目
起
り
得
る
全
事
象
……
前状態が現状態を決定
現状態が出力を決定
valuesymbolicsx tt :,
1ia
2ia
ija
ica
1jb
2jb
jkb
jmb
valueconcretev jk :,
5/12/2015 7th #ぞくパタ 7
マルコフモデル
 これまで述べた構造は、確率的な状態遷移と確率的な出力
機能を備えたマルコフモデル(Markov Model)を表す
 マルコフ性(Markov property)
 現在の状態が一時点前の状態に依存して確率的に決まる特性
 マルコフ過程(Markov process)
 そのような特性を満たす過程
 j重マルコフ過程(j-th order Markov process)
 現在の状態が直前のj時点の状態に依存して確率的に決まるマルコフ過程
 j=1のとき、単純マルコフ過程(simple Markov process) ← 以下これのみ扱う
 マルコフ連鎖(Markov chain)
 マルコフ過程の結果得られる状態の系列(確率的に状態が遷移していく過程)
次状態関数
(遷移確率)
状
態
出力関数
(出力確率)
出力記号
statetransition probability output probability
output symbol
入力を伴わない特殊なムーア型ステートマシーン
(次状態関数=遷移確率、出力関数=出力確率)
特殊な確率I/Oオートマトンとして定義する事も可能
5/12/2015 7th #ぞくパタ 8
マルコフモデルの振る舞い
 試行の独立性が成り立たない
 出力は現状態にのみ依存して決定
次状態関数
(遷移確率)
状
態
出力関数
(出力確率)
出力記号
statetransition probability output probability
output symbol
         
         
         
         nnnn
nnnn
nn
nn
sxPsxPsxPsssxxxPP
xsPxsPxsPxxxsssPP
sPsPsPsssPP
xPxPxPxxxPP
,,,,,,,,,,,
,,,,,,
,,,
,,,
22112121
22112121
2121
2121








sx
xs
s
x
         nnnn sxPsxPsxPsssxxxPP  22112121 ,,,,,, sx
ts
tx
1s
2s
ts
ns


1x
2x
tx
nx


Graphical Model
1s
2s
ts
ns


1x
2x
tx
nx


1s
2s
ts
ns


1x
2x
tx
nx


5/12/2015 7th #ぞくパタ 9
遷移確率と出力確率の行列表現 [1/3]
 遷移確率と出力確率の行列表現
次状態関数
(遷移確率)
aij
状
態
出力関数
(出力確率)
bjk
出力記号
state
output symbol
 ccMaij ,














A  mcMbjk ,














B
transition probability output probability
   mjkijc vvvba 






 2121 





















5/12/2015 7th #ぞくパタ 10
遷移確率と出力確率の行列表現 [2/3]
 c=3(サイコロω1,ω2,ω3の3個)、m=2(v1:奇数,v2:偶数)の例






















7.03.0
4.06.0
2.08.0
,
6.01.03.0
7.01.02.0
5.04.01.0
BA  










6.01.03.0
7.01.02.0
5.04.01.0
3
2
1
321



  










7.03.0
4.06.0
2.08.0
3
2
1
21



vv  
t回目のサイコロ(t
-
1
)回
目
の
サ
イ
コ
ロ
t
回
目
の
サ
イ
コ
ロ
t回目の奇数・偶数
マルコフモデルの状態遷移図
ω1
ω2 ω3
0.1
0.1
0.4
0.2 0.5
0.3
0.6
0.1
0.7
5/12/2015 7th #ぞくパタ 11
遷移確率と出力確率の行列表現 [3/3]
 c=3(サイコロω1,ω2,ω3の3個)、m=2(v1:奇数,v2:偶数)の例
   53.047.0
7.03.0
4.06.0
2.08.0
5.04.01.0
5.0
4.0
1.0
5.0
4.0
1.0
0
0
1
6.07.05.0
1.01.04.0
3.02.01.0
0
0
1
0
0
1
























































































B
AA  
次状態関数
(遷移確率)
aij
状
態
出力関数
(出力確率)
bjk
出力記号
output symbol
   mjkijc vvvba 






 2121 





















ω1
ω2 ω3
0.1
0.1
0.4
0.2 0.5
0.3
0.6
0.1
0.7
statetransition probability output probability
5/12/2015 7th #ぞくパタ 12
7.2 マルコフモデルのパラメータ推定
目的
・観測結果からの遷移確率行列A、出力確率行列B、
及び初期状態確率ベクトルρ、の最尤推定
5/12/2015 7th #ぞくパタ 13
マルコフモデルを表現するための記号
 
 
 
 
   
    
 
 
 
      
 
 
  次元ベクトルを成分としてもつ:
の行列成分として持つを:
の行列成分として持つを:
を満たすである確率が状態:初期状態
を出力する確率で:状態
への遷移確率から状態:状態
出力記号系列:観測記号系列
:状態系列
回目に出た目出力記号での観測結果:時点
コロ回目に取り出したサイでの状態:時点
番目の目サイコロの番目の出力記号:
番目のサイコロ番目の状態:
サイコロの目の数:出力記号の数
サイコロの種類数:状態数
:観測回数
ラメータ。はマルコフモデルのパ とする。特に、 以下、
c
mckjb
ccjia
tsP
vvbb
aa
xxx
sss
ttvvvx
tts
kkv
ii
m
c
n
mkcji
ic
jk
ij
c
i iiii
kjkjjk
jijiij
n
n
mt
ct
k
i






,,,
,
,
11
,,
,,
,,,
,,,
,,,
,,,
,,,2,1,,2,1,
21
11
21
21
21
21
















ρ
B
A
x
s
ρBA
5/12/2015 7th #ぞくパタ 14
パラメータ最尤推定の問題設定
 例題7.1
 箱の中にc種のサイコロω1,ω2,…ωcがあり、その何れかを取り出し、サ
イコロの種類を確認した上でそのサイコロを投げ、出た目を観測した
後、サイコロを元の箱に戻すという操作をn回繰り返す。ここで、
1. 最初にサイコロωiを取り出す確率はρiである
2. サイコロωiを取り出した後にサイコロωjを取り出す確率はaijである
3. サイコロωjを投げて出た目がvkとなる確率はbjkである
とする。但し、i,j=1,2,…,c, k=1,2,…,mである。その結果、サイコロの
目の系列としてx=x1x2…xt…xnが得られ、サイコロの種類の系列とし
てs=s1ss2…st…snが得られた。このとき、観測結果から、A,B,ρを最尤
推定により推定せよ。
 本例題は、xだけでなく、sの情報も得られており、完全データ
を扱った教師付き学習
 例題5.2に対して、マルコフ性を取り入れた例題
5/12/2015 7th #ぞくパタ 15
尤度関数としての同時確率P(x,s)の算出
 P(x,s)= P(s)P(x|s)
 P(x|s)の算出
 P(s)の算出
 P(x,s)の算出
         
      tttttt
n
t
nnnn
sxPxsbxsb
sxPsxPsxPsssxxxPP



,,
,,,,,,
1
22112121


  
sx
           
      としたここで、   ,,
,,,,,,
1101
1
13221121
sPssassa
ssassassasPsssPP
tt
n
t
nnn






s
         tttt
n
t
xsbssaPPP ,,, 1
1


 sxssx
5/12/2015 7th #ぞくパタ 16
対数尤度関数logP(x,s)
 logP(x,s)の算出と最尤推定に向けた記号の導入
 上式のLρ、La、Lbは、それぞれパラメータρi、aij、bjkのみを含むので、logP(x,s)を最
大化するにはLρ、La、Lbを、それらのパラメータに関してそれぞれ独立に最大化すれ
ばよい。
           
          
 
 
 


































n
t
tt
def
b
n
t
tt
def
a
def
ba
n
l
ll
n
t
tt
ll
n
l
tt
n
t
tttt
n
t
xsbL
ssaL
sPL
sPssaLLLxsbssasP
xsbssassaxsbssaP
1
1
1
1
1
110
1
1
1
11
1
1
1
1
101
1
,
,log
log
,,,loglog
,,,log,,log,log
  
  
  
ここで、
  

 
sx
5/12/2015 7th #ぞくパタ 17
定理5.1(p.82)再掲
 定理5.1
 
 
 nix
x
xxxxf
x
xxxxn
n
n
k
kii
i
n
i
iin
n
i
i
in
n
,,2,1
log,,
1
10,,
,,
1
1
21
1
21
21














   
は次式で与えられる。を最大にする
  
する。このときを満たしているものと
  
が拘束条件個の変数
がある。ここで、個の正の定数いま、



5/12/2015 7th #ぞくパタ 18
Laの最大化
 ni:サイコロωiを取り出した回数
 mij:サイコロをωi,ωjと連続して取り出した回数
i
1
c
(t+1)回目
……………………
t回目
 回11 ii ma
 回22 ii ma
 回ijij ma
 回icic ma
回in
ts 1ts
 1, tt ssa
2
j
11 log ii am
22 log ii am
ijij am log
icic am log
Concrete state transition
Symbolic state transition
 



1
1
1,log
n
t
tta ssaL
     


 








c
i
c
j
ijij
n
t
tta amssaL
1 1
1
1
1 log,log
1
1

c
j
ija
i
c
j
ij nm 1
最大化対象の関数
拘束条件
自明な条件
i
ij
c
h
ih
ij
ij
n
m
m
m
a


1
ˆ
定理5.1
各遷移が、ni回中mij回発生
5/12/2015 7th #ぞくパタ 19
Lbの最大化
 nj:サイコロωjを取り出した回数
 njk:サイコロωjを投げて出た目がvkであった回数
j
1v
mv
…………………… 回1j1 nbj
 回22 jj nb
 回jkjk nb
 回jmjm nb
回jn
ts tx
 tt xsb ,
2v
kv
11 log jj bn
22 log jj bn
jkjk bn log
jmjm bn log
Concrete output function
Symbolic output function
 

n
t
ttb xsbL
1
,log
     







c
j
m
k
jkjk
n
t
ttb bnxsbL
1 11
log,log
1
1

m
k
jkb
j
m
k
jk nn 1
最大化対象の関数
拘束条件
自明な条件
j
jk
m
l
jl
jk
jk
n
n
n
n
b


1
ˆ
定理5.1
t回目に選択
したサイコロ
そのサイコロの目
各出力が、nj回中njk回発生
5/12/2015 7th #ぞくパタ 20
Lρの最大化
 本例題で扱う観測データは完全データであるので、s1が
ω1,ω2,…ωcのいずれかであるかは既知。
 そこで、 s1=ωiであったと仮定する。
 すると下記が得られる。
 推定値は上式を最大にするパラメータρであり、下記を得る
  iisPL  loglog 1 
 




ijj
i
 0ˆ
1ˆ








010 


i
初期状態確率ベクトル
5/12/2015 7th #ぞくパタ 21
Thanks a lot!

Más contenido relacionado

La actualidad más candente

勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
クラシックな機械学習の入門  8. クラスタリング
クラシックな機械学習の入門  8. クラスタリングクラシックな機械学習の入門  8. クラスタリング
クラシックな機械学習の入門  8. クラスタリングHiroshi Nakagawa
 
バンディット問題について
バンディット問題についてバンディット問題について
バンディット問題についてjkomiyama
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用Ryo Iwaki
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算sleepy_yoshi
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...Deep Learning JP
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP
 
強化学習その1
強化学習その1強化学習その1
強化学習その1nishio
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズムnishio
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いwada, kazumi
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論Deep Learning JP
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会Kenyu Uehara
 
強化学習における好奇心
強化学習における好奇心強化学習における好奇心
強化学習における好奇心Shota Imai
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 

La actualidad más candente (20)

勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
クラシックな機械学習の入門  8. クラスタリング
クラシックな機械学習の入門  8. クラスタリングクラシックな機械学習の入門  8. クラスタリング
クラシックな機械学習の入門  8. クラスタリング
 
バンディット問題について
バンディット問題についてバンディット問題について
バンディット問題について
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
強化学習その1
強化学習その1強化学習その1
強化学習その1
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
A3C解説
A3C解説A3C解説
A3C解説
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
強化学習における好奇心
強化学習における好奇心強化学習における好奇心
強化学習における好奇心
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 

Similar a 続・わかりやすいパターン認識 第7章「マルコフモデル」

アドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニングアドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニングYosuke Mizutani
 
Hadoopカンファレンス20140707
Hadoopカンファレンス20140707Hadoopカンファレンス20140707
Hadoopカンファレンス20140707Recruit Technologies
 
DB TechShowcase Tokyo - Intelligent Data Platform
DB TechShowcase Tokyo - Intelligent Data PlatformDB TechShowcase Tokyo - Intelligent Data Platform
DB TechShowcase Tokyo - Intelligent Data PlatformDaiyu Hatakeyama
 
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019Yuji Kanemoto
 
Shared Questionnaire System Development Project
Shared Questionnaire System Development ProjectShared Questionnaire System Development Project
Shared Questionnaire System Development Projecthiroya
 
Tokyo.R #19 発表資料 「Rで色々やってみました」
Tokyo.R #19 発表資料 「Rで色々やってみました」Tokyo.R #19 発表資料 「Rで色々やってみました」
Tokyo.R #19 発表資料 「Rで色々やってみました」Masayuki Isobe
 
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Yasutomo Kawanishi
 
オープンソースで作るスマホ文字認識アプリ
オープンソースで作るスマホ文字認識アプリオープンソースで作るスマホ文字認識アプリ
オープンソースで作るスマホ文字認識アプリ陽平 山口
 
統計をとって高速化する
Scala開発
統計をとって高速化する
Scala開発統計をとって高速化する
Scala開発
統計をとって高速化する
Scala開発Mitsuki Ogasahara
 
統計をとって高速化する
Scala開発 by CyberZ,Inc.
統計をとって高速化する
Scala開発 by CyberZ,Inc.統計をとって高速化する
Scala開発 by CyberZ,Inc.
統計をとって高速化する
Scala開発 by CyberZ,Inc.scalaconfjp
 
学習モデルの検証
学習モデルの検証学習モデルの検証
学習モデルの検証Ruketa
 
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介Ryohei Ueda
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」Hatena::Engineering
 
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)cvpaper. challenge
 
Bee Style:vol.018
Bee Style:vol.018Bee Style:vol.018
Bee Style:vol.018spicepark
 
運用に自動化を求めるのは間違っているだろうか
運用に自動化を求めるのは間違っているだろうか運用に自動化を求めるのは間違っているだろうか
運用に自動化を求めるのは間違っているだろうかMasahito Zembutsu
 

Similar a 続・わかりやすいパターン認識 第7章「マルコフモデル」 (20)

アドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニングアドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニング
 
Hadoopカンファレンス20140707
Hadoopカンファレンス20140707Hadoopカンファレンス20140707
Hadoopカンファレンス20140707
 
DB TechShowcase Tokyo - Intelligent Data Platform
DB TechShowcase Tokyo - Intelligent Data PlatformDB TechShowcase Tokyo - Intelligent Data Platform
DB TechShowcase Tokyo - Intelligent Data Platform
 
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
Alteryxの空間分析で学ぶ、最寄りの指定緊急避難場所と低水位地帯 Developers.IO Tokyo 2019
 
Shared Questionnaire System Development Project
Shared Questionnaire System Development ProjectShared Questionnaire System Development Project
Shared Questionnaire System Development Project
 
Tokyo.R #19 発表資料 「Rで色々やってみました」
Tokyo.R #19 発表資料 「Rで色々やってみました」Tokyo.R #19 発表資料 「Rで色々やってみました」
Tokyo.R #19 発表資料 「Rで色々やってみました」
 
Bee Style:vol.041
Bee Style:vol.041Bee Style:vol.041
Bee Style:vol.041
 
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
 
オープンソースで作るスマホ文字認識アプリ
オープンソースで作るスマホ文字認識アプリオープンソースで作るスマホ文字認識アプリ
オープンソースで作るスマホ文字認識アプリ
 
青本勉強会2章
青本勉強会2章青本勉強会2章
青本勉強会2章
 
統計をとって高速化する
Scala開発
統計をとって高速化する
Scala開発統計をとって高速化する
Scala開発
統計をとって高速化する
Scala開発
 
統計をとって高速化する
Scala開発 by CyberZ,Inc.
統計をとって高速化する
Scala開発 by CyberZ,Inc.統計をとって高速化する
Scala開発 by CyberZ,Inc.
統計をとって高速化する
Scala開発 by CyberZ,Inc.
 
Introduction of Python
Introduction of PythonIntroduction of Python
Introduction of Python
 
学習モデルの検証
学習モデルの検証学習モデルの検証
学習モデルの検証
 
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
三次元点群処理ライブラリPCLと 統合ロボットシステム研究での 利用例の紹介
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」
 
分類分析 (taxometric analysis)
分類分析 (taxometric analysis)分類分析 (taxometric analysis)
分類分析 (taxometric analysis)
 
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)
 
Bee Style:vol.018
Bee Style:vol.018Bee Style:vol.018
Bee Style:vol.018
 
運用に自動化を求めるのは間違っているだろうか
運用に自動化を求めるのは間違っているだろうか運用に自動化を求めるのは間違っているだろうか
運用に自動化を求めるのは間違っているだろうか
 

Más de T T

A Study of the Learnability of Relational Properties - Model Counting Meets M...
A Study of the Learnability of Relational Properties - Model Counting Meets M...A Study of the Learnability of Relational Properties - Model Counting Meets M...
A Study of the Learnability of Relational Properties - Model Counting Meets M...T T
 
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...T T
 
第10章後半「ブースティングと加法的木」
第10章後半「ブースティングと加法的木」第10章後半「ブースティングと加法的木」
第10章後半「ブースティングと加法的木」T T
 
第5章glmの尤度比検定と検定の非対称性 前編
第5章glmの尤度比検定と検定の非対称性 前編第5章glmの尤度比検定と検定の非対称性 前編
第5章glmの尤度比検定と検定の非対称性 前編T T
 
がうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへんがうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへんT T
 
Optimizing AIC in Questionnaire Analysis
Optimizing AIC in Questionnaire AnalysisOptimizing AIC in Questionnaire Analysis
Optimizing AIC in Questionnaire AnalysisT T
 
Software Foundation:形式的証明と非形式的証明
Software Foundation:形式的証明と非形式的証明Software Foundation:形式的証明と非形式的証明
Software Foundation:形式的証明と非形式的証明T T
 
はじパタ6章前半
はじパタ6章前半はじパタ6章前半
はじパタ6章前半T T
 
相関係数と決定係数~回帰係数とその不偏性も
相関係数と決定係数~回帰係数とその不偏性も相関係数と決定係数~回帰係数とその不偏性も
相関係数と決定係数~回帰係数とその不偏性もT T
 
サンプリングと推定 Siとht推定量
サンプリングと推定 Siとht推定量サンプリングと推定 Siとht推定量
サンプリングと推定 Siとht推定量T T
 

Más de T T (10)

A Study of the Learnability of Relational Properties - Model Counting Meets M...
A Study of the Learnability of Relational Properties - Model Counting Meets M...A Study of the Learnability of Relational Properties - Model Counting Meets M...
A Study of the Learnability of Relational Properties - Model Counting Meets M...
 
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
 
第10章後半「ブースティングと加法的木」
第10章後半「ブースティングと加法的木」第10章後半「ブースティングと加法的木」
第10章後半「ブースティングと加法的木」
 
第5章glmの尤度比検定と検定の非対称性 前編
第5章glmの尤度比検定と検定の非対称性 前編第5章glmの尤度比検定と検定の非対称性 前編
第5章glmの尤度比検定と検定の非対称性 前編
 
がうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへんがうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへん
 
Optimizing AIC in Questionnaire Analysis
Optimizing AIC in Questionnaire AnalysisOptimizing AIC in Questionnaire Analysis
Optimizing AIC in Questionnaire Analysis
 
Software Foundation:形式的証明と非形式的証明
Software Foundation:形式的証明と非形式的証明Software Foundation:形式的証明と非形式的証明
Software Foundation:形式的証明と非形式的証明
 
はじパタ6章前半
はじパタ6章前半はじパタ6章前半
はじパタ6章前半
 
相関係数と決定係数~回帰係数とその不偏性も
相関係数と決定係数~回帰係数とその不偏性も相関係数と決定係数~回帰係数とその不偏性も
相関係数と決定係数~回帰係数とその不偏性も
 
サンプリングと推定 Siとht推定量
サンプリングと推定 Siとht推定量サンプリングと推定 Siとht推定量
サンプリングと推定 Siとht推定量
 

続・わかりやすいパターン認識 第7章「マルコフモデル」

  • 1. 5/12/2015 7th #ぞくパタ 1 続・わかりやすいパターン認識 第7章 マルコフモデル(pp.123-132) @tanimocchi
  • 2. 5/12/2015 7th #ぞくパタ 2 自己紹介  Twitter ID: @tanimocchi (もっちぃ)  修士(数学)、博士(情報科学)  所属: Rの付く半導体  仕事: 車載Security(産業も)  ビジネスモデル構築・市場開拓、セキュリティ・プロトコル/サーバ・ソ フト/DBスキーマの仕様設計・開発管理  プロセッサアーキテクチャ拡張仕様定義もこれから手伝う感じ?  とはいえ、統計解析とパターン認識・機械学習は必要! だと信じてる。  統数研公開講座に参加するかもですので、ご一緒の際は宜しくお願いします。  バイタル・センサシングでのある種の推定モデル開発にも従事
  • 3. 5/12/2015 7th #ぞくパタ 3 7.1 マルコフ性とマルコフモデル 目的 ・試行の独立性が成り立たず、過去の試行に 影響される場合を扱う
  • 4. 5/12/2015 7th #ぞくパタ 4 仮想的なサイコロ投げ [1/3]  サイコロと聞くと“独立試行”と条件反射する前に……  現実に存在するサイコロは、その出る目の確率が等確率で はない(そんなサイコロは作れない)  限りなく重心が中心にあるサイコロ:販売価格 ¥47,500 (税抜)  http://www.iriso-seimitsu.co.jp/tech/showcase3 6つの四角錘を組み合わせたとき、 設計理論上中心から各底面までの 距離の一致度は99.99999999%
  • 5. 5/12/2015 7th #ぞくパタ 5 仮想的なサイコロ投げ [2/3]  独立試行が成り立たない例  出る目の確率が均等でないサイコロがc種類存在し、全体でc個  全サイコロの目の数はm個  c個のサイコロの中かから復元抽出に従い選択し、n回振る  ここで、t回目に取り出したサイコロは、(t-1)回目に取り出したサイコロに 依存して決定される          nt ts tvvvx ct mt ,,2,1 :,,, :,,, 21 21        ここで、  取り出したサイコロでの状態時点 サイコロの目での観測結果時点 
  • 6. 5/12/2015 7th #ぞくパタ 6 仮想的なサイコロ投げ [3/3]  (t-1)回目のサイコロから、t回目のサイコロが選択される確率  t回目のサイコロの出る目の確率                 が成り立つ。  また、  ここで、    cia sPssP cjissPaant c j ij jij itjtjiij ,,2,11 ,,2,1,,,,,2,1 1 101 1          i 1 2 j c (t-1)回目 t回目 起 り 得 る 全 事 象 ……             が成り立つ。  また、     cjb cjisvxPvbbnt m k jk jtktkjjk ,,2,11 ,,2,1,,,,,2,1 1       j 1v 2v kv mv t回目に選択 したサイコロ そのサイコロの目 起 り 得 る 全 事 象 …… 前状態が現状態を決定 現状態が出力を決定 valuesymbolicsx tt :, 1ia 2ia ija ica 1jb 2jb jkb jmb valueconcretev jk :,
  • 7. 5/12/2015 7th #ぞくパタ 7 マルコフモデル  これまで述べた構造は、確率的な状態遷移と確率的な出力 機能を備えたマルコフモデル(Markov Model)を表す  マルコフ性(Markov property)  現在の状態が一時点前の状態に依存して確率的に決まる特性  マルコフ過程(Markov process)  そのような特性を満たす過程  j重マルコフ過程(j-th order Markov process)  現在の状態が直前のj時点の状態に依存して確率的に決まるマルコフ過程  j=1のとき、単純マルコフ過程(simple Markov process) ← 以下これのみ扱う  マルコフ連鎖(Markov chain)  マルコフ過程の結果得られる状態の系列(確率的に状態が遷移していく過程) 次状態関数 (遷移確率) 状 態 出力関数 (出力確率) 出力記号 statetransition probability output probability output symbol 入力を伴わない特殊なムーア型ステートマシーン (次状態関数=遷移確率、出力関数=出力確率) 特殊な確率I/Oオートマトンとして定義する事も可能
  • 8. 5/12/2015 7th #ぞくパタ 8 マルコフモデルの振る舞い  試行の独立性が成り立たない  出力は現状態にのみ依存して決定 次状態関数 (遷移確率) 状 態 出力関数 (出力確率) 出力記号 statetransition probability output probability output symbol                                        nnnn nnnn nn nn sxPsxPsxPsssxxxPP xsPxsPxsPxxxsssPP sPsPsPsssPP xPxPxPxxxPP ,,,,,,,,,,, ,,,,,, ,,, ,,, 22112121 22112121 2121 2121         sx xs s x          nnnn sxPsxPsxPsssxxxPP  22112121 ,,,,,, sx ts tx 1s 2s ts ns   1x 2x tx nx   Graphical Model 1s 2s ts ns   1x 2x tx nx   1s 2s ts ns   1x 2x tx nx  
  • 9. 5/12/2015 7th #ぞくパタ 9 遷移確率と出力確率の行列表現 [1/3]  遷移確率と出力確率の行列表現 次状態関数 (遷移確率) aij 状 態 出力関数 (出力確率) bjk 出力記号 state output symbol  ccMaij ,               A  mcMbjk ,               B transition probability output probability    mjkijc vvvba         2121                      
  • 10. 5/12/2015 7th #ぞくパタ 10 遷移確率と出力確率の行列表現 [2/3]  c=3(サイコロω1,ω2,ω3の3個)、m=2(v1:奇数,v2:偶数)の例                       7.03.0 4.06.0 2.08.0 , 6.01.03.0 7.01.02.0 5.04.01.0 BA             6.01.03.0 7.01.02.0 5.04.01.0 3 2 1 321                 7.03.0 4.06.0 2.08.0 3 2 1 21    vv   t回目のサイコロ(t - 1 )回 目 の サ イ コ ロ t 回 目 の サ イ コ ロ t回目の奇数・偶数 マルコフモデルの状態遷移図 ω1 ω2 ω3 0.1 0.1 0.4 0.2 0.5 0.3 0.6 0.1 0.7
  • 11. 5/12/2015 7th #ぞくパタ 11 遷移確率と出力確率の行列表現 [3/3]  c=3(サイコロω1,ω2,ω3の3個)、m=2(v1:奇数,v2:偶数)の例    53.047.0 7.03.0 4.06.0 2.08.0 5.04.01.0 5.0 4.0 1.0 5.0 4.0 1.0 0 0 1 6.07.05.0 1.01.04.0 3.02.01.0 0 0 1 0 0 1                                                                                         B AA   次状態関数 (遷移確率) aij 状 態 出力関数 (出力確率) bjk 出力記号 output symbol    mjkijc vvvba         2121                       ω1 ω2 ω3 0.1 0.1 0.4 0.2 0.5 0.3 0.6 0.1 0.7 statetransition probability output probability
  • 12. 5/12/2015 7th #ぞくパタ 12 7.2 マルコフモデルのパラメータ推定 目的 ・観測結果からの遷移確率行列A、出力確率行列B、 及び初期状態確率ベクトルρ、の最尤推定
  • 13. 5/12/2015 7th #ぞくパタ 13 マルコフモデルを表現するための記号                                     次元ベクトルを成分としてもつ: の行列成分として持つを: の行列成分として持つを: を満たすである確率が状態:初期状態 を出力する確率で:状態 への遷移確率から状態:状態 出力記号系列:観測記号系列 :状態系列 回目に出た目出力記号での観測結果:時点 コロ回目に取り出したサイでの状態:時点 番目の目サイコロの番目の出力記号: 番目のサイコロ番目の状態: サイコロの目の数:出力記号の数 サイコロの種類数:状態数 :観測回数 ラメータ。はマルコフモデルのパ とする。特に、 以下、 c mckjb ccjia tsP vvbb aa xxx sss ttvvvx tts kkv ii m c n mkcji ic jk ij c i iiii kjkjjk jijiij n n mt ct k i       ,,, , , 11 ,, ,, ,,, ,,, ,,, ,,, ,,,2,1,,2,1, 21 11 21 21 21 21                 ρ B A x s ρBA
  • 14. 5/12/2015 7th #ぞくパタ 14 パラメータ最尤推定の問題設定  例題7.1  箱の中にc種のサイコロω1,ω2,…ωcがあり、その何れかを取り出し、サ イコロの種類を確認した上でそのサイコロを投げ、出た目を観測した 後、サイコロを元の箱に戻すという操作をn回繰り返す。ここで、 1. 最初にサイコロωiを取り出す確率はρiである 2. サイコロωiを取り出した後にサイコロωjを取り出す確率はaijである 3. サイコロωjを投げて出た目がvkとなる確率はbjkである とする。但し、i,j=1,2,…,c, k=1,2,…,mである。その結果、サイコロの 目の系列としてx=x1x2…xt…xnが得られ、サイコロの種類の系列とし てs=s1ss2…st…snが得られた。このとき、観測結果から、A,B,ρを最尤 推定により推定せよ。  本例題は、xだけでなく、sの情報も得られており、完全データ を扱った教師付き学習  例題5.2に対して、マルコフ性を取り入れた例題
  • 15. 5/12/2015 7th #ぞくパタ 15 尤度関数としての同時確率P(x,s)の算出  P(x,s)= P(s)P(x|s)  P(x|s)の算出  P(s)の算出  P(x,s)の算出                 tttttt n t nnnn sxPxsbxsb sxPsxPsxPsssxxxPP    ,, ,,,,,, 1 22112121      sx                   としたここで、   ,, ,,,,,, 1101 1 13221121 sPssassa ssassassasPsssPP tt n t nnn       s          tttt n t xsbssaPPP ,,, 1 1    sxssx
  • 16. 5/12/2015 7th #ぞくパタ 16 対数尤度関数logP(x,s)  logP(x,s)の算出と最尤推定に向けた記号の導入  上式のLρ、La、Lbは、それぞれパラメータρi、aij、bjkのみを含むので、logP(x,s)を最 大化するにはLρ、La、Lbを、それらのパラメータに関してそれぞれ独立に最大化すれ ばよい。                                                                n t tt def b n t tt def a def ba n l ll n t tt ll n l tt n t tttt n t xsbL ssaL sPL sPssaLLLxsbssasP xsbssassaxsbssaP 1 1 1 1 1 110 1 1 1 11 1 1 1 1 101 1 , ,log log ,,,loglog ,,,log,,log,log          ここで、       sx
  • 17. 5/12/2015 7th #ぞくパタ 17 定理5.1(p.82)再掲  定理5.1      nix x xxxxf x xxxxn n n k kii i n i iin n i i in n ,,2,1 log,, 1 10,, ,, 1 1 21 1 21 21                   は次式で与えられる。を最大にする    する。このときを満たしているものと    が拘束条件個の変数 がある。ここで、個の正の定数いま、   
  • 18. 5/12/2015 7th #ぞくパタ 18 Laの最大化  ni:サイコロωiを取り出した回数  mij:サイコロをωi,ωjと連続して取り出した回数 i 1 c (t+1)回目 …………………… t回目  回11 ii ma  回22 ii ma  回ijij ma  回icic ma 回in ts 1ts  1, tt ssa 2 j 11 log ii am 22 log ii am ijij am log icic am log Concrete state transition Symbolic state transition      1 1 1,log n t tta ssaL                   c i c j ijij n t tta amssaL 1 1 1 1 1 log,log 1 1  c j ija i c j ij nm 1 最大化対象の関数 拘束条件 自明な条件 i ij c h ih ij ij n m m m a   1 ˆ 定理5.1 各遷移が、ni回中mij回発生
  • 19. 5/12/2015 7th #ぞくパタ 19 Lbの最大化  nj:サイコロωjを取り出した回数  njk:サイコロωjを投げて出た目がvkであった回数 j 1v mv …………………… 回1j1 nbj  回22 jj nb  回jkjk nb  回jmjm nb 回jn ts tx  tt xsb , 2v kv 11 log jj bn 22 log jj bn jkjk bn log jmjm bn log Concrete output function Symbolic output function    n t ttb xsbL 1 ,log              c j m k jkjk n t ttb bnxsbL 1 11 log,log 1 1  m k jkb j m k jk nn 1 最大化対象の関数 拘束条件 自明な条件 j jk m l jl jk jk n n n n b   1 ˆ 定理5.1 t回目に選択 したサイコロ そのサイコロの目 各出力が、nj回中njk回発生
  • 20. 5/12/2015 7th #ぞくパタ 20 Lρの最大化  本例題で扱う観測データは完全データであるので、s1が ω1,ω2,…ωcのいずれかであるかは既知。  そこで、 s1=ωiであったと仮定する。  すると下記が得られる。  推定値は上式を最大にするパラメータρであり、下記を得る   iisPL  loglog 1        ijj i  0ˆ 1ˆ         010    i 初期状態確率ベクトル
  • 21. 5/12/2015 7th #ぞくパタ 21 Thanks a lot!