SlideShare una empresa de Scribd logo
1 de 36
Descargar para leer sin conexión
PRML読書会第11回
8.4 グラフ    ルモ ルによる推

          2010-02-06
      SUHARA YOSHIHIKO
       (id:sleepy_yoshi)
目次
• 8.4 グラフ        ルモ ルによる推
 –   8.4.1   連鎖における推
 –   8.4.2   木
 –   8.4.3   因子グラフ               ここまで
 –   8.4.4   積和アルゴリズム
 –   8.4.5   max-sumアルゴリズム
 –   8.4.6   一般のグラフにおける      推
 –   8.4.7   ループあり    伝播
 –   8.4.8   グラフ構造の学習



                                    1
本発表のポイント
(1) 連鎖ノードにおけるメッセージパッシング
(2) 因子グラフとは? 因子グラフの作り方




                          2
8.4 グラフィカルモデルに
     お



                 3
グラフ         ルモ ルにおける推
• 目的: グラフ   ルモ ルにおける推
 – いくつかのノードが観測された際に,残ったノード
   (のうちいくつか) の事後分布を知りたい


• アプローチ
 – グラフ構造を 用して局所的なメッセージの伝播を
   用いて     を う
 – cf.   は10章で紹介




                             4
???
                             イズの                      の
• 2変数x, y上の同時分布を因数分解する
(a) p ( x, y ) = p ( x) p ( y | x)


(b) yが観測された

(c) ???
             p ( y ) = ∑ p ( y | x' ) p ( x' )   (8.47)
                        x'

                          p ( y | x) p ( x)
             p( x | y ) =                        (8.48)
                               p( y )

          p( x, y ) = p( x | y ) p( y ) = p( y | x) p( x) ではダメ?    5
8.4.1   にお



             6
無向連鎖のグラフの
                                                              K状態       変数




      1
p(x) = ψ 1, 2 ( x1 , x2 ) 2,3 ( x2 , x3 )Lψ
                        ψ                     −1,   (x   −1   ,x   )   (8.49)
      Z
                                                    K×Kの表
                                 N-1個
  ⇒ 同時分布は (N-1) K2 個のパラメータを持つ

           習
          ※有向グラフと同じ条件付き                 性を持つ


                                                                          7
周辺分布の推
• 連鎖 中のノードの周辺分布を推                                したい
 – どのノードも観測されていない場合
                                   コレ

                         xn



周辺分布 p ( xn ) =   ∑L ∑∑L ∑ p(x)
                  x1   xn−1 xn+1        x
                                                       (8.50)

                                            xn以外で周辺化

 ⇒ xが取りうる状態の数: KN個
       ポイント: 連鎖の さNに対して
     指数オーダーO(KN)のメモリ と計算                                        8
STOP! ポテンシャル関数って何なのさ?

• (規格化されるので) ψ(xC) > 0 であればなんでもよい
 –  えばボル マン分布: ψ C (x C ) = exp{− E (x C )}
 – エネルギー関数も本文中に記述なし


• ポテンシャル関数の周辺化ってどういうこと?
 – 簡単のためxc={x1,x2},x1,x2は0,1の2                             変数とする

    ψ C ( x1 ) = ∑ exp{− E ( x1 , x2 )}
                x2
             = exp{− E ( x1 , x2 = 0)} + exp{− E ( x1 , x2 = 1)}

の
 ポテンシャル関数を使って説明しているのは一般性を保つため
  くなったら適   に  変換すべし
                                                                   9
周辺分布の                                               よい推 :                                                          て
グラフ       ルモ ルの条件付き                                              性を 用
xNの周辺化の               ∑ψ (x , x )ψ (x , x )Lψ
                      x
                                1, 2    1        2       2,3    2       3                      −1,   (x   −1   ,x   )
               = ψ 1, 2 ( x1 , x2 ) 2,3 ( x2 , x3 )L ∑ψ
                                  ψ                                                            −1,   (x   −1   ,x   )
                                                                                 x
                                                                                               xNに依存する部分だけでよい


周辺化のイメージ              ψ    −1,     (x       −1   ) ≡ ∑ψ         −1,     (x           −1   ,x   )
                                                     x
          ψ          (x        = 1, x = 1)          L ψ              (x      = K , x = 1) 
xNについて         −1,        −1                                   −1,         −1
                                                                                           
周辺化                        M             O                                  M             
          ψ          ( x −1 = 1, x = K ) L ψ                         ( x −1 = K , x = K ) 
              −1,                                             −1,                         


          (ψ    −1,       (x     −1    = 1) L ψ                  −1,       (x        −1    = K ))                       10
周辺分布の                                        よい推 : 本番
                      1
           p ( x) =     ψ 1, 2 ( x1 , x2 )ψ 2,3 ( x2 , x3 )Lψ    −1,   (x   −1   ,x   )
                      Z
                                                     代入

           p( xn ) = ∑L ∑∑ L ∑ p(x)
                        x1        xn−1 xn+1   x


さき どの条件付き                     性を 用
              1                                                                 
   p ( xn ) =   ∑ψ n −1,n ( xn −1 , xn )L ∑ψ 2,3 ( x2 , x3 )∑ψ 1, 2 ( x1 , x2 ) L
              Z x
                              n −1        x           2     x                   
                                                                                 1  

                                                           µα ( xn )
                                                                                 
                             ∑ψ n ,n +1 (xn , xn+1 )L ∑ψ       −1,   (x −1 , x ) L
                              xn+1
                                                      x                          
                                                                                          11
                                                   µ β ( xn )
入れ えによる計算
     • 演算             による計算                    の : ab + ac = a(b + c)
                                                            3回 ⇒ 2回
ψ 1, 2 ( x1 , x2 )   をx1について周辺化
  ψ 1, 2 ( x1 = 1, x2 = 1) L ψ 1, 2 ( x1 = K , x2 = 1)      ψ 1, 2 ( x2 = 1) 
                                                                             
               M           O              M                          M       
 ψ ( x = 1, x = K ) L ψ ( x = K , x = K )                  ψ ( x = K ) 
  1, 2 1           2          1, 2    1        2            1, 2 2           
                       K×Kの演算

   同じことをN-1回繰り返すので,p(xn)を求めるために必要な
   計算 はO(NK2)
                       ポイント: 連鎖の さNに対して
                        線形オーダーO(NK2)の計算                                      12
局所的なメッセージ伝播
           1                                                    規格化係数
  p ( x ) = µ a ( xn ) µ β ( xn )                                         Z = ∑ µ a ( xn ) µ β ( xn )
           Z                                                                    xn

        – μα: 前向きに伝わるメッセージ
        – μβ: 後ろ向きに伝わるメッセージ




前向き                                                  後ろ向き
                                                                                                
 µ a ( xn ) = ∑ψ n −1,n ( xn −1 , xn ) ∑ L         µ β ( xn ) = ∑ψ n,n +1 ( xn , xn +1 ) ∑ L
              xn−1                      xn −2                   xn+1                      xn+ 2 

           = ∑ψ n −1,n ( xn −1 , xn ) µα ( xn −1 )              = ∑ψ n ,n +1 ( xn , xn +1 ) µ β ( xn +1 )
                                                                   xn+1
              xn−1
                                                                                                       13
連鎖上全てのノードに対しての推

• 伝播中すべてのメッセージを保存
  (1) メッセージμαをx1からxNまで前向きに伝播
  (2) メッセージμβをxNからx1まで後ろ向きに伝播
       µ a ( x2 ) µ a ( xn −1 ) µ a ( xn ) µ a ( xn +1 )           µa ( x )




          µ β ( x1 ) µ β ( xn − 2 )   µ β ( xn −1 )   µ β ( xn )   µβ ( x   −1   )
    ※1 計算 は1つのノードに対する計算 の2倍
    ※2 Zは都合のよいノードで計算すればよい

任意のノードの周辺分布を式(8.54)を用いて計算可能
                1
      p ( xn ) = ∑ µ a ( xn ) µ β ( xn ) (8.54)                                      14
                Z xn
演習8.15:                                         する2点の同時分布
   •            する2点の同時分布 p(xn-1, xn)
xn, xn-1以外を周辺化する
                     1
p( xn −1 , xn ) =      ψ     (x , x )
                     Z n −1,n n −1 n
                                                                                            
                    ∑ψ n − 2,n −1 ( xn − 2 , xn −1 )L ∑ψ 2,3 ( x2 , x3 )∑ψ 1, 2 ( x1 , x2 ) L
                     xn− 2
                                                      x2                 x1                 

                                                    µα ( xn−1 )
                                                                          
                    ∑ψ n ,n +1 ( xn , xn +1 )L ∑ψ             (x −1 , x ) L
                                                                                                    ⇒ (8.54)
                                                          −1,
                     xn+1
                                               x                          

                                             µ β ( xn )                                                  15
補足: チャップマン-コルモゴロフの等式

• ホワイトボードで説明




                       16
8.4.2 木



          17
メッセージパッシングの拡張
• ノードの連鎖から成るグラフでは,ノード数に
  線形な時間で      推 可能なことを示した
• 木 (tree) と呼ばれるクラスでも同様に局所的
  なメッセージパッシングによる推 が可能
⇒ 連鎖についてのメッセージパッシングを一般化
  した積和アルゴリズムを導出




                積和アルゴリズムについては
                8.4.4を乞うご期待! 18
木の種類
• 無向木
  – 任意のノード間に 一の   が存在
• 有向木
  – 根 (root) と呼ばれる親を持たないノードを1つだけ持ち,他の全ての
    ノードは親を1つだけ持つ
• 多重木
  – 2つ以上親を持つノードが存在するが,任意の2ノード間の (方向を無
    視した)  が1つしかない有向グラフ




   無向木            有向木          多重木
             モラル化で変化なし     モラル化でループが発生
                                    19
習: モラル化
• 有向グラフから無向グラフへの変換方法
 – 親同士を結婚させる≒できちゃった婚
                             結婚!
  父                     父


      子                      子
               モラル化

                             重婚!        ザ・ばっくれ・バーク
                                        レー・ボーイズ
 父1       父2            父1         父2   by 和




      子        モラル化?!         子                20
モラル化:参考情報




            などなど
               21
演習8.18
• 有向木によって表現される分布が,対応する無向木上の
  等価な分布によって (自明に) 表現されることを示せ.
  無向木で表現される分布が,クリークポテンシャルを適
   に規格化することにより,有向木で表現可能であるこ
  とも示せ.ある与えられた無向木から構築できる有向木
  の数を計算せよ.

⇒ ホワイトボードで説明




                            22
8.4.3 因子グラフ



              23
因子グラフ
• 有向グラフ,無向グラフを因子グラフで表現
 – 局所的な変数の部分集合のみに依存する関数の集合
   の積として表現可能

因子グラフ      p ( x) = ∏ f s ( x s )        (8.59)
                         s



有向グラフ   ⇒ 親にのみ依存という条件付き             性を 用
                   K
          p(x) = ∏ p( xk | pa k )     (8.5)
                  k =1
無向グラフ ⇒ 極大クリーク上のポテンシャル関数の積で表現
                1
          p(x) = ∏ψ C (x C )          (8.39)      24
                Z C
因子グラフの
   p(x) = f a ( x1 , x2 ) f b ( x1 , x2 ) f c ( x2 , x3 ) f d ( x3 )
• この因数分解のグラフ表現
                                                   変数ノード



                                                        因子ノード




      無向グラフ表現では,これらの積は
      ひとつのポテンシャル関数に統合された
  ⇒ 因子グラフではより詳細な情報が表現される                                               25
有向グラフからの変換
(1) ノードに対応する変数ノードを作る
(2) 条件付き分布に対応する因子を付け加える
(3) 適 なリンクを加える




        条件付き分布
        に着目


             f ( x1 , x2 , x3 )                            f a ( x1 ) = p ( x1 )
これはダメ? なぜ?
             = p ( x1 ) p( x2 ) p( x3 | x1 , x2 )          f b ( x2 ) = p ( x 2 )
                                                    f c ( x1 , x2 , x3 ) = p( x3 | x1 , x2 )
                                                                                    26
無向グラフからの変換
(1) 各ノードに対応する変数ノードを作る
(2) 極大クリークxsに対応する因子ノードを加える




                   f ( x1 , x2 , x3 ) = ψ ( x1 , x2 , x3 )    f a ( x1 , x2 , x3 ) f b ( x2 , x3 )
                                                             = ψ ( x1 , x2 , x3 )
 注意点
   f a ( x1 , x2 , x3 ) f b ( x2 , x3 ) ≠ ψ ( x1 , x2 , x3 )ψ ( x2 , x3 )                  27
局所的な            を持つグラフ
• 有向グラフにおいて,適            な因子関数を                              す
  ることにより局所的な             を  可能




          f ( x1 , x2 , x3 ) = p( x1 ) p( x2 | x1 ) p( x3 | x1 , x2 )

                                                                 28
複数の因子グラフによる表現
• 複数の因子グラフが,ひとつの有向グラフ/無向グラフ
  を表現することがある




        p(x) = f ( x1 , x2 , x3 )

                         p(x) = f a ( x1 , x2 ) f b ( x1 , x3 ) f c ( x2 , x3 )
                          何の条件付き                     性も表現しない
                                                                         29
(再掲) 本発表のポイント
(1) 連鎖ノードにおけるメッセージパッシング
(2) 因子グラフとは? 因子グラフの作り方




                          30
発表まとめ
• 連鎖による推 を じて,メッセージによる推
   の 要を解説した
• 有向/無向グラフから因子グラフと因子関数を
  生成する方法を解説した
• 疑問「因子グラフがなんで嬉しいの?」




      続く発表に乞うご期待!
                          31
次回予告
       32
地   ノ   ほ   こ
獄   ー   ん   れ
だ   テ   と   か
    ー   う   ら




…
    シ   の   が
    ョ
    ン




                33
34
おしまい



       35

Más contenido relacionado

La actualidad más candente

Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Yuki Matsubara
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
Hiroyuki Kato
 

La actualidad más candente (20)

PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML11章
PRML11章PRML11章
PRML11章
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
 
Prml 10 1
Prml 10 1Prml 10 1
Prml 10 1
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
EMアルゴリズム
EMアルゴリズムEMアルゴリズム
EMアルゴリズム
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
 

Similar a 8.4 グラフィカルモデルによる推論

パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
show you
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
t2tarumi
 
データ圧縮
データ圧縮データ圧縮
データ圧縮
Joe Suzuki
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notation
Kenta Oono
 

Similar a 8.4 グラフィカルモデルによる推論 (20)

PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
Chapter13.2.3
Chapter13.2.3Chapter13.2.3
Chapter13.2.3
 
17th cvsaisentan takmin
17th cvsaisentan takmin17th cvsaisentan takmin
17th cvsaisentan takmin
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタ
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
データ圧縮
データ圧縮データ圧縮
データ圧縮
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notation
 
Chapter9 2
Chapter9 2Chapter9 2
Chapter9 2
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 

Más de sleepy_yoshi

SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
sleepy_yoshi
 

Más de sleepy_yoshi (20)

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
 
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじPRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
 

Último

Último (7)

NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 

8.4 グラフィカルモデルによる推論

  • 1. PRML読書会第11回 8.4 グラフ ルモ ルによる推 2010-02-06 SUHARA YOSHIHIKO (id:sleepy_yoshi)
  • 2. 目次 • 8.4 グラフ ルモ ルによる推 – 8.4.1 連鎖における推 – 8.4.2 木 – 8.4.3 因子グラフ ここまで – 8.4.4 積和アルゴリズム – 8.4.5 max-sumアルゴリズム – 8.4.6 一般のグラフにおける 推 – 8.4.7 ループあり 伝播 – 8.4.8 グラフ構造の学習 1
  • 5. グラフ ルモ ルにおける推 • 目的: グラフ ルモ ルにおける推 – いくつかのノードが観測された際に,残ったノード (のうちいくつか) の事後分布を知りたい • アプローチ – グラフ構造を 用して局所的なメッセージの伝播を 用いて を う – cf. は10章で紹介 4
  • 6. ??? イズの の • 2変数x, y上の同時分布を因数分解する (a) p ( x, y ) = p ( x) p ( y | x) (b) yが観測された (c) ??? p ( y ) = ∑ p ( y | x' ) p ( x' ) (8.47) x' p ( y | x) p ( x) p( x | y ) = (8.48) p( y ) p( x, y ) = p( x | y ) p( y ) = p( y | x) p( x) ではダメ? 5
  • 7. 8.4.1 にお 6
  • 8. 無向連鎖のグラフの K状態 変数 1 p(x) = ψ 1, 2 ( x1 , x2 ) 2,3 ( x2 , x3 )Lψ ψ −1, (x −1 ,x ) (8.49) Z K×Kの表 N-1個 ⇒ 同時分布は (N-1) K2 個のパラメータを持つ 習 ※有向グラフと同じ条件付き 性を持つ 7
  • 9. 周辺分布の推 • 連鎖 中のノードの周辺分布を推 したい – どのノードも観測されていない場合 コレ xn 周辺分布 p ( xn ) = ∑L ∑∑L ∑ p(x) x1 xn−1 xn+1 x (8.50) xn以外で周辺化 ⇒ xが取りうる状態の数: KN個 ポイント: 連鎖の さNに対して 指数オーダーO(KN)のメモリ と計算 8
  • 10. STOP! ポテンシャル関数って何なのさ? • (規格化されるので) ψ(xC) > 0 であればなんでもよい – えばボル マン分布: ψ C (x C ) = exp{− E (x C )} – エネルギー関数も本文中に記述なし • ポテンシャル関数の周辺化ってどういうこと? – 簡単のためxc={x1,x2},x1,x2は0,1の2 変数とする ψ C ( x1 ) = ∑ exp{− E ( x1 , x2 )} x2 = exp{− E ( x1 , x2 = 0)} + exp{− E ( x1 , x2 = 1)} の ポテンシャル関数を使って説明しているのは一般性を保つため くなったら適 に 変換すべし 9
  • 11. 周辺分布の よい推 : て グラフ ルモ ルの条件付き 性を 用 xNの周辺化の ∑ψ (x , x )ψ (x , x )Lψ x 1, 2 1 2 2,3 2 3 −1, (x −1 ,x ) = ψ 1, 2 ( x1 , x2 ) 2,3 ( x2 , x3 )L ∑ψ ψ −1, (x −1 ,x ) x xNに依存する部分だけでよい 周辺化のイメージ ψ −1, (x −1 ) ≡ ∑ψ −1, (x −1 ,x ) x ψ (x = 1, x = 1) L ψ (x = K , x = 1)  xNについて  −1, −1 −1, −1  周辺化  M O M  ψ ( x −1 = 1, x = K ) L ψ ( x −1 = K , x = K )   −1, −1,  (ψ −1, (x −1 = 1) L ψ −1, (x −1 = K )) 10
  • 12. 周辺分布の よい推 : 本番 1 p ( x) = ψ 1, 2 ( x1 , x2 )ψ 2,3 ( x2 , x3 )Lψ −1, (x −1 ,x ) Z 代入 p( xn ) = ∑L ∑∑ L ∑ p(x) x1 xn−1 xn+1 x さき どの条件付き 性を 用 1     p ( xn ) = ∑ψ n −1,n ( xn −1 , xn )L ∑ψ 2,3 ( x2 , x3 )∑ψ 1, 2 ( x1 , x2 ) L Z x  n −1 x 2 x   1  µα ( xn )     ∑ψ n ,n +1 (xn , xn+1 )L ∑ψ −1, (x −1 , x ) L  xn+1  x   11 µ β ( xn )
  • 13. 入れ えによる計算 • 演算 による計算 の : ab + ac = a(b + c) 3回 ⇒ 2回 ψ 1, 2 ( x1 , x2 ) をx1について周辺化  ψ 1, 2 ( x1 = 1, x2 = 1) L ψ 1, 2 ( x1 = K , x2 = 1)   ψ 1, 2 ( x2 = 1)       M O M   M  ψ ( x = 1, x = K ) L ψ ( x = K , x = K )  ψ ( x = K )   1, 2 1 2 1, 2 1 2   1, 2 2  K×Kの演算 同じことをN-1回繰り返すので,p(xn)を求めるために必要な 計算 はO(NK2) ポイント: 連鎖の さNに対して 線形オーダーO(NK2)の計算 12
  • 14. 局所的なメッセージ伝播 1 規格化係数 p ( x ) = µ a ( xn ) µ β ( xn ) Z = ∑ µ a ( xn ) µ β ( xn ) Z xn – μα: 前向きに伝わるメッセージ – μβ: 後ろ向きに伝わるメッセージ 前向き 後ろ向き     µ a ( xn ) = ∑ψ n −1,n ( xn −1 , xn ) ∑ L µ β ( xn ) = ∑ψ n,n +1 ( xn , xn +1 ) ∑ L xn−1  xn −2  xn+1  xn+ 2  = ∑ψ n −1,n ( xn −1 , xn ) µα ( xn −1 ) = ∑ψ n ,n +1 ( xn , xn +1 ) µ β ( xn +1 ) xn+1 xn−1 13
  • 15. 連鎖上全てのノードに対しての推 • 伝播中すべてのメッセージを保存 (1) メッセージμαをx1からxNまで前向きに伝播 (2) メッセージμβをxNからx1まで後ろ向きに伝播 µ a ( x2 ) µ a ( xn −1 ) µ a ( xn ) µ a ( xn +1 ) µa ( x ) µ β ( x1 ) µ β ( xn − 2 ) µ β ( xn −1 ) µ β ( xn ) µβ ( x −1 ) ※1 計算 は1つのノードに対する計算 の2倍 ※2 Zは都合のよいノードで計算すればよい 任意のノードの周辺分布を式(8.54)を用いて計算可能 1 p ( xn ) = ∑ µ a ( xn ) µ β ( xn ) (8.54) 14 Z xn
  • 16. 演習8.15: する2点の同時分布 • する2点の同時分布 p(xn-1, xn) xn, xn-1以外を周辺化する 1 p( xn −1 , xn ) = ψ (x , x ) Z n −1,n n −1 n     ∑ψ n − 2,n −1 ( xn − 2 , xn −1 )L ∑ψ 2,3 ( x2 , x3 )∑ψ 1, 2 ( x1 , x2 ) L  xn− 2  x2  x1   µα ( xn−1 )     ∑ψ n ,n +1 ( xn , xn +1 )L ∑ψ (x −1 , x ) L ⇒ (8.54) −1,  xn+1  x   µ β ( xn ) 15
  • 18. 8.4.2 木 17
  • 19. メッセージパッシングの拡張 • ノードの連鎖から成るグラフでは,ノード数に 線形な時間で 推 可能なことを示した • 木 (tree) と呼ばれるクラスでも同様に局所的 なメッセージパッシングによる推 が可能 ⇒ 連鎖についてのメッセージパッシングを一般化 した積和アルゴリズムを導出 積和アルゴリズムについては 8.4.4を乞うご期待! 18
  • 20. 木の種類 • 無向木 – 任意のノード間に 一の が存在 • 有向木 – 根 (root) と呼ばれる親を持たないノードを1つだけ持ち,他の全ての ノードは親を1つだけ持つ • 多重木 – 2つ以上親を持つノードが存在するが,任意の2ノード間の (方向を無 視した) が1つしかない有向グラフ 無向木 有向木 多重木 モラル化で変化なし モラル化でループが発生 19
  • 21. 習: モラル化 • 有向グラフから無向グラフへの変換方法 – 親同士を結婚させる≒できちゃった婚 結婚! 父 父 子 子 モラル化 重婚! ザ・ばっくれ・バーク レー・ボーイズ 父1 父2 父1 父2 by 和 子 モラル化?! 子 20
  • 22. モラル化:参考情報 などなど 21
  • 23. 演習8.18 • 有向木によって表現される分布が,対応する無向木上の 等価な分布によって (自明に) 表現されることを示せ. 無向木で表現される分布が,クリークポテンシャルを適 に規格化することにより,有向木で表現可能であるこ とも示せ.ある与えられた無向木から構築できる有向木 の数を計算せよ. ⇒ ホワイトボードで説明 22
  • 25. 因子グラフ • 有向グラフ,無向グラフを因子グラフで表現 – 局所的な変数の部分集合のみに依存する関数の集合 の積として表現可能 因子グラフ p ( x) = ∏ f s ( x s ) (8.59) s 有向グラフ ⇒ 親にのみ依存という条件付き 性を 用 K p(x) = ∏ p( xk | pa k ) (8.5) k =1 無向グラフ ⇒ 極大クリーク上のポテンシャル関数の積で表現 1 p(x) = ∏ψ C (x C ) (8.39) 24 Z C
  • 26. 因子グラフの p(x) = f a ( x1 , x2 ) f b ( x1 , x2 ) f c ( x2 , x3 ) f d ( x3 ) • この因数分解のグラフ表現 変数ノード 因子ノード 無向グラフ表現では,これらの積は ひとつのポテンシャル関数に統合された ⇒ 因子グラフではより詳細な情報が表現される 25
  • 27. 有向グラフからの変換 (1) ノードに対応する変数ノードを作る (2) 条件付き分布に対応する因子を付け加える (3) 適 なリンクを加える 条件付き分布 に着目 f ( x1 , x2 , x3 ) f a ( x1 ) = p ( x1 ) これはダメ? なぜ? = p ( x1 ) p( x2 ) p( x3 | x1 , x2 ) f b ( x2 ) = p ( x 2 ) f c ( x1 , x2 , x3 ) = p( x3 | x1 , x2 ) 26
  • 28. 無向グラフからの変換 (1) 各ノードに対応する変数ノードを作る (2) 極大クリークxsに対応する因子ノードを加える f ( x1 , x2 , x3 ) = ψ ( x1 , x2 , x3 ) f a ( x1 , x2 , x3 ) f b ( x2 , x3 ) = ψ ( x1 , x2 , x3 ) 注意点 f a ( x1 , x2 , x3 ) f b ( x2 , x3 ) ≠ ψ ( x1 , x2 , x3 )ψ ( x2 , x3 ) 27
  • 29. 局所的な を持つグラフ • 有向グラフにおいて,適 な因子関数を す ることにより局所的な を 可能 f ( x1 , x2 , x3 ) = p( x1 ) p( x2 | x1 ) p( x3 | x1 , x2 ) 28
  • 30. 複数の因子グラフによる表現 • 複数の因子グラフが,ひとつの有向グラフ/無向グラフ を表現することがある p(x) = f ( x1 , x2 , x3 ) p(x) = f a ( x1 , x2 ) f b ( x1 , x3 ) f c ( x2 , x3 ) 何の条件付き 性も表現しない 29
  • 32. 発表まとめ • 連鎖による推 を じて,メッセージによる推 の 要を解説した • 有向/無向グラフから因子グラフと因子関数を 生成する方法を解説した • 疑問「因子グラフがなんで嬉しいの?」 続く発表に乞うご期待! 31
  • 34. ノ ほ こ 獄 ー ん れ だ テ と か ー う ら … シ の が ョ ン 33
  • 35. 34