SlideShare una empresa de Scribd logo
1 de 18
Descargar para leer sin conexión
PRML読書会(第14回)
     11.4 スライスサンプリング
           2010/05/08

      発表者 : 坪坂 正志
Blog: d.hatena.ne.jp/tsubosaka
 m(dot)tsubosaka@gmail.com
スライスサンプリング
• MHアルゴリズムはステップサイズに敏感とい
  う難点がある
 – ステップサイズが小さすぎると現在状態との相関
   が消えるのが遅くなる
 – ステップサイズが大きすぎると候補点がほとんど
   棄却され非効率となる
• 分布の特徴に合わせて適切なステップサイズ
  を用いたい
    スライスサンプリング [Neal 2003]
ステップ幅について
  小さすぎると現在状態との相関が
  消えるのが遅くなる
ステップ幅について
  大きすぎると棄却率が高くなり、
  非効率となる
ステップ幅について
  分布に応じて適切なステップサイズ
  を用いたい
定式化
• 簡単のため1変数の場合を考える
 – 多変量の場合もギブスサンプリングのように各変
   数を順番にサンプリングすることによって適用で
   きる
• ������ ������ ∝ ������(������)に従う分布からサンプリングする
スライスサンプリング(アルゴリズム)
• 入力: 現在の点 ������
• 出力: 候補値 ������ ′
1. ,0, ������ ������ -の範囲から一様に������をサンプリング
2. *������ ′ : ������ ������ > ������+なる領域から一様に������ ′ をサンプリング
  1. 下図の実線部分からサンプリングする
正当性
• 前述のアルゴリズムは以下で与えられる分布


からサンプリングを行なっているのに等しい
• このとき������の周辺分布は




となるので������だけ取り出すことにより������(������)からサンプリ
ングできる
正当性


• ������(������|������)に従って������をサンプリングするには
  ������(0, ������ ������ )からサンプルすればよい
• ������(������|������)に従って������をサンプリングするには
  *������ ′ : ������ ������ > ������+なる領域から一様にサンプリン
  グすればよい
分解された分布に関して
        [Damien et al. 1999]
• ������ ������ ∝ ������ ������ ������(������)の形で書けるとき



に従う領域から一様にサンプリングすればよい
• ������を固定し、*������: ������ ������ > ������+で定義される分布の「ス
  ライス」から������(������)に比例して������をサンプリングする
• ただし、これは分布のスライスから直接サンプリ
  ングできるときに限る
離散の場合
• 離散の場合、 *������: ������ ������ > ������+となる������の領域に
  おいて������(������)に比例して������をサンプリングするの
  は容易(ex: LWLM, LDA)
• Dirichlet Processのような������が可算無限個ある
  モデルでも有限の領域で取り扱うことができ
  る[Gael et al. 2008, Walker 2007]
 – クラス数の上限を設けるようなことをしなくてよく
   なる (Truncated Gibbs sampler [Ishwaran and
   James 2001])
分布のスライスから
    直接サンプリングできないとき
• 一般には*������ ′ : ������ ������ > ������+なる領域からサンプ
  ルするのは難しい
• 現在の������の値������ (������) を含む領域,������min , ������max -か
  ら一様にサンプリングする
領域の決定方法
http://www.cs.toronto.edu/~radford/slice-aos.abstract.html より




  (b) 現在の値 x_0 を含む幅wの領域(この領域の位置はランダムに決定する)か
  ら始めて、各端点がスライスの中に入ってる限り領域を拡張する
  (c) 候補点x’はこの中から一様に選択され、それがスライスの中にあればx_1と
  なる。そうでなければx’を端点の一つとしてx_0を含み続けるよう領域が縮小され
  る
正当性
• サンプリングの順としては(z,u)->(z,u’)->(z’,u’)
  となっている
• (z,u)->(z,u’)については前述したとおり
  ,0, ������ ������ -から一様サンプリングするだけ
• (z,u’)->(z’,u’)に関してはzからz’へ行くときに
  ������ ������ ′ , ������ ������, ������′ = ������(������, ������(������)|������ ′ , ������′ )を満たすよう
  な手続きで遷移させればよい
   – ここでrはzからz’に行く際のランダムな選択の列
     である。また������はrに対する一対一でヤコビアンが
     1の写像
多変量の分布
• ギブスサンプリングのように、各変数を順番
  にサンプリングする
 – ������(������������ |������−������ )に比例する関数が計算できる必要があ
   る
• 多変量を一気にサンプルする方法もある
 – Ex Elliptical slice sampling [Murray 2010 et.al]
Elliptical slice sampling (設定)
• 多変量ガウス分布に従う潜在ベクトルf
  – ������~������(������, ������)
• 尤度関数������ ������ = ������(data|������)
  – 問題に応じて、違った値となる
                               2
     • 回帰: ������ ������������ ; ������������ , ������������ ������������ = ������������ ⋅ ������
     • 分類: ������(������������ ������������ )
Elliptical slice sampling (概要)
[Murray et al, 2010]より
                         • 現在点×に対して、auxiliary
                           variate(補助点) + を������(0, Σ)
                           からサンプルする
                         • 現在点と補助点を結ぶ楕円
                           状から区間を狭めつつ候補
                           点・をサンプリングしていく
References
• [Damien et al. 1999] Gibbs sampling for bayesian non-conjugate and
  hierarchical models by using auxiliary variagles. Journal of the Royal
  Statistical Society B, 61, 331--344
• [Gael et al. 2008] Jurgen Van Gael, Yunus Saatci, Yee Whye Teh, and Zoubin
  Ghahramani. Beam sampling for the infinite hidden markov model. In Proc.
  ICML
• [Ishwaran and James 2001] Hemant Ishwaran and Lancelot F. James. Gibbs
  sampling methods for stick-breaking priors . Journal of the American
  Statistical Assoiation, 96, 161—173
• [Murray et al. 2010] Iain Murray, Ryan Prescott Adams and David J.C.
  Mackay. Elliptical slice sampling. In Proc. AISTATS
• [Neal 2003] Radford M. Neal. Slice sampling. Annals of Statistics,31, 705--
  741
• [Walker 2007] Stephen G. Walker. Sampling the dirichlet mixture model
  with slices. Communications in Statistics: Simulation and Computation, 36,
  45---54

Más contenido relacionado

La actualidad más candente

混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13matsuolab
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningssuserca2822
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定Hiroshi Nakagawa
 
MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」moterech
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式Hiroshi Nakagawa
 
Chapter 8 ボルツマンマシン - 深層学習本読み会
Chapter 8 ボルツマンマシン - 深層学習本読み会Chapter 8 ボルツマンマシン - 深層学習本読み会
Chapter 8 ボルツマンマシン - 深層学習本読み会Taikai Takeda
 

La actualidad más candente (20)

混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
PRML11章
PRML11章PRML11章
PRML11章
 
MCMC法
MCMC法MCMC法
MCMC法
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
Prml 10 1
Prml 10 1Prml 10 1
Prml 10 1
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
PRML8章
PRML8章PRML8章
PRML8章
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
Chapter 8 ボルツマンマシン - 深層学習本読み会
Chapter 8 ボルツマンマシン - 深層学習本読み会Chapter 8 ボルツマンマシン - 深層学習本読み会
Chapter 8 ボルツマンマシン - 深層学習本読み会
 

Similar a Prml11 4

[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalKCS Keio Computer Society
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient DescentRyutaro Yamauchi
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門Yu Tamura
 
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するかSAKAUE, Tatsuya
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法Satoshi Hara
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01goony0101
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリングKosei ABE
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章Shoichi Taguchi
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSamplingdaiki hojo
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
Let中部2012シンポスライド
Let中部2012シンポスライドLet中部2012シンポスライド
Let中部2012シンポスライドMizumoto Atsushi
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 

Similar a Prml11 4 (20)

Car rmodel
Car rmodelCar rmodel
Car rmodel
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
 
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
強化学習6章
強化学習6章強化学習6章
強化学習6章
 
Let中部2012シンポスライド
Let中部2012シンポスライドLet中部2012シンポスライド
Let中部2012シンポスライド
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 

Más de 正志 坪坂

KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing正志 坪坂
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model正志 坪坂
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220正志 坪坂
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回正志 坪坂
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict正志 坪坂
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計正志 坪坂
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining正志 坪坂
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit正志 坪坂
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング正志 坪坂
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)正志 坪坂
 

Más de 正志 坪坂 (20)

Recsys2018 unbiased
Recsys2018 unbiasedRecsys2018 unbiased
Recsys2018 unbiased
 
WSDM2018Study
WSDM2018StudyWSDM2018Study
WSDM2018Study
 
Recsys2016勉強会
Recsys2016勉強会Recsys2016勉強会
Recsys2016勉強会
 
KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回
 
Recsys2015
Recsys2015Recsys2015
Recsys2015
 
KDD 2015読み会
KDD 2015読み会KDD 2015読み会
KDD 2015読み会
 
Recsys2014 recruit
Recsys2014 recruitRecsys2014 recruit
Recsys2014 recruit
 
EMNLP2014_reading
EMNLP2014_readingEMNLP2014_reading
EMNLP2014_reading
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict
 
KDD2014_study
KDD2014_study KDD2014_study
KDD2014_study
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)
 
Tokyowebmining2012
Tokyowebmining2012Tokyowebmining2012
Tokyowebmining2012
 

Prml11 4

  • 1. PRML読書会(第14回) 11.4 スライスサンプリング 2010/05/08 発表者 : 坪坂 正志 Blog: d.hatena.ne.jp/tsubosaka m(dot)tsubosaka@gmail.com
  • 2. スライスサンプリング • MHアルゴリズムはステップサイズに敏感とい う難点がある – ステップサイズが小さすぎると現在状態との相関 が消えるのが遅くなる – ステップサイズが大きすぎると候補点がほとんど 棄却され非効率となる • 分布の特徴に合わせて適切なステップサイズ を用いたい スライスサンプリング [Neal 2003]
  • 6. 定式化 • 簡単のため1変数の場合を考える – 多変量の場合もギブスサンプリングのように各変 数を順番にサンプリングすることによって適用で きる • ������ ������ ∝ ������(������)に従う分布からサンプリングする
  • 7. スライスサンプリング(アルゴリズム) • 入力: 現在の点 ������ • 出力: 候補値 ������ ′ 1. ,0, ������ ������ -の範囲から一様に������をサンプリング 2. *������ ′ : ������ ������ > ������+なる領域から一様に������ ′ をサンプリング 1. 下図の実線部分からサンプリングする
  • 9. 正当性 • ������(������|������)に従って������をサンプリングするには ������(0, ������ ������ )からサンプルすればよい • ������(������|������)に従って������をサンプリングするには *������ ′ : ������ ������ > ������+なる領域から一様にサンプリン グすればよい
  • 10. 分解された分布に関して [Damien et al. 1999] • ������ ������ ∝ ������ ������ ������(������)の形で書けるとき に従う領域から一様にサンプリングすればよい • ������を固定し、*������: ������ ������ > ������+で定義される分布の「ス ライス」から������(������)に比例して������をサンプリングする • ただし、これは分布のスライスから直接サンプリ ングできるときに限る
  • 11. 離散の場合 • 離散の場合、 *������: ������ ������ > ������+となる������の領域に おいて������(������)に比例して������をサンプリングするの は容易(ex: LWLM, LDA) • Dirichlet Processのような������が可算無限個ある モデルでも有限の領域で取り扱うことができ る[Gael et al. 2008, Walker 2007] – クラス数の上限を設けるようなことをしなくてよく なる (Truncated Gibbs sampler [Ishwaran and James 2001])
  • 12. 分布のスライスから 直接サンプリングできないとき • 一般には*������ ′ : ������ ������ > ������+なる領域からサンプ ルするのは難しい • 現在の������の値������ (������) を含む領域,������min , ������max -か ら一様にサンプリングする
  • 13. 領域の決定方法 http://www.cs.toronto.edu/~radford/slice-aos.abstract.html より (b) 現在の値 x_0 を含む幅wの領域(この領域の位置はランダムに決定する)か ら始めて、各端点がスライスの中に入ってる限り領域を拡張する (c) 候補点x’はこの中から一様に選択され、それがスライスの中にあればx_1と なる。そうでなければx’を端点の一つとしてx_0を含み続けるよう領域が縮小され る
  • 14. 正当性 • サンプリングの順としては(z,u)->(z,u’)->(z’,u’) となっている • (z,u)->(z,u’)については前述したとおり ,0, ������ ������ -から一様サンプリングするだけ • (z,u’)->(z’,u’)に関してはzからz’へ行くときに ������ ������ ′ , ������ ������, ������′ = ������(������, ������(������)|������ ′ , ������′ )を満たすよう な手続きで遷移させればよい – ここでrはzからz’に行く際のランダムな選択の列 である。また������はrに対する一対一でヤコビアンが 1の写像
  • 15. 多変量の分布 • ギブスサンプリングのように、各変数を順番 にサンプリングする – ������(������������ |������−������ )に比例する関数が計算できる必要があ る • 多変量を一気にサンプルする方法もある – Ex Elliptical slice sampling [Murray 2010 et.al]
  • 16. Elliptical slice sampling (設定) • 多変量ガウス分布に従う潜在ベクトルf – ������~������(������, ������) • 尤度関数������ ������ = ������(data|������) – 問題に応じて、違った値となる 2 • 回帰: ������ ������������ ; ������������ , ������������ ������������ = ������������ ⋅ ������ • 分類: ������(������������ ������������ )
  • 17. Elliptical slice sampling (概要) [Murray et al, 2010]より • 現在点×に対して、auxiliary variate(補助点) + を������(0, Σ) からサンプルする • 現在点と補助点を結ぶ楕円 状から区間を狭めつつ候補 点・をサンプリングしていく
  • 18. References • [Damien et al. 1999] Gibbs sampling for bayesian non-conjugate and hierarchical models by using auxiliary variagles. Journal of the Royal Statistical Society B, 61, 331--344 • [Gael et al. 2008] Jurgen Van Gael, Yunus Saatci, Yee Whye Teh, and Zoubin Ghahramani. Beam sampling for the infinite hidden markov model. In Proc. ICML • [Ishwaran and James 2001] Hemant Ishwaran and Lancelot F. James. Gibbs sampling methods for stick-breaking priors . Journal of the American Statistical Assoiation, 96, 161—173 • [Murray et al. 2010] Iain Murray, Ryan Prescott Adams and David J.C. Mackay. Elliptical slice sampling. In Proc. AISTATS • [Neal 2003] Radford M. Neal. Slice sampling. Annals of Statistics,31, 705-- 741 • [Walker 2007] Stephen G. Walker. Sampling the dirichlet mixture model with slices. Communications in Statistics: Simulation and Computation, 36, 45---54