SlideShare una empresa de Scribd logo
1 de 13
Descargar para leer sin conexión
第7章 疎な解を持つカーネルマシン
@urapon_1
カーネル関数の制限
k ( xn , xm)カーネル関数 の制限として、すべての訓練データ対 xn , xm
について計算しなければならない。
→第7章では疎な解を持ち、訓練データ一部を計算することで、
 新しい入力の予測が出来るアルゴリズムを見ていく(SVM,RVM)
SVMの特徴
●
目的関数は凸関数のため、大域的最適解が求まる。
●
ラグランジュの未定乗数法を用いたマージン最大化
●
識別関数の一種であるため、出力の事後確率は得られない。
→RVMでは推定可能
7.1 最大マージン分類器
線形モデルの2値分類問題
分類関数
を用いて、2値分類問題を解く
x1, x2, ..., xN
y(x)=w
T
ϕ( x)+b
訓練データを
目標値を t1,t2,... ,tN (tn∈{−1,1})
tn y( xn)>0
とすると
が成立する。
(7.1)
マージン
分類境界と、訓練データとの最短距離
∣y( x)∣
∣w∣
マージンの最大化問題
t1,t2,... ,tN (tn∈{−1,1}) tn y( xn)>0と から、分類境界と点の距離は
∣y( xn)∣
∣w∣
=
tn y( xn)
∣w∣
=
tn(w
T
ϕ( xn)+b)
∣w∣
であらわされる。
→求めたいのは、マージンを最大化する w ,b なので最適化問題は
arg maxw ,b {
1
w
minn[tn(w
T
ϕ( xn)+b)]}
となる
(7.2)
(7.3)
正規形への変形
tn(w
T
ϕ(xn)+b)=1
境界に最も近い点を
とする。
このスケールの下ではすべてのデータについて下記制約式が成立する
tn(w
T
ϕ(xn)+b)⩾1 n=1,2,... , N
(7.4)
(7.5)
最大化問題の帰着先
1
∣w∣
正規形への変形によって、最大化問題は を最大化する問題に帰着する
arg minw , b
1
2
∣w∣2
よって
を、制約条件下で最小化すればよい。
(7.6)
ラグランジュ関数
an⩾0各制約式ごとに、ラグランジュ乗数 を導入すると、ラグランジェ関数
が、得られる。
(7.7)L(w ,b ,a)=
1
2
∣w∣2
−∑
n=1
N
an {tn(wT
ϕ(xn)+b)−1}
ここで、 より、
̃L(a)=∑
n=1
N
an−
1
2
∑
n=1
N
∑
m=1
N
an am tntm k ( xn , xm)
∂ L
∂w
=0,
∂ L
∂ b
=0
w=∑
n=1
N
antn ϕ( xn)
0=∑
n=1
N
an tn
を代入すると、下記の双対表現が得られる。
aこれを について最大化すればよい。
(7.8)
(7.9)
(7.10)
新しいデータの分類
y(x)=∑
n=1
N
antn k ( x , xn)+b
w=∑
n=1
N
antn ϕ( xn) を用いると、分類関数は下記のように表現される。
KKT条件により
an⩾0
tn y( xn)−1⩾0
an {tn y( xn)−1}=0
が成立する。
an≠0 の箇所をサポートベクトルと呼ぶ。
(7.13)
(7.14)
(7.15)
(7.16)
バイアスパラメータ
a二次計画問題を解き、 が求まると、次にバイアスパラメータを求めることが出来る。
tn
(∑
m∈S
am tm k (xn , xm)+b
)=1
Sここで、 はサポートベクトルの添え字からなる集合
上式を、解くと(平均化)
b=
1
N S
∑
n∈S (tn−∑
m∈S
amtm k ( xn , xm )
)
NSここで、 はサポートベクトルの総数
(7.17)
(7.18)

Más contenido relacionado

La actualidad más candente

2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
Takeshi Sakaki
 
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
Daisuke Yoneoka
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
Akisato Kimura
 
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
Len Matsuyama
 

La actualidad más candente (20)

Prml4 1-4-2
Prml4 1-4-2Prml4 1-4-2
Prml4 1-4-2
 
Prml5 6
Prml5 6Prml5 6
Prml5 6
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
 
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
制限ボルツマンマシン入門
制限ボルツマンマシン入門制限ボルツマンマシン入門
制限ボルツマンマシン入門
 
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章
 
PRML 5.3-5.4
PRML 5.3-5.4PRML 5.3-5.4
PRML 5.3-5.4
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5up
 
はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6
 
Nn bp 3_bitdmux
Nn bp 3_bitdmuxNn bp 3_bitdmux
Nn bp 3_bitdmux
 
BA-Net: Dense Bundle Adjustment Network (3D勉強会@関東)
BA-Net: Dense Bundle Adjustment Network (3D勉強会@関東) BA-Net: Dense Bundle Adjustment Network (3D勉強会@関東)
BA-Net: Dense Bundle Adjustment Network (3D勉強会@関東)
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
解説#78 誤差逆伝播
解説#78 誤差逆伝播解説#78 誤差逆伝播
解説#78 誤差逆伝播
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
 
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
PRML上巻勉強会 at 東京大学 資料 第5章5.1 〜 5.3.1
 
Prml 4.3
Prml 4.3Prml 4.3
Prml 4.3
 
量子情報18
量子情報18量子情報18
量子情報18
 

Similar a Prml7 7.1

パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3
Yohei Sato
 
機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価
Shintaro Fukushima
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
 
Rでの対称行列の固有値・固有ベクトルの最適な求め方
Rでの対称行列の固有値・固有ベクトルの最適な求め方Rでの対称行列の固有値・固有ベクトルの最適な求め方
Rでの対称行列の固有値・固有ベクトルの最適な求め方
wada, kazumi
 

Similar a Prml7 7.1 (14)

Prml revenge7.1.1
Prml revenge7.1.1Prml revenge7.1.1
Prml revenge7.1.1
 
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3
 
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価機械学習を用いた予測モデル構築・評価
機械学習を用いた予測モデル構築・評価
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector Machine
 
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
 
PRML 7-7.1.1 + appendix E
PRML 7-7.1.1 + appendix EPRML 7-7.1.1 + appendix E
PRML 7-7.1.1 + appendix E
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章
 
Deep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generationDeep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generation
 
Rでの対称行列の固有値・固有ベクトルの最適な求め方
Rでの対称行列の固有値・固有ベクトルの最適な求め方Rでの対称行列の固有値・固有ベクトルの最適な求め方
Rでの対称行列の固有値・固有ベクトルの最適な求め方
 
PRML_from5.1to5.3.1
PRML_from5.1to5.3.1PRML_from5.1to5.3.1
PRML_from5.1to5.3.1
 

Más de Satoshi Kawamoto

マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)
Satoshi Kawamoto
 

Más de Satoshi Kawamoto (16)

20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slide20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slide
 
第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1
 
マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)
 
マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)
 
マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)
 
マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)
 
統計検定3級 5
統計検定3級 5統計検定3級 5
統計検定3級 5
 
統計検定3級 4
統計検定3級 4統計検定3級 4
統計検定3級 4
 
統計検定3級 3
統計検定3級 3統計検定3級 3
統計検定3級 3
 
統計検定3級 2
統計検定3級 2統計検定3級 2
統計検定3級 2
 
統計検定3級 1
統計検定3級 1統計検定3級 1
統計検定3級 1
 
Prml 4.3.6
Prml 4.3.6Prml 4.3.6
Prml 4.3.6
 
Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
Prml 4.1.2
Prml 4.1.2Prml 4.1.2
Prml 4.1.2
 
Prml 4.1.1
Prml 4.1.1Prml 4.1.1
Prml 4.1.1
 
Prml 4
Prml 4Prml 4
Prml 4
 

Prml7 7.1