SlideShare una empresa de Scribd logo
1 de 17
Descargar para leer sin conexión
[勉強会]パターン認識と機械学習
第3章 線形回帰モデル
(p.135 – p.145)
音丸 格
Itaru Otomaru Ph. D. / @itaruotton
線形回帰?
 回帰問題の目標
 与えられたD次元の入力(input)変数のベクトルxの値から、
1つ、あるいは複数の目標(target)変数tの値を予測すること。
 線形回帰モデル
 もっとも単純な形の線形回帰モデルは、入力変数に関しても線形
 通常は、入力関数に関して非線形な関数の固定された集合の
線形結合をとる(基底関数)
3.1 線形基底関数モデル
 定式化
   



1
1
0,
M
j
jjwwy xwx 
• x: 観測値
• w: パラメータ
• φj(x): 基底関数
w0は任意の固定されたオフセット量を許容するバイアスパラメータ。
φ0(x) = 1とおくと、以下のように書ける。
     xwxwx  T
M
j
jjwy  


1
0
,
基底関数の例
 ガウス基底関数
 シグモイド基底関数
  




 

s
x
x
j
j


 
 







 
 2
2
2
exp
s
x
x
j
j


3.1.1 最尤推定と最小二乗法
 「1.2.5 曲線フィッティング再訪」における例が再び出てくる
 尤度関数
 両辺にlogをとって、対数尤度は
    1
1
,|Ν,,| 

  n
T
n
N
n
tp xwwxt
    


N
n
n
T
ntΝp
1
1
,|ln,|ln  xwwt
    

N
n
n
T
n xt
NN
1
2
2
1
2ln
2
ln
2
 w
最尤推定による w の決定
 式(3.11)を w について微分すると
 式(3.13)の左辺を0とおいて、w = ○ の形に書き換えると、
      
    n
N
n
n
T
n
N
n
n
T
nn
t
tp
xxw
xwxwt








1
1
2
22
2
1
,|ln
(3.11)      

N
n
n
T
n xt
NN
p
1
2
2
1
2ln
2
ln
2
,|ln  wwt
(3.13)
 
   



 N
n
T
nn
N
n
n
T
n t
1
1
ML
xx
x
w


       







N
n
N
n
n
T
n
T
nnt
1 1
0 xxwx 
計画行列(design matrix)
 上式の分子を書き下すと
 分母も同様の形で書けるため、wMLは以下の通り書ける。
 Φを計画行列(design matrix)と呼ぶ。
 
   



 N
n
T
nn
N
n
n
T
n t
1
1
ML
xx
x
w


• w = (w0, …, wM-1)T
• Φ = (Φ0, …, ΦM-1)T
ちなみに…
 
     
     
     
tΦ
xxx
xxx
xxx
x T
NNMMM
N
N
N
n
n
T
n
t
t
t
t 































 




2
1
12111
12111
02010
1




  tΦΦΦw TT 1
ML


最尤推定による β の決定
 式(3.11)をβについて微分すると、
 上式の左辺を0とおくと、
      

N
n
n
T
n xt
NN
p
1
2
2
1
2ln
2
ln
2
,|ln  wwt (3.11)
    

N
n
n
T
nt
N
p
1
2
2
11
2
,|ln xwwt 


  
  





N
n
n
T
n
N
n
n
T
n
t
N
t
N
1
2
ML
1
2
11
2
1
2
xw
xw
ML 



(3.21)
3.1.2 最小二乗法の幾何学 (1)
 目標値 t と計画行列 Φ
     
     
     

















NMNN
M
M
xxx
xxx
xxx
Φ
110
212120
111110







φ0 φ1 φM-1















Nt
t
t

2
1
t
N次元ベクトル M個のN次元ベクトル φj からなるN×M次元行列
3.1.2 最小二乗法の幾何学 (2)
 たとえば、N = 3でM = 2だったら…
 t は3次元ベクトルで、3次元空間における1点を示す
 2つの3次元ベクトルφ1とφ2によって、2次元平面 S が定義できる。
図3.2 (pp. 141)
3.1.2 最小二乗法の幾何学 (3)
 n番目の要素が y(xn, w)で与えられるN次元ベクトル y
y
 
 
 
 
     
     
110000
110000
111100100
1
0
1
0
1
1
,
,

















































MM
NMMNN
MM
M
j
Njj
M
j
jj
N
www
www
www
w
w
y
y










xxx
xxx
x
x
wx
wx
つまり、ベクトル y は、ベクトルφjの線形結合であらわされる
3.1.2 最小二乗法の幾何学 (4)
 ベクトル y は、ベクトルφjの線形結合であらわされるので、M次元空間 S 上の
ある1点を表すベクトルである。
 最小二乗解は、部分空間S内にあり、tに最も近いyを選ぶことに相当する
図3.2 (pp. 141)
つまり、tの、部分空間Sへの正射影である。
3.1.3 逐次学習
 逐次学習のアルゴリズムは、確率的勾配降下法(stochastic
gradient descent)を適用することで得られる。
 条件:
 パラメータベクトルの更新手順:
1. 現在のパラメータベクトル wτ
2. データx1,…,xNの中から一つランダムにピックアップ
3. 選んだデータに対応する勾配でパラメータ更新
 n nEE
コスト値は、個々の学習データ(n=1,…,N)に対する
コスト値の和に等しい
nE
 )()1(
ww
参考:SGD+α:確率的勾配降下法の現在と未来
http://www.slideshare.net/kisa12012/sgd-future-best-27314417
3.1.4 正則化最小二乗法
 正則化項を加えた時の最小二乗解の導出
 正則化項を加えた誤差関数
 上式を展開
 wについて微分
 上式を0とおくと
  

N
n
T
n
T
n xt
1
2
22
1
www

 (3.27)
     wwwww T
N
n
n
T
N
n
n
T
n
N
n
n xxtt
22
1
2
1
1
2
11
2 
   
    ww    
N
n
n
N
n
nn xxt
1
2
1
    







N
n
nn
N
n
n xtx
11
2
 Iw
計画行列Φを用いて左式を整理して
  tΦΦΦIw TT 1
 
(3.28)
一般的な正則化誤差項
 式(3.27)は、正則化コストがwの二乗で効く場合である。
より一般的には、下式で表される。
 異なる q の値に対する正則化関数の等高線表示
    

N
n
M
j
q
jn
T
n wxt
1 1
2
22
1 
w (3.29)
M: パラメータの次元数
特に、q = 1のときを、lassoと呼ぶ 図3.3 (pp. 143)
Lassoによって疎な解が得られるイメージ
q = 2の場合 q = 1の場合
青線:正則化されていない誤差関数の等高線表示
赤線で囲まれた領域:正則化項の制約条件を満たす領域
 q = 2の場合、正則化項の制約条件を満たしかつ誤差関数を最小化するwは、
w1 ≠ 0 かつw2 ≠ 0
 一方、q = 1の場合は、w1 = 0
3.1.5 出力変数が多次元の場合
 これまでは、出力変数 t が1次元の場合を議論してきた。
一方、t が K 次元の場合でも、同様に最尤解を求めることができる。
  TΦΦΦW TT 1
ML

 (3.34)

Más contenido relacionado

La actualidad más candente

PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7matsuolab
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう Junpei Tsuji
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Yuki Matsubara
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布Yuki Soma
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数Deep Learning JP
 

La actualidad más candente (20)

PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
PRML5
PRML5PRML5
PRML5
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
 
Chapter6.4
Chapter6.4Chapter6.4
Chapter6.4
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
PRML6.4
PRML6.4PRML6.4
PRML6.4
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
 

Destacado

Guide for program Implement for PRML
Guide for program Implement for PRML  Guide for program Implement for PRML
Guide for program Implement for PRML Masato Nakai
 
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)Yuma Yoshimoto
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Wataru Kishimoto
 
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜Mitsuki Ogasahara
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
入門パターン認識と機械学習3章
入門パターン認識と機械学習3章入門パターン認識と機械学習3章
入門パターン認識と機械学習3章hiro5585
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」Keisuke Sugawara
 
入門パターン認識と機械学習12章
入門パターン認識と機械学習12章入門パターン認識と機械学習12章
入門パターン認識と機械学習12章hiro5585
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」Koichi Hamada
 
パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係Prunus 1350
 
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Wataru Kishimoto
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布Nagayoshi Yamashita
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11Minoru Chikamune
 
SVMについて
SVMについてSVMについて
SVMについてmknh1122
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践Preferred Networks
 

Destacado (17)

Guide for program Implement for PRML
Guide for program Implement for PRML  Guide for program Implement for PRML
Guide for program Implement for PRML
 
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
 
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
 
機械学習
機械学習機械学習
機械学習
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
入門パターン認識と機械学習3章
入門パターン認識と機械学習3章入門パターン認識と機械学習3章
入門パターン認識と機械学習3章
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
入門パターン認識と機械学習12章
入門パターン認識と機械学習12章入門パターン認識と機械学習12章
入門パターン認識と機械学習12章
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
 
パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係
 
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11
 
SVMについて
SVMについてSVMについて
SVMについて
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
 

Similar a [PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)

ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3noname409
 
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)wada, kazumi
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回ke beck
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門Tatsuki SHIMIZU
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ Yuta Koga
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータMiki Katsuragi
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1hirokazutanaka
 
[第2版]Python機械学習プログラミング 第14章
[第2版]Python機械学習プログラミング 第14章[第2版]Python機械学習プログラミング 第14章
[第2版]Python機械学習プログラミング 第14章Haruki Eguchi
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
基礎からわかる確率過程
基礎からわかる確率過程基礎からわかる確率過程
基礎からわかる確率過程latte0
 

Similar a [PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145) (20)

Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
ma99992006id365
ma99992006id365ma99992006id365
ma99992006id365
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
主成分分析
主成分分析主成分分析
主成分分析
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
 
Prml9
Prml9Prml9
Prml9
 
PRML Chapter5.2
PRML Chapter5.2PRML Chapter5.2
PRML Chapter5.2
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ 
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 
[第2版]Python機械学習プログラミング 第14章
[第2版]Python機械学習プログラミング 第14章[第2版]Python機械学習プログラミング 第14章
[第2版]Python機械学習プログラミング 第14章
 
PRML chapter5
PRML chapter5PRML chapter5
PRML chapter5
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
基礎からわかる確率過程
基礎からわかる確率過程基礎からわかる確率過程
基礎からわかる確率過程
 

Más de Itaru Otomaru

勉強会資料 トピック紹介「音楽と機械学習」
勉強会資料 トピック紹介「音楽と機械学習」勉強会資料 トピック紹介「音楽と機械学習」
勉強会資料 トピック紹介「音楽と機械学習」Itaru Otomaru
 
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)Itaru Otomaru
 
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)Itaru Otomaru
 
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)Itaru Otomaru
 
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)Itaru Otomaru
 
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (博士後期課程研究成果発表会 2011.12.01)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (博士後期課程研究成果発表会 2011.12.01)人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (博士後期課程研究成果発表会 2011.12.01)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (博士後期課程研究成果発表会 2011.12.01)Itaru Otomaru
 
2011.11.22 第20回日本コンピュータ外科学会大会 統計アトラスに基づく単純X線画像からの人工股関節3次元カップ手術計画自動立案
2011.11.22 第20回日本コンピュータ外科学会大会 統計アトラスに基づく単純X線画像からの人工股関節3次元カップ手術計画自動立案2011.11.22 第20回日本コンピュータ外科学会大会 統計アトラスに基づく単純X線画像からの人工股関節3次元カップ手術計画自動立案
2011.11.22 第20回日本コンピュータ外科学会大会 統計アトラスに基づく単純X線画像からの人工股関節3次元カップ手術計画自動立案Itaru Otomaru
 
3次元CT画像に基づく人工股関節術前計画自動立案システム "AutoImPlan"
3次元CT画像に基づく人工股関節術前計画自動立案システム "AutoImPlan"3次元CT画像に基づく人工股関節術前計画自動立案システム "AutoImPlan"
3次元CT画像に基づく人工股関節術前計画自動立案システム "AutoImPlan"Itaru Otomaru
 
インプラント適合性および股関節機能に基づく人工股関節自動手術計画立案システムの性能評価
インプラント適合性および股関節機能に基づく人工股関節自動手術計画立案システムの性能評価インプラント適合性および股関節機能に基づく人工股関節自動手術計画立案システムの性能評価
インプラント適合性および股関節機能に基づく人工股関節自動手術計画立案システムの性能評価Itaru Otomaru
 
AutoImPlan: An automated system for CT-based THA planning
AutoImPlan: An automated system for CT-based THA planningAutoImPlan: An automated system for CT-based THA planning
AutoImPlan: An automated system for CT-based THA planningItaru Otomaru
 
CT-based Automated Preoperative Planning of Acetabular Cup Size and Position ...
CT-based Automated Preoperative Planning of Acetabular Cup Size and Position ...CT-based Automated Preoperative Planning of Acetabular Cup Size and Position ...
CT-based Automated Preoperative Planning of Acetabular Cup Size and Position ...Itaru Otomaru
 

Más de Itaru Otomaru (11)

勉強会資料 トピック紹介「音楽と機械学習」
勉強会資料 トピック紹介「音楽と機械学習」勉強会資料 トピック紹介「音楽と機械学習」
勉強会資料 トピック紹介「音楽と機械学習」
 
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
 
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
 
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (神戸大学 大学院工学研究科 学位論文公聴会 2012.2.6)
 
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
人工股関節全置換術3次元手術計画自動立案システム "AutoImPlan" (2011.12.24 SI2011@京都大学)
 
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (博士後期課程研究成果発表会 2011.12.01)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (博士後期課程研究成果発表会 2011.12.01)人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (博士後期課程研究成果発表会 2011.12.01)
人工股関節全置換術における統計アトラスに基づく手術計画自動立案 (博士後期課程研究成果発表会 2011.12.01)
 
2011.11.22 第20回日本コンピュータ外科学会大会 統計アトラスに基づく単純X線画像からの人工股関節3次元カップ手術計画自動立案
2011.11.22 第20回日本コンピュータ外科学会大会 統計アトラスに基づく単純X線画像からの人工股関節3次元カップ手術計画自動立案2011.11.22 第20回日本コンピュータ外科学会大会 統計アトラスに基づく単純X線画像からの人工股関節3次元カップ手術計画自動立案
2011.11.22 第20回日本コンピュータ外科学会大会 統計アトラスに基づく単純X線画像からの人工股関節3次元カップ手術計画自動立案
 
3次元CT画像に基づく人工股関節術前計画自動立案システム "AutoImPlan"
3次元CT画像に基づく人工股関節術前計画自動立案システム "AutoImPlan"3次元CT画像に基づく人工股関節術前計画自動立案システム "AutoImPlan"
3次元CT画像に基づく人工股関節術前計画自動立案システム "AutoImPlan"
 
インプラント適合性および股関節機能に基づく人工股関節自動手術計画立案システムの性能評価
インプラント適合性および股関節機能に基づく人工股関節自動手術計画立案システムの性能評価インプラント適合性および股関節機能に基づく人工股関節自動手術計画立案システムの性能評価
インプラント適合性および股関節機能に基づく人工股関節自動手術計画立案システムの性能評価
 
AutoImPlan: An automated system for CT-based THA planning
AutoImPlan: An automated system for CT-based THA planningAutoImPlan: An automated system for CT-based THA planning
AutoImPlan: An automated system for CT-based THA planning
 
CT-based Automated Preoperative Planning of Acetabular Cup Size and Position ...
CT-based Automated Preoperative Planning of Acetabular Cup Size and Position ...CT-based Automated Preoperative Planning of Acetabular Cup Size and Position ...
CT-based Automated Preoperative Planning of Acetabular Cup Size and Position ...
 

[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)

  • 2. 線形回帰?  回帰問題の目標  与えられたD次元の入力(input)変数のベクトルxの値から、 1つ、あるいは複数の目標(target)変数tの値を予測すること。  線形回帰モデル  もっとも単純な形の線形回帰モデルは、入力変数に関しても線形  通常は、入力関数に関して非線形な関数の固定された集合の 線形結合をとる(基底関数)
  • 3. 3.1 線形基底関数モデル  定式化        1 1 0, M j jjwwy xwx  • x: 観測値 • w: パラメータ • φj(x): 基底関数 w0は任意の固定されたオフセット量を許容するバイアスパラメータ。 φ0(x) = 1とおくと、以下のように書ける。      xwxwx  T M j jjwy     1 0 ,
  • 4. 基底関数の例  ガウス基底関数  シグモイド基底関数           s x x j j                 2 2 2 exp s x x j j  
  • 5. 3.1.1 最尤推定と最小二乗法  「1.2.5 曲線フィッティング再訪」における例が再び出てくる  尤度関数  両辺にlogをとって、対数尤度は     1 1 ,|Ν,,|     n T n N n tp xwwxt        N n n T ntΝp 1 1 ,|ln,|ln  xwwt       N n n T n xt NN 1 2 2 1 2ln 2 ln 2  w
  • 6. 最尤推定による w の決定  式(3.11)を w について微分すると  式(3.13)の左辺を0とおいて、w = ○ の形に書き換えると、            n N n n T n N n n T nn t tp xxw xwxwt         1 1 2 22 2 1 ,|ln (3.11)        N n n T n xt NN p 1 2 2 1 2ln 2 ln 2 ,|ln  wwt (3.13)           N n T nn N n n T n t 1 1 ML xx x w                  N n N n n T n T nnt 1 1 0 xxwx 
  • 7. 計画行列(design matrix)  上式の分子を書き下すと  分母も同様の形で書けるため、wMLは以下の通り書ける。  Φを計画行列(design matrix)と呼ぶ。           N n T nn N n n T n t 1 1 ML xx x w   • w = (w0, …, wM-1)T • Φ = (Φ0, …, ΦM-1)T ちなみに…                     tΦ xxx xxx xxx x T NNMMM N N N n n T n t t t t                                       2 1 12111 12111 02010 1       tΦΦΦw TT 1 ML  
  • 8. 最尤推定による β の決定  式(3.11)をβについて微分すると、  上式の左辺を0とおくと、         N n n T n xt NN p 1 2 2 1 2ln 2 ln 2 ,|ln  wwt (3.11)       N n n T nt N p 1 2 2 11 2 ,|ln xwwt               N n n T n N n n T n t N t N 1 2 ML 1 2 11 2 1 2 xw xw ML     (3.21)
  • 9. 3.1.2 最小二乗法の幾何学 (1)  目標値 t と計画行列 Φ                                    NMNN M M xxx xxx xxx Φ 110 212120 111110        φ0 φ1 φM-1                Nt t t  2 1 t N次元ベクトル M個のN次元ベクトル φj からなるN×M次元行列
  • 10. 3.1.2 最小二乗法の幾何学 (2)  たとえば、N = 3でM = 2だったら…  t は3次元ベクトルで、3次元空間における1点を示す  2つの3次元ベクトルφ1とφ2によって、2次元平面 S が定義できる。 図3.2 (pp. 141)
  • 11. 3.1.2 最小二乗法の幾何学 (3)  n番目の要素が y(xn, w)で与えられるN次元ベクトル y y                     110000 110000 111100100 1 0 1 0 1 1 , ,                                                  MM NMMNN MM M j Njj M j jj N www www www w w y y           xxx xxx x x wx wx つまり、ベクトル y は、ベクトルφjの線形結合であらわされる
  • 12. 3.1.2 最小二乗法の幾何学 (4)  ベクトル y は、ベクトルφjの線形結合であらわされるので、M次元空間 S 上の ある1点を表すベクトルである。  最小二乗解は、部分空間S内にあり、tに最も近いyを選ぶことに相当する 図3.2 (pp. 141) つまり、tの、部分空間Sへの正射影である。
  • 13. 3.1.3 逐次学習  逐次学習のアルゴリズムは、確率的勾配降下法(stochastic gradient descent)を適用することで得られる。  条件:  パラメータベクトルの更新手順: 1. 現在のパラメータベクトル wτ 2. データx1,…,xNの中から一つランダムにピックアップ 3. 選んだデータに対応する勾配でパラメータ更新  n nEE コスト値は、個々の学習データ(n=1,…,N)に対する コスト値の和に等しい nE  )()1( ww 参考:SGD+α:確率的勾配降下法の現在と未来 http://www.slideshare.net/kisa12012/sgd-future-best-27314417
  • 14. 3.1.4 正則化最小二乗法  正則化項を加えた時の最小二乗解の導出  正則化項を加えた誤差関数  上式を展開  wについて微分  上式を0とおくと     N n T n T n xt 1 2 22 1 www   (3.27)      wwwww T N n n T N n n T n N n n xxtt 22 1 2 1 1 2 11 2          ww     N n n N n nn xxt 1 2 1             N n nn N n n xtx 11 2  Iw 計画行列Φを用いて左式を整理して   tΦΦΦIw TT 1   (3.28)
  • 15. 一般的な正則化誤差項  式(3.27)は、正則化コストがwの二乗で効く場合である。 より一般的には、下式で表される。  異なる q の値に対する正則化関数の等高線表示       N n M j q jn T n wxt 1 1 2 22 1  w (3.29) M: パラメータの次元数 特に、q = 1のときを、lassoと呼ぶ 図3.3 (pp. 143)
  • 16. Lassoによって疎な解が得られるイメージ q = 2の場合 q = 1の場合 青線:正則化されていない誤差関数の等高線表示 赤線で囲まれた領域:正則化項の制約条件を満たす領域  q = 2の場合、正則化項の制約条件を満たしかつ誤差関数を最小化するwは、 w1 ≠ 0 かつw2 ≠ 0  一方、q = 1の場合は、w1 = 0
  • 17. 3.1.5 出力変数が多次元の場合  これまでは、出力変数 t が1次元の場合を議論してきた。 一方、t が K 次元の場合でも、同様に最尤解を求めることができる。   TΦΦΦW TT 1 ML   (3.34)