SlideShare una empresa de Scribd logo
1 de 7
Descargar para leer sin conexión
PRML 復々習レーン




     4.3.6 正準連結関数


                    @urapon_1
                         2012/9/23
誤差関数の微分
ガウス分布の対数尤度関数の勾配
                           N
     ∇ ln p (t∣w , β)=β∑ n=1 {t n−w ϕ( x n )}ϕ( x n )
                                      T               T
                                                             (3.13)

ロジスティック回帰誤差関数の勾配
                     N
      ∇ E (w)=∑n=1 ( y n −t n)ϕn            (4.91)

多クラスロジスティック回帰誤差関数の勾配
                                 N
      ∇ w E (w 1,. .. ,w K )=∑ n=1 ( y nj −t nj )ϕn
          j
                                                          (4.109)



                  → 誤差と特徴ベクトルϕn の積
正準連結関数

 正準連結関数 (canonical link function) として知られている
 関数を活性化関数に選び、指数型分布族の中から目的変数に
 対する条件付き確率分布を選択する。




誤差と特徴ベクトル     ϕn の積の形式で誤差関数の勾配を表現できる
目的変数 t の分布
目的変数 t の分布が指数型分布族であると仮定する

                    1 t
        p (t∣η , s)= h
                    s s     ()
                        g ( η)exp
                                  ηt
                                  s           { }        (4.118)


                                                   t
上式と (2.195) 式より、 g (η)∫   { ( ) ( )} ( )
                          h
                            t
                            s
                              exp η
                                    t
                                    s
                                        d
                                          t
                                          s
                                            =1 となり、 =x
                                                   s
と置き直して、 (2.226) と同様の導出をすると、

                          d
            y≡E (t∣η)=−s    ln g (η)                     (4.119)
                         dη
対数尤度関数
パラメータ    η の対数尤度関数
                 N                    N
 ln p (t∣η , s)=∑n=1 ln p(t n∣η , s)=∑n=1
                                            {
                                            ln g (ηn)+
                                                        s  }
                                                       ηn t n
                                                              +Const


                                                               (4.121)


                            → これを w について微分する
w    について微分すると
                         N
    ∇ w ln p (t∣η, s)=∑n=1
                             { d
                             d ηn
                                   ln g (ηn)+
                                               }
                                              t n d ηn dy n
                                               s d y n da n
                                                               ∇ an

                             N    1         d ηn dy n
                       =∑n=1 {t n− y n}                  ∇ an
                                  s         d y n da n
                           N    1
                      =∑ n=1 {t n− y n } ψ' ( y n ) f ' (a n )ϕn (4.122)
                                s

ただし、
                 d
         y n=−s      ln g (ηn)      (4.119)
                d ηn
         ηn=ψn( y )

          y n= f (a n)
          a n=w T ϕn
連結関数の選択による簡略化
(4.123) 式で与えられるような連結関数を用いれば、
(4.122) 式は簡略化される。
            −1
        f        ( y )=ψ( y)          (4.123)


簡略化された誤差関数の勾配は

                1 N
        ∇ E (w)= ∑n=1 ( y n−t n )ϕn      (4.124)
                s

            → 誤差      y n−t n   と特徴ベクトルϕ n の積

Más contenido relacionado

La actualidad más candente

PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.Deep Learning JP
 
PRML 5章 PP.227-PP.247
PRML 5章 PP.227-PP.247PRML 5章 PP.227-PP.247
PRML 5章 PP.227-PP.247Tomoki Hayashi
 
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2tmtm otm
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論Taiji Suzuki
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Yuki Matsubara
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)Itaru Otomaru
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論Naoki Hayashi
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足Hiromasa Ohashi
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワークTakeshi Sakaki
 

La actualidad más candente (20)

Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
 
PRML 5章 PP.227-PP.247
PRML 5章 PP.227-PP.247PRML 5章 PP.227-PP.247
PRML 5章 PP.227-PP.247
 
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰Prml4.4 ラプラス近似~ベイズロジスティック回帰
Prml4.4 ラプラス近似~ベイズロジスティック回帰
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足
 
Prml07
Prml07Prml07
Prml07
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
 
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
 

Similar a Prml 4.3.6

PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論sleepy_yoshi
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filterSatoshi Minakuchi
 
060 期待値・中心極限定理
060 期待値・中心極限定理060 期待値・中心極限定理
060 期待値・中心極限定理t2tarumi
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
topology of musical data
topology of musical datatopology of musical data
topology of musical dataTatsuki SHIMIZU
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理Joe Suzuki
 
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)Akira Asano
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)Akira Asano
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 

Similar a Prml 4.3.6 (20)

Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
PRML 10.4 - 10.6
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
120919 kyushu
120919 kyushu120919 kyushu
120919 kyushu
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
統計概論 isseing333
統計概論 isseing333統計概論 isseing333
統計概論 isseing333
 
060 期待値・中心極限定理
060 期待値・中心極限定理060 期待値・中心極限定理
060 期待値・中心極限定理
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
Moig 05
Moig 05Moig 05
Moig 05
 
topology of musical data
topology of musical datatopology of musical data
topology of musical data
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理
 
ndwave1.pdf
ndwave1.pdfndwave1.pdf
ndwave1.pdf
 
積分と漸化式
積分と漸化式積分と漸化式
積分と漸化式
 
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 

Más de Satoshi Kawamoto

20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slide20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slideSatoshi Kawamoto
 
第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1Satoshi Kawamoto
 
マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)Satoshi Kawamoto
 
マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)Satoshi Kawamoto
 
マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)Satoshi Kawamoto
 
マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)Satoshi Kawamoto
 

Más de Satoshi Kawamoto (15)

20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slide20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slide
 
第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1
 
マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)
 
マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)
 
マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)
 
マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)
 
統計検定3級 5
統計検定3級 5統計検定3級 5
統計検定3級 5
 
統計検定3級 4
統計検定3級 4統計検定3級 4
統計検定3級 4
 
統計検定3級 3
統計検定3級 3統計検定3級 3
統計検定3級 3
 
統計検定3級 2
統計検定3級 2統計検定3級 2
統計検定3級 2
 
統計検定3級 1
統計検定3級 1統計検定3級 1
統計検定3級 1
 
Prml7 7.1
Prml7 7.1Prml7 7.1
Prml7 7.1
 
Prml 4.1.2
Prml 4.1.2Prml 4.1.2
Prml 4.1.2
 
Prml 4.1.1
Prml 4.1.1Prml 4.1.1
Prml 4.1.1
 
Prml 4
Prml 4Prml 4
Prml 4
 

Último

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 

Último (9)

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 

Prml 4.3.6

  • 1. PRML 復々習レーン 4.3.6 正準連結関数 @urapon_1 2012/9/23
  • 2. 誤差関数の微分 ガウス分布の対数尤度関数の勾配 N ∇ ln p (t∣w , β)=β∑ n=1 {t n−w ϕ( x n )}ϕ( x n ) T T (3.13) ロジスティック回帰誤差関数の勾配 N ∇ E (w)=∑n=1 ( y n −t n)ϕn (4.91) 多クラスロジスティック回帰誤差関数の勾配 N ∇ w E (w 1,. .. ,w K )=∑ n=1 ( y nj −t nj )ϕn j (4.109) → 誤差と特徴ベクトルϕn の積
  • 3. 正準連結関数 正準連結関数 (canonical link function) として知られている 関数を活性化関数に選び、指数型分布族の中から目的変数に 対する条件付き確率分布を選択する。 誤差と特徴ベクトル ϕn の積の形式で誤差関数の勾配を表現できる
  • 4. 目的変数 t の分布 目的変数 t の分布が指数型分布族であると仮定する 1 t p (t∣η , s)= h s s () g ( η)exp ηt s { } (4.118) t 上式と (2.195) 式より、 g (η)∫ { ( ) ( )} ( ) h t s exp η t s d t s =1 となり、 =x s と置き直して、 (2.226) と同様の導出をすると、 d y≡E (t∣η)=−s ln g (η) (4.119) dη
  • 5. 対数尤度関数 パラメータ η の対数尤度関数 N N ln p (t∣η , s)=∑n=1 ln p(t n∣η , s)=∑n=1 { ln g (ηn)+ s } ηn t n +Const (4.121) → これを w について微分する
  • 6. w について微分すると N ∇ w ln p (t∣η, s)=∑n=1 { d d ηn ln g (ηn)+ } t n d ηn dy n s d y n da n ∇ an N 1 d ηn dy n =∑n=1 {t n− y n} ∇ an s d y n da n N 1 =∑ n=1 {t n− y n } ψ' ( y n ) f ' (a n )ϕn (4.122) s ただし、 d y n=−s ln g (ηn) (4.119) d ηn ηn=ψn( y ) y n= f (a n) a n=w T ϕn
  • 7. 連結関数の選択による簡略化 (4.123) 式で与えられるような連結関数を用いれば、 (4.122) 式は簡略化される。 −1 f ( y )=ψ( y) (4.123) 簡略化された誤差関数の勾配は 1 N ∇ E (w)= ∑n=1 ( y n−t n )ϕn (4.124) s → 誤差 y n−t n と特徴ベクトルϕ n の積