SlideShare una empresa de Scribd logo
1 de 28
Descargar para leer sin conexión
PRML 6章
カーネル法入門
M2 Arata Honda
Mathematical Informatics Lab, NAIST
Nov, 2th ,2016 1
なんでカーネル法?
ハワイ二ヶ月で勉強した
カーネル法を知るといろいろお得
SVMの理解ができる
ガウス過程が理解できる
いろいろ応用が利く
2
カーネル法の応用研究
パターン認識
文字認識、音声認識など
Web上のサービス
大量テキスト、自然言語処理、XML
バイオインフォマティクス
DNAやアミノ酸配列から情報抽出
3
カーネル法のモチベーション
高次元な特徴次元に写像することで線形分離可能
高次元な特徴ベクトルの計算を間接的におこなう
4
はじめに(3章線形回帰モデルの復習)
 与えられた入力変数から未知の変数を予測(回帰問題)
 入力に非線形な処理(基底関数の導入)でモデルの表現力を上げる
 基底関数はいろんなものがある(3章序章)
 基底関数に対して線形なパラメータwを扱うので”線形回帰モデル”
5
:基底関数
線形回帰モデルの解
 目標変数tとの二乗誤差が最小になるパラメータwの解を求める
 パラメータwについて微分=0をすればいい(二乗は必ず凸なので)
6
:正規方程式
過学習のくだり
7
1章にて多項式フィッティングの過学習が紹介
訓練データにすべ
て対応してるが真
の函数(緑線)は捉
えられてない
罰則項をつけて過学習を防ぐ(正則化)
8
罰則項
 パラメータwについて微分=0をすればいい(二乗は必ず凸なので)
 λは逆行列のランクを満たす役割をもつ
 λを大きくするとwは0に近づいていく
 罰則項が2乗の時はridge回帰、1乗の時はlasso回帰→スパース回帰へ
リプレゼンターの定理
9
 今日のメインキーワード
 損失関数が の関数として表現できるとする
 この損失関数に二乗正則化項を加えて最適化する問題において
その最適解は で張られる空間に存在する
どゆこと?
10
この最適解というのは となるという定理
証明は簡単
11
 対偶をとる→最適解wは で張られる空間に存在しない
 ただし はすべての に直交
↑が0になれば最小
リプレゼンターの定理で何がうれしいの?
12
 特徴ベクトルの次元に関わらずαの次元が自由度となる
 訓練データの次元数で最適化が可能(次元削減効果)
 αについて解いてもいい、wについて解いてもいい
 wについての問題をαに置き換えた→双対問題という(PRML6.1)
リプレゼンターの定理の書き換え
13
 カーネル函数
 最適解
カーネル回帰
14
 学習も回帰もαとカーネル函数kで行われる
 パラメータ数(αの次元)= サンプル数
 φの次元数がいくらでも動く(φが式に含まれていないため)
カーネルトリック
15
 特徴ベクトルφを用いてカーネル函数kを定義
 カーネル函数の値だけ定義すれば特徴ベクトルはもはや出ない
 特定のカーネル函数を使い特徴ベクトルφの内積の計算量を抑える
=カーネルトリック
カーネルトリックってなにがいいの?①
16
 上にあるベクトルを何らかの特徴空間 に移す写像
 この特徴空間での の内積は
 カーネルは特徴空間 を知らずに特徴空間上の内積計算ができる
カーネルトリックってなにがいいの?②
17
 カーネル函数を多項式カーネルで考える
 とする
 6次元の特徴ベクトルの内積を計算していることに相当する
 写像して、内積を計算するという計算コストを削減している
は式には出
てこない
カーネル函数の例①:ガウスカーネル
18
 最も使われるカーネル、サンプルの類似度を計算
 無限次元の特徴ベクトルφを用いていることと等価
無限次元のカーネルトリック
なんで無限次元?
19
テイラー展開
無限次元だけど
20
特徴ベクトルが無限次元だけども
パラメータ数=サンプル数なので高々有限
いろいろあるよ、カーネル函数
21
 一般化された多項式カーネル:離散特徴でよく使われる(連続でも〇)
 集合が対象のカーネル
 生成モデルから構成したカーネル
 シグモイドカーネル ↑生成モデル
付録:どうやってカーネルは構成するの?(PRML6.2)
22
 特徴空間への写像を考えて構成(基底関数の内積をとってみる)
 カーネル函数を直接定義:有効であることを示す必要あり
写像
= ⋮
任意の 𝐱 𝒏 に対して、要素が𝒌 𝐱 𝒏, 𝐱 𝒎 で与えら
れるグラム行列𝐊が半正定値であること
𝑛次元の任意のベクトル𝐲に対して
𝐲T
𝐊𝐲 ≥ 0
が成り立つこと
ここまでのまとめ
23
 リプレゼンター定理から、二次正則化の最適解wは特徴ベクトルの
線形和で表される
 wについてといてもいいし、αについてといてもいい(場合分け必須)
 無限次元のカーネルトリック
 カーネル函数の構築の仕方
6.3 RBFネットワーク
24
線形基底関数モデル(3章)では、基底関数の形は議論していない
→RBF(動径基底関数)がよく使われる
中心(μ)からの動径に依存
 函数補間(目的変数の値を正確に表現できる関数を求めること)で導入
 入力変数にノイズが含まれる場合の補間にも使われる
入力に関するノイズが確率分布 に従うとする
w_nは最小二乗法で求める
:二乗誤差関数
変分法を使う
25
と置いて変分法をする
:Nadaraya-Watsonモデル
正規化されている
基底関数の正規化
26
 基底関数を正規化することで、予測値を適切に設定可能
 重みが小さくなり、予測値も小さくなることを防ぐ(バイアスの影響)
 ガウス基底関数(3つ)、右はそれを正規化したもの
 すべての基底関数が小さい値をとる領域(青丸)を防ぐ
6.3.1 Nadaraya-Watson model
27
訓練集合を として、同時分布 の推定にParzen推定
回帰関数y(x)は変分法から以下の式で与えられる
tに関する平均=0とすると
:点(x,t)がありうる確率を訓練集合から求める
Nadaraya-Watson modelはこれ。
別名:カーネル回帰
28
𝑦 𝐱 = 𝑘 𝐱, 𝐱 𝑛 𝑡 𝑛
𝑛
新入力とデータ点の類似度
データ点の目標値

Más contenido relacionado

La actualidad más candente

猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点Taiji Suzuki
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
言語モデル入門 (第二版)
言語モデル入門 (第二版)言語モデル入門 (第二版)
言語モデル入門 (第二版)Yoshinari Fujinuma
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some PreliminaryDeep Learning JP
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...Deep Learning JP
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCHDeep Learning JP
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Yamato OKAMOTO
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 

La actualidad más candente (20)

猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
言語モデル入門 (第二版)
言語モデル入門 (第二版)言語モデル入門 (第二版)
言語モデル入門 (第二版)
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
 
Jokyokai
JokyokaiJokyokai
Jokyokai
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 

Similar a Prml6

全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Preferred Networks
 
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusOfficial
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3Yohei Sato
 
sitTokyo2023_DWCで機械学習をやってみた_Shared.pptx
sitTokyo2023_DWCで機械学習をやってみた_Shared.pptxsitTokyo2023_DWCで機械学習をやってみた_Shared.pptx
sitTokyo2023_DWCで機械学習をやってみた_Shared.pptxssuser1525ed
 

Similar a Prml6 (8)

全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
MIRU2018 tutorial
MIRU2018 tutorialMIRU2018 tutorial
MIRU2018 tutorial
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
 
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3
 
sitTokyo2023_DWCで機械学習をやってみた_Shared.pptx
sitTokyo2023_DWCで機械学習をやってみた_Shared.pptxsitTokyo2023_DWCで機械学習をやってみた_Shared.pptx
sitTokyo2023_DWCで機械学習をやってみた_Shared.pptx
 
Overview and Roadmap
Overview and RoadmapOverview and Roadmap
Overview and Roadmap
 

Más de Arata Honda

Rnn+lstmを理解する
Rnn+lstmを理解するRnn+lstmを理解する
Rnn+lstmを理解するArata Honda
 
2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話Arata Honda
 
Config mapについて
Config mapについてConfig mapについて
Config mapについてArata Honda
 
Excite beer bash06
Excite beer bash06Excite beer bash06
Excite beer bash06Arata Honda
 
はじめてのパターン認識第八章
はじめてのパターン認識第八章はじめてのパターン認識第八章
はじめてのパターン認識第八章Arata Honda
 
はじめてのパターン認識第三章
はじめてのパターン認識第三章はじめてのパターン認識第三章
はじめてのパターン認識第三章Arata Honda
 
ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析Arata Honda
 
正則化項について
正則化項について正則化項について
正則化項についてArata Honda
 
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うScikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うArata Honda
 

Más de Arata Honda (10)

Rnn+lstmを理解する
Rnn+lstmを理解するRnn+lstmを理解する
Rnn+lstmを理解する
 
2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話
 
Config mapについて
Config mapについてConfig mapについて
Config mapについて
 
Excite beer bash06
Excite beer bash06Excite beer bash06
Excite beer bash06
 
はじめてのパターン認識第八章
はじめてのパターン認識第八章はじめてのパターン認識第八章
はじめてのパターン認識第八章
 
はじめてのパターン認識第三章
はじめてのパターン認識第三章はじめてのパターン認識第三章
はじめてのパターン認識第三章
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析
 
正則化項について
正則化項について正則化項について
正則化項について
 
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うScikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
 

Prml6