SlideShare a Scribd company logo
1 of 58
Download to read offline
数学カフェ
「確率・統計・機械学習」
(Part2)
2017年4⽉22⽇数学カフェ
Yahoo! Japan コワーキングスペース LODGE
株式会社Preferred Networks ⼤野健太
oono@preferred.jp
アジェンダ
• 汎化誤差と訓練誤差
• 汎化誤差の分解
• 近似誤差
• 最適化誤差
• 推定誤差
2
問題設定とアプローチ
問題
• 訓練データ:D = {(x1, y1), …, (xN, yN)}が与えられている
• 未知データ x からラベル y を予測する予測モデルを作りたい
アプローチ
• 真のデータ分布 q が存在し、Dの各サンプルは q から独⽴同分
布にサンプリングされたと仮定する:(xi, yi) ~ q i.i.d.
• 仮説集合 H = {pθ | θ ∈ Θ}と損失関数 L(x, y; θ) を設定する
3
汎化誤差と訓練誤差
汎化誤差: E (θ) = E(x, y)~q [L(x, y; θ)]
• 本当に最⼩化したいもの
• 真のデータ分布 q がわからないので計算出来ない
訓練誤差: E^ (θ) = 1 / N Σi L(xi , yi ; θ)
• 計算できるけれど、本当に最⼩化したいものではない
• Dから決まる経験分布 q^ に関するLの期待値 E(x, y)~q^ [L(x, y; θ)]
と書ける
4
経験分布:q^ (x, y) = ((x, y)が出た回数) / N
KLダイバージェンス
⼀般に距離の公理は満たさない
• ⼀般に KL (q || p) ≠ KL (p || q)
• 適当な条件で KL(q || p) = 0 ⇔ q = p は⾔える
5
KL(qkp) := E(x,y)⇠q

log
q(x, y)
p(x, y)
2つの分布の間の「距離」を測る概念
KLダイバージェンス
このスライドだけ以下の状況を考える
• 損失関数は L(x, y; θ) = - log p(y | x; θ) (負の対数尤度)
• p (x; θ) は θ によらず⼀定
6
KL(qkp✓) = E(x,y)⇠q

log
q(x, y)
p(x, y; ✓)
= E(x,y)⇠q [ log p(x, y; ✓)] + const.
= E(x,y)⇠q [ log p(y | x; ✓) log p(x; ✓)] + const.
= E(x,y)⇠q [ log p(y | x; ✓)] + const.
= E(✓) + const.
このとき、汎化誤差最⼩化とKLダイバージェンス最⼩化は同値
argminは存在して⼀意ですか?
→ ⼀般的には存在性も⼀意性もNo
7
汎化誤差最⼩解 θ* = argminθ E (θ)
訓練誤差最⼩解 θ^ = argminθ E^(θ)
⼀意性がない(かもしれない)問題設定
8
x1
x2
x3
x4
y
0
出⼒の重みが0のユニットへの⼊⼒の重みはNNの出⼒値に影響しない
⼀意性がない(かもしれない)問題設定
9
x1
x2
x3
x4
y
特定の2つのユニットを結合を含めて交換しても、出⼒の値は変化しない
機械学習界隈は存在性・⼀意性にあまり
興味がない?
• 存在性
• ⽬的関数が連続である場合が多く、パラメータ空間をコンパクトにす
れば、⾃動的に存在が⾔えてしまう
• アルゴリズムが有限回のステップで⽌まるなどの理由で、そもそも最
⼩解がアルゴリズム的に得られない場合、存在性するかどうかは気に
ならない
• ⼀意性
• 特定のデータセットへの適⽤時には、最⼩解の中から1つだけ得られ
れば⼗分な場合が多い
• 後で⼀意性がないために起こる困難について少し触れます
10
アジェンダ
• 汎化誤差と訓練誤差
• 汎化誤差の分解
• 近似誤差
• 最適化誤差
• 推定誤差
11
汎化誤差の分解 [Bottou+11][得居15]
12
近似誤差 推定誤差 最適化誤差
θ* : 汎化誤差最⼩解 argminθ E (θ)
θ^ : 訓練誤差最⼩解 argminθ E^(θ)
θ0 : アルゴリズムで実際に得られたパラメータ
L. Bottou and O. Bousquet, “The tradeoffs of large scale learning,” In
Optimization for Machine Learning, MIT Press, pp. 351‒368, 2011.
最適化から⾒たディープラーニングの考え⽅,
得居 誠也, オペレーションズ・リサーチ : 経営の科学 60(4), 191-197, 2015-04-01
E(✓0) = E(✓⇤
) +
h
E(ˆ✓) E(✓⇤
)
i
+
h
E(✓0) E(ˆ✓)
i
13
Tomaso Poggioの問題提起
[Poggio+16]
14
Poggio, T., Mhaskar, H., Rosasco, L., Miranda, B., & Liao, Q. (2016). Why and When Can
Deep--but Not Shallow--Networks Avoid the Curse of Dimensionality: a Review. arXiv
preprint arXiv:1611.00740.
https://mcgovern.mit.edu/principal-investigators/tomaso-poggio
近似誤差 推定誤差最適化誤差
E(✓0) = E(✓⇤
) +
h
E(ˆ✓) E(✓⇤
)
i
+
h
E(✓0) E(ˆ✓)
i
仮説集合は本物の分布をどのくらい
近似する能⼒があるか?
Tomaso Poggioの問題提起
[Poggio+16]
16
Poggio, T., Mhaskar, H., Rosasco, L., Miranda, B., & Liao, Q. (2016). Why and When Can
Deep--but Not Shallow--Networks Avoid the Curse of Dimensionality: a Review. arXiv
preprint arXiv:1611.00740.
https://mcgovern.mit.edu/principal-investigators/tomaso-poggio
普遍性定理 ([Cybenko+89] etc..)
Note
• 定義域の[-1, 1]dはコンパクト空間に拡張できる
• [Cybenko+89]以降⾊々なバリエーションで証明されている
• [Cybenko+89]ではHahn-Banachの定理とRieszの表現定理を使う。
• Nielsenによる証明が構成的で平易
17
Cybenko., G. (1989) "Approximations by superpositions of sigmoidal
functions", Mathematics of Control, Signals, and Systems, 2 (4), 303-314
http://neuralnetworksanddeeplearning.com
隠れ層1層で活性化関数がシグモイド関数のNN全体は、
supノルムに関して、C([-1, 1]d)の中で稠密
深層モデルのExpressibility
18
↓COLT(機械学習・学習理論に関する国際会議)2016年の1セッション
Sum-Product Network [Domingos+11]
• 2種類のノードを交互に積み上げたネットワーク
• ⼊⼒の重み付き和を出⼒するノード
• ⼊⼒の積を取るノード
• 歴史的には分配関数を効率よく計算できるグラフィカルモデル
は何かという問いから考えられた(らしい)
19
Poon, H. and Domingos, P. (2011). Sum-product networks: A new
deep architecture. In UAIʼ2011, Barcelona, Spain.
層を深くするメリット[Delalleau+11]
• ⾼さ2n段、各ノードが2⼊⼒のSum-product network (=⼊⼒
数4n)を2段のSum-product Networkで実現するには、1段⽬の
掛け算ノードが少なくとも22^n-1個必要 (Collorary 1)
20
Delalleau, Olivier, and Yoshua Bengio. "Shallow vs. deep sum-product
networks." Advances in Neural Information Processing Systems. 2011.
Proposition 3でも別のタイプの多層
Sum-product networkで似た主張を⽰す
多層では O(M) 個のパラメータで表現
できるが、2段では O(exp(M)) 個のパ
ラメータが必要な関数が存在する
普遍性定理の問題点
• あくまで存在定理、NNの構成⽅法は⽰していない
• Nielsenの証明は構成的だが、NNのパラメータを極端な値に
振って構成するので、現実的なNNとは程遠い
• そもそも最⼩化対象の汎化誤差は訓練データだけからは計算で
きない
21
近似誤差 最適化誤差+推定誤差
E(✓0) = E(✓⇤
) +
h
E(ˆ✓) E(✓⇤
)
i
+
h
E(✓0) E(ˆ✓)
i
アルゴリズムで得られるNNと存在定理の保証
するNNはどのくらいの差があるか?
近似誤差 推定誤差 最適化誤差
E(✓0) = E(✓⇤
) +
h
E(ˆ✓) E(✓⇤
)
i
+
h
E(✓0) E(ˆ✓)
i
訓練誤差を最⼩にする理想の解と実
際のアルゴリズムで得られる現実の
解はどのくらい違うか?
Tomaso Poggioの問題提起
[Poggio+16]
23
Poggio, T., Mhaskar, H., Rosasco, L., Miranda, B., & Liao, Q. (2016). Why and When Can
Deep--but Not Shallow--Networks Avoid the Curse of Dimensionality: a Review. arXiv
preprint arXiv:1611.00740.
https://mcgovern.mit.edu/principal-investigators/tomaso-poggio
残念なお知らせ(再掲)
深層学習のモデルが作る損失関数は⾮凸
⼼配事1
「勾配法はsaddle pointにはまってしまうのでは!?」
⼼配事2
「勾配法はlocal minimumにしかたどりつけないのでは!?」
• Q. 深層学習のモデルが作る損失関数はどのような形をしているか?
• Q. その損失関数の最適化するのに適したアルゴリズムは何か?
24
臨界点と指数
• θ = a が関数 f : Rd→Rの臨界点 ⇔ ∇θ f (a) (= [∂i f (a)]i=1,..,d ) = 0
• 臨界点でのHessianの負の固有値の数を指数という
25
Hessian H(a) = ∇θ∇θ
T f (a) ( = [∂i∂j f(a)]ij=1,…,d )
Hessianは対称⾏列 → 実数固有値を(重複度含めて)d個持つ
臨界点と指数
• 関数の臨界点を指数により分類する
26
指数 = 0 極⼩(local minimum)
0< 指数 < d 鞍点(saddle point)
または極⼤(local maximum)
指数 = d 極⼤(local maximum)
プラトー
27
深層モデルの損失関数のsaddle point
[Dauphin+14]
• 臨界点における損失関数の値と指数は正の相関がある
• 損失関数の⼤きな所にある臨界点はほとんどsaddle pointでは?
• saddle pointで停留しない勾配法を提案
28
Dauphin, Yann N., et al. "Identifying and attacking the saddle point problem in high-dimensional
non-convex optimization." Advances in neural information processing systems. 2014.
物理モデルへの帰着
ニューラルネットや⼊⼒に適当な仮定を置くことで、損失関数
を適当な物理モデルのハミルトニアンの形に帰着させる
• ランダムガウシアンモデル [Bray+07]
• Spherical spin glass モデル [Choromanska+15]
ランダム⾏列理論やが使える⼀⽅で、仮定が現実的ではないと
いう批判もある([Kawaguchi16]など)
29
Bray, Alan J., and David S. Dean. "Statistics of critical points of gaussian fields on
large-dimensional spaces." Physical review letters 98.15 (2007): 150201.
Choromanska, Anna, et al. "The Loss Surfaces of Multilayer Networks." AISTATS.
2015.
深層モデルの損失関数のSaddle point
[Choromanska+15]など
ReLUを活性化関数とする多層パーセプト
ロンの損失関数を近似によりspherical
spin glassのエネルギー関数に帰着させる
⽰したこと(informal)
• 臨界点は指数が⼩さいほど、⾼確率で存
在するエネルギー帯が低エネルギー帯に
広がっている
• ネットワークのユニット数が増えるほど、
ある⼀定の値以下のエネルギー帯に含ま
れる臨界点のうち、指数が⼩さいもの割
合が指数的に増える
30
Choromanska, Anna, et al. "The Loss Surfaces of Multilayer Networks." AISTATS. 2015.
E
-E∞-E0 -E1 -E2 ・・・
例えば指数2の臨界点は
⾼確率でここにある
Gradient-based optimization
31http://www.denizyuret.com/2015/03/alec-radfords-animations-for.html
saddle pointやlocal minimumで停留しないよう様々な最適化⼿法
が提案されている
つい最近はSGDの分散を抑えるよ
うな⼿法(Stochastic Variance
Reduced Gradient; SVRG)が流
⾏っていた気がする
統計多様体と特異モデル
• 仮説空間として確率分布族を考える。
• Fisher 情報量が各点で⾮退化ならば、この族にはFisher情報量
を計量とするリーマン多様体の構造が⼊る
32
p q
Fisher 情報量
G(θ) = (Gij (θ)) ij=1,…,d
Gij (θ) = E [∂i log p(x, y; θ) ∂j log p(x, y; θ)]
(期待値は(x, y)~pθに関して)
Natural gradient [Amari+98]
Gradient Descent (GD)で勾配にFisher情報量の逆⾏列を掛ける
• 通常のGDはFisher情報量が潰れている箇所で移動距離が⼩さ
くなり、停滞してしまう
• Fisher情報量の逆⾏列でキャンセルする
33
Amari, Shun-Ichi. "Natural gradient works efficiently in learning." Neural
computation 10.2 (1998): 251-276.
θ ← θ - η Gθ
-1∇θ L(x, y; θ)
残念なお知らせ:
深層学習のモデルが作る損失関数は⾮凸
⼼配事1
「勾配法はSaddle pointにはまってしまうのでは!?」
⼼配事2
「勾配法はlocal minimumにしかたどりつけないのでは!?」
• Q. 深層学習のモデルが作る損失関数はどのような形をしているか?
• Q. その損失関数の最適化するのに適したアルゴリズムは何か?
34
深層学習モデルの作る損失関数の
Local minima [Choromanska+15]
35
Choromanska, Anna, et al. "The Loss Surfaces of Multilayer
Networks." AISTATS. 2015.
No-bad-local-minima Theorem
[Kawaguchi16], [Lu+17]
• 訓練データとネットワークに関する緩い条件
• 線形NN(活性化関数が恒等関数)
• 損失関数は2乗誤差
→ 訓練誤差関数のlocal minimumはglobal minimumである
36
Kawaguchi, Kenji. "Deep learning without poor local minima." Advances In Neural
Information Processing Systems. 2016.
Lu, Haihao, and Kenji Kawaguchi. "Depth Creates No Bad Local Minima." arXiv preprint
arXiv:1702.08580 (2017).
余談:local minimum = global minimumという定理は深層学習以外の⽂脈でも幾つか存在する
(テンソル分解など)
フルランク・固有値が相異など、
ユークリッド空間でほとんど⾄る所成⽴する
ような条件
No-bad-local-minima Theorem
[Kawaguchi16], [Lu+17]
37
(画像はイメージです)
Kawaguchi, Kenji. "Deep learning without poor local minima." Advances In Neural
Information Processing Systems. 2016.
Lu, Haihao, and Kenji Kawaguchi. "Depth Creates No Bad Local Minima." arXiv preprint
arXiv:1702.08580 (2017).
38
Tomaso Poggio, Qianli
Liao, Theory II:
Landscape of the
Empirical Risk in Deep
Learning,
arXiv:1703.09833
Poggioらは、実験結果
から損失関数は右図
(A)のような形をして
いるという仮説を⽰し
ている[Poggio+17]
近似誤差 推定誤差 最適化誤差
E(✓0) = E(✓⇤
) +
h
E(ˆ✓) E(✓⇤
)
i
+
h
E(✓0) E(ˆ✓)
i
汎化誤差と訓練誤差にはどのくらい
の違いがあるか?
Tomaso Poggioの問題提起
[Poggio+16]
40
Poggio, T., Mhaskar, H., Rosasco, L., Miranda, B., & Liao, Q. (2016). Why and When Can
Deep--but Not Shallow--Networks Avoid the Curse of Dimensionality: a Review. arXiv
preprint arXiv:1611.00740.
https://mcgovern.mit.edu/principal-investigators/tomaso-poggio
汎化誤差と訓練誤差(再掲)
• 汎化誤差: E (θ) = E(x, y)~q [L(x, y; θ)]
• 本当に最⼩化したいもの
• qがわからないのでこれを計算することは出来ない
• 訓練誤差: E^ (θ) = 1 / N Σi L(xi , yi ; θ)
• これならば計算できる代わりに最⼩化するもの
• けれど、本当に最⼩化したいものではない
41
θ* : 汎化誤差最⼩化 θ* = argminθ E (θ)
θ^ : 訓練誤差最⼩化 θ^ = argminθ E^(θ)
統計的推論
42
q
データ分布
サンプリング
(xi, yi) ~ q i.i.d
D ={(xi, yi)i=1,…,n}
推定
(訓練誤差最⼩解)
pθ
訓練データ
学習モデル
pθはqに「近い」か?
• n→∞ でpθ → qか?
• 収束のスピードは?
例:コイン投げ
確率 θ で表(Head)が出るコインを考える。コイン投げの結果からコイ
ンの表が出る確率 θ を推定したい。
問題設定
• 真の分布:q (x = H) = Ber (x | θ), 0 < θ < 1
• 訓練データ:n 回投げた結果 D ={x1, …, xn}, xi ∈ {H, T}
推定量:θ^D := (表の出た回数) / n (実はこれは最尤推定)
43
⼀般に統計モデルとして指数型分布族を⽤いて、真の分布が統計モデル
内にある(realizable)な場合、最尤推定量は有効⼀致推定量となる
特に
p
n
(ˆ✓D ✓)
p
✓(1 ✓)
d
! N(0, 1) n
1
2 +✏
(ˆ✓D ✓)
d
! 0
(中⼼極限定理)
特異モデルの統計的学習理論
NNは汎化誤差最⼩解に⼀意性がないかもしれない(特異モデル)
↓
⼀致性 θ^D → θ など
通常の統計的学習理論での漸近解析が展開できない
44
特異モデルの統計的学習理論(渡辺澄夫先⽣の理論)には、
代数幾何(特異点解消・ブローアップ)・超関数・佐藤b
関数など数学の理論がふんだんに使われている
Rademacher complexity
仮説空間の「複雑度」を図る指標
45
R(H, D) = E
"
sup
h2H
X
i
ih(zi)
#
= ( 1, . . . , n), i ⇠ Ber
✓
1
2
◆
R(H) = ED⇠q [R(H, D)]
経験 Rademacher complexity
Rademacher complexity
特に、ラベル y∈{-1, +1}で、仮説空間内のモデルが確定的な関数の場合
i.e. H ⊂ {f | f : Rd → {±1}}
Rademacher complexityによる
汎化性能の評価
46
この不等式を使ってVC次元で評価する⽅法もある
推定誤差 Rademacher
complexity
Uniform stabilityを⽤いた汎化性能の評価
[Hardt+15]
47
Hardt, Moritz, Benjamin Recht, and Yoram Singer. "Train faster, generalize better:
Stability of stochastic gradient descent." arXiv preprint arXiv:1509.01240(2015).
損失関数には有界性・Lipschitz性
とsmooth性しか仮定していない
(⾮凸関数(NNなど)でもよい)
ε-uniformly stableならば汎化
性能(の期待値)を評価できる
SGDで得られる予測モデルは
ε-uniformly stable
深層学習の汎化性能 [Zhang+16]
深層学習のモデルをでラベルをランダムなものに⼊れ替えた
データセットで学習したら訓練誤差を0にできた
経験Rademacher complexityがほぼ1であることを⽰唆
48
Zhang, Chiyuan, et al. "Understanding deep learning requires rethinking
generalization." arXiv preprint arXiv:1611.03530 (2016).
VC次元やuniform stabilityなど、その他の汎化性
能を評価する指標でも説明できないと主張
ここが1だと不等式は⾃明に成⽴
[Zhang+16] に対する批判
• Rademacher complexityによる汎化性能の評価は、仮説集合のすべての
元で成⽴する、⼀様な評価なので、これが使えないことは統計的学習理
論の⽅ではよく知られていた(ということを講演者は最近知った)
• その他には[David+17][Akiba17]などによる後続検証がある
49
David Krueger et al, Deep Nets Don't Learn via Memorization, ICLR2017 workshop
https://medium.com/@iwiwi/it-is-not-only-deep-learning-that-requires-rethinking-
generalization-32ec7062d0b3
深層学習の汎化性能は⽐較的まだ
理論解析されていない
まとめ
• 汎化誤差は近似誤差・最適化誤差・推定誤差の3つに分解でき
ます
• 普遍性定理により隠れ層が1層のNNも⼗分表現能⼒が⾼いです
が、層を増やすことで「効率的」に関数を近似できます
• 深層学習モデルの訓練について、理論的には損失関数の臨界点
の分布が調べられていて、勾配法(orその改良)の性能の良さ
を理論的に説明する試みがされています
• 汎化性能はRademacher複雑性・Uniform stabilityなどのよる
保証がありますが、深層学習の汎化性能に関しては未解決な問
題が多いです
50
数学と機械学習
数学と物理の関係
• 数学の⾔葉を⽤いて物理を厳密に記述する
• 超関数・ヒルベルト空間・リーマン多様体 etc.
• 物理の問題や考え⽅から新しい数学を開発する
• 数論的⼒学系・エルゴード理論・頂点作⽤素代数 etc.
• 同じような関係を機械学習と数学の間に構築することはできな
いか?
51
今⽇話せなかったこと(機械学習編)
• ベイズ機械学習
• Graphical model, Ising model
• HMM
• 混合ガウス分布, EMアルゴリズム
• クラスタリング, K means
• 変分ベイズ
• SVM
• 情報量基準(AIC, BIC, WAIC)
• ⼀般線形モデル
• スパースモデル
• カーネル法, 再⽣核ヒルベルト空間
• サンプリング(MCMC)
52
• 特徴選択
• 正則化
• 実装(scikit-learnなど)
• 分散機械学習
• オンライン機械学習
• 強化学習, バンディット
今⽇話せなかったこと(深層学習編)
• 具体的なモデル(CNN, RNN)
• 深層モデルの正則化(regularization)
• 深層モデルの正規化(normalization)
• 深層⽣成モデル、GAN、密度⽐推定
• 変分推定、VAE、ADVI
• 深層学習フレームワークの実装(Chainer, TensorFlow, etc.)
• ベイズ深層学習とその実装(Stan, PyMC, Edward etc.)
53
どこから情報を⼿に⼊れる?
学会
• ICML, NIPS(機械学習全般)
• ICLR(深層学習、表現学習)
• COLT(理論寄り機械学習)
• KDD(データマイニング全般)
あるトピックを勉強したければ、各論の
論⽂ではなくチュートリアルからみるの
がおすすめ
arXiv
• stat.ML, stat.TH
• cs.LG, cs.NE
• math.MP
54
機械学習(辞書的な教科書)
• パターン認識と機械学習(PRML)
• Machine Learning: A Probabilistic
Perspective(MLAPP)
機械学習(授業で使うような教科書)
• 東京⼤学⼯学教程 情報⼯学 機械学習
• Corsera(Hinton, Andrew Ng)
• 機械学習研究者がHPで公開している授
業資料は適度な分量でおすすめ
深層学習
• 深層学習 (機械学習プロフェッショナル
シリーズ)
• 深層学習 (監修:⼈⼯知能学会)
• http://www.deeplearningbook.org
appendix
55
層を深くするメリット[Mhaskar+16]
• [Mhaskar+16 , Theorem 1]
56
Mhaskar, Hrushikesh, Qianli Liao, and Tomaso Poggio. "Learning functions:
When is deep better than shallow." arXiv preprint arXiv:1603.00988 (2016).
統計多様体と特異モデル
NNのアーキテクチャを1つ固定して、そのNNで実現できる確率
分布からなる統計モデルはFisher情報が⾮退化
(パラメータを微⼩に動かしても、表現する確率分布が変化し
ない)
• 統計多様体が次の条件を満たす時、滑らかという
• Fisher情報量が各点で⾮退化
• θ->p(・; θ)が単射
• 統計多様体が滑らかでない時、特異であるという
57
適応⾃然勾配法 [Amari+00] [Park+00]
• Fisher情報量の逆⾏列の計算が重いので、それをオンラインで
推定したものを使う、適応⾃然勾配法という⼿法もある
58
Amari, Shun-Ichi, Hyeyoung Park, and Kenji Fukumizu. "Adaptive method of
realizing natural gradient learning for multilayer perceptrons." Neural
Computation 12.6 (2000): 1399-1409.
Park, Hyeyoung, S-I. Amari, and Kenji Fukumizu. "Adaptive natural gradient learning
algorithms for various stochastic models." Neural Networks 13.7 (2000): 755-764.

More Related Content

What's hot

強化学習の実適用に向けた課題と工夫
強化学習の実適用に向けた課題と工夫強化学習の実適用に向けた課題と工夫
強化学習の実適用に向けた課題と工夫
Masahiro Yasumoto
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習
Masaki Saito
 

What's hot (20)

強化学習における好奇心
強化学習における好奇心強化学習における好奇心
強化学習における好奇心
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
強化学習の実適用に向けた課題と工夫
強化学習の実適用に向けた課題と工夫強化学習の実適用に向けた課題と工夫
強化学習の実適用に向けた課題と工夫
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習
 
強化学習 と ゲーム理論 (MARL)
強化学習 と ゲーム理論 (MARL)強化学習 と ゲーム理論 (MARL)
強化学習 と ゲーム理論 (MARL)
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論
 
帰納バイアスが成立する条件
帰納バイアスが成立する条件帰納バイアスが成立する条件
帰納バイアスが成立する条件
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
 
敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度
 

Viewers also liked (6)

数学つまみぐい入門編
数学つまみぐい入門編数学つまみぐい入門編
数学つまみぐい入門編
 
圏とHaskellの型
圏とHaskellの型圏とHaskellの型
圏とHaskellの型
 
楕円曲線入門 トーラスと楕円曲線のつながり
楕円曲線入門トーラスと楕円曲線のつながり楕円曲線入門トーラスと楕円曲線のつながり
楕円曲線入門 トーラスと楕円曲線のつながり
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
 
ニューラルネットワークの数理
ニューラルネットワークの数理ニューラルネットワークの数理
ニューラルネットワークの数理
 

Similar to 20170422 数学カフェ Part2

LS for Reinforcement Learning
LS for Reinforcement LearningLS for Reinforcement Learning
LS for Reinforcement Learning
imlschedules
 
自然言語処理における機械学習による曖昧性解消入門
自然言語処理における機械学習による曖昧性解消入門自然言語処理における機械学習による曖昧性解消入門
自然言語処理における機械学習による曖昧性解消入門
Koji Sekiguchi
 
ネットワーク科学最前線2017 -インフルエンサーと機械学習からの接近-
ネットワーク科学最前線2017  -インフルエンサーと機械学習からの接近-ネットワーク科学最前線2017  -インフルエンサーと機械学習からの接近-
ネットワーク科学最前線2017 -インフルエンサーと機械学習からの接近-
hayashiresearchlab
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
Issei Kurahashi
 

Similar to 20170422 数学カフェ Part2 (20)

統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
 
LS for Reinforcement Learning
LS for Reinforcement LearningLS for Reinforcement Learning
LS for Reinforcement Learning
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
 
深層ニューラルネットワーク による知識の自動獲得・推論
深層ニューラルネットワークによる知識の自動獲得・推論深層ニューラルネットワークによる知識の自動獲得・推論
深層ニューラルネットワーク による知識の自動獲得・推論
 
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
自然言語処理における機械学習による曖昧性解消入門
自然言語処理における機械学習による曖昧性解消入門自然言語処理における機械学習による曖昧性解消入門
自然言語処理における機械学習による曖昧性解消入門
 
ネットワーク科学最前線2017 -インフルエンサーと機械学習からの接近-
ネットワーク科学最前線2017  -インフルエンサーと機械学習からの接近-ネットワーク科学最前線2017  -インフルエンサーと機械学習からの接近-
ネットワーク科学最前線2017 -インフルエンサーと機械学習からの接近-
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
 
Python基礎その1
Python基礎その1Python基礎その1
Python基礎その1
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
 
kagamicomput201808
kagamicomput201808kagamicomput201808
kagamicomput201808
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
(DL hacks輪読) Difference Target Propagation
(DL hacks輪読) Difference Target Propagation(DL hacks輪読) Difference Target Propagation
(DL hacks輪読) Difference Target Propagation
 
公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
Casual learning machine learning with_excel_no4
Casual learning machine learning with_excel_no4Casual learning machine learning with_excel_no4
Casual learning machine learning with_excel_no4
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩
 

More from Kenta Oono

提供AMIについて
提供AMIについて提供AMIについて
提供AMIについて
Kenta Oono
 
Caffeインストール
CaffeインストールCaffeインストール
Caffeインストール
Kenta Oono
 

More from Kenta Oono (20)

Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...
Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...
Minimax statistical learning with Wasserstein distances (NeurIPS2018 Reading ...
 
Deep learning for molecules, introduction to chainer chemistry
Deep learning for molecules, introduction to chainer chemistryDeep learning for molecules, introduction to chainer chemistry
Deep learning for molecules, introduction to chainer chemistry
 
Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017
Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017
Overview of Machine Learning for Molecules and Materials Workshop @ NIPS2017
 
Comparison of deep learning frameworks from a viewpoint of double backpropaga...
Comparison of deep learning frameworks from a viewpoint of double backpropaga...Comparison of deep learning frameworks from a viewpoint of double backpropaga...
Comparison of deep learning frameworks from a viewpoint of double backpropaga...
 
深層学習フレームワーク概要とChainerの事例紹介
深層学習フレームワーク概要とChainerの事例紹介深層学習フレームワーク概要とChainerの事例紹介
深層学習フレームワーク概要とChainerの事例紹介
 
情報幾何学の基礎、第7章発表ノート
情報幾何学の基礎、第7章発表ノート情報幾何学の基礎、第7章発表ノート
情報幾何学の基礎、第7章発表ノート
 
GTC Japan 2016 Chainer feature introduction
GTC Japan 2016 Chainer feature introductionGTC Japan 2016 Chainer feature introduction
GTC Japan 2016 Chainer feature introduction
 
On the benchmark of Chainer
On the benchmark of ChainerOn the benchmark of Chainer
On the benchmark of Chainer
 
Tokyo Webmining Talk1
Tokyo Webmining Talk1Tokyo Webmining Talk1
Tokyo Webmining Talk1
 
VAE-type Deep Generative Models
VAE-type Deep Generative ModelsVAE-type Deep Generative Models
VAE-type Deep Generative Models
 
Common Design of Deep Learning Frameworks
Common Design of Deep Learning FrameworksCommon Design of Deep Learning Frameworks
Common Design of Deep Learning Frameworks
 
Introduction to Chainer and CuPy
Introduction to Chainer and CuPyIntroduction to Chainer and CuPy
Introduction to Chainer and CuPy
 
Stochastic Gradient MCMC
Stochastic Gradient MCMCStochastic Gradient MCMC
Stochastic Gradient MCMC
 
Chainer Contribution Guide
Chainer Contribution GuideChainer Contribution Guide
Chainer Contribution Guide
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
 
日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料
日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料
日本神経回路学会セミナー「DeepLearningを使ってみよう!」資料
 
提供AMIについて
提供AMIについて提供AMIについて
提供AMIについて
 
Chainerインストール
ChainerインストールChainerインストール
Chainerインストール
 
Caffeインストール
CaffeインストールCaffeインストール
Caffeインストール
 

Recently uploaded

Recently uploaded (11)

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 

20170422 数学カフェ Part2