SlideShare una empresa de Scribd logo
1 de 42
Descargar para leer sin conexión
数学で解き明かす深層学習の原理
鈴木大慈
東京大学大学院情報理工学系研究科数理情報学専攻
理研AIP
(「社会的課題の解決に向けた数学と諸分野の協働」さきがけ一期生)
2020年(令和2年)2月2日
数学パワーが世界を変える2020@秋葉原コンベンションホール
1
深層学習の広がり 2
[Glow: Generative Flow with Invertible 1x1 Convolutions. Kingma
and Dhariwal, 2018]
AlphaGo/Zero 画像の生成
画像の変換
画像認識
自動翻訳
[Zhu, Park, Isola, and Efros: Unpaired image-to-image translation using
cycle-consistent adversarial networks. ICCV2017.]
様々なタスクで高い精度
[Silver et al. (Google Deep Mind): Mastering the game of Go with
deep neural networks and tree search, Nature, 529, 484—489, 2016]
[Wu et al.: Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation. arXiv:1609.08144]
[He, Gkioxari, Dollár, Girshick: Mask R-CNN, ICCV2017]
諸分野への波及 3
[Litjens, et al. (2017)]
医療分野における「深層学習」
を用いた論文数
医療
- 人を超える精度
(FROC73.3% -> 87.3%)
- 悪性腫瘍の場所も特定
[Detecting Cancer Metastases on
Gigapixel Pathology Images: Liu et
al., arXiv:1703.02442, 2017]
[Niepert, Ahmed&Kutzkov: Learning Convolutional Neural Networks
for Graphs, 2016]
[Gilmer et al.: Neural Message Passing for Quantum Chemistry, 2017]
[Faber et al.:Machine learning prediction errors better than DFT
accuracy, 2017.]
量子化学計算,分子の物性予測
[Google AI Blog, “Deep Learning for Robots: Learning from Large-
Scale Interaction,” 2016/5/8]
ロボット
ImageNet 4
ImageNet: 1,000カテゴリ,約120万枚の訓練画像データ
ILSVRC (ImageNet Large Scale Visual Recognition Competition)
[J. Deng, W. Dong, R. Socher, L.-J. Li, K. Li, and L. Fei-Fei.
ImageNet: A Large-Scale Hierarchical Image Database. In CVPR09, 2009.]
ImageNetデータにおける識別精度の変遷 5
0
5
10
15
20
25
30
ILSVRC
2010
ILSVRC
2011
ILSVRC
2012
AlexNet
ILSVRC
2013
ILSVRC
2014
VGG
ILSVRC
2014
GoogleNet
Human ILSVRC
2015
ResNet
Classification error (%) (top5 error)
深層学習
ImageNet: 1,000カテゴリ,約120万枚の訓練画像データ
8層 8層 19層 22層 152層
解決すべき問題点
なぜ深層学習はうまくいくのか?
• 「○○法が良い」という様々な仮説の氾濫.
• 世界的課題
6
“錬金術”という批判
学会の問題意識 民間の問題意識
Ali Rahimi’s talk at NIPS2017 (test of time award).
“Random features for large-scale kernel methods.”
• 中で何が行われているか分か
らないものは用いたくない.
• 企業の説明責任.深層学習の
ホワイトボックス化.
• 原理解明
• どうすれば“良い”学習が実現できるか?→新手法の開発
数学の必要性
数学の役割 7
物理学
数学現象
• 相対性理論
• 量子力学
• リーマン幾何
• 関数解析
機械学習(情報学)
深層学習 数学
• 確率論
• 関数解析
• Wasserstein幾何
• 熱拡散方程式
• 統計学
• 最適化理論
• 数値計算
数学者・物理学者も参入
モデル 8
x
f(x)
線形モデル
(アフィンモデル)
パラメータa,bをデータから学習 (推定)
非線形モデル
深層ニューラルネットワーク
カーネル法
多項式モデル
モデル:入出力関係を数式で表現したもの.
(計算機は数式を明示しないと動かない)
教師あり学習 9
-猫 (y=1)
-犬 (y=2)
-人間 (y=3)
画像
学習:「関数」をデータに当てはめる
モデル:関数の集合(例:深層NNの表せる関数の集合)
ベ
ク
ト
ル
ベ
ク
ト
ル
深層NNのモデル 10
-猫
-犬
-人間
画像
各層で情報を
抽出して次の
層に伝達
第一層 第二層 第五層
0.6
1.2
0.4
-0.8
0.2
0.1
0.9
0.3
前の層の情報に重みを付けて足し合わせる.
各層ごとに役
割が異なる
 この「重み」をデータに合う
ように最適化
 数十億パラメータにもなる
猫
犬
各層の詳細
アフィン変換+活性化関数
11
• ReLU (Rectified Linear Unit)
• シグモイド関数
活性化関数
表現能力「万能近似能力」
理論的にはデータが無限にあり,素子数が無限
にあるニューラルネットワークを用いればどん
な問題でも学習できる.
12
深層ニューラルネットワークのモデルは連続関数・L1可積分関数・
L2可積分関数の空間で稠密
真の関数有限和近似(2層NN)
ニューラルネットワークはどんな関数も
任意の精度で近似できる.
「関数近似理論」
[Sonoda & Murata, 2015]
[Hecht-Nielsen,1987][Cybenko,1989]
関数近似の様子 13
関数近似の様子 14
ReLU活性化関数
関数近似の様子 15
関数近似の様子 16
関数近似の様子 17
…
Fourier変換との関係
• Fourier変換
18
• Ridgelet変換
ウェーブレット変換 + ラドン変換
cos,sinの代わりに,各素子の出力の
足し合わせで関数を表現
CTスキャン
Ridgelet変換による復元定理
[Wikipedia,フーリエ変換]
カーネル法
• 万能近似能力のある手法.
• 2000年~2010年ほどで流行.
• ILSVRCでも使われていた.
19
非線形写像
カーネル法
再生核ヒルベルト空間の理論
似た手法
• スプライン法
• 局所多項式回帰
• シリーズ推定量
xy
…
…
• 第一層目固定
• 無限個の素子
第1層目を固定した横幅無限の
2層ニューラルネットワーク
(線形推定量と呼ばれるクラス)
固定学習
これまででわかったこと
• [理論] 万能近似能力という意味では2層で十分.
• [実際] 実際は多層を使うことが多い.
→ この差はどう埋める?
20
カーネル法
従来法
多層ニューラルネット
深層学習
→ 推定/近似の「精度」を比べてみる.
なぜ深層学習が良いのか?
• いろいろな理論がある.
21
深
層
カ
ー
ネ
ル
縮小ランク回帰
特徴空間の次元
が低い状況は深
層学習が得意
区分滑らかな関数
不連続な関数の
推定は深層学習
が得意
Besov空間
滑らかさが非一
様な関数の推定
は深層学習が得
意
低次元データ
データが低次元
部分空間上に分
布していたら深
層学習が有利
[Suzuki, 2019]
[Schmidt-Hieber, 2019] [Nakada&Imaizumi,
2019][Chen et al., 2019][Suzuki&Nitanda, 2019][Imaizumi&Fukumizu, 2019]
推
定
精
度
深層学習の適応能力 22
[Suzuki, ICLR2019]
深層学習はBesov空間(𝐵𝐵𝑝𝑝,𝑞𝑞
𝑠𝑠
)の元を推定するのにミニマックス最適レートを達成する.
(複雑な関数形状に適応的にフィットすることができる)
深層学習には「高い適応力がある」ことを解明
明らかに犬 明らかに猫犬と猫の中間
少し絵が変わっても
「犬」のまま
少し絵が変わっても
「猫」のまま
少し絵が変わると
犬/猫のどちらかに偏る
猫の度合い
滑らかでない
急激に変化滑らか
滑らか
どこが重要でどこが重要でないかを見分けて,重要な部分を重点的に学習
→ 多層だから可能
「浅い」学習との比較 23
≫
(𝑛𝑛: sample size,𝑝𝑝: uniformity of smoothness,𝑠𝑠: smoothness)
(カーネルリッジ回帰,KNN法,シーブ法など)
深層でない学習方法
最適ではない
深層学習
最適
• 深層学習は“必要最低限”の情報のみを抽出して学習
→学習効率が良い
• 浅い学習は“無駄な”情報も捉えて学習
→学習効率が悪い (無駄な情報に左右されてしまう)
理論上これ以上改善できない精度を達成できている.
推定誤差(平均二乗誤差 E ̂𝑓𝑓 − 𝑓𝑓∗ 2
)がサンプルサイズが増えるにつれどれだけ速く減少するか
[Suzuki, ICLR2019]
低次元データ分布 24
関数値
ほぼ一定
関数値が
変化する方向
𝑠𝑠1, 𝑠𝑠2, 𝑠𝑠3: smoothness
(non-smooth) 𝑠𝑠1, 𝑠𝑠2 ≪ 𝑠𝑠3 (smooth)
推
定
精
度
深層学習 浅い学習
(次元の呪い)
数学的に一般化 25
[Satoshi Hayakawa and Taiji Suzuki: On the minimax optimality and superiority of deep neural network
learning over sparse parameter spaces. arXiv:1905.09195.]
「滑らかさの非一様性」「不連続性」「データの低次元性」
凸結合を取って崩れる性質をもった関数の学習は深層学習が強い
→ 様々な性質を“凸性”で統一的に説明
例:ジャンプが3か所の区分定数関数
+ =
0.5x 0.5x
ジャンプ3か所 ジャンプ3か所 ジャンプ6か所
→ さらには「スパース推定」という観点からも説明できる.
深層:1/𝑛𝑛, カーネル: 1/ 𝑛𝑛
数学的一般化 26
縮小ランク回帰
区分滑らかな関数 Besov空間
低次元データ
非凸性
スパース性
数学のパワー
深層学習の汎化誤差
27
過学習 28
「なんでも表現できる方法」が最適とは限らない
少しのノイズにも鋭敏に反応してしまう
「過去問は解けるけれども本番の試験は解けない」
という状況を回避したい
過学習適切な学習
説明力が高すぎる
(複雑すぎる)
説明力が適切
良い学習結果 悪い学習結果
学習に用いるデータには誤りも含まれる
過小学習
説明力が低すぎる
悪い学習結果
一見当てはまりが良いので危険
従来の学習理論 29
過学習適切な学習過小学習
[Neyshabur et al., ICLR2019]
ネットワークのサイズを大きくしても過学習しない
実際は...
データサイズ:130万
モデルパラメータサイズ:10億
[Xu et al., 2018]
深層ニューラルネットの冗長性 30
• 深層学習は重要な情報に絞って特徴抽出
→ 構造的に冗長性が現れる.
重視 簡単簡単
パラメータ数 ≫ データサイズ
数十億 数百万 数十万
≫ 実質的自由度
[仮説] 見かけの大きさ (パラメータ数) よりも
実質的な大きさ (自由度) はかなり小さいはず.
“実質的自由度”を調べる研究:
• 圧縮型バウンド
• ノルム型バウンド
…
圧縮型バウンド 31
「圧縮」できるネットワークは
過学習しない
[Taiji Suzuki: Fast generalization error bound of deep learning from a kernel perspective.
AISTATS2018]
[Jingling Li, Yanchao Sun, Ziyin Liu, Taiji Suzuki and Furong Huang: Understanding of Generalization
in Deep Learning via Tensor Methods. AISTATS2020]
[Taiji Suzuki, Hiroshi Abe, Tomoaki Nishimura: Compression based bound for non-compressed
network: unified generalization error analysis of large compressible deep neural network, ICLR2020]
圧縮
•中間層の分散共分散行列の固有値分布で圧縮率を評価.
•「テンソル分解」の援用によりCNNの詳細な評価も実現.
元サイズ 圧縮可能
サイズ
大 小
実質的自由度
元のサイズ
[実験的観察] 実際に学習した
ネットワークは圧縮しやすい.
理論の副産物
自由度の理論解析により,ネットワークのどこ
に着目すればどれだけ圧縮できるかがわかる.
32
深層ニューラルネットワークの圧縮技術への応用
エッジデバイスでの運用
ニューラルネットワークの圧縮 33
VGG-16ネットワークの圧縮
提案手法:
従来手法より良い精度 94%の圧縮
(精度変わらず)
ResNet-50ネットワークの圧縮
約半分に圧縮しても精度落ちず
圧縮 • メモリ消費量を減少
• 予測にかかる計算量を減少
→ 小型デバイスでの作動に有利
(自動運転など)
[Suzuki, Abe, Murata, Horiuchi, Ito, Wachi, Hirai, Yukishima, Nishimura:
Spectral-Pruning: Compressing deep neural network via spectral analysis, 2018]
転移学習のネットワーク構造決定
• ある閾値以上の固有値をカウント (e.g., 10−3
).
→ 縮小したネットワークのサイズとして使う.
• その後,スクラッチから学習 (𝒮𝒮) もしくはImageNet事前学習モデルをファイン
チューニングする (ℐ).
34
Network size determination alg.
深層学習の最適化計算
35
深層学習の“学習” 36
深層ニューラルネットワークをデー
タにフィットさせるとは?
損失関数:データへの当てはまり度合い
𝑖𝑖番目のデータで正解していれば
小さく,間違っていれば大きく
𝑊𝑊: パラメータ
損失関数最小化
(Wは数十億次元)
通常,確率的勾配降下法で最適化 最適値
局所最適解や鞍点にはまる可能性あり
37
局所最適解 大域的最適解局所最適解=大域的最適解
凸関数
問題点
目的関数が非凸関数
深層学習の損失関数
?
オーバーパラメトライゼーション
• 横幅が広いと局所最適解が大域的最適解になる.
38
• オーバーパラメトライゼーション
 Neural Tangent Kernel
 Mean-field analysis (平均場解析)
…
狭い横幅
広い横幅
自由度が上がるため,初期値が最適解
(完全フィット)の近くに位置する.
0
0
[Nitanda &Suzuki, arXiv:1905.09870]
[Nitanda &Suzuki, arXiv:1712.05438.][Ba,Erdogdu,Suzuki, Wu, Zhang, ICLR2020]
平均場解析
• ニューラルネットワークの最適化をパラメータ
の分布最適化としてみなす.
39
(𝑎𝑎, 𝑤𝑤)に関する確率密度𝜌𝜌による平均とみなせる:
𝑓𝑓の最適化 ⇔ 𝜌𝜌の最適化
連続方程式,Wasserstein勾配流
𝑀𝑀 → ∞
連続方程式
[Atsushi Nitanda and Taiji Suzuki: Stochastic Particle Gradient Descent for Infinite Ensembles. arXiv:1712.05438.]
(流体力学,確率論)
粒子勾配降下法 40
• 各ニューロンのパラメータを一つの粒子とみなす.
• 粒子全体の分布が最適化される.
1つの粒子
M個の粒子が移動
𝑀𝑀 → ∞の極限で,最適解への収束が示せる.
[Nitanda&Suzuki, 2017][Chizat&Bach, 2018][Mei, Montanari&Nguyen, 2018]
データへの当てはまりを
良くする方向に変化
(各粒子の移動方向)
(分布の形)
まとめ
• 深層学習はなぜうまくいくのか?[世界的課題]
• 数学による深層学習の原理究明
 「表現能力」,「汎化能力」,「最適化」
41
今後のAIの潮流:論理推論 (脱帰納) ?
数学パワーでAIを“謎の技術”から“制御可能な技術”へ
カーネル法
スパース推定
テンソル分解
特徴抽出
深層学習の統計的学習理論
Besov空間
連続方程式 Wasserstein幾何
確率集中不等式数学
確率過程
より高度な“知能”とは? 42
Neuroscience-Inspired Artificial Intelligence
D. Hassabis, D. Kumaran, C. Summerfield, and M. Botvinick

Más contenido relacionado

La actualidad más candente

【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without SupervisionDeep Learning JP
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点Taiji Suzuki
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章Kota Matsui
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? Deep Learning JP
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)cvpaper. challenge
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 

La actualidad más candente (20)

【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 

Más de Taiji Suzuki

[ICLR2021 (spotlight)] Benefit of deep learning with non-convex noisy gradien...
[ICLR2021 (spotlight)] Benefit of deep learning with non-convex noisy gradien...[ICLR2021 (spotlight)] Benefit of deep learning with non-convex noisy gradien...
[ICLR2021 (spotlight)] Benefit of deep learning with non-convex noisy gradien...Taiji Suzuki
 
[NeurIPS2020 (spotlight)] Generalization bound of globally optimal non convex...
[NeurIPS2020 (spotlight)] Generalization bound of globally optimal non convex...[NeurIPS2020 (spotlight)] Generalization bound of globally optimal non convex...
[NeurIPS2020 (spotlight)] Generalization bound of globally optimal non convex...Taiji Suzuki
 
Iclr2020: Compression based bound for non-compressed network: unified general...
Iclr2020: Compression based bound for non-compressed network: unified general...Iclr2020: Compression based bound for non-compressed network: unified general...
Iclr2020: Compression based bound for non-compressed network: unified general...Taiji Suzuki
 
はじめての機械学習
はじめての機械学習はじめての機械学習
はじめての機械学習Taiji Suzuki
 
Minimax optimal alternating minimization \\ for kernel nonparametric tensor l...
Minimax optimal alternating minimization \\ for kernel nonparametric tensor l...Minimax optimal alternating minimization \\ for kernel nonparametric tensor l...
Minimax optimal alternating minimization \\ for kernel nonparametric tensor l...Taiji Suzuki
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Taiji Suzuki
 
Stochastic Alternating Direction Method of Multipliers
Stochastic Alternating Direction Method of MultipliersStochastic Alternating Direction Method of Multipliers
Stochastic Alternating Direction Method of MultipliersTaiji Suzuki
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論Taiji Suzuki
 
PAC-Bayesian Bound for Gaussian Process Regression and Multiple Kernel Additi...
PAC-Bayesian Bound for Gaussian Process Regression and Multiple Kernel Additi...PAC-Bayesian Bound for Gaussian Process Regression and Multiple Kernel Additi...
PAC-Bayesian Bound for Gaussian Process Regression and Multiple Kernel Additi...Taiji Suzuki
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)Taiji Suzuki
 

Más de Taiji Suzuki (13)

[ICLR2021 (spotlight)] Benefit of deep learning with non-convex noisy gradien...
[ICLR2021 (spotlight)] Benefit of deep learning with non-convex noisy gradien...[ICLR2021 (spotlight)] Benefit of deep learning with non-convex noisy gradien...
[ICLR2021 (spotlight)] Benefit of deep learning with non-convex noisy gradien...
 
[NeurIPS2020 (spotlight)] Generalization bound of globally optimal non convex...
[NeurIPS2020 (spotlight)] Generalization bound of globally optimal non convex...[NeurIPS2020 (spotlight)] Generalization bound of globally optimal non convex...
[NeurIPS2020 (spotlight)] Generalization bound of globally optimal non convex...
 
Iclr2020: Compression based bound for non-compressed network: unified general...
Iclr2020: Compression based bound for non-compressed network: unified general...Iclr2020: Compression based bound for non-compressed network: unified general...
Iclr2020: Compression based bound for non-compressed network: unified general...
 
はじめての機械学習
はじめての機械学習はじめての機械学習
はじめての機械学習
 
Minimax optimal alternating minimization \\ for kernel nonparametric tensor l...
Minimax optimal alternating minimization \\ for kernel nonparametric tensor l...Minimax optimal alternating minimization \\ for kernel nonparametric tensor l...
Minimax optimal alternating minimization \\ for kernel nonparametric tensor l...
 
Ibis2016
Ibis2016Ibis2016
Ibis2016
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
Stochastic Alternating Direction Method of Multipliers
Stochastic Alternating Direction Method of MultipliersStochastic Alternating Direction Method of Multipliers
Stochastic Alternating Direction Method of Multipliers
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
PAC-Bayesian Bound for Gaussian Process Regression and Multiple Kernel Additi...
PAC-Bayesian Bound for Gaussian Process Regression and Multiple Kernel Additi...PAC-Bayesian Bound for Gaussian Process Regression and Multiple Kernel Additi...
PAC-Bayesian Bound for Gaussian Process Regression and Multiple Kernel Additi...
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
 
Jokyokai
JokyokaiJokyokai
Jokyokai
 
Jokyokai2
Jokyokai2Jokyokai2
Jokyokai2
 

Último

東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2Tokyo Institute of Technology
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ssusere0a682
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料Takayuki Itoh
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ssusere0a682
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptyuitoakatsukijp
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 

Último (7)

東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScript
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 

数学で解き明かす深層学習の原理