SlideShare una empresa de Scribd logo
1 de 19
Descargar para leer sin conexión
変分推論x深層学習を利⽤した画像デノイジング
ぱんさん@オンライン (2020/04/18)
今回紹介する論⽂の概要
n タイトル: Variational Denoising Network: Toward Blind Noise Modeling and Removal
n 学会: NIPS 2019
n 概要:
n ノイズあり画像で条件づけたときのノイズと推定したい元の画像の事後分布 𝑞(𝑧, σ!
|𝑦) をニューラル
ネットワーク(NN)によってモデル化
n 変分下限最⼤化により,NNのパラメタを学習
n 画像の位置ごとに依存するような(iidではない)未知のノイズを推定し,ブラインド画像デノイジング
を可能にする
訓練ノイズ分布とは異なる,test caseのような未知のノイズ分布の推定が可能
背景: ブラインド画像デノイジング(blind image denoising)とは︖
n イメージデノイジングとはノイズが⼊った画像からノイズを取り除くタスク
n ノイズの分布がわからない場合 → ブラインドイメージデノイジング
関連研究: デノイジング⼿法は主に2つのカテゴリがある
n モデルドリブンな最⼤事後確率推定ベースの⼿法
n ベイジアンフレームワークにのっているため解釈しやすい😁
n 画像の事前分布とノイズに不⼗分な仮定しかおけない🥺
n データドリブンな深層学習による⼿法
n ⼤量のノイズありなしのペアデータを利⽤して学習すれば性能よく推論も早い😁
n 特定のタイプのノイズに過剰適合してしまう🥺
n ネットワークがヒューリスティックな設計で解釈性がない🥺
n → 上記2つの⼿法の利点を良いとこ取りした,ベイジアンフレームワークと深層学習を組
み合わせた⼿法(Variational Denoising Network)を提案
提案⼿法: 変分推論を使った近似事後分布の導出
n ノイズあり画像は元の画像にpixel-wiseなノイズが正規分布で乗っていると仮定
n ただし,ノイズ分布は位置によって同じという仮定ではない(iidではない)
n 後で事後分布をもとめるため,共役事前分布を⽤意
n 事後分布を直接計算することはできないため,近似事後分布を⽤意し,変分近似を⾏う
n それぞれの近似事後分布をガウシアン・逆ガンマ分布と仮定し,DNNでモデル化する
n 俗に⾔うamortized inference
提案⼿法: 変分下限の導出
n 対数尤度 = 変分下限 + KL項
n 変分下限は次式で,それぞれの項は解析的に計算することができる
提案⼿法: DNNによる変分事後分布のモデル化
n DNNのパラメタWは変分下限を最⼤化するように学習する
実験設定
n D-NetとS-NetではHeの初期値を利⽤
n パッチサイズは128x128とし,ランダムにクロップした64x5000のパッチを利⽤
n オプティマイザはadamで学習率は2e-4から1e-6にむけて10epochごとに線形に減らす
n ハイパラであるwindow sizeのpは7で,ε!
"
は合成データでは5e-5で現実データでは1e-6
n ハイパラの頑健性を⽰す実験も⾏っている
n ⽐較⼿法: CBM3D, WNNM, NCSR, MLP, DnCNN-B, MemNet, FFDNet, UDNet, CBDNet
n 元の画像とデノイズされた画像の近さはPSNRとSSIMで評価する
n PSNR: ⼆枚の画像で同じ位置同⼠のピクセルの輝度の差分を⼆乗したもの.単位はデシベル(dB)
n SSIM: 注⽬ピクセルの周りの平均と分散を元に輝度・コントラスト・構造を計算し,それらを複
合した指標
n 合成ノイズの実験:
n ノイズを⼈⼯的に作成し,それを取り除く
n データセット: Set5, LIVE1, BSD68
n 現実ノイズの実験:
n 実際のノイズを取り除く
n データセット: DND, SIDD
実験: IIDではないガウシアンノイズの推定
n non-iidなガウシアンノイズを次の式のように作る
n Mの種類(a, b1, c1, d1),S-Netにより推定されたノイズ(b2, c2, d2)
訓練ノイズ
S-Netにより
推定された
ノイズ
テスト
ノイズ
実験: IIDではないガウシアンノイズのデノイジング(定性的結果)
n テストケース2のときのノイズデータのデノイジングの定性的な⽐較実験
n CBM3DとDnCNN-Bは明らかにまだノイズが残っている
n FFDNetは画像を過剰になめらかにしてしまっており,エッジ情報が消えている
n VDN(提案⼿法)は詳細情報を残したままノイズを除去している
n 横の数字はPSNRの値
Noisy image Groundtruth CBM3D(24.63) DnCNN-B (27.83) FFDNet (28.06) VDN (28.32)
実験: IIDではないガウシアンノイズのデノイジング(定量的結果)
n それぞれのテストノイズケース・データセットごとの⽐較実験 (評価指標はPSNR)
n VDN(提案⼿法)はすべてのケースでアウトパフォームしている
n 識別モデルであるMLP, DnCNN-B, UDNetは訓練ノイズに過剰適合している
n CBM3Dはノイズをiidなガウシアンとしているモデル(WNNMとNCSR)に安定してアウトパフォー
ムしている
実験: ホワイトガウシアンノイズのデノイジング(定量的結果)
n 提案⼿法はiidではないノイズのための⼿法だが,普通のiidなホワイトガウシアンノイズにも
有効であることを⽰した実験結果
n 広い範囲のノイズレベル(Sigma)に対応している
実験: 実世界のノイズのデノイジング(定量的結果)
n PSNRとSSIMを評価指標にした⽐較実験
n SIDDとDND両⽅のデータセットにおいてSOTA
実験: 実世界のノイズのデノイジング(定性的結果)
n SIDDデータセットを使ったときの定性的な⽐較実験
n WNNMは複雑なノイズを除去できていない
n VDNが最もclean imageに近い
n 横の数字はPSNRの値
Noisy image clean image WNNM (21.80) DnCNN (34.48) CBDNet(34.84) VDN (35.50)
実験: ハイパラの解釈とその頑健性について
n ε!
"
は潜在的なclean image zが,ground truthであるxにどれだけ依存するのかを決める
n ε"
!
が0に近づくと負のELBOが単なるMSE誤差に近づく(事前分布p(z)を無視する)
n → 通常の深層学習ベースのロスになる
n ハイパラε"
!
を変えたときの結果(Table 5)
n ε!
"
が⼤きすぎると,事前分布p(z)の制約が⼤きくなり,xを無視するため,性能が悪くなる
n ε!
"
が⼩さすぎると,MSE誤差にしたときの性能に近づく
n pは逆ガンマ分布のモードとなるξの値を決めるためのwindow sizeである
n ハイパラ𝑝を変えたときの結果(Table 6)
n どのハイパラでも基本的には良い結果
付録: 逆ガンマ関数 (wikipediaより)
n 分散の共役事前分布によく使われる
付録: 対数尤度から変分下界の導出
付録: 変分下界⼀項⽬の導出
IGの期待値の計算
ψはdigamma関数
付録: 変分下界⼆項⽬と三項⽬の導出
IG同⼠のKLの公式

Más contenido relacionado

La actualidad más candente

PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf幸太朗 岩澤
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 ConvolutionsDeep Learning JP
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoderMasanari Kimura
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...Masahiro Suzuki
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative ModelingDeep Learning JP
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
動画像を用いた経路予測手法の分類
動画像を用いた経路予測手法の分類動画像を用いた経路予測手法の分類
動画像を用いた経路予測手法の分類Tsubasa Hirakawa
 
(文献紹介)Depth Completionの最新動向
(文献紹介)Depth Completionの最新動向(文献紹介)Depth Completionの最新動向
(文献紹介)Depth Completionの最新動向Morpho, Inc.
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
How Much Position Information Do Convolutional Neural Networks Encode?
How Much Position Information Do Convolutional Neural Networks Encode?How Much Position Information Do Convolutional Neural Networks Encode?
How Much Position Information Do Convolutional Neural Networks Encode?Kazuyuki Miyazawa
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked AutoencodersDeep Learning JP
 
動的輪郭モデル
動的輪郭モデル動的輪郭モデル
動的輪郭モデルArumaziro
 
[DL輪読会]Generative Models of Visually Grounded Imagination
[DL輪読会]Generative Models of Visually Grounded Imagination[DL輪読会]Generative Models of Visually Grounded Imagination
[DL輪読会]Generative Models of Visually Grounded ImaginationDeep Learning JP
 
[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with Transformers[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with TransformersDeep Learning JP
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 

La actualidad más candente (20)

PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
動画像を用いた経路予測手法の分類
動画像を用いた経路予測手法の分類動画像を用いた経路予測手法の分類
動画像を用いた経路予測手法の分類
 
(文献紹介)Depth Completionの最新動向
(文献紹介)Depth Completionの最新動向(文献紹介)Depth Completionの最新動向
(文献紹介)Depth Completionの最新動向
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
How Much Position Information Do Convolutional Neural Networks Encode?
How Much Position Information Do Convolutional Neural Networks Encode?How Much Position Information Do Convolutional Neural Networks Encode?
How Much Position Information Do Convolutional Neural Networks Encode?
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
 
動的輪郭モデル
動的輪郭モデル動的輪郭モデル
動的輪郭モデル
 
[DL輪読会]Generative Models of Visually Grounded Imagination
[DL輪読会]Generative Models of Visually Grounded Imagination[DL輪読会]Generative Models of Visually Grounded Imagination
[DL輪読会]Generative Models of Visually Grounded Imagination
 
[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with Transformers[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with Transformers
 
CVPR 2019 速報
CVPR 2019 速報CVPR 2019 速報
CVPR 2019 速報
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 

Más de ぱんいち すみもと

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミぱんいち すみもと
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationぱんいち すみもと
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介ぱんいち すみもと
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networksぱんいち すみもと
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ぱんいち すみもと
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005ぱんいち すみもと
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたぱんいち すみもと
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxぱんいち すみもと
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderぱんいち すみもと
 

Más de ぱんいち すみもと (19)

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミ
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibration
 
Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介
 
continual learning survey
continual learning surveycontinual learning survey
continual learning survey
 
Contrastive learning 20200607
Contrastive learning 20200607Contrastive learning 20200607
Contrastive learning 20200607
 
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly DetectionDeep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networks
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)
 
Dual dl
Dual dlDual dl
Dual dl
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmax
 
Domain transfer サーベイ
Domain transfer サーベイDomain transfer サーベイ
Domain transfer サーベイ
 
Intro VAE
Intro VAEIntro VAE
Intro VAE
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoder
 
PRML 14章
PRML 14章PRML 14章
PRML 14章
 
PRML 9章
PRML 9章PRML 9章
PRML 9章
 

Variational denoising network