More Related Content
Similar to [DL Hacks]AVID: Adversarial Visual Irregularity Detection (20)
More from Deep Learning JP (20)
[DL Hacks]AVID: Adversarial Visual Irregularity Detection
- 1. DEEP LEARNING JP
[DL Hacks]
AVID: AdversarialVisual Irregularity Detection
Hiromi Nakagawa, Matsuo Lab
http://deeplearning.jp/
- 3. 1. 論文紹介
2. 実装
3. 実験結果
3
Agenda
久保くんのDL輪読会のスライドを引用します
https://www.slideshare.net/DeepLearningJP2016/dlavidadversarial-visual-irregularity-detection
- 19. 19
実装
• Discriminator
– 以下URLなどを参考にFCNを実装
• https://github.com/pochih/FCN-pytorch
• https://github.com/wkentaro/pytorch-fcn
– 元論文の図は64x64→11x11のモデルを仮定
• IR-MNIST(224x224)などは64x64にリサイズすると判読できないレベルまでつぶれてしまうため、
112x112→11x11や224x224→11x11のモデルを実装した
- 30. • 元論文のハイパラでうまくいかない、かつかなりハイパラに敏感で実験が大変だった
– GANの実装・実験自体が初だったので、GANの勘所がなかなかわからず苦戦
– 学習率はG>DとしないとDが強くなりすぎてGがノイズしか吐かなくなるが、Dもうまく学習が進まない(0.5
しか吐かなくなる)と異常検知の段階で役に立たず、、
– ノイズが弱いとGが恒等写像を覚えてしまうっぽい?(テスト時に未知物体も復元できてしまう)
– 筆者が本当に(64,64)のInputを想定していたのか?など不明点も多かった
– 再構成誤差とかも入れたほうが安定しそう?(特に初めの方)
• 訓練時にガウシアンノイズをかけるだけでテスト時に異常を消せるのか?の疑問は解決されず、、
– どなたか実験うまくいったら教えてください
• (本筋に関係ないところとして)画像を-1~1で正規化すると可視化などで微妙につまった
– -1~1のtensorをPILに変換すると、0~1のtensorを変換した場合と値が異なる
30
感想