9. Generative Adversarial Networks
Goodfellowら(NIPS’14)
初めてGANが提案された論文
Task『特徴量の抽出源は ”SampleData” か ”GenerativeData”か?』
黒線 x :Data Generating Distribution
緑線 G(z):Generative Distribution
青線 D(x):Discriminative Distribution
(正データである確率、0.5に近づけたい。)
z :sampled uniformly
D
X
Sample
Z
noize
G
【Problem】
特徴量の分布が似通うだけで
Semanticな情報がKeepされない.
(異なるクラスの特徴量が近傍に分布する)
10. Deep Reconstruction-Classification Networks
for Unsupervised Domain Adaptation Ghifaryら(ECCV’16)
Target-Domainに対してUnsupervisedでSemanticな情報をKeepする
Task①:Supervised classification of labeled source data
Task②:Unsupervised reconstruction of unlabeled target data.
【Contribute】
Reconstruction Lossにより
Semantic情報が残るようにした
【Contribute】
TargetのLabelがゼロの場合に対応
11. Few-Shot Adversarial Domain Adaptation
Mottianら(NIPS’17)
Same class Different class
Same
Domain
Different
Domain
Semanticな情報をKeepするには、
Classification-Taskを教師あり学習させるのが手っ取り早い。
そこで、Target-Domainのデータやラベルが少ない場合でも、
教師あり学習できる手法が提案された。
*Discriminator:4クラス分類を解けるよう学習
*Generator :ClassがSameかDifferentか見抜かれないよう学習
【Contribute】
Targetデータが少ない場合に対応