9. Network Modeling
왜 계속 망할까?
1. 데이터 개수가 적기 때문
총 데이터 개수: 4806개
MNIST: 테스트 데이터만 10,000개
CIFAR-10: 테스트 데이터만 10,000개
ImageNet: 1,281,167개 (ILSVRC 2012 기준)
10. Network Modeling
왜 계속 망할까?
1. 데이터 개수가 적기 때문
2. 그런데 모델은 엄청 크게 만듦
Parameters of SENet: 5,692,421 (20x128, reduction=16)
Parameters of CBAM: 5,675,910 (20x128, reduction=16)
13. Optimization
한 논문에 따르면 Adaptive 계열보단 SGD가 generalization 성능이 좋음.
→ 실제 실험 결과 데이터가 너무 부족해 Adaptive 계열은 쉽게 overfitting 됨
따라서 SGD 계열인 NAG(Nesterov Accelerated Gradient) 채택
* Nitish Shirish Keskar, Richard Socher, 2017, "Improving Generalization Performance by Switching from Adam to SGD"
𝑣 𝑡 = 𝛾𝑣 𝑡−1 + 𝜂∇ 𝜃 𝐽 𝜃 − 𝛾𝑣 𝑡−1
𝜃 = 𝜃 − 𝑣 𝑡
15. Transfer Learning
→ 기존의 만들어진 모델을 사용하여 새로운 문제 해결 시 더 좋은 성능을 내기 위한 기법
아래에 있는 ImageNet을 이용해 학습된 모델들을 torchvision을 통해 받을 수 있다.
→ ImageNet엔 사람이 있으니 사람을 경험한 모델임
◦ VGG
◦ ResNeXt
◦ DenseNet