5. 5
クロス プラットフォーム ディープラーニング
NVIDIA Volta あるいは
Pascal 世代の PC 用 GPU
NVIDIA DGX-1 と
DGX Station
TESLA V100 搭載の
Amazon EC2 P3 インスタンス
6. 6
NGC の GPU 最適化ディープラーニング コンテナ
NVCaffe
Caffe2
Chainer
Microsoft Cognitive
Toolkit (CNTK)
DIGITS
MXNet
PyTorch
TensorFlow
Theano
Torch
CUDA (base level
container for developers)
NVIDIA TensorRT inference
accelerator with ONNX
support
ディープラーニングソフトウェアの包括的なカタログ
7. 7
コンテナ化されたアプリケーション
TF Tuned SW
NVIDIA Docker
CNTK Tuned SW
NVIDIA Docker
Caffe2 Tuned SW
NVIDIA Docker
PyTorch Tuned SW
NVIDIA Docker
CUDA RTCUDA RTCUDA RTCUDA RT
Linux Kernel と CUDA ドライバ
Tuned SW
NVIDIA Docker
CUDA RT
Other
Frameworks
and Apps. . .
常に最新
エヌビディアによるフレームワークとコンテナの月例更新
8. 8
コンテナをPULLイメージをデプロイサインアップ
3 ステップで始める AWS と NGC でのディープラーニング
まずは NGC のアカウントを作成
してください。
www.nvidia.com/ngcsignup
お好みのコンテナを PULL して
ください。
これで準備完了です!
NVIDIA Volta Deep
Learning AMI for NGC
で P3 インスタンスを作成!
9. 9
VOLTA でのパフォーマンスを最大化
Tesla K80 の 10 倍以上のパフォーマンスを発揮
0
2
4
6
8
10
12
K80 V100 TC
GPU の世代による学習性能の比較
NGC から提供されるフレームワークは
NVIDIA が Volta 向けに最適化済み
NVIDIA 提供のクラウド イメージは最高
の性能を発揮するようにチューニング
Volta は Tesla K80 との比較で 10 倍
以上のパフォーマンスを発揮
ResNet-152 Training, 8x K80 (16 GPUs total) compared with 8x V100 NVLink GPUs using NVIDIA 17.10 containers