14. ⾃動運転応⽤(2/3):LIDARなど豊富なセンサー vs. カメラ中⼼
l 多種センサー:⾼精細な深度情報 ←→ ⾒た⽬の課題、⾼コスト(改善中)
l 画像センサー中⼼:低コスト ←→ 深度・遠⽅情報が不⾜し低精度(改善中)
Lyft and Drive.ai partner on Bay Area self-driving ride-hailing
pilot, Darrel Etherington, TechCrunch
⾬天夜間⾛⾏のデモ動画あり [youtube]
Drive.ai
Tesla Autopilot:前後左右遠近8種類のカメラ+超⾳波+レーダー
https://www.tesla.com/autopilot
15. ⾃動運転応⽤(3/3):個別モジュール vs. ⼀気通貫モデル
l 個別モジュール:旧来の認識→経路計画→制御の⼀部をディープラーニングに
l ⼀気通貫:センサー⼊⼒から直接アクセル・ブレーキ・ハンドル制御を出⼒
Adding Navigation to the Equation: Turning Decisions for
End-to-End Vehicle Control [Hubschneider+, 2017]
Perception, Planning, Control, and Coordination for
Autonomous Vehicles [Pendleton+, 2017]
18. エンターテイメント応⽤(2/2):モーション⽣成, セレブ顔合成
Progressive Growing of GANs for Improved Quality,
Stability, and Variation [Karras+, 2017]
Phase-Functioned Neural Networks for Character Control [Holden+, 2017]
https://www.youtube.com/watch?v=Ul0Gilv5wvY
l 3DCGキャラの⾃然な動きや、実在しないセレブの⾼精細画像も合成
28. AIビジネスコミュニティとしてDeep Learning Lab (DLL)を⽴ち上げ
l AzureとChainerを主要プラットフォーム・フレームワークとするコミュニティ
l https://dllab.connpass.com/
l DLLコミュニティイベント4回(159→239→260→386名)
l NVIDIA Deep Learning Instituteとの共催イベントを地⽅4都市開催
l 参加企業のキカガク様のセミナー、Ridge-i様のNHK⽩⿊映像カラー化事例等
https://www.kikagaku.co.jp/services/dnn-seminar/ 第4回イベントの様⼦(Ridge-i様撮影)
31. l データ解析に必要なものが全てパッケージング(Windows/Linux両対応)
l 分析:開発環境 / データ基盤 / 機械学習ツール
l GPUサポート:CUDA / cuDNN
l DL:フレームワーク / 関連ツール
ChainerおよびCV/RLはAzure Data Science VMにプリインストール済み
https://azure.microsoft.com/en-us/services/virtual-machines/data-science-virtual-machines/
38. ChainerMN on Azure: 伸び続ける学習時間を解決
l Azure内のInfiniBand環境を活⽤し128GPUで約100倍の⾼速化を実現可能
l XTREME DESIGN様のHPCテンプレートでChainerMN環境を10⽉から提供
1
10
100
1 2 4 8 16 32 64 128
https://www.slideshare.net/hironojumpei/chainermnxtreme-dna-hpc-cloud
39.
40. まとめ
l ディープラーニングの産業応⽤
l 画像認識アプリケーションを中⼼とした商⽤化が加速
l 多種多様なデータを⽤いた複雑な実問題への取り組みも開始
l それを⽀える技術
l ソフトウェアとハードウェア双⽅の激しい開発競争:⾼速化、⼤規模化、標準化、
l ユーザー層の拡⼤、研究者だけでなく技術を使いこなせるエンジニアの育成
l Preferred Networksの取り組み
l Chainerをコアに、最先端の研究やMS等パートナーとの協業、⼤規模DL基盤の整備
l 製造業や⾃動運転、バイオヘルスケアを中⼼としたビジネス展開を推進
Preferred Networksでは⼀緒に戦うパートナー・仲間を募集しています