SlideShare a Scribd company logo
1 of 38
Download to read offline
エッジ向け Deep Learning プロジェクトで必要なこと

LeapMind株式会社 安村修一
LeapMind Inc. © 2019
自己紹介
2
● Shuichi YASUMURA (安村修一: @lm-yasumura)
● LeapMind 株式会社
● Collaborative Development (Co-Dev) 事業部
○ 情報電子工学専攻(大学院)
→ (2011年4月)三菱UFJ銀行(旧三菱東京UFJ銀行) システム部
→ (2017年9月)LeapMind
  → 共同研究 → プロダクト開発 → 共同研究
● エンジニアマネージャー (兼 deep learningエンジニア)
3
LeapMind について
LeapMind Inc. © 2019
4
LeapMind について
LeapMind Inc. © 2019
5
LeapMind の Mission
機械学習を使った今までにないデバイスを
あまねく世に広める
LeapMind Inc. © 2019
6
LeapMind が狙う市場
エッジ向け Deep Learning
LeapMind Inc. © 2019
7
エッジ向け Deep Learning の適用例
自動運転プロジェクト
瓦礫撤去ロボット
発電所での異常検知
食物の異物混入検査
ドローンを用いた橋梁検査
スマート家電への組み込み
監視カメラ人物検知
LeapMind Inc. © 2019
8
Agenda
● エッジ向け Deep Learning プロジェクトでの注意点
● モデルの圧縮(量子化)で必要なこと
● まとめ
9
エッジ向けDeep Learning プロジェクトでの注意点
LeapMind Inc. © 2019
よくあるお問い合わせ
10
Deep Learning のモデル作成は
自社で行っていますが
エッジ向けのハードウェア用に
変換してください
自社で作成した
学習済みモデルを
LeapMind にお渡しすれば
FPGA に実装してくれますよね
LeapMind Inc. © 2019
よくあるお問い合わせ
11
Deep Learning のモデル作成は
自社で行っていますが
エッジ向けのハードウェア用に
変換してください
自社で作成した
学習済みモデルを
LeapMind にお渡しすれば
FPGA に実装してくれますよね
そんな単純なものではございません
そもそもなぜそのデバイスへ実装するのでしょうか
LeapMind Inc. © 2019
12
伝えたいこと:エッジデバイスでの推論
エッジデバイスにおける
高精度かつ高速な推論を実現するためには
ネットワーク設計・学習の時点から
ターゲットの推論環境を意識すべき
学習済み
モデル
モデル
圧縮
デバイス
実装
LeapMind Inc. © 2019
13
伝えたいこと:エッジデバイスでの推論
エッジデバイスにおける
高精度かつ高速な推論を実現するためには
ネットワーク設計・学習の時点から
ターゲットの推論環境を意識すべき
組込み向け
ネットワーク
設計
極小量子化
学習
モデル
圧縮・最
適化
デバイス
実装
何度もモデル見直し
LeapMind Inc. © 2019
よくあるお問い合わせ
14
エッジデバイスでも
”精度”劣化しないで
動かせるようにモデルを
チューニングしてもらいたい
基本的には”精度”90%以上で
見逃しとかなくなるように
できますか
LeapMind Inc. © 2019
よくあるお問い合わせ
15
”精度”の定義を教えてください
本当にその精度は必要でしょうか
エッジデバイスでも
”精度”劣化しないで
動かせるようにモデルを
チューニングしてもらいたい
基本的には”精度”90%以上で
見逃しとかなくなるように
できますか
LeapMind Inc. © 2019
16
伝えたいこと:適切な要件・要求
実用用途を超えた精度・速度の要求はお互い不幸
まずは業務フローをしっかり検討
それからターゲットデバイスの選定
ネットワーク設計・構築を実施しても遅くない!
LeapMind Inc. © 2019
17
伝えたいこと:適切な要件・要求
実用用途を超えた精度・速度の要求はお互い不幸
まずは業務フローをしっかり検討
それからターゲットデバイスの選定
ネットワーク設計・構築を実施しても遅くない!
絶対見逃しは
許されないから
”とりあえず精度
100%”はNG
見逃しても
リカバリ可能な業
務フロー
必要以上の
スペックは
いらない
18
モデルの圧縮(量子化)がなぜ必要なのか
LeapMind Inc. © 2019
19
軽量なモデルの検討
エッジデバイスは
リソース(計算資源・電力など)が限ら
れている
軽量なモデルが必須
LeapMind Inc. © 2019
20
モデルの圧縮手法
Distillation
蒸留
Sharing
共有
Pruning
剪定
Quantization
量子化
一旦学習したネットワーク(教師モデル)の出力を
再現するようなネットワーク(生徒モデル)を新たに学習
近い値を持つパラメータをデータ構造として共有
影響の小さいシナプスあるいはニューロンを削除
重みなどのパラメータのビット幅を削減
LeapMind Inc. © 2019
21
量子化 と ターゲットデバイス
専用回路で高速かつ
低消費電力を実現
LeapMind Inc. © 2019
22
モデルの圧縮(量子化)の効果・影響
量子化を実施することでモデルは
ものすごく小さくできる
ただし、精度が劣化する可能性がある!
LeapMind Inc. © 2019
23
モデルの圧縮(量子化)の効果・影響
出典:A Survey of FPGA Based Neural Network Accelerator: https://arxiv.org/abs/1712.08934
1%程度の誤差低下における許容範囲
精度を重視するなら量子化の限界は8ビット
LeapMind Inc. © 2019
24
モデルの圧縮(量子化)の効果・影響
実際超低ビットモデルはどうなるか
LeapMind Inc. © 2019
25
モデルの圧縮(量子化)において考えるべきこと
対象となる
ハードウェアの選定
学習の必要性
8ビット整数または固定小数点数までの
量子化ならば
精度を落とさず実現可能
しかし特定ハードウェア
特に廉価なFPGAで8ビットでは多すぎる
量子化ビット数
LeapMind Inc. © 2019
26
モデルの圧縮(量子化)において考えるべきこと
対象となる
ハードウェアの選定
剪定と同様に
量子化も学習または再学習しながら
行うことによって
精度劣化を低減できることが
いくつかの研究で報告されている
量子化ビット数
学習の必要性
LeapMind Inc. © 2019
27
モデルの圧縮(量子化)において考えるべきこと
学習の必要性
GPUを採用する場合
8ビットより少ないビット数を採用しても
あまり意味がない
専用ハードウェアの場合
特に2値、3値を採用すると
乗算をXNORゲートで代替でき
大幅な省面積化と高速化が期待できる
量子化ビット数
対象となる
ハードウェアの選定
LeapMind Inc. © 2019
28
モデルの圧縮(量子化)の効果・影響
精度落ちてませんか
ところで …
LeapMind Inc. © 2019
29
必要な精度とは
りんご 92.6%
みかん 35.3%
…
多少の精度劣化は影響しないこともある
りんご 75.0%
みかん 52.0%
…
LeapMind Inc. © 2019
30
必要な精度とは
精度や誤差は領域の特定誤差に直接影響することもある
物体を覆う矩形(bounding box)が正しく描けなくなる
LeapMind Inc. © 2019
31
必要な精度とは
精度や誤差は領域の特定誤差に直接影響することもある
物体を覆う矩形(bounding box)が正しく描けなくなる
ピクセル単位での誤差はホントに許容できないか
LeapMind Inc. © 2019
32
必要な精度と顧客への説明
要件・要求にあった”精度”を達成するために
最適な指標を予め検討
それを達成可能なモデル設計・構築・チューニングを実施
顧客の業務を理解し
顧客に上手く説明(期待値調整)する力が必要
33
まとめ
LeapMind Inc. © 2019
まとめ
34
● モデル圧縮について
○ 剪定、量子化、共有、蒸留 といった技術が存在
○ いずれも、再学習が前提、または、再学習なしでは大幅な精度劣化
を招く
○ 十分なサイズの圧縮と高速化を実現するにはGPUでは難しく、専用
ハードウェアを考えるのが効率的
● 精度について
○ 実運用を考慮して精度目標を設定することが重要
○ 顧客を以下に説得して期待値を調整できるかも重要
35
おまけ
あなたの技術、 

研究室に閉じ込めていていいんですか?

OSS開発(Blueoil)
 ・スーパーコンピュータ上でのハイパーパラメータ探索機能追加

・セマンティックセグメンテーションのアプリケーション作成

・YoctoによるTerasic DE10-NanoとAvnet Ultra96用のイメージ作成機能追加

サマーインターン LeapMind 

プロジェクト例

プロセッサ設計

モデル開発

・ニューラルネット演算のマイクロコード作成

・ASIC設計検証

・ASIC/FPGA設計自動化

・高精度かつ計算量の少ない深層学習の手法やモデルの開発

・最新の論文に基づく技術の実装と検証

詳しくはこちらから


More Related Content

What's hot

GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景Deep Learning JP
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)cvpaper. challenge
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)cvpaper. challenge
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
【DL輪読会】Mastering Diverse Domains through World Models
【DL輪読会】Mastering Diverse Domains through World Models【DL輪読会】Mastering Diverse Domains through World Models
【DL輪読会】Mastering Diverse Domains through World ModelsDeep Learning JP
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論Deep Learning JP
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門Retrieva inc.
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスYusuke Uchida
 

What's hot (20)

GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
【DL輪読会】Mastering Diverse Domains through World Models
【DL輪読会】Mastering Diverse Domains through World Models【DL輪読会】Mastering Diverse Domains through World Models
【DL輪読会】Mastering Diverse Domains through World Models
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
 

Similar to エッジ向けDeepLearningプロジェクトで必要なこと

障害のない社会を作るためのアプリづくりとは? - 発達障害の方向けアプリ開発から学んだこと
障害のない社会を作るためのアプリづくりとは? - 発達障害の方向けアプリ開発から学んだこと障害のない社会を作るためのアプリづくりとは? - 発達障害の方向けアプリ開発から学んだこと
障害のない社会を作るためのアプリづくりとは? - 発達障害の方向けアプリ開発から学んだことTakashi Kishida
 
オフショア開発を成功させるために弊社が実施したこと
オフショア開発を成功させるために弊社が実施したことオフショア開発を成功させるために弊社が実施したこと
オフショア開発を成功させるために弊社が実施したこと株式会社DEHA SOLUTIONS
 
Java kuche agile japan 2017
Java kuche agile japan 2017Java kuche agile japan 2017
Java kuche agile japan 2017Akichika Higa
 
20190313_SDGsや社会課題にxRはどう活かせるか
20190313_SDGsや社会課題にxRはどう活かせるか20190313_SDGsや社会課題にxRはどう活かせるか
20190313_SDGsや社会課題にxRはどう活かせるかShingo Mori
 
インターン研修 自己紹介スライド
インターン研修 自己紹介スライドインターン研修 自己紹介スライド
インターン研修 自己紹介スライドripper0217
 
20111203 第28回WebSig会議_IMJモバイル川畑さん資料
20111203 第28回WebSig会議_IMJモバイル川畑さん資料20111203 第28回WebSig会議_IMJモバイル川畑さん資料
20111203 第28回WebSig会議_IMJモバイル川畑さん資料WebSig24/7
 
アジャイル開発の普及状況と具体事例
アジャイル開発の普及状況と具体事例アジャイル開発の普及状況と具体事例
アジャイル開発の普及状況と具体事例Yukio Okajima
 
IBMのソーシャル・ コンピューティング・ガイドライン
IBMのソーシャル・ コンピューティング・ガイドラインIBMのソーシャル・ コンピューティング・ガイドライン
IBMのソーシャル・ コンピューティング・ガイドラインSusumu Kurihara
 
jus研究会名古屋大会「Redmineでプロジェクトを【見える化】しよう!」
jus研究会名古屋大会「Redmineでプロジェクトを【見える化】しよう!」jus研究会名古屋大会「Redmineでプロジェクトを【見える化】しよう!」
jus研究会名古屋大会「Redmineでプロジェクトを【見える化】しよう!」Taku Yajima
 
AIのビジネス実装を成功に近づけるために
AIのビジネス実装を成功に近づけるためにAIのビジネス実装を成功に近づけるために
AIのビジネス実装を成功に近づけるためにReNom User Group
 

Similar to エッジ向けDeepLearningプロジェクトで必要なこと (20)

【PMIJ】pm教育の裾野拡大のための実践アプローチ
【PMIJ】pm教育の裾野拡大のための実践アプローチ【PMIJ】pm教育の裾野拡大のための実践アプローチ
【PMIJ】pm教育の裾野拡大のための実践アプローチ
 
20110824 android apps_takekawa
20110824 android apps_takekawa20110824 android apps_takekawa
20110824 android apps_takekawa
 
HoloLab_20191016_ceatec
HoloLab_20191016_ceatecHoloLab_20191016_ceatec
HoloLab_20191016_ceatec
 
障害のない社会を作るためのアプリづくりとは? - 発達障害の方向けアプリ開発から学んだこと
障害のない社会を作るためのアプリづくりとは? - 発達障害の方向けアプリ開発から学んだこと障害のない社会を作るためのアプリづくりとは? - 発達障害の方向けアプリ開発から学んだこと
障害のない社会を作るためのアプリづくりとは? - 発達障害の方向けアプリ開発から学んだこと
 
オフショア開発を成功させるために弊社が実施したこと
オフショア開発を成功させるために弊社が実施したことオフショア開発を成功させるために弊社が実施したこと
オフショア開発を成功させるために弊社が実施したこと
 
MAJINを支えるフロントエンド技術
MAJINを支えるフロントエンド技術MAJINを支えるフロントエンド技術
MAJINを支えるフロントエンド技術
 
Java kuche agile japan 2017
Java kuche agile japan 2017Java kuche agile japan 2017
Java kuche agile japan 2017
 
20190313_SDGsや社会課題にxRはどう活かせるか
20190313_SDGsや社会課題にxRはどう活かせるか20190313_SDGsや社会課題にxRはどう活かせるか
20190313_SDGsや社会課題にxRはどう活かせるか
 
オンライン教育サービスにおけるデータ活用方法
オンライン教育サービスにおけるデータ活用方法オンライン教育サービスにおけるデータ活用方法
オンライン教育サービスにおけるデータ活用方法
 
インターン研修 自己紹介スライド
インターン研修 自己紹介スライドインターン研修 自己紹介スライド
インターン研修 自己紹介スライド
 
20111203 第28回WebSig会議_IMJモバイル川畑さん資料
20111203 第28回WebSig会議_IMJモバイル川畑さん資料20111203 第28回WebSig会議_IMJモバイル川畑さん資料
20111203 第28回WebSig会議_IMJモバイル川畑さん資料
 
アジャイル開発の普及状況と具体事例
アジャイル開発の普及状況と具体事例アジャイル開発の普及状況と具体事例
アジャイル開発の普及状況と具体事例
 
IBMのソーシャル・ コンピューティング・ガイドライン
IBMのソーシャル・ コンピューティング・ガイドラインIBMのソーシャル・ コンピューティング・ガイドライン
IBMのソーシャル・ コンピューティング・ガイドライン
 
jus研究会名古屋大会「Redmineでプロジェクトを【見える化】しよう!」
jus研究会名古屋大会「Redmineでプロジェクトを【見える化】しよう!」jus研究会名古屋大会「Redmineでプロジェクトを【見える化】しよう!」
jus研究会名古屋大会「Redmineでプロジェクトを【見える化】しよう!」
 
AIのビジネス実装を成功に近づけるために
AIのビジネス実装を成功に近づけるためにAIのビジネス実装を成功に近づけるために
AIのビジネス実装を成功に近づけるために
 
Agilejapan2018
Agilejapan2018Agilejapan2018
Agilejapan2018
 
研修資料
研修資料研修資料
研修資料
 
Smfl20201001
Smfl20201001Smfl20201001
Smfl20201001
 
20110824 android apps_endo
20110824 android apps_endo20110824 android apps_endo
20110824 android apps_endo
 
Toolsの杜- 弥生株式会社の自動仕訳エンジンを支えるフロントエンド ~ 「ダサいは、バグだ!」を標榜してUXを徹底的に追求する ~
Toolsの杜- 弥生株式会社の自動仕訳エンジンを支えるフロントエンド ~ 「ダサいは、バグだ!」を標榜してUXを徹底的に追求する ~Toolsの杜- 弥生株式会社の自動仕訳エンジンを支えるフロントエンド ~ 「ダサいは、バグだ!」を標榜してUXを徹底的に追求する ~
Toolsの杜- 弥生株式会社の自動仕訳エンジンを支えるフロントエンド ~ 「ダサいは、バグだ!」を標榜してUXを徹底的に追求する ~
 

More from LeapMind Inc

Final presentation optical flow estimation with DL
Final presentation  optical flow estimation with DLFinal presentation  optical flow estimation with DL
Final presentation optical flow estimation with DLLeapMind Inc
 
Survey on optical flow estimation with DL
Survey on optical flow estimation with DLSurvey on optical flow estimation with DL
Survey on optical flow estimation with DLLeapMind Inc
 
[Icml2019] mix hop higher-order graph convolutional architectures via spars...
[Icml2019]  mix hop  higher-order graph convolutional architectures via spars...[Icml2019]  mix hop  higher-order graph convolutional architectures via spars...
[Icml2019] mix hop higher-order graph convolutional architectures via spars...LeapMind Inc
 
[Icml2019]LIT: Learned Intermediate Representation Training for Model Compres...
[Icml2019]LIT: Learned Intermediate Representation Training for Model Compres...[Icml2019]LIT: Learned Intermediate Representation Training for Model Compres...
[Icml2019]LIT: Learned Intermediate Representation Training for Model Compres...LeapMind Inc
 
[Icml2019] parameter efficient training of deep convolutional neural network...
[Icml2019] parameter efficient training of  deep convolutional neural network...[Icml2019] parameter efficient training of  deep convolutional neural network...
[Icml2019] parameter efficient training of deep convolutional neural network...LeapMind Inc
 
20190227[EDLS]JAL's INNOVATION エアラインのAI活用
20190227[EDLS]JAL's INNOVATION エアラインのAI活用20190227[EDLS]JAL's INNOVATION エアラインのAI活用
20190227[EDLS]JAL's INNOVATION エアラインのAI活用LeapMind Inc
 
E20190227[EDLS]インテル®︎FPGAによるエッジAI
E20190227[EDLS]インテル®︎FPGAによるエッジAIE20190227[EDLS]インテル®︎FPGAによるエッジAI
E20190227[EDLS]インテル®︎FPGAによるエッジAILeapMind Inc
 
20190227[EDLS]進化するAI on Edge 〜 CloudとEdgeの最適な関係
20190227[EDLS]進化するAI on Edge 〜 CloudとEdgeの最適な関係20190227[EDLS]進化するAI on Edge 〜 CloudとEdgeの最適な関係
20190227[EDLS]進化するAI on Edge 〜 CloudとEdgeの最適な関係LeapMind Inc
 
20180831 [DeLTA TECH] 深く青い脂
20180831 [DeLTA TECH] 深く青い脂20180831 [DeLTA TECH] 深く青い脂
20180831 [DeLTA TECH] 深く青い脂LeapMind Inc
 
20180831 [DeLTA TECH] 新・深層の世紀 〜第3集 ディープラーニング・時代はAIを求めた 〜
20180831 [DeLTA TECH] 新・深層の世紀 〜第3集 ディープラーニング・時代はAIを求めた 〜20180831 [DeLTA TECH] 新・深層の世紀 〜第3集 ディープラーニング・時代はAIを求めた 〜
20180831 [DeLTA TECH] 新・深層の世紀 〜第3集 ディープラーニング・時代はAIを求めた 〜LeapMind Inc
 
20180831 [DeLTA TECH] DeLTA-Liteを支える技術(システム構成編)
20180831 [DeLTA TECH] DeLTA-Liteを支える技術(システム構成編)20180831 [DeLTA TECH] DeLTA-Liteを支える技術(システム構成編)
20180831 [DeLTA TECH] DeLTA-Liteを支える技術(システム構成編)LeapMind Inc
 
20180831 [DeLTA TECH] DeLTA-FamilyによるIndustry4.1
20180831 [DeLTA TECH] DeLTA-FamilyによるIndustry4.120180831 [DeLTA TECH] DeLTA-FamilyによるIndustry4.1
20180831 [DeLTA TECH] DeLTA-FamilyによるIndustry4.1LeapMind Inc
 
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説LeapMind Inc
 
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGALeapMind Inc
 
2018年1月19日開催 IoTビジネス共創ラボ 第6回勉強会
2018年1月19日開催 IoTビジネス共創ラボ 第6回勉強会2018年1月19日開催 IoTビジネス共創ラボ 第6回勉強会
2018年1月19日開催 IoTビジネス共創ラボ 第6回勉強会LeapMind Inc
 
JUIZ DLK 組込み向けDeep Learningコンパイラ
JUIZ DLK 組込み向けDeep LearningコンパイラJUIZ DLK 組込み向けDeep Learningコンパイラ
JUIZ DLK 組込み向けDeep LearningコンパイラLeapMind Inc
 

More from LeapMind Inc (17)

Final presentation optical flow estimation with DL
Final presentation  optical flow estimation with DLFinal presentation  optical flow estimation with DL
Final presentation optical flow estimation with DL
 
Survey on optical flow estimation with DL
Survey on optical flow estimation with DLSurvey on optical flow estimation with DL
Survey on optical flow estimation with DL
 
[Icml2019] mix hop higher-order graph convolutional architectures via spars...
[Icml2019]  mix hop  higher-order graph convolutional architectures via spars...[Icml2019]  mix hop  higher-order graph convolutional architectures via spars...
[Icml2019] mix hop higher-order graph convolutional architectures via spars...
 
[Icml2019]LIT: Learned Intermediate Representation Training for Model Compres...
[Icml2019]LIT: Learned Intermediate Representation Training for Model Compres...[Icml2019]LIT: Learned Intermediate Representation Training for Model Compres...
[Icml2019]LIT: Learned Intermediate Representation Training for Model Compres...
 
[Icml2019] parameter efficient training of deep convolutional neural network...
[Icml2019] parameter efficient training of  deep convolutional neural network...[Icml2019] parameter efficient training of  deep convolutional neural network...
[Icml2019] parameter efficient training of deep convolutional neural network...
 
20190227[EDLS]JAL's INNOVATION エアラインのAI活用
20190227[EDLS]JAL's INNOVATION エアラインのAI活用20190227[EDLS]JAL's INNOVATION エアラインのAI活用
20190227[EDLS]JAL's INNOVATION エアラインのAI活用
 
E20190227[EDLS]インテル®︎FPGAによるエッジAI
E20190227[EDLS]インテル®︎FPGAによるエッジAIE20190227[EDLS]インテル®︎FPGAによるエッジAI
E20190227[EDLS]インテル®︎FPGAによるエッジAI
 
20190227[EDLS]進化するAI on Edge 〜 CloudとEdgeの最適な関係
20190227[EDLS]進化するAI on Edge 〜 CloudとEdgeの最適な関係20190227[EDLS]進化するAI on Edge 〜 CloudとEdgeの最適な関係
20190227[EDLS]進化するAI on Edge 〜 CloudとEdgeの最適な関係
 
20180831 [DeLTA TECH] 深く青い脂
20180831 [DeLTA TECH] 深く青い脂20180831 [DeLTA TECH] 深く青い脂
20180831 [DeLTA TECH] 深く青い脂
 
20180831 [DeLTA TECH] 新・深層の世紀 〜第3集 ディープラーニング・時代はAIを求めた 〜
20180831 [DeLTA TECH] 新・深層の世紀 〜第3集 ディープラーニング・時代はAIを求めた 〜20180831 [DeLTA TECH] 新・深層の世紀 〜第3集 ディープラーニング・時代はAIを求めた 〜
20180831 [DeLTA TECH] 新・深層の世紀 〜第3集 ディープラーニング・時代はAIを求めた 〜
 
20180831 [DeLTA TECH] DeLTA-Liteを支える技術(システム構成編)
20180831 [DeLTA TECH] DeLTA-Liteを支える技術(システム構成編)20180831 [DeLTA TECH] DeLTA-Liteを支える技術(システム構成編)
20180831 [DeLTA TECH] DeLTA-Liteを支える技術(システム構成編)
 
20180831 [DeLTA TECH] DeLTA-FamilyによるIndustry4.1
20180831 [DeLTA TECH] DeLTA-FamilyによるIndustry4.120180831 [DeLTA TECH] DeLTA-FamilyによるIndustry4.1
20180831 [DeLTA TECH] DeLTA-FamilyによるIndustry4.1
 
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
 
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
 
2018年1月19日開催 IoTビジネス共創ラボ 第6回勉強会
2018年1月19日開催 IoTビジネス共創ラボ 第6回勉強会2018年1月19日開催 IoTビジネス共創ラボ 第6回勉強会
2018年1月19日開催 IoTビジネス共創ラボ 第6回勉強会
 
Pitch v2.2
Pitch v2.2Pitch v2.2
Pitch v2.2
 
JUIZ DLK 組込み向けDeep Learningコンパイラ
JUIZ DLK 組込み向けDeep LearningコンパイラJUIZ DLK 組込み向けDeep Learningコンパイラ
JUIZ DLK 組込み向けDeep Learningコンパイラ
 

エッジ向けDeepLearningプロジェクトで必要なこと

  • 1. エッジ向け Deep Learning プロジェクトで必要なこと
 LeapMind株式会社 安村修一
  • 2. LeapMind Inc. © 2019 自己紹介 2 ● Shuichi YASUMURA (安村修一: @lm-yasumura) ● LeapMind 株式会社 ● Collaborative Development (Co-Dev) 事業部 ○ 情報電子工学専攻(大学院) → (2011年4月)三菱UFJ銀行(旧三菱東京UFJ銀行) システム部 → (2017年9月)LeapMind   → 共同研究 → プロダクト開発 → 共同研究 ● エンジニアマネージャー (兼 deep learningエンジニア)
  • 4. LeapMind Inc. © 2019 4 LeapMind について
  • 5. LeapMind Inc. © 2019 5 LeapMind の Mission 機械学習を使った今までにないデバイスを あまねく世に広める
  • 6. LeapMind Inc. © 2019 6 LeapMind が狙う市場 エッジ向け Deep Learning
  • 7. LeapMind Inc. © 2019 7 エッジ向け Deep Learning の適用例 自動運転プロジェクト 瓦礫撤去ロボット 発電所での異常検知 食物の異物混入検査 ドローンを用いた橋梁検査 スマート家電への組み込み 監視カメラ人物検知
  • 8. LeapMind Inc. © 2019 8 Agenda ● エッジ向け Deep Learning プロジェクトでの注意点 ● モデルの圧縮(量子化)で必要なこと ● まとめ
  • 10. LeapMind Inc. © 2019 よくあるお問い合わせ 10 Deep Learning のモデル作成は 自社で行っていますが エッジ向けのハードウェア用に 変換してください 自社で作成した 学習済みモデルを LeapMind にお渡しすれば FPGA に実装してくれますよね
  • 11. LeapMind Inc. © 2019 よくあるお問い合わせ 11 Deep Learning のモデル作成は 自社で行っていますが エッジ向けのハードウェア用に 変換してください 自社で作成した 学習済みモデルを LeapMind にお渡しすれば FPGA に実装してくれますよね そんな単純なものではございません そもそもなぜそのデバイスへ実装するのでしょうか
  • 12. LeapMind Inc. © 2019 12 伝えたいこと:エッジデバイスでの推論 エッジデバイスにおける 高精度かつ高速な推論を実現するためには ネットワーク設計・学習の時点から ターゲットの推論環境を意識すべき 学習済み モデル モデル 圧縮 デバイス 実装
  • 13. LeapMind Inc. © 2019 13 伝えたいこと:エッジデバイスでの推論 エッジデバイスにおける 高精度かつ高速な推論を実現するためには ネットワーク設計・学習の時点から ターゲットの推論環境を意識すべき 組込み向け ネットワーク 設計 極小量子化 学習 モデル 圧縮・最 適化 デバイス 実装 何度もモデル見直し
  • 14. LeapMind Inc. © 2019 よくあるお問い合わせ 14 エッジデバイスでも ”精度”劣化しないで 動かせるようにモデルを チューニングしてもらいたい 基本的には”精度”90%以上で 見逃しとかなくなるように できますか
  • 15. LeapMind Inc. © 2019 よくあるお問い合わせ 15 ”精度”の定義を教えてください 本当にその精度は必要でしょうか エッジデバイスでも ”精度”劣化しないで 動かせるようにモデルを チューニングしてもらいたい 基本的には”精度”90%以上で 見逃しとかなくなるように できますか
  • 16. LeapMind Inc. © 2019 16 伝えたいこと:適切な要件・要求 実用用途を超えた精度・速度の要求はお互い不幸 まずは業務フローをしっかり検討 それからターゲットデバイスの選定 ネットワーク設計・構築を実施しても遅くない!
  • 17. LeapMind Inc. © 2019 17 伝えたいこと:適切な要件・要求 実用用途を超えた精度・速度の要求はお互い不幸 まずは業務フローをしっかり検討 それからターゲットデバイスの選定 ネットワーク設計・構築を実施しても遅くない! 絶対見逃しは 許されないから ”とりあえず精度 100%”はNG 見逃しても リカバリ可能な業 務フロー 必要以上の スペックは いらない
  • 19. LeapMind Inc. © 2019 19 軽量なモデルの検討 エッジデバイスは リソース(計算資源・電力など)が限ら れている 軽量なモデルが必須
  • 20. LeapMind Inc. © 2019 20 モデルの圧縮手法 Distillation 蒸留 Sharing 共有 Pruning 剪定 Quantization 量子化 一旦学習したネットワーク(教師モデル)の出力を 再現するようなネットワーク(生徒モデル)を新たに学習 近い値を持つパラメータをデータ構造として共有 影響の小さいシナプスあるいはニューロンを削除 重みなどのパラメータのビット幅を削減
  • 21. LeapMind Inc. © 2019 21 量子化 と ターゲットデバイス 専用回路で高速かつ 低消費電力を実現
  • 22. LeapMind Inc. © 2019 22 モデルの圧縮(量子化)の効果・影響 量子化を実施することでモデルは ものすごく小さくできる ただし、精度が劣化する可能性がある!
  • 23. LeapMind Inc. © 2019 23 モデルの圧縮(量子化)の効果・影響 出典:A Survey of FPGA Based Neural Network Accelerator: https://arxiv.org/abs/1712.08934 1%程度の誤差低下における許容範囲 精度を重視するなら量子化の限界は8ビット
  • 24. LeapMind Inc. © 2019 24 モデルの圧縮(量子化)の効果・影響 実際超低ビットモデルはどうなるか
  • 25. LeapMind Inc. © 2019 25 モデルの圧縮(量子化)において考えるべきこと 対象となる ハードウェアの選定 学習の必要性 8ビット整数または固定小数点数までの 量子化ならば 精度を落とさず実現可能 しかし特定ハードウェア 特に廉価なFPGAで8ビットでは多すぎる 量子化ビット数
  • 26. LeapMind Inc. © 2019 26 モデルの圧縮(量子化)において考えるべきこと 対象となる ハードウェアの選定 剪定と同様に 量子化も学習または再学習しながら 行うことによって 精度劣化を低減できることが いくつかの研究で報告されている 量子化ビット数 学習の必要性
  • 27. LeapMind Inc. © 2019 27 モデルの圧縮(量子化)において考えるべきこと 学習の必要性 GPUを採用する場合 8ビットより少ないビット数を採用しても あまり意味がない 専用ハードウェアの場合 特に2値、3値を採用すると 乗算をXNORゲートで代替でき 大幅な省面積化と高速化が期待できる 量子化ビット数 対象となる ハードウェアの選定
  • 28. LeapMind Inc. © 2019 28 モデルの圧縮(量子化)の効果・影響 精度落ちてませんか ところで …
  • 29. LeapMind Inc. © 2019 29 必要な精度とは りんご 92.6% みかん 35.3% … 多少の精度劣化は影響しないこともある りんご 75.0% みかん 52.0% …
  • 30. LeapMind Inc. © 2019 30 必要な精度とは 精度や誤差は領域の特定誤差に直接影響することもある 物体を覆う矩形(bounding box)が正しく描けなくなる
  • 31. LeapMind Inc. © 2019 31 必要な精度とは 精度や誤差は領域の特定誤差に直接影響することもある 物体を覆う矩形(bounding box)が正しく描けなくなる ピクセル単位での誤差はホントに許容できないか
  • 32. LeapMind Inc. © 2019 32 必要な精度と顧客への説明 要件・要求にあった”精度”を達成するために 最適な指標を予め検討 それを達成可能なモデル設計・構築・チューニングを実施 顧客の業務を理解し 顧客に上手く説明(期待値調整)する力が必要
  • 34. LeapMind Inc. © 2019 まとめ 34 ● モデル圧縮について ○ 剪定、量子化、共有、蒸留 といった技術が存在 ○ いずれも、再学習が前提、または、再学習なしでは大幅な精度劣化 を招く ○ 十分なサイズの圧縮と高速化を実現するにはGPUでは難しく、専用 ハードウェアを考えるのが効率的 ● 精度について ○ 実運用を考慮して精度目標を設定することが重要 ○ 顧客を以下に説得して期待値を調整できるかも重要
  • 36.
  • 38. OSS開発(Blueoil)
 ・スーパーコンピュータ上でのハイパーパラメータ探索機能追加
 ・セマンティックセグメンテーションのアプリケーション作成
 ・YoctoによるTerasic DE10-NanoとAvnet Ultra96用のイメージ作成機能追加
 サマーインターン LeapMind 
 プロジェクト例
 プロセッサ設計
 モデル開発
 ・ニューラルネット演算のマイクロコード作成
 ・ASIC設計検証
 ・ASIC/FPGA設計自動化
 ・高精度かつ計算量の少ない深層学習の手法やモデルの開発
 ・最新の論文に基づく技術の実装と検証
 詳しくはこちらから