SlideShare una empresa de Scribd logo
1 de 1
Descargar para leer sin conexión
回帰型 Deep Convolutional Neural Network による人検出と部位の位置推定
山下 隆義 福井 宏 村瀬 将之 山内 悠嗣 藤吉 弘亘
中部大学
■研究背景
■提案手法
■評価実験
- 回帰型 DCNN を用いた
人と部位 ( 頭部,両足 ) の位置の同時推定
入力画像
畳み込み層
特徴マップ
Pooling 層
出力層
全結合層
畳み込み層
Pooling 層
全結合層
- 運転支援システムにおける人検出
→歩行者と車までの距離が重要
一般的な距離推定法
提案するアプローチ
距離推定
距離推定
→・人と部位の位置の同時推定を1つの識別器で推定
 ・人部位の位置情報から人と車までの距離を推定
■距離推定方法
0.01
0.1
1
0.0001 0.001 0.01 0.1
Missrate
False Positive Per Window
回帰型DCNN
単体のDCNN
1
0.0001 0.001 0.01 0.1 1 10
MissRate
False Positive per Image
回帰型DCNN 31.77%
単体のDCNN 38.38%  
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
→・複数の回帰推定を1つのネットワークで推定
 ・人部位の位置情報を与えることで,より人検出に
  有効な特徴表現が可能
人検出
人部位の位置推定
頭部の x,y 座標
人部位の位置推定
右足の x,y 座標
人部位の位置推定
左足の x,y 座標
- 人の位置を利用することでカメラまでの
距離を推定
→人の位置は DCNN の人部位の推定結果を
 使用
■今後の予定
- 使用するデータセットと DCNN の構造
 ・Daimler Mono Pedestrian Benchmark Dataset
- 歩行者画像:31,320 枚 (250,560 枚に拡張 )
- 背景画像 :254,356 枚
 ・INRIA Person Dataset
- 歩行者画像:2,100 枚 (50,000 枚に拡張 )
- 背景画像 :50,000 枚
→頭部と両足の位置にアノテーションを付与
●人検出精度の比較
●人部位の位置推定精度の比較
●実シーンにおける距離推定精度
- 人部位の位置推定精度と距離推定精度の向上
距離推定
データ例
人とカメラの
距離 [m]
推定距離 [m]
誤差 [%]
5 10 15
4.89 9.26 14.12
2.2 5.3 5.8
INRIA Person Dataset Dimler Mono Pedestrian Dataset
手法
部位回帰のみ
検出と部位回帰
パーツ
頭部 左足 右足
平均
パーツ
頭部 左足 右足
平均
8.1 8.7 9.9 8.9 6.1 5.9 10.7 7.6
6.5 8.0 9.2 7.9 4.2 5.3 9.4 6.3
INRIA
Daimler
:約 25% の精度向上
:約 7% の精度向上→単体の DCNN と比べて
(b) INRIA Person Dataset(a) Daimler Mono Pedestrian Benchmark Dataset
INRIA
Daimler
:約 1.0pixel の精度向上
:約 1.3pixel の精度向上
→単体の DCNN と比べて
→10m 以上離れた場合でも 5% 程度の誤差で距離を推定可能
人部位の位置ずれ精度 [pixel]
人部位の位置推定結果
・画像上の y 座標 :
・人とカメラの距離:
人検出 人部位の位置推定
人と部位の位置推定
IS3-19
カメラ
:焦点距離
:画像の縦のサイズ
・人と部位 ( 頭部と両足 ) の位置を同時に推定する回帰型 Deep Convolutional Neural Network を提案
・回帰型 Deep Convolutional Neural Network で推定した両足の位置を用いて人と車までの距離推定
・回帰型 DCNN を用いることで人検出と部位の位置推定の精度が向上し,人とカメラが 10m 以上離れても約 5% の誤差で距離を推定可能
手法 Input Layer1 Layer2 Layer3 Layer4 Layer5 Layer6 Output
Conv
Max
PoolingMaxout Conv
Max
PoolingMaxout Conv
Max
PoolingMaxout
# of
unit
# of
unit
# of
unit
検出用 96x48x1 8,5x3 2x22 16,5x4 2x22 32,5x4 2x22 1,000 500 100
Softmax
2
回帰用 96x48x1 8,5x3 2x22 16,5x4 2x22 32,5x4 2x22 1,000 500 100
Sigmoid
6
提案手法 96x48x1 8,5x3 2x22 16,5x4 2x22 32,5x4 2x22 1,000 500 100
Sigmoid
8
手法 Input Layer1 Layer2 Layer3 Layer4 Layer5 Layer6 Output
Conv
Max
PoolingMaxout Conv
Max
PoolingMaxout Conv
Max
PoolingMaxout
# of
unit
# of
unit
# of
unit
検出用 64x128x3 20,9x5 2x22 64,5x3 2x22 32,3x3 2x22 1,000 500 100
Softmax
2
回帰用 128x64x3 20,9x5 2x22 64,5x3 2x22 32,3x3 2x22 1,000 500 100
Sigmoid
6
提案手法 128x64x3 20,9x5 2x22 64,5x3 2x22 32,3x3 2x22 1,000 500 100
Sigmoid
8

Más contenido relacionado

Destacado

20161203 cv 3_d_recon_tracking_eventcamera
20161203 cv 3_d_recon_tracking_eventcamera20161203 cv 3_d_recon_tracking_eventcamera
20161203 cv 3_d_recon_tracking_eventcameraKyohei Unno
 
Cloud frontの概要と勘所
Cloud frontの概要と勘所Cloud frontの概要と勘所
Cloud frontの概要と勘所Kei Hirata
 
TensorFlowで遊んでみよう!
TensorFlowで遊んでみよう!TensorFlowで遊んでみよう!
TensorFlowで遊んでみよう!Kei Hirata
 
関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会nonane
 
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 TokyoSoftware for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 TokyoShohei Hido
 
Cvim saisentan-cvpr-hyper depth
Cvim saisentan-cvpr-hyper depthCvim saisentan-cvpr-hyper depth
Cvim saisentan-cvpr-hyper depthtomoaki0705
 
機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA
機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA
機械学習モデルフォーマットの話:さようならPMML、こんにちはPFAShohei Hido
 
有名論文から学ぶディープラーニング 2016.03.25
有名論文から学ぶディープラーニング 2016.03.25有名論文から学ぶディープラーニング 2016.03.25
有名論文から学ぶディープラーニング 2016.03.25Minoru Chikamune
 
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...Yuya Unno
 
深層学習とTensorFlow入門
深層学習とTensorFlow入門深層学習とTensorFlow入門
深層学習とTensorFlow入門tak9029
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstmtak9029
 
Chainer, Cupy入門
Chainer, Cupy入門Chainer, Cupy入門
Chainer, Cupy入門Yuya Unno
 
【第27回コンピュータビジョン勉強会@関東】OpenCV 便利Tips紹介
【第27回コンピュータビジョン勉強会@関東】OpenCV 便利Tips紹介【第27回コンピュータビジョン勉強会@関東】OpenCV 便利Tips紹介
【第27回コンピュータビジョン勉強会@関東】OpenCV 便利Tips紹介Yasuhiro Yoshimura
 
Cvim saisentan-4-2-tomoaki
Cvim saisentan-4-2-tomoakiCvim saisentan-4-2-tomoaki
Cvim saisentan-4-2-tomoakitomoaki0705
 
ディジタル信号処理 課題解説 その8
ディジタル信号処理 課題解説 その8ディジタル信号処理 課題解説 その8
ディジタル信号処理 課題解説 その8noname409
 
【第33回コンピュータビジョン勉強会@関東】OpenVX、 NVIDIA VisionWorks使ってみた
【第33回コンピュータビジョン勉強会@関東】OpenVX、 NVIDIA VisionWorks使ってみた【第33回コンピュータビジョン勉強会@関東】OpenVX、 NVIDIA VisionWorks使ってみた
【第33回コンピュータビジョン勉強会@関東】OpenVX、 NVIDIA VisionWorks使ってみたYasuhiro Yoshimura
 
Gpgpu tomoaki-fp16
Gpgpu tomoaki-fp16Gpgpu tomoaki-fp16
Gpgpu tomoaki-fp16tomoaki0705
 
最近やった事とこれからやりたい事 2016年度年末版
最近やった事とこれからやりたい事 2016年度年末版最近やった事とこれからやりたい事 2016年度年末版
最近やった事とこれからやりたい事 2016年度年末版Netwalker lab kapper
 
TensorFlowプログラミングと分類アルゴリズムの基礎
TensorFlowプログラミングと分類アルゴリズムの基礎TensorFlowプログラミングと分類アルゴリズムの基礎
TensorFlowプログラミングと分類アルゴリズムの基礎Etsuji Nakai
 

Destacado (19)

20161203 cv 3_d_recon_tracking_eventcamera
20161203 cv 3_d_recon_tracking_eventcamera20161203 cv 3_d_recon_tracking_eventcamera
20161203 cv 3_d_recon_tracking_eventcamera
 
Cloud frontの概要と勘所
Cloud frontの概要と勘所Cloud frontの概要と勘所
Cloud frontの概要と勘所
 
TensorFlowで遊んでみよう!
TensorFlowで遊んでみよう!TensorFlowで遊んでみよう!
TensorFlowで遊んでみよう!
 
関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会
 
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 TokyoSoftware for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
 
Cvim saisentan-cvpr-hyper depth
Cvim saisentan-cvpr-hyper depthCvim saisentan-cvpr-hyper depth
Cvim saisentan-cvpr-hyper depth
 
機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA
機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA
機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA
 
有名論文から学ぶディープラーニング 2016.03.25
有名論文から学ぶディープラーニング 2016.03.25有名論文から学ぶディープラーニング 2016.03.25
有名論文から学ぶディープラーニング 2016.03.25
 
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
 
深層学習とTensorFlow入門
深層学習とTensorFlow入門深層学習とTensorFlow入門
深層学習とTensorFlow入門
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstm
 
Chainer, Cupy入門
Chainer, Cupy入門Chainer, Cupy入門
Chainer, Cupy入門
 
【第27回コンピュータビジョン勉強会@関東】OpenCV 便利Tips紹介
【第27回コンピュータビジョン勉強会@関東】OpenCV 便利Tips紹介【第27回コンピュータビジョン勉強会@関東】OpenCV 便利Tips紹介
【第27回コンピュータビジョン勉強会@関東】OpenCV 便利Tips紹介
 
Cvim saisentan-4-2-tomoaki
Cvim saisentan-4-2-tomoakiCvim saisentan-4-2-tomoaki
Cvim saisentan-4-2-tomoaki
 
ディジタル信号処理 課題解説 その8
ディジタル信号処理 課題解説 その8ディジタル信号処理 課題解説 その8
ディジタル信号処理 課題解説 その8
 
【第33回コンピュータビジョン勉強会@関東】OpenVX、 NVIDIA VisionWorks使ってみた
【第33回コンピュータビジョン勉強会@関東】OpenVX、 NVIDIA VisionWorks使ってみた【第33回コンピュータビジョン勉強会@関東】OpenVX、 NVIDIA VisionWorks使ってみた
【第33回コンピュータビジョン勉強会@関東】OpenVX、 NVIDIA VisionWorks使ってみた
 
Gpgpu tomoaki-fp16
Gpgpu tomoaki-fp16Gpgpu tomoaki-fp16
Gpgpu tomoaki-fp16
 
最近やった事とこれからやりたい事 2016年度年末版
最近やった事とこれからやりたい事 2016年度年末版最近やった事とこれからやりたい事 2016年度年末版
最近やった事とこれからやりたい事 2016年度年末版
 
TensorFlowプログラミングと分類アルゴリズムの基礎
TensorFlowプログラミングと分類アルゴリズムの基礎TensorFlowプログラミングと分類アルゴリズムの基礎
TensorFlowプログラミングと分類アルゴリズムの基礎
 

Más de MPRG_Chubu_University

アピアランスと時空間特徴の共起に基づく人検出
 アピアランスと時空間特徴の共起に基づく人検出 アピアランスと時空間特徴の共起に基づく人検出
アピアランスと時空間特徴の共起に基づく人検出MPRG_Chubu_University
 
統計的学習手法による人検出
統計的学習手法による人検出統計的学習手法による人検出
統計的学習手法による人検出MPRG_Chubu_University
 
距離情報に基づく局所特徴量によるリアルタイム人検出
距離情報に基づく局所特徴量によるリアルタイム人検出距離情報に基づく局所特徴量によるリアルタイム人検出
距離情報に基づく局所特徴量によるリアルタイム人検出MPRG_Chubu_University
 
色の類似性に基づいた形状特徴量CS-HOGの提案
色の類似性に基づいた形状特徴量CS-HOGの提案色の類似性に基づいた形状特徴量CS-HOGの提案
色の類似性に基づいた形状特徴量CS-HOGの提案MPRG_Chubu_University
 
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定MPRG_Chubu_University
 
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカットMPRG_Chubu_University
 
キーフレーム間の物体追跡結果に基づく
キーフレーム間の物体追跡結果に基づくキーフレーム間の物体追跡結果に基づく
キーフレーム間の物体追跡結果に基づくMPRG_Chubu_University
 
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出MPRG_Chubu_University
 
Cascaded FASTによるキーポイント検出
Cascaded FASTによるキーポイント検出Cascaded FASTによるキーポイント検出
Cascaded FASTによるキーポイント検出MPRG_Chubu_University
 
アプリケーション展開におけるキーポイント

アプリケーション展開におけるキーポイント
アプリケーション展開におけるキーポイント

アプリケーション展開におけるキーポイント
MPRG_Chubu_University
 
局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出MPRG_Chubu_University
 
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -MPRG_Chubu_University
 
進化する物体認識技術 一般物体認識とは
進化する物体認識技術 一般物体認識とは進化する物体認識技術 一般物体認識とは
進化する物体認識技術 一般物体認識とはMPRG_Chubu_University
 

Más de MPRG_Chubu_University (15)

アピアランスと時空間特徴の共起に基づく人検出
 アピアランスと時空間特徴の共起に基づく人検出 アピアランスと時空間特徴の共起に基づく人検出
アピアランスと時空間特徴の共起に基づく人検出
 
統計的学習手法による人検出
統計的学習手法による人検出統計的学習手法による人検出
統計的学習手法による人検出
 
距離情報に基づく局所特徴量によるリアルタイム人検出
距離情報に基づく局所特徴量によるリアルタイム人検出距離情報に基づく局所特徴量によるリアルタイム人検出
距離情報に基づく局所特徴量によるリアルタイム人検出
 
色の類似性に基づいた形状特徴量CS-HOGの提案
色の類似性に基づいた形状特徴量CS-HOGの提案色の類似性に基づいた形状特徴量CS-HOGの提案
色の類似性に基づいた形状特徴量CS-HOGの提案
 
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
複数パスを考慮したRegression Forestsによるカメラのヨー角の推定
 
Binary code-based Human Detection
Binary code-based Human DetectionBinary code-based Human Detection
Binary code-based Human Detection
 
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
平滑化処理の繰り返しによる画像セグメンテーションのためのグラフカット
 
キーフレーム間の物体追跡結果に基づく
キーフレーム間の物体追跡結果に基づくキーフレーム間の物体追跡結果に基づく
キーフレーム間の物体追跡結果に基づく
 
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択を用いた物体検出
 
Cascaded FASTによるキーポイント検出
Cascaded FASTによるキーポイント検出Cascaded FASTによるキーポイント検出
Cascaded FASTによるキーポイント検出
 
Random Forestsとその応用
Random Forestsとその応用Random Forestsとその応用
Random Forestsとその応用
 
アプリケーション展開におけるキーポイント

アプリケーション展開におけるキーポイント
アプリケーション展開におけるキーポイント

アプリケーション展開におけるキーポイント

 
局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出
 
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
 
進化する物体認識技術 一般物体認識とは
進化する物体認識技術 一般物体認識とは進化する物体認識技術 一般物体認識とは
進化する物体認識技術 一般物体認識とは
 

回帰型Deep Convolutional Neural Networkによる人検出と部位の位置推定

  • 1. 回帰型 Deep Convolutional Neural Network による人検出と部位の位置推定 山下 隆義 福井 宏 村瀬 将之 山内 悠嗣 藤吉 弘亘 中部大学 ■研究背景 ■提案手法 ■評価実験 - 回帰型 DCNN を用いた 人と部位 ( 頭部,両足 ) の位置の同時推定 入力画像 畳み込み層 特徴マップ Pooling 層 出力層 全結合層 畳み込み層 Pooling 層 全結合層 - 運転支援システムにおける人検出 →歩行者と車までの距離が重要 一般的な距離推定法 提案するアプローチ 距離推定 距離推定 →・人と部位の位置の同時推定を1つの識別器で推定  ・人部位の位置情報から人と車までの距離を推定 ■距離推定方法 0.01 0.1 1 0.0001 0.001 0.01 0.1 Missrate False Positive Per Window 回帰型DCNN 単体のDCNN 1 0.0001 0.001 0.01 0.1 1 10 MissRate False Positive per Image 回帰型DCNN 31.77% 単体のDCNN 38.38%   0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 →・複数の回帰推定を1つのネットワークで推定  ・人部位の位置情報を与えることで,より人検出に   有効な特徴表現が可能 人検出 人部位の位置推定 頭部の x,y 座標 人部位の位置推定 右足の x,y 座標 人部位の位置推定 左足の x,y 座標 - 人の位置を利用することでカメラまでの 距離を推定 →人の位置は DCNN の人部位の推定結果を  使用 ■今後の予定 - 使用するデータセットと DCNN の構造  ・Daimler Mono Pedestrian Benchmark Dataset - 歩行者画像:31,320 枚 (250,560 枚に拡張 ) - 背景画像 :254,356 枚  ・INRIA Person Dataset - 歩行者画像:2,100 枚 (50,000 枚に拡張 ) - 背景画像 :50,000 枚 →頭部と両足の位置にアノテーションを付与 ●人検出精度の比較 ●人部位の位置推定精度の比較 ●実シーンにおける距離推定精度 - 人部位の位置推定精度と距離推定精度の向上 距離推定 データ例 人とカメラの 距離 [m] 推定距離 [m] 誤差 [%] 5 10 15 4.89 9.26 14.12 2.2 5.3 5.8 INRIA Person Dataset Dimler Mono Pedestrian Dataset 手法 部位回帰のみ 検出と部位回帰 パーツ 頭部 左足 右足 平均 パーツ 頭部 左足 右足 平均 8.1 8.7 9.9 8.9 6.1 5.9 10.7 7.6 6.5 8.0 9.2 7.9 4.2 5.3 9.4 6.3 INRIA Daimler :約 25% の精度向上 :約 7% の精度向上→単体の DCNN と比べて (b) INRIA Person Dataset(a) Daimler Mono Pedestrian Benchmark Dataset INRIA Daimler :約 1.0pixel の精度向上 :約 1.3pixel の精度向上 →単体の DCNN と比べて →10m 以上離れた場合でも 5% 程度の誤差で距離を推定可能 人部位の位置ずれ精度 [pixel] 人部位の位置推定結果 ・画像上の y 座標 : ・人とカメラの距離: 人検出 人部位の位置推定 人と部位の位置推定 IS3-19 カメラ :焦点距離 :画像の縦のサイズ ・人と部位 ( 頭部と両足 ) の位置を同時に推定する回帰型 Deep Convolutional Neural Network を提案 ・回帰型 Deep Convolutional Neural Network で推定した両足の位置を用いて人と車までの距離推定 ・回帰型 DCNN を用いることで人検出と部位の位置推定の精度が向上し,人とカメラが 10m 以上離れても約 5% の誤差で距離を推定可能 手法 Input Layer1 Layer2 Layer3 Layer4 Layer5 Layer6 Output Conv Max PoolingMaxout Conv Max PoolingMaxout Conv Max PoolingMaxout # of unit # of unit # of unit 検出用 96x48x1 8,5x3 2x22 16,5x4 2x22 32,5x4 2x22 1,000 500 100 Softmax 2 回帰用 96x48x1 8,5x3 2x22 16,5x4 2x22 32,5x4 2x22 1,000 500 100 Sigmoid 6 提案手法 96x48x1 8,5x3 2x22 16,5x4 2x22 32,5x4 2x22 1,000 500 100 Sigmoid 8 手法 Input Layer1 Layer2 Layer3 Layer4 Layer5 Layer6 Output Conv Max PoolingMaxout Conv Max PoolingMaxout Conv Max PoolingMaxout # of unit # of unit # of unit 検出用 64x128x3 20,9x5 2x22 64,5x3 2x22 32,3x3 2x22 1,000 500 100 Softmax 2 回帰用 128x64x3 20,9x5 2x22 64,5x3 2x22 32,3x3 2x22 1,000 500 100 Sigmoid 6 提案手法 128x64x3 20,9x5 2x22 64,5x3 2x22 32,3x3 2x22 1,000 500 100 Sigmoid 8