SlideShare una empresa de Scribd logo
1 de 27
Descargar para leer sin conexión
NIPS2011読み会発表資料
Why The Brain Separates Face Recognition
                From Object Recognition

                         Takuya Minagawa
概要
   “Why The Brain Separates Face Recognition From
    Object Recognition”
       J.Z.Leibo, J.Mutch and T.Poggio (@MIT)
   「なぜ、脳は顔認識と物体認識の回路を分けたの
    か?」
       脳には顔に対して選択的に反応する領域がある。それは
        なぜか。
       解剖学的な観点ではなく、計算モデルの観点から、説明を
        試みる
    結論:
    視点の変化や照明の変化にロバストな認識を行うために、回
    路を分ける必要があった。
概要
   脳の視覚皮質の画像処理プロセス
   顔に選択的に反応する領域
   視覚皮質の計算モデル(HMAXモデル)
   視点/照明変化のためのHMAXモデルの拡張
   拡張HMAXモデルによる顔/物体認識実験
   結論:なぜ顔認識を分けたのか?
視覚皮質の画像処理プロセス

           背側経路(dorsal stream)
           腕を伸ばして何かを掴むな
           どの際に利用される、行動
           に関わる経路。”Where”経
           路


           腹側経路(ventral stream)
           それが犬か、猫か、などを
           認識する、知覚に関わる経
           路。”What”経路
“瞬間的な認識”の画像処理モデル
   霊長類は、目や注意の動きが起こらない程度の短い
    時間(100msec)画像を見せただけで、認識すること
    ができる。
   瞬間的な認識(Rapid Categorization)では腹側経路の
    フィードフォワードパスのみ使用される
       画像が十分な時間提示された場合、「注意」が働きフィー
        ドバックパスが活性化される。
   色情報は瞬間的な認識においては重要ではない。
腹側経路のフィードフォワードパス
腹側経路の階層構造
腹側経路の階層構造
   階層が上位に位置するほど、複雑な刺激に対して選択
    性を持つようになる。
   階層が上位になるほど、位置、サイズなどに対する普遍
    性が上がる。
       カバーする受容野の大きさも同時に広くなる。
   上位の階層ほど可塑性が高い。
       学習に対して早く柔軟に対応する。
顔に選択的に反応する脳の領域
  マカクザルの脳




個人の顔に選択的に反応   顔の向きに選択的に反応
向きの違いには反応せず
視覚皮質の計算モデル
Hubel & Wieselの階層モデル:
   単純型細胞(Simple Cell)
       ある形状に対して選択的に反応


   複雑型細胞(Complex Cell)
       単純細胞からの出力を受け取る。
       位置とスケールの選択性を除去する。


   単純型細胞と複雑型細胞で交互に処理される。
単純型細胞

   ある特定の信号(位置、大きさ、
    形状)に対して最も強く反応する。
       テンプレートマッチング
   信号の形が変わると、それに
    伴って反応も減っていく。
       ガウス関数で近似。


V1において反応する形状の例
複雑型細胞
   ある領域内、あるスケール範囲内にある、同一の形状に
    対する選択性を持つ単純型細胞からの信号受け取る。
       そのうち最大の入力を選択する




              位置とサイズに対する普遍性実現の例
視覚皮質の計算モデル(HMAXモデル)
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning


                           C2
                                   S1, S2: 単純型細胞
                 Max               C1,C2: 複雑型細胞
                           S2      S1 & C1≒ V1 & V2
               Tuning
                                   S2 ≒ PIT
                           C1      C2 ≒ PIT & AIT
                     Max
                                   Machine Learning ≒ AIT
                           S1
                                    & PFC

              Tuning
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning
                                S1:
                           C2   入力画像に対し、様々な方向/スケールの
                 Max
                                ガボールフィルタをかける

                           S2


               Tuning

                           C1

                     Max


                           S1


              Tuning
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning
                                C1:
                           C2   近傍位置/スケールのS1から入力を受け取
                 Max
                                り、最大値を出力

                           S2


               Tuning
                                                C1
                           C1

                     Max
                                      Max
                           S1                   S1


              Tuning
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning
                                S2:
                           C2   C1からの入力と、事前に取得したN個の形
                 Max
                                状パッチとの類似度を出力する。

                                                                    Shape patch
                           S2
                                                                        Pi



                                                               
               Tuning

                                       r  exp   X  Pi
                                                            2
                           C1

                     Max
                                C1 Output
                                   X
                           S1


              Tuning
                                形状パッチは事前に学習画像からランダムに
                                取得しておく。
視覚皮質の計算モデル(HMAXモデル)
  Machine Learning
                                C2:
                           C2   S2から入力を受け取り、各形状毎に全ての
                 Max
                                位置/スケールで最大の信号を出力する

                           S2
                                                 C2

                                  Max   Max
               Tuning

                           C1
                                                 S2
                     Max


                           S1
                                Machine Learning:
                                C2の出力ベクトル(各形状の最大類似度)
              Tuning            から機械学習を用いてカテゴリを学習。
物体の変形への耐性
   以下の変形は、どの物体のカテゴリにも共通




     位置の変化     スケールの変化    回転(画像平面上)

   以下の変形は、物体のカテゴリ毎に見えが違う




       向きの変化             照明の変化
HMAXモデルの拡張
             視点に変化に頑健なHMAXモデル
             • S3/C3層を追加
             • S3層は様々な顔の向きのテンプレー
               トを持つ
             • C3層では、すべての顔の向きを統合


              S/Cユニットの出力モデル

                                                              
                                          w           xj 
                                         n
             rw ( x)  max  exp   1                      2
                                                                
                        t        2           t, j            
                                       j 1                   

             応答          テンプレート                 Sユニットへの
                         (位置t)                  入力
実験
        視点変化および照明変化につい
         て実験
        視点変化:
            S2パッチx2000
            S3パッチx10人x71視点
            C3ユニットx10
        照明変化:
            S2パッチx80
            S3パッチx80人x15照明
            C3ユニットx80
        パッチ作成に使用した画像と学
         習/試験画像は別
        学習画像数:1枚
            (1-shot learning)
        試験画像を入力し、学習画像と
         の類似度を算出
視点変化に対する実験(試験/学習画像例)
視点変化に対する実験結果
照明変化に対する実験(試験/学習画像例)




   木     金属     ガラス
照明変化に対する実験
結論
   視覚皮質の腹側経路における生理学の知見に基づいた
    モデルを用いて、視点や照明に頑健な認識を行うために
    は、そのカテゴリ専用のモジュール(回路)を構築してや
    る必要がある。
   マカクザルのML/MF、およびAM領域は拡張HMAXモデ
    ルのC2, S3, C3ユニットに対応する。
   顔のような3次元的構造を持つものは、視点の変化に
    よって見え方が大きく変わるため、独自のモジュールを
    持つ必要がある。
       顔認識は、専用のリソースを与える必要があるほど重要
       人体認識のモジュールも見つかっているが、同様の理由と推
        察できる。
Any Questions?

Más contenido relacionado

La actualidad más candente

組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
Shunji Umetani
 

La actualidad más candente (20)

[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
 
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
 
優れた問いを見つける(中京大学講演)
優れた問いを見つける(中京大学講演)優れた問いを見つける(中京大学講演)
優れた問いを見つける(中京大学講演)
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
 
20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~
20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~
20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
LiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせLiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせ
 
Lucas kanade法について
Lucas kanade法についてLucas kanade法について
Lucas kanade法について
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
AIを取り巻く基準について
AIを取り巻く基準についてAIを取り巻く基準について
AIを取り巻く基準について
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
Data-Centric AIの紹介
Data-Centric AIの紹介Data-Centric AIの紹介
Data-Centric AIの紹介
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
AIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術について
AIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術についてAIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術について
AIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術について
 

Destacado

全脳関西編(松尾)
全脳関西編(松尾)全脳関西編(松尾)
全脳関西編(松尾)
Yutaka Matsuo
 

Destacado (8)

自然な知覚を支える脳情報表現の定量理解
自然な知覚を支える脳情報表現の定量理解自然な知覚を支える脳情報表現の定量理解
自然な知覚を支える脳情報表現の定量理解
 
ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用
 
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理
 
全脳関西編(松尾)
全脳関西編(松尾)全脳関西編(松尾)
全脳関西編(松尾)
 
機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料
機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料
機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料
 
201205016 deformablemodelfitting
201205016 deformablemodelfitting201205016 deformablemodelfitting
201205016 deformablemodelfitting
 
スパースモデリング入門
スパースモデリング入門スパースモデリング入門
スパースモデリング入門
 
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までーDeep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
 

Más de Takuya Minagawa

Más de Takuya Minagawa (20)

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
 
MobileNeRF
MobileNeRFMobileNeRF
MobileNeRF
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal Problems
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事
 
20210711 deepI2P
20210711 deepI2P20210711 deepI2P
20210711 deepI2P
 
20201010 personreid
20201010 personreid20201010 personreid
20201010 personreid
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)
 
20200704 bsp net
20200704 bsp net20200704 bsp net
20200704 bsp net
 
20190825 vins mono
20190825 vins mono20190825 vins mono
20190825 vins mono
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summary
 
Visual slam
Visual slamVisual slam
Visual slam
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencv
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection survey
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)
 

Último

Último (11)

LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 

20120408発表資料

  • 1. NIPS2011読み会発表資料 Why The Brain Separates Face Recognition From Object Recognition Takuya Minagawa
  • 2. 概要  “Why The Brain Separates Face Recognition From Object Recognition”  J.Z.Leibo, J.Mutch and T.Poggio (@MIT)  「なぜ、脳は顔認識と物体認識の回路を分けたの か?」  脳には顔に対して選択的に反応する領域がある。それは なぜか。  解剖学的な観点ではなく、計算モデルの観点から、説明を 試みる 結論: 視点の変化や照明の変化にロバストな認識を行うために、回 路を分ける必要があった。
  • 3. 概要  脳の視覚皮質の画像処理プロセス  顔に選択的に反応する領域  視覚皮質の計算モデル(HMAXモデル)  視点/照明変化のためのHMAXモデルの拡張  拡張HMAXモデルによる顔/物体認識実験  結論:なぜ顔認識を分けたのか?
  • 4. 視覚皮質の画像処理プロセス 背側経路(dorsal stream) 腕を伸ばして何かを掴むな どの際に利用される、行動 に関わる経路。”Where”経 路 腹側経路(ventral stream) それが犬か、猫か、などを 認識する、知覚に関わる経 路。”What”経路
  • 5. “瞬間的な認識”の画像処理モデル  霊長類は、目や注意の動きが起こらない程度の短い 時間(100msec)画像を見せただけで、認識すること ができる。  瞬間的な認識(Rapid Categorization)では腹側経路の フィードフォワードパスのみ使用される  画像が十分な時間提示された場合、「注意」が働きフィー ドバックパスが活性化される。  色情報は瞬間的な認識においては重要ではない。
  • 8. 腹側経路の階層構造  階層が上位に位置するほど、複雑な刺激に対して選択 性を持つようになる。  階層が上位になるほど、位置、サイズなどに対する普遍 性が上がる。  カバーする受容野の大きさも同時に広くなる。  上位の階層ほど可塑性が高い。  学習に対して早く柔軟に対応する。
  • 9. 顔に選択的に反応する脳の領域 マカクザルの脳 個人の顔に選択的に反応 顔の向きに選択的に反応 向きの違いには反応せず
  • 10. 視覚皮質の計算モデル Hubel & Wieselの階層モデル:  単純型細胞(Simple Cell)  ある形状に対して選択的に反応  複雑型細胞(Complex Cell)  単純細胞からの出力を受け取る。  位置とスケールの選択性を除去する。  単純型細胞と複雑型細胞で交互に処理される。
  • 11. 単純型細胞  ある特定の信号(位置、大きさ、 形状)に対して最も強く反応する。  テンプレートマッチング  信号の形が変わると、それに 伴って反応も減っていく。  ガウス関数で近似。 V1において反応する形状の例
  • 12. 複雑型細胞  ある領域内、あるスケール範囲内にある、同一の形状に 対する選択性を持つ単純型細胞からの信号受け取る。  そのうち最大の入力を選択する 位置とサイズに対する普遍性実現の例
  • 14. 視覚皮質の計算モデル(HMAXモデル) Machine Learning C2  S1, S2: 単純型細胞 Max  C1,C2: 複雑型細胞 S2  S1 & C1≒ V1 & V2 Tuning  S2 ≒ PIT C1  C2 ≒ PIT & AIT Max  Machine Learning ≒ AIT S1 & PFC Tuning
  • 15. 視覚皮質の計算モデル(HMAXモデル) Machine Learning S1: C2 入力画像に対し、様々な方向/スケールの Max ガボールフィルタをかける S2 Tuning C1 Max S1 Tuning
  • 16. 視覚皮質の計算モデル(HMAXモデル) Machine Learning C1: C2 近傍位置/スケールのS1から入力を受け取 Max り、最大値を出力 S2 Tuning C1 C1 Max Max S1 S1 Tuning
  • 17. 視覚皮質の計算モデル(HMAXモデル) Machine Learning S2: C2 C1からの入力と、事前に取得したN個の形 Max 状パッチとの類似度を出力する。 Shape patch S2 Pi   Tuning r  exp   X  Pi 2 C1 Max C1 Output X S1 Tuning 形状パッチは事前に学習画像からランダムに 取得しておく。
  • 18. 視覚皮質の計算モデル(HMAXモデル) Machine Learning C2: C2 S2から入力を受け取り、各形状毎に全ての Max 位置/スケールで最大の信号を出力する S2 C2 Max Max Tuning C1 S2 Max S1 Machine Learning: C2の出力ベクトル(各形状の最大類似度) Tuning から機械学習を用いてカテゴリを学習。
  • 19. 物体の変形への耐性  以下の変形は、どの物体のカテゴリにも共通 位置の変化 スケールの変化 回転(画像平面上)  以下の変形は、物体のカテゴリ毎に見えが違う 向きの変化 照明の変化
  • 20. HMAXモデルの拡張 視点に変化に頑健なHMAXモデル • S3/C3層を追加 • S3層は様々な顔の向きのテンプレー トを持つ • C3層では、すべての顔の向きを統合 S/Cユニットの出力モデル     w  xj  n rw ( x)  max  exp   1 2  t   2 t, j    j 1  応答 テンプレート Sユニットへの (位置t) 入力
  • 21. 実験  視点変化および照明変化につい て実験  視点変化:  S2パッチx2000  S3パッチx10人x71視点  C3ユニットx10  照明変化:  S2パッチx80  S3パッチx80人x15照明  C3ユニットx80  パッチ作成に使用した画像と学 習/試験画像は別  学習画像数:1枚  (1-shot learning)  試験画像を入力し、学習画像と の類似度を算出
  • 26. 結論  視覚皮質の腹側経路における生理学の知見に基づいた モデルを用いて、視点や照明に頑健な認識を行うために は、そのカテゴリ専用のモジュール(回路)を構築してや る必要がある。  マカクザルのML/MF、およびAM領域は拡張HMAXモデ ルのC2, S3, C3ユニットに対応する。  顔のような3次元的構造を持つものは、視点の変化に よって見え方が大きく変わるため、独自のモジュールを 持つ必要がある。  顔認識は、専用のリソースを与える必要があるほど重要  人体認識のモジュールも見つかっているが、同様の理由と推 察できる。