SlideShare a Scribd company logo
1 of 21
順推論と逆推論の問題
生理学研究所 脳機能計測・支援センター
准教授 近添淳一
Forward and reverse inference
(順推論と逆推論)
Forward
inference
(順推論)
Reverse
inference
(逆推論)
課題によって生じ
た精神活動
P(A|M)
A: Brain activity (脳活動)
M: Mental state (精神活動)
P(M|A)
精神活動
嫌悪
不適切なReverse inferenceの例
結論:
被験者はgo/no-go課題が難しすぎるために、実験に対し
て嫌悪感を抱いた、と考えられる。
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
(Wright et al., 2004)
不適切なReverse inferenceの例
結論:
被験者はgo/no-go課題を遂行するために、課題のルール
を短期記憶を使って保持する必要があった、と考えられる。
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
短期記憶
(Engström et al., 2015)
不適切なReverse inferenceの例
結論:
困難な課題で成功することはそれ自体で報酬となるため、
被験者は「甘い」気分になっている、と考えられる。
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
味覚
(甘味)
(Chikazoe et al., in preparation)
不適切なReverse inferenceの例
結論:
被験者は「酸っぱい」気分になっている。なぜなら・・・
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
味覚
(酸味)
(Chikazoe et al., in preparation)
reverse inferenceの問題は何か?
Bayesの公式:
P(M|A) =
P(A)
P(A|M) x P(M)
M: Mental process (精神活動)
A: Brain activation (脳活動)
事後確率
(脳活動を見た後で
推定された精神活動)
事前確率
(脳活動をみる前に
推定された精神活動)
観察
不適切なreverse inferenceの場合
Bayesの公式:
P(M|A) =
P(A)
P(A|M) x P(M)
M: Mental process (精神活動)
A: Brain activation (脳活動)
観察 自分のストーリーを
サポートする論文を
恣意的に選択
reverse inferenceの問題は何か?
Bayesの公式:
P(M|A) =
P(A)
P(A|M) x P(M)
M: Mental process (精神活動)
A: Brain activation (脳活動)
事前確率
(脳活動をみる前に
推定された精神活動)
著者の主観的信念に
従い、恣意的に設定
二重の恣意性によって推論が歪む
1.客観的なデータ観察の代わりに、恣意的な
論文選択
2.事前確率に著者の信念を直接反映させる
解決策
1.Neurosynthを用いる。
実際のdataに基づいた客観的なreverse inferenceが可能。
2.Taskを条件として加える。
Inferenceの範囲を限定する。
(視覚を使う実験をしている場合には、被験者が聴覚経験
をしている可能性を考える必要がない。)
Neurosynth (http://neurosynth.org/)
Meta-analysis
P(pain|activation)
Automated coordinate
extraction
Related studies
Term-based
search
‘Pain’
Yarkoni et al., 2011, Nature Methods
P(M|A) =
P(A)
P(A|M) x P(M)
過去のfMRI研究を網羅的に調べることにより計算
0.5に設定 (無情報分布)
Term-based
search
‘Pain’
Neurosynthの使い方
Coordinateを用いる方法
単語と領域の
関連の強さ
Reverse inferenceの結果
全脳の脳活動のパターンを用いる方法
全脳の脳活動のパターンを用いる方法
全脳の脳活動のパターンを用いる方法
Neurosynthを使うことのメリット
• 恣意性を排除できる。
• 複数の仮説(解釈)の間で、どれがどの程度確か
らしいかを定量的に評価できる。
Neurosynthを使うことのデメリット
• 論文を精読して細かく振り分けたわけではないた
め(コンピュータが論文の中の単語の出現頻度を
機械的にカウント)、ノイズも多く含まれる。
• 事前確率が非常に重要であるにもかかわらず、こ
の部分を正確に評価できていない。
P(M|A) =
P(A)
P(A|M) x P(M)
過去のfMRI研究を網羅的に調べることにより計算
0.5に設定 (無情報分布)
課題を条件として加える方法
例:視覚実験を行っている場合は、視覚刺激が与え
られているということを事前に実験者は知っている。
この場合、聴覚刺激が与えられている可能性を考え
なくてよい。
(MVPAを使ったDecodingはこれを利用している)
P(M|A ∩Task) =
P(A|Task)
P(A|M ∩ Task) x P(M |Task)
参考文献
• Poldrack, Inferring Mental States from Neuroimaging Data: From
Reverse Inference to Large-Scale Decoding. Neuron. 2011 Dec
8;72(5):692-7. doi: 10.1016/j.neuron.2011.11.001.
• Yarkoni et al., Large-scale automated synthesis of human functional
neuroimaging data. Nature Methods 8, 665–670 (2011)
doi:10.1038/nmeth.1635
• Hutzler, Reverse inference is not a fallacy per se: cognitive processes
can be inferred from functional imaging data. Neuroimage. 2014 Jan
1;84:1061-9. doi: 10.1016/j.neuroimage.2012.12.075.

More Related Content

What's hot

(2018.3) 分子のグラフ表現と機械学習
(2018.3) 分子のグラフ表現と機械学習(2018.3) 分子のグラフ表現と機械学習
(2018.3) 分子のグラフ表現と機械学習
Ichigaku Takigawa
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
Shuyo Nakatani
 

What's hot (20)

FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
Taking a Deeper Look at the Inverse Compositional Algorithm
Taking a Deeper Look at the Inverse Compositional AlgorithmTaking a Deeper Look at the Inverse Compositional Algorithm
Taking a Deeper Look at the Inverse Compositional Algorithm
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
 
(2018.3) 分子のグラフ表現と機械学習
(2018.3) 分子のグラフ表現と機械学習(2018.3) 分子のグラフ表現と機械学習
(2018.3) 分子のグラフ表現と機械学習
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
 
確率的推論と行動選択
確率的推論と行動選択確率的推論と行動選択
確率的推論と行動選択
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 

順推論と逆推論