SlideShare a Scribd company logo
1 of 49
Download to read offline
A Theory of Fermat Paths
for Non-Line-of-Sight Shape Reconstruction
#cvsaisentan
CVPR ‘19 読み会
@mhr380
コンピュータビジョン
2
カメラ・センサ
反射光
画像データ 情報処理
Bunny 98%
属性・領域の認識
実世界
光源
コンピュータビジョン
3
カメラ・センサ
反射光
画像データ 情報処理
シーンの幾何的・物理的な情報
実世界
光源
コンピュータビジョン
4
カメラ・センサ
反射光
画像データ 情報処理
シーンの幾何的・物理的な情報
実世界
光源
知りたいシーンは
カメラに写っていることが
大前提だった
ところで
⚫ Computational Photographyの会議(ICCP)でホットな話題って?
→ Non Line of Sight Imaging
⚫ カメラの視界内に、認識したい対象物が写っている Line of Sight (見通し内)
⚫ カメラの視界内に、認識したい対象物が写っていない Non Line of Sight(見通し外)
NLoS Imagingの元祖
⚫ A. Kirmani, T. Hutchison, J. Davis, and R. Raskar,
Looking around the corner using ultrafast transient imaging, IJCV 2011.
◼ 通称 “Looking around the corner “
◼ 高価なレーザ・センサ(ストリークカメラ)を利用 (センサだけで数千万円くらい!)
NLoS in CVPR ‘19
⚫ Computational Photographyの会議(ICCP)でホットな話題って?
→ Non Line of Sight Imaging
⚫ CVPR2019では6本のNLoS Imaging研究が発表
◼ Lindellら, Acoustic Non-Line-Of-Sight Imaging
◼ Tsaiら, Beyond Volumetric Albedo - A Surface Optimization Framework for Non-Line-Of-Sight Imaging
◼ Chenら, Steady-State Non-Line-Of-Sight Imaging
◼ Liuら, Analysis of Feature Visibility in Non-Line-Of-Sight Measurements
◼ Leiら, Direct Object Recognition Without Line-Of-Sight Using Optical Coherence
◼ Xinら, A Theory of Fermat Paths for Non-Line-Of-Sight Shape Reconstruction
NLoS in CVPR ‘19
⚫ そのうち1本はなんと Best Paper
9
In CVPR 2019 (Oral Presentation, Best Paper Award)
Presenter: @mhr380
Shumian Xin1, Sotiris Nousias2,3, Kiriakos N. Kutulakos2, Aswin C. Sankaranarayanan1,
Srinivasa G. Narasimhan1, Ioannis Gkioulekas1
1Carnegie Mellon University 2University of Toronto 3University College London
A Theory of Fermat Paths
for Non-Line-of-Sight Shape Reconstruction
この論文の問題設定
10
レーザー
+
センサ
データ 処理
壁①
壁②
センサから見えるのは
壁②だけ!
視野角外の物体を
umオーダーで形状推定する
とんでもない研究!注視点 v
結果①
500um
結果②
おしながき
⚫ 構成要素
◼ どんな装置を使っているの?
◼ どんな観測が得られるの?
◼ どんなアルゴリズムで3次元形状を復元するの?
⚫ 実験・結果
⚫ 所感
手法説明
14
レーザー
+
センサ
データ 処理
壁①
壁②
注視点 v
どんなセンサ・レーザーを使っている?
⚫ Abstractより
どんなセンサ・レーザーを使っている?
⚫ SPAD(Single Photon Avalanche Diode)とは?
◼ 微小な光(フォトン)が到来したことを検知可能な超超超高感度なセンサ
• 暗闇でも信号を観測できる
• ただし、「光が来た / 来ない」のバイナリ値しか検出不可
• 超高周波(数GHz)で駆動可能 (ナノ秒・ピコ秒に1回の計測ができる)
◼ 近年、LiDARやTime of Flight センサに使われることが増加
• トヨタがSPAD LiDARを試作しているらしい
https://monoist.atmarkit.co.jp/mn/articles/1510/22/news037.html
どんなセンサ・レーザーを使っている?
⚫ レーザとSPADを利用したTime of Flight計測への利用
グラフは O’toole et al., Single-Photon 3D Imaging with Deep Sensor Fusion, ToG 2018. より
SPAD
対象物までの
距離がわかる!
レーザ発光からの
経過時間
光を発光してから
SPADまで到達するのに
要した時間 τ
観測データ
フォトンが
センサに到達した
回数
「いつ光が来たか」
の統計値
きょり = はやさ x じかん
※ 経過時間は往復なので、センサ-被写体間の距離は
𝑑 =
𝑐 ⋅ 𝜏
2
光速
3 × 108[m/s]
レーザ発光からの
経過時間
1回目の
計測
2回目の
計測
N回目の
計測・・・
光の飛行時間が
わかると・・・
手法説明
18
レーザー
+
センサ
データ 処理
壁①
壁②
注視点 v
計測によって得られるデータ
⚫ 壁からの反射光を超高速で捉えたデータ
レーザー
+
センサ
壁②
注視点 v
壁から
返ってくる光
壁の向こうから
返ってくる光
とある壁上の点から得られる信号
計測によって得られるデータ
⚫ 壁からの反射光を超高速で捉えたデータ
レーザー
+
センサ
壁②
注視点 v
この信号を
頑張って解析する
とある壁上の点から得られる信号
手法説明
21
データ 処理
レーザー
+
センサ
壁①
壁②
注視点 v
アルゴリズム
⚫ おことわり
◼ (私には)結構難解でした
◼ 論文とは異なるNotationをしております
◼ 私の理解が間違っていたら教えてください!
⚫ Supplemental Materialはこんな感じ(式65まである)
アルゴリズム
⚫ おことわり
◼ (私には)結構難解でした
◼ 論文とは異なるNotationをしております
◼ 私の理解が間違っていたら教えてください!
⚫ Supplemental Materialはこんな感じ(式65まである)なるべく数式を使わずに
説明します!!!!
アルゴリズム
⚫ 前提
◼ 壁は拡散反射成分が主体 → 壁に到達した光は、あらゆる方向に分散して飛んでいく
◼ レーザの照射点と、センサの注視点は同じ点とする(同軸)
⚫ 解きたい問題
◼ 注視点から被写体の点を結ぶベクトルを求めたい
◼ 未知パラメータ
• ベクトルの長さ
• ベクトルの方向
⚫ 解法
① 注視点から被写体の点を結ぶベクトルの長さを決定
② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
壁②
注視点 v
???
アルゴリズム
⚫ 前提
◼ 壁は拡散反射成分が主体 → 壁に到達した光は、あらゆる方向に分散して飛んでいく
◼ レーザの照射点と、センサの注視点は同じ点とする(同軸)
⚫ 解きたい問題
◼ 注視点から被写体の点を結ぶベクトルを求めたい
◼ 未知パラメータ
• ベクトルの長さ
• ベクトルの方向
⚫ 解法
① 注視点から被写体の点を結ぶベクトルの長さを決定
② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
壁②
注視点 v
???
手順① ベクトルの長さを求める
⚫ ベクトルの長さ = 被写体までの距離
= (光速 x SPADで観測した光飛行時間) / 2
解候補となる
ベクトル
壁②
注視点 v
???
手順① ベクトルの長さを求める
⚫ ベクトルの長さ = 被写体までの距離
= (光速 x SPADで観測した光飛行時間) / 2
注視点から被写体上の点までを結ぶベクトルの解空間は
中心を注視点とし、 光飛行時間 τ で決まる半径となる球面上に存在
計測された光飛行時間 τ
壁②
注視点 v
???
長さ τ
壁②
注視点 v
???
長さ τ
アルゴリズム
⚫ 前提
◼ 壁は拡散反射成分が主体 → 壁に到達した光は、あらゆる方向に分散して飛んでいく
◼ レーザの照射点と、センサの注視点は同じ点とする(同軸)
⚫ 解きたい問題
◼ 注視点から被写体の点を結ぶベクトルを求めたい
◼ 未知パラメータ
• ベクトルの長さ
• ベクトルの方向
⚫ 解法
① 注視点から被写体の点を結ぶベクトルの長さを決定
② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
壁②
注視点 v
???
長さ τ
アルゴリズム
⚫ 前提
◼ 壁は拡散反射成分が主体 → 壁に到達した光は、あらゆる方向に分散して飛んでいく
◼ レーザの照射点と、センサの注視点は同じ点とする(同軸)
⚫ 解きたい問題
◼ 注視点から被写体の点を結ぶベクトルを求めたい
◼ 未知パラメータ
• ベクトルの長さ
• ベクトルの方向
⚫ 解法
① 注視点から被写体の点を結ぶベクトルの長さを決定
② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ 手順① で解候補となるベクトルの長さは決定した
⚫ 残りは、ベクトルの方向が決まれば、壁上の注視点と被写体上の点を結ぶベクトルが決定できる
壁②
注視点 v
???
長さ τ
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ 重要な性質 (Fermat’s Principal)
◼ 「ヒストグラムにピークをもたらす光線は、物体法線と平行な光線である」
レーザ&センサ
注視点 v
いろんな方向に反射
未知物体の表面
※レーザの照射点とSPADの注視点は同じ点
観測ヒストグラム
(観測する壁から来る光は無視)
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ 重要な性質 (Fermat’s Principal)
◼ 「ヒストグラムにピークをもたらす光線は、物体法線と平行な光線である」
レーザ&センサ
光線と法線が一致していない場合
反射した光は
注視点ではないどこかに行ってしまう
→ 注視点を見ているセンサでは観測できない
注視点 v
いろんな方向に反射
未知物体の表面
法線
※レーザの照射点とSPADの注視点は同じ点
観測ヒストグラム
(観測する壁から来る光は無視)
注視点で観測される
反射光は少ない
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ 重要な性質 (Fermat’s Principal)
◼ 「ヒストグラムにピークをもたらす光線は、物体法線と平行な光線である」
観測ヒストグラム
(観測する壁から来る光は無視)
注視点で観測される
反射光は多い
レーザ&センサ
注視点 v
いろんな方向に反射
未知物体の表面
法線
※レーザの照射点とSPADの注視点は同じ点
光線と法線が一致してる場合
反射した光が同じ注視点にもどってくる
→ 注視点を見ているセンサでは
多くの光が観測される!
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ ベクトルの方向を決定するためにある材料
◼ ベクトルの長さは、光飛行時間 τ
◼ 「ヒストグラムにピークをもたらす光線は、物体法線と平行な光線である」
◼ 注視点をずらしたときに観測される光飛行時間を手がかりにする
壁②
注視点 v
???
長さ τ
物体上の点の候補
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ 注視点を動かして観測
⚫ 「注視点を微小に動かしたときに到達する面の形状はそんなに変わらないはず」
→ 隣接注視点が到達する物体上の点も、同じ法線を持つ
観測ヒストグラム
(観測する壁から来るフォトンは無視)
※ 論文とはNotationが異なります
注視点 v
θ
未知物体
Δτ
θ
未知
長さ τ
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ 注視点を動かして観測
⚫ 「注視点を微小に動かしたときに到達する面の形状はそんなに変わらないはず」
→ 隣接注視点が到達する物体上の点も、同じ法線を持つ
観測ヒストグラム
(観測する壁から来るフォトンは無視)
※ 論文とはNotationが異なります
注視点 v
Δv
注視点の隣接点
v’=v+Δv
θ
未知物体
Δτ
θ
未知
長さ τ
長さ τ+Δ τ
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ 注視点を動かして観測
⚫ 「注視点を微小に動かしたときに到達する面の形状はそんなに変わらないはず」
→ 隣接注視点が到達する物体上の点も、同じ法線を持つ
観測ヒストグラム
(観測する壁から来るフォトンは無視)
※ 論文とはNotationが異なります
注視点 v
Δv
注視点の隣接点
v’=v+Δv
θ
未知物体
θ
Δτ
θ
θ
未知
長さ τ
長さ τ+Δ τ
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ 注視点を動かして観測
⚫ 「注視点を微小に動かしたときに到達する面の形状はそんなに変わらないはず」
→ 隣接注視点が到達する物体上の点も、同じ法線を持つ
観測ヒストグラム
(観測する壁から来るフォトンは無視)
※ 論文とはNotationが異なります
注視点 v
Δv
Δτ
注視点の隣接点
v’=v+Δv
θ
未知物体
θ
Δτ
Δv
θ
θ
未知
長さ τ
長さ τ+Δ τ
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ 注視点を動かして観測
⚫ 「注視点を微小に動かしたときに到達する面の形状はそんなに変わらないはず」
→ 隣接注視点が到達する物体上の点も、同じ法線を持つ
※ 論文とはNotationが異なります
注視点 v
Δv
注視点の隣接点
v’=v+Δv
θ θ
Δv
Δτ
未知物体
θ
θ
θ
90°-θ
Δτ:
計測した時間差
Δv
注視点の移動量
(制御可能な値)
sin 90∘ − 𝜃 = cos 𝜃 =
Δ𝜏
Δ𝑣
𝜃 = cos−1
Δ𝜏
Δ𝑣
未知
長さ τ
長さ τ+Δ τ
手順② 隣接点での観測変化量をもとに、ベクトルの向く方向を決定
⚫ ベクトルの方向を決定するためにある材料
◼ ベクトルの長さは、光飛行時間 τ
◼ 「ヒストグラムにピークをもたらす光線は、物体法線と平行な光線である」
◼ 注視点をずらしたときに観測される光飛行時間を手がかりにする
壁②
注視点 v
𝜃 = cos−1
Δ𝜏
Δ𝑣
長さ τ
スキャン計測
⚫ 注視点をスキャンしながら計測
⚫ それぞれの注視点について同様の演算を行うことで、法線をもった点群が得られる
⚫ 法線を持った点群をメッシュ化する(論文のContributionじゃないので詳細は理解していません…)
おしながき
⚫ 構成要素
◼ どんな装置を使っているの?
◼ どんな観測が得られるの?
◼ どんなアルゴリズムで3次元形状を復元するの?
⚫ 実験・結果
⚫ 所感
実験系①
⚫ ピコ秒レーザを利用した実験系(分解能 1mm程度)
実験系①での評価
⚫ ピコ秒レーザを利用した実験系(分解能 1mm程度)
◼ 凹面・凸面どちらも良好に推定可能
実験系①での評価
⚫ ピコ秒レーザを利用した実験系(分解能 1mm程度)
◼ 平均誤差: 2mm程度
実験系②
⚫ フェムト秒レーザーを利用(分解能10um)
おしながき
⚫ 構成要素
◼ どんな装置を使っているの?
◼ どんな観測が得られるの?
◼ どんなアルゴリズムで3次元形状を復元するの?
⚫ 実験・結果
⚫ 所感
まだ理解できていないところ
⚫ 1つの注視点に対して2つのピークがある場合はどうしているのか
注視点 v
未知物体の表面
法線
まだ理解できていないところ
⚫ 物体の非連続点から到来する光線も、観測にピークをもたらすらしい
◼ 同じグループのCVPR2017論文が参考になりそう(だが間に合わなかった・・・)
• Tsai et al., The Geometry of First-Returning Photons for Non-Line-of-Sight Imaging, CVPR ‘17
注視点 v
未知物体の表面
法線
法線が色んな方向に
定義できてしまう?

More Related Content

What's hot

動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )cvpaper. challenge
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisDeep Learning JP
 
カメラ間人物照合サーベイ
カメラ間人物照合サーベイカメラ間人物照合サーベイ
カメラ間人物照合サーベイYoshihisa Ijiri
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)cvpaper. challenge
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめDeep Learning JP
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイcvpaper. challenge
 
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...Deep Learning JP
 
文献紹介:Simpler Is Better: Few-Shot Semantic Segmentation With Classifier Weight...
文献紹介:Simpler Is Better: Few-Shot Semantic Segmentation With Classifier Weight...文献紹介:Simpler Is Better: Few-Shot Semantic Segmentation With Classifier Weight...
文献紹介:Simpler Is Better: Few-Shot Semantic Segmentation With Classifier Weight...Toru Tamaki
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎Takumi Ohkuma
 
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...Deep Learning JP
 
20160724_cv_sfm_revisited
20160724_cv_sfm_revisited20160724_cv_sfm_revisited
20160724_cv_sfm_revisitedKyohei Unno
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual FeaturesARISE analytics
 
サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識Yasutomo Kawanishi
 
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...Deep Learning JP
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted WindowsDeep Learning JP
 
文献紹介:Benchmarking Neural Network Robustness to Common Corruptions and Perturb...
文献紹介:Benchmarking Neural Network Robustness to Common Corruptions and Perturb...文献紹介:Benchmarking Neural Network Robustness to Common Corruptions and Perturb...
文献紹介:Benchmarking Neural Network Robustness to Common Corruptions and Perturb...Toru Tamaki
 
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...Kazuki Adachi
 
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセットToru Tamaki
 

What's hot (20)

動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
 
カメラ間人物照合サーベイ
カメラ間人物照合サーベイカメラ間人物照合サーベイ
カメラ間人物照合サーベイ
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
 
文献紹介:Simpler Is Better: Few-Shot Semantic Segmentation With Classifier Weight...
文献紹介:Simpler Is Better: Few-Shot Semantic Segmentation With Classifier Weight...文献紹介:Simpler Is Better: Few-Shot Semantic Segmentation With Classifier Weight...
文献紹介:Simpler Is Better: Few-Shot Semantic Segmentation With Classifier Weight...
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎
 
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
 
20160724_cv_sfm_revisited
20160724_cv_sfm_revisited20160724_cv_sfm_revisited
20160724_cv_sfm_revisited
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
 
サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識
 
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
 
文献紹介:Benchmarking Neural Network Robustness to Common Corruptions and Perturb...
文献紹介:Benchmarking Neural Network Robustness to Common Corruptions and Perturb...文献紹介:Benchmarking Neural Network Robustness to Common Corruptions and Perturb...
文献紹介:Benchmarking Neural Network Robustness to Common Corruptions and Perturb...
 
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
 
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
 

Similar to CVPR2019読み会 "A Theory of Fermat Paths for Non-Line-of-Sight Shape Reconstruction"

Structured Light 技術俯瞰
Structured Light 技術俯瞰Structured Light 技術俯瞰
Structured Light 技術俯瞰Teppei Kurita
 
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)kanejaki
 
変形ARマーカの高速かつ高精度な姿勢推定
変形ARマーカの高速かつ高精度な姿勢推定変形ARマーカの高速かつ高精度な姿勢推定
変形ARマーカの高速かつ高精度な姿勢推定MILab
 
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent NetworksLearning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent NetworksKento Doi
 
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -Yutaka KATAYAMA
 
20150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.320150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.3sumisumith
 
バイオイメージング研究のためのImageJによるデジタル画像解析入門(2011年6月版)
バイオイメージング研究のためのImageJによるデジタル画像解析入門(2011年6月版)バイオイメージング研究のためのImageJによるデジタル画像解析入門(2011年6月版)
バイオイメージング研究のためのImageJによるデジタル画像解析入門(2011年6月版)nmaro
 
20190227 第51回CV勉強会@関東
20190227 第51回CV勉強会@関東 20190227 第51回CV勉強会@関東
20190227 第51回CV勉強会@関東 Kyohei Unno
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-studyNaoya Chiba
 
ディジタル信号処理 課題解説 その6
ディジタル信号処理 課題解説 その6ディジタル信号処理 課題解説 その6
ディジタル信号処理 課題解説 その6noname409
 

Similar to CVPR2019読み会 "A Theory of Fermat Paths for Non-Line-of-Sight Shape Reconstruction" (12)

Structured Light 技術俯瞰
Structured Light 技術俯瞰Structured Light 技術俯瞰
Structured Light 技術俯瞰
 
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
 
Eccv2018 report day3
Eccv2018 report day3Eccv2018 report day3
Eccv2018 report day3
 
変形ARマーカの高速かつ高精度な姿勢推定
変形ARマーカの高速かつ高精度な姿勢推定変形ARマーカの高速かつ高精度な姿勢推定
変形ARマーカの高速かつ高精度な姿勢推定
 
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent NetworksLearning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
 
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
 
20150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.320150328 cv関東勉強会 sumisumithパート_v1.3
20150328 cv関東勉強会 sumisumithパート_v1.3
 
バイオイメージング研究のためのImageJによるデジタル画像解析入門(2011年6月版)
バイオイメージング研究のためのImageJによるデジタル画像解析入門(2011年6月版)バイオイメージング研究のためのImageJによるデジタル画像解析入門(2011年6月版)
バイオイメージング研究のためのImageJによるデジタル画像解析入門(2011年6月版)
 
20190227 第51回CV勉強会@関東
20190227 第51回CV勉強会@関東 20190227 第51回CV勉強会@関東
20190227 第51回CV勉強会@関東
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
 
ディジタル信号処理 課題解説 その6
ディジタル信号処理 課題解説 その6ディジタル信号処理 課題解説 その6
ディジタル信号処理 課題解説 その6
 

CVPR2019読み会 "A Theory of Fermat Paths for Non-Line-of-Sight Shape Reconstruction"