8. NeRF in the Wild: Neural Radiance Fields for Unconstrained
Photo Collections
• 書誌情報
• タイトル: NeRF in the Wild: Neural Radiance
Fields for Unconstrained Photo Collections
• 研究グループ: Google Research
• CVPR2021 oral
• プロジェクトページ
• 概要
• 雑多な画像を用いたNeRF
• インターネット上で収集した画像から観光名所
を復元 (右図)
R. M-Brualla et al. NeRF in the Wild: Neural Radiance
Fields for Unconstrained Photo Collections. CVPR, 2021.
8
9. NeRF in the Wild: Neural Radiance Fields for Unconstrained
Photo Collections
• モチベーション : 雑多な画像で三次元復元
ができると嬉しい
• 例) Google検索で収集した画像から観光名所の
三次元復元を行う
• 雑多な画像を用いた三次元復元の課題
• 天候や時刻の差異などに起因する画像の見かけ
の変化
• 歩行者などの動的な物体の出現・消失
2つの問題を解消する工夫を提案
1. 見かけの変化を司る潜在変数の導入
2. シーンを明示的に静的な部分と動的な部分に
分ける機構の導入
9
R. M-Brualla et al. NeRF in the Wild: Neural Radiance
Fields for Unconstrained Photo Collections. CVPR, 2021.
10. NeRF in the Wild: Neural Radiance Fields for Unconstrained
Photo Collections
• Latent Appearance Modeling
• 天候、時刻等による見かけの変化に対応するための手法
• 各画像の見かけのスタイルを司る潜在変数 𝑙𝑖
(𝑎)
を導入
• Transient Objects
• 動的な物体への対応
• 静的な部分と動的な部分のネットワークを分ける
• 動的な部分は潜在変数 𝑙𝑖
(𝜏)
に条件づけて予測
• また、画像のuncertaintyを陽に推定
• uncertaintyが大きい部分はロスの重みを下げる
10
R. M-Brualla et al. NeRF in the Wild: Neural
Radiance Fields for Unconstrained Photo
Collections. CVPR, 2021.
11. NeRF in the Wild: Neural Radiance Fields for Unconstrained
Photo Collections
• 実験
• ベースライン
• Neural rendering in the Wild (multi-view stereo + pix2pix)
• NeRF
• NeRF-A (Latent Appearance Modelingのみを適用)
• NeRF-U (Transient Objectsのみを適用)
• データセット
• 世界の名所の画像データ (Neural rerendering in the wildで作成されたもの)
• 定量評価
11
12. NeRF in the Wild: Neural Radiance Fields for Unconstrained
Photo Collections
12
14. Neural Scene Flow Fields for Space-Time View Synthesis of
Dynamic Scenes
• 書誌情報
• CVPR2021
• Adobe Researchインターン生の成果
• プロジェクトページ
• 概要
• 単眼の動画から4Dのview synthesis
• 任意の視点&時刻の画像生成
• Neural Scene Flow Fieldsにより実現
• シーンを時間を入力とする関数で表す
• 細い物体がある複雑なシーンも再現できる
14
Z. Li et al. Neural Scene Flow Fields for Space-Time
View Synthesis of Dynamic Scenes. CVPR, 2021.
15. Neural Scene Flow Fields for Space-Time View Synthesis of
Dynamic Scenes
• 定式化
• 入力 : 三次元点の座標、視線方向、時刻
• 出力
• 輝度、密度
• 3D scene flow (三次元点の前後フレームとの間の変位)
• disocclusion weight (後述のロスへの重み付けのための係数)
• モデルは次の式で表せる (𝑖は時刻)
• 学習
• 前後フレームの再構成誤差でモデルを学習
• 物体の縁ではオクルージョンの発生により正確にflowを予測できないのでロ
スの重みを下げる (disocclusion weight)
15
16. Neural Scene Flow Fields for Space-Time View Synthesis of
Dynamic Scenes
• 前ページの内容を説明する図
16
3D scene flow disocclusion weight
Z. Li et al. Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes. CVPR, 2021.
17. Neural Scene Flow Fields for Space-Time View Synthesis of
Dynamic Scenes
• 正則化のテクニック𝑖 → 𝑖 + 1
• Scene flow prior (cycle consistency)
• 時刻𝑖 → 𝑖 + 1のflowと時刻𝑖 + 1 → 𝑖のflowが同じになる制約
• Geometric consistency prior
• フレームに投影した3D scene flowが2D optical flowと一致する制約
• Single depth prior
• 単眼デプス推定との結果の整合性
17
Z. Li et al. Neural Scene Flow Fields for Space-Time
View Synthesis of Dynamic Scenes. CVPR, 2021.
18. Neural Scene Flow Fields for Space-Time View Synthesis of
Dynamic Scenes
• 2つのモデルを用いシーンの静的な部分と動的な部分をそれぞれ表現
• 静的な部分 : 通常のNeRF
• 動的な部分 : 提案したモデル
18
Z. Li et al. Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes. CVPR, 2021.
19. Neural Scene Flow Fields for Space-Time View Synthesis of
Dynamic Scenes
• 実験結果
19
Z. Li et al. Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes. CVPR, 2021.
20. Neural Scene Flow Fieldsの類似手法
• 時間に依存するradiance field (+正則化) で動画をモデリング
• Deformable Neural Radiance Fields (D-NeRF, NeRFies)
• セルフィー動画のnovel view synthesis、デモの見せ方が素晴らしい
• 複数人物を扱ってないことが査読で突っ込まれたらしい (著者のツイート)
• Non-Rigid Neural Radiance Fields: Reconstruction and Novel View Synthesis
of a Dynamic Scene From Monocular Video (NR-NeRF)
• 実データで検証
• D-NeRF: Neural Radiance Fields for Dynamics Scenes
• ダイナミックなCGデータで検証
20
K. Park et al. Deformable Neural Radiance Fields. arXiv, 2020. A. Pumarola et al. D-NeRF: Neural Radiance Fields for Dynamics Scenes. arXiv, 2020.
21. Neural Scene Flow Fieldsの類似手法
• Space-time Neural Irradiance Fields for Free-Viewpoint Video
• デプス推定による正則化
• STaR: Self-supervised Tracking and Reconstruction of Rigid
Objects in Motion with Neural Rendering
• シーン中を単一の剛体が移動するという問題設定
21
W. Xian et al. Space-time Neural Irradiance Fields for Free-
Viewpoint Video.
W. Yuan et al. STaR: Self-supervised Tracking and Reconstruction
of Rigid Objects in Motion with Neural Rendering. arXiv, 2021.
23. Neural 3D Video Synthesis (DyNeRF)
• 書誌情報
• タイトル: Neural 3D Video Synthesis
• 研究グループ: Facebook Reality Labs Research (インターン中の成果)
• プロジェクトページ
• 概要
• ダイナミックなシーンのためのNeRF
• 座標、方向、時間から輝度を推定
• 効率的に学習する方法も提案
• 18個のカメラから自由視点の動画を生成
• ベースライン (1フレーム1モデル)
と比較してモデルサイズが1/40に
T. Li et al. Neural 3D Video Synthesis. arXiv, 2021. 23
24. Neural 3D Video Synthesis (DyNeRF)
• 定式化
• 三次元点の座標と視線方向に加え、時刻から輝度と密度を予測
• 実際は各時刻に対応した潜在変数 𝒛𝑡 により条件づける (𝒛𝑡 も学習する)
24
25. Neural 3D Video Synthesis (DyNeRF)
• レンダリングとロス関数はNeRFと同じ
• NeRFと同様に元画像との再構成誤差によりradiance fieldを学習する
• しかし、普通に学習するとフレーム数の分だけ学習時間が線形に増加
してしまう・・・
効率的に学習する方法を2つ提案
1. Hierarchical Training
2. Ray Importance Sampling
25
26. Neural 3D Video Synthesis (DyNeRF)
• 工夫1: Hierarchical Training
• 学習のカリキュラムを工夫することによる効率化
1. 動画のフレームを間引き事前学習
2. 全フレームを用いてfine-tuning
• 工夫2: Ray Importance Sampling
• シーン中のダイナミックなピクセルを重点的にサンプリング
1. Sampling Based on Global Median Maps (DyNeRF-ISG)
• 全時刻におけるピクセル値の中央値との差が大きいピクセルを重点的にサンプルする
2. Sampling Based on Temporal Difference (DyNeRF-IST)
• 近傍フレームとの差が大きいピクセルを重点的にサンプルする
• 実験では2番目の方法が一番性能が良かった
26
27. Neural 3D Video Synthesis (DyNeRF)
• 実験用データセットは21個のGoProで作成
• 18個を学習に使用
• カメラパラメータは動画の最初のフレームを
用いてCOLMAPにより求めた
T. Li et al. Neural 3D Video Synthesis. arXiv, 2021.
27
28. Neural 3D Video Synthesis (DyNeRF)
• ベースラインとの比較により手法の有効性を検証
• 画像の写実性で優位 (左下)
• NeRF-T … 潜在変数 𝒛𝑡 を使わないモデル
• DyNeRF† … 学習効率化の工夫なし
• 残りの3つが提案手法
• 1フレームごとにNeRFを学習した場合に比べて1/40のモデル圧縮効果があっ
た (右下)
T. Li et al. Neural 3D Video Synthesis. arXiv, 2021.
28
29. Neural 3D Video Synthesis (DyNeRF)
• 定性評価
• プロジェクトページ のデモ動画参照
29
31. データ効率の良いNeRF
• 課題: 1つのモデルで1つのシーンしか表現できない
• pixelNeRF: Neural Radiance Fields from One or Few Images
• CVPR2021
• 入力画像に条件付けたradiance fieldを学習することによりFew-shotのNeRFが実現
• GRF: Learning a General Radiance Field for 3D Scene Representation and
Rendering
• 汎化能力がありスパースな入力からシーンを復元可能
• 単一モデルで 複数のシーンを表現可能
31
A. Trevithick and B. Yang. GRF: Learning a General Radiance
Field for 3D Scene Representation and Rendering. arXiv, 2020.
A. Yu et al. pixelNeRF: Neural Radiance Fields from One or Few Images. CVPR, 2021.
32. データ効率の良いNeRF
• Learned Initializations for Optimizing Coordinate-Based Neural
Representations
• CVPR2021
• メタラーニングで良い初期値を獲得する研究
• 学習の高速化につながる結果
32
M. Tancik et al. Learned Initializations for Optimizing Coordinate-Based Neural Representations. CVPR, 2021.
40. controllableなNeRF (この辺りよくわかりません)
• NeRV: Neural Reflectance and Visibility Fields for Relighting and View
Synthesis (CVPR2021)
• 密度、法線ベクトル、マテリアルパラメータ、表面までの距離と方向を予測するMLPを学習
• 任意のライティングでレンダリング可能
• NeRD: Neural Reflectance Decomposition from Image Collections
• NeRVと同じような感じ??
40
P. Srinivasan et al. NeRV: Neural Reflectance and Visibility
Fields for Relighting and View Synthesis. CVPR, 2021.
M. Boss et al. NeRD: Neural Reflectance Decomposition from Image Collections. arXiv, 2020.
43. 参考文献
• B. Mildenhall et al. "NeRF: Representing Scenes as Neural Radiance Fields for View
Synthesis". ECCV, 2020.
• R. M-Brualla et al. NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo
Collections. CVPR, 2021.
• Z. Li et al. Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes.
CVPR, 2021.
• K. Park et al. Deformable Neural Radiance Fields. arXiv, 2020.
• A. Pumarola et al. D-NeRF: Neural Radiance Fields for Dynamics Scenes. arXiv, 2020.
• T. Li et al. Neural 3D Video Synthesis. arXiv, 2021.
• A. Yu et al. pixelNeRF: Neural Radiance Fields from One or Few Images. CVPR, 2021.
• A. Trevithick and B. Yang. GRF: Learning a General Radiance Field for 3D Scene
Representation and Rendering. arXiv, 2020.
• M. Tancik et al. Learned Initializations for Optimizing Coordinate-Based Neural
Representations. CVPR, 2021.
43
44. 参考文献
• K. Schwarz et al. GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis. NeurIPS,
2021.
• E. R. Chan et al. pi-GAN: Periodic Implicit Generative Adversarial Networks for 3D-Aware
Image Synthesis. arXiv, 2020.
• L. Liu et al. Neural Sparse Voxel Fields. NeurIPS, 2020.
• K. Zhang et al. NeRF++: Analyzing and Improving Neural Radiance Fields. arXiv, 2020.
• B. Deng et al. JaxNeRF. (https://github.com/google-research/google-
research/tree/master/jaxnerf )
• P. Srinivasan et al. NeRV: Neural Reflectance and Visibility Fields for Relighting and View
Synthesis. CVPR, 2021.
• M. Boss et al. NeRD: Neural Reflectance Decomposition from Image Collections. arXiv, 2020.
44