D-NeRF: Neural Radiance Fields for Dynamic Scenes (arXiv Nov. 2020)

D-NeRF: Neural Radiance Fields for Dynamic Scenes
https://www.albertpumarola.com/research/D-NeRF/index.html


動的な物体を対象としたNeural Radiance Filedベースの新視点画像生成手法.動的なシーンを対象としたNeural Radiance Filedとしては,以前紹介した以下の論文がある.

Deformable Neural Radiance Fields (arXiv Nov. 2020)
https://moitkfm.blogspot.com/2021/03/deformable-neural-radiance-fields-arxiv.html

以前紹介した以下の論文との違いは,D-NeRFは基準となるフレームへの変換のみでなく,基準となるフレームからある時刻のフレームへの変換についても学習を行う点が異なる.これにより,任意の時刻の任意視点映像生成を実現している.


入力画像の条件が異なるため単純に比較はできないが,Deformable Neural Radiance Fieldsでは学習に1週間ほどかかっていたが,400x400の画像を入力とした場合にD-NeRFはNvidia GTX 1080で2日ほどで学習ができるとのこと.ただし,これは,Deformable Neural Radiance Fieldsでは,Non-Rigidな変形をAs-rigid-as-possibleの制約などを使って求めているのに対して,D-NeRFは変形は各頂点にオフセットをのせるだけの単純な形で表現されているためだと思われる.また,D-NeRFでは各フレーム間での対応関係をどのように算出するかは言及されておらず,実験結果はシミュレーションのみとなっており実画像への適用は難しいと思われる.

コメント

このブログの人気の投稿

COLMAPでキャリブレーション済みのデータを使う

5点アルゴリズムによるカメラ位置・姿勢の推定

2D-3D対応からのカメラ位置・姿勢の推定