投稿

2021の投稿を表示しています

4DComplete: Non-Rigid Motion Estimation Beyond the Observable Surface (ICCV2021)

イメージ
 4DComplete: Non-Rigid Motion Estimation Beyond the Observable Surface https://github.com/rabbityl/DeformingThings4D 部分的なスキャンデータから全体の形状と密なモーションを補間する手法.入力は2フレーム分のスキャンデータで,初期のモーションは FlowNet3D によって推定している.深層学習を用いて形状を補間する方法はこれまでにも提案されていたが,形状とモーションの両方を同時に補間する取り組みはこれまでになかった. 主な新規性は以下の3点となっている. 部分的なスキャンデータから密な形状とモーションを同時に補間するという問題設定の新しさ ネットワークを学習するために大規模な4Dデータのデータセットを構築したこと 形状の補間とモーションの補間は相補的な関係にあり,提案手法を用いることでベースラインの手法よりも大きく精度を改善することが出来ること この研究では,モーションを補間するためのネットワークと形状を補間するためのネットワークの2つを用いており、各ネットワークでは段階的に解像度を上げながら処理を行っていくようになっている.また,その際に,中間出力を共有することによってモーションの補間結果と形状の補間結果がお互いに干渉しあうようになっている.ただし,学習の初期段階では,中間出力は安定して得られないため,真値を用いているらしい. 著者らはこのようなネットワークを学習するために,CGデータを用いて DeformingThings4D というデータセットを構築し公開している. DeformingThings4Dのデータセットには1,972のアニメーションシーケンスが収録されており,全体で122,365フレーム分の4Dデータ(モーションや形状など)の真値が得られるようになっている. 4DCompleteは,Localな特徴のみを用いて形状およびモーションの補間を行っており,人物などのGlobalな特徴を利用していないことから,様々な物体に適用できるという特徴がある.現状,色情報の補間はできていないが,色情報も含めた復元が可能になるとNon-rigidな物体の3次元形状復元の研究が大きく前進するような気がする.

3D human tongue reconstruction from single ''in-the-wild'' images (arXiv2021)

イメージ
3D human tongue reconstruction from single ''in-the-wild'' images https://github.com/steliosploumpis/3D_human_tongue_reconstruction 1枚の画像から舌の三次元形状を復元する手法.画像から顔の形状,耳の形状などを復元する取り組みはこれまでにあるが,舌に着目した研究は無かった.ただし,舌は表情を表現するためにも重要であるため,この研究では1枚の画像から舌の形状を復元することに取り組んでいる. 主な新規性は以下の3点となっている. 約700名から1800の舌形状のスキャンデータを収集しデータセットを構築した. End-to-Endの学習フレームワークで1枚の画像から舌を含めた顔の三次元復元を実現した. 様々な画像に対応するために,GANベースのフレームワークを用いて画像から舌の三次元形状を復元するフレームワークを提案した. この研究では,実際に舌の形状を三次元スキャナを用いて計測することで,画像と三次元の舌形状の正解データセットを構築している.ただし,スキャンデータのみでは,コントロールされていない環境で撮影されたデータに対してのロバスト性が低いため,GANベースのフレームワークを用いて画像から三次元の舌形状を推定する手法を導入している.これにより,生成されたデータセットも学習に用いることで,一般的な画像に対してもロバストに顔の三次元形状復元を行うことができるようになっている. 提案されているフレームワークはPoint Cloud Auto-Encoder,Image Encoder,Shape Decoderの3つのパートで構成されている.基本的なアイデアとして,スキャンデータを用いて学習済みのPoint Cloud Auto-Encoderから得られる潜在ベクトルをガイドとしてImage Encoderを学習する.これにより,画像から舌に関する三次元の特徴量を取得することができるようになる.その後,Image Encoderによって取得された特徴ベクトルをShape Decoderを用いて舌形状を制御可能な3D Morphable Modelのパラメータに変換する.   実験結果を見て分かるように,舌を出した

pixelNeRF: Neural Radiance Fields from One or Few Images (CVPR2021)

イメージ
pixelNeRF: Neural Radiance Fields from One or Few Images https://alexyu.net/pixelnerf/ 1枚または少数の画像からNeural Radiance Filedを構築する手法.基本的なアイデアは IBRNet と同様で,入力画像を直接利用するのではなく,CNNを用いて抽出したfeature vectorからRGBσを出力するようなネットワークを学習する.単一の視点の場合は光線上のサンプルした点を入力画像上へ投影し,投影先のfeature vectorを用いる.複数視点の場合はそれぞれの視点へ投影し対応するfeature vectorを取得,その後,平均を取り利用する. 同一カテゴリのデータで学習したモデルを利用することで,未知のシーンに対してもRadiance Fieldを構築することが出来る. pixelNeRF,IBRNet双方に NeRF の別々の著者が名前を連ねているが,IBRNetの方がより手法が洗練されている印象.

FastNeRF: High-Fidelity Neural Rendering at 200FPS (arXiv Mar. 2021)

イメージ
FastNeRF: High-Fidelity Neural Rendering at 200FPS https://arxiv.org/abs/2103.10380 NeRFの高速なレンダリングを実現する手法.NeRFで学習されるRGB-σの値をキャッシュすることで高速化を行う.ただし,単純にキャッシュすると膨大なメモリが必要になるため,位置と方向それぞれで基底関数を用いた圧縮を行うことでコンシューマーレベルのGPUのメモリでもキャッシュができるようにしている.そのため,ネットワークはNeRFと異なり位置と方向の2種類のネットワークが利用される. Radiance Fieldを学習した後,空間全体を一定の間隔でサンプリングする.また,方向についても同様に各点について一定の間隔でサンプリングする.FastNeRFでは,位置および方向の情報をD個のパラメータで表現することで,Radiance Field全体を表現している.これにより,通常の NeRF では位置および方向をそれぞれfloat 16ビットで1024サンプルした場合,おおよそ5600TB必要なのに対して,FastNeRFでは,D=8とした場合,おおよそ54GBとなる.また,何もない位置の点に関しては不要なので,空間全体の30%程度にオブジェクトが存在している場合にはコンシューマーレベルのGPUやCPUのメモリに格納できるレベルになる. 処理速度の比較は以下の通り.先日紹介した DONeRF は15fpsでオリジナルのNeRFの0.06fpsに比べ劇的に処理時間を減らすことが出来ているが,FastNeRFはオリジナルのNeRFに比べ約3000倍の高速化という驚きの結果となっている. 画質についても,オリジナルのNeRFと同等の性能で画像生成することが出来ている.

D-NeRF: Neural Radiance Fields for Dynamic Scenes (arXiv Nov. 2020)

イメージ
D-NeRF: Neural Radiance Fields for Dynamic Scenes https://www.albertpumarola.com/research/D-NeRF/index.html 動的な物体を対象としたNeural Radiance Filedベースの新視点画像生成手法.動的なシーンを対象としたNeural Radiance Filedとしては,以前紹介した以下の論文がある. Deformable Neural Radiance Fields (arXiv Nov. 2020) https://moitkfm.blogspot.com/2021/03/deformable-neural-radiance-fields-arxiv.html 以前紹介した以下の論文との違いは,D-NeRFは基準となるフレームへの変換のみでなく,基準となるフレームからある時刻のフレームへの変換についても学習を行う点が異なる.これにより,任意の時刻の任意視点映像生成を実現している. 入力画像の条件が異なるため単純に比較はできないが,Deformable Neural Radiance Fieldsでは学習に1週間ほどかかっていたが,400x400の画像を入力とした場合にD-NeRFはNvidia GTX 1080で2日ほどで学習ができるとのこと.ただし,これは,Deformable Neural Radiance Fieldsでは,Non-Rigidな変形をAs-rigid-as-possibleの制約などを使って求めているのに対して,D-NeRFは変形は各頂点にオフセットをのせるだけの単純な形で表現されているためだと思われる.また,D-NeRFでは各フレーム間での対応関係をどのように算出するかは言及されておらず,実験結果はシミュレーションのみとなっており実画像への適用は難しいと思われる.

Mononizing Binocular Videos (SIGGRAPH Asia 2020)

イメージ
Mononizing Binocular Videos https://www.cse.cuhk.edu.hk/~ttwong/papers/invbino/invbino.html ステレオ映像からステレオ情報を復元可能な単眼映像を生成する手法.これにより,2Dテレビ,3Dテレビの双方で利用可能な映像コンテンツを生成することが出来る. 生成される単眼映像は左視点の映像となる.学習の際にはMonocular Loss(左視点画像と一致するように),Invertibility Loss(左右の入力と一致するように),Temporal Loss(直前のフレームと一致するように)の3つのLossを利用. さらに,伝送路上で生じる圧縮ノイズに対する耐性を上げるためのネットワークも利用している. 結果より,単眼映像からステレオ画像の復元が高品質に実現されていることが確認できる. ソースコードはgithub上で公開されている. https://github.com/wbhu/Mono3D

COLMAPでキャリブレーション済みのデータを使う

イメージ
COLMAPで三次元復元を行う際に既知のカメラパラメータを利用する方法についてメモしておく。多くの場合、SfMでカメラパラメータも含めて推定することで十分だが、例えばCMUの Panoptic dataset のようにカメラキャリブレーション結果が提供されているようなものに対して、COLMAPを適用してみたい場合は提供されているカメラパラメータを利用する方が良い場合がある。実際に、Panoptic datasetでCOLMAPを実行するとマッチングが上手くいかず推定に失敗する場合が多くある。 既知のカメラパラメータを利用する方法については、COLMAPのFAQの中で回答があるので、ここにある通りにcamera.txt, images.txt, point3D.txtを準備すると良い。 Reconstruct sparse/dense model from known camera poses https://colmap.github.io/faq.html#reconstruct-sparse-dense-model-from-known-camera-poses 以下はCOLAMPで画像群を読み込み、特徴点の対応関係の取得まで終わっている(マッチング結果のデータベースhogehoge.dbがある)ことを前提としている。 camera.txtの生成 camera.txtには各カメラのカメラモデルおよびカメラ内部パラメータを記載する。フォーマットは以下の通り。 カメラID カメラモデル 解像度x 解像度y fx fy cx cy 歪パラメータ 内部パラメータの表現については利用するカメラモデルに依存するので、以下のURLを参照しながら必要に応じて使い分ける。 Camera Models https://colmap.github.io/cameras.html camera_models.h https://colmap.github.io/cameras.html image.txtの生成 image.txtには各画像に対応するカメラ外部パラメータを記載する。フォーマットは以下の通り。 画像ID qw qx qy qz tx ty tz カメラID 画像ファイル名 ここで(qw, qx, qy, qz)は3次元回転のクウォータニオン表現で(tx, ty, tz)は

X-Fields: Implicit Neural View-, Light- and Time-Image Interpolation (SIGGRAPH Asia 2020)

イメージ
X-Fields: Implicit Neural View-, Light- and Time-Image Interpolation https://xfields.mpi-inf.mpg.de/ 2Dの画像群から視点,照明,時間方向の補間を行い任意の視点,時間,照明の画像を生成する手法.補間は時間(下図オレンジ)→照明(下図グリーン)→視点(下図イエロー)の順番で補間を行う. 視点補間にはMultiplane Imageの表現を利用している.補間を行うNeural Networkの学習には2DのFlowの情報を利用している. ただし,照明の補間については,視点,時間と同様に単純なWarping処理によって補間を行うとShadingがおかしくなるという問題が生じるため,照明の補間に関してはAlbedoとShadingに入力画像を分離して利用する. 学習にかかる時間も短く,1024x1024の画像25枚を入力とした場合に約1時間となっている.これはRadiance Fieldを復元する方法に比べるとかなり計算コストが低い. また,論文中では,関連手法に関して表の形で特徴をまとめてあり,とても参考になる.

Dynamic Facial Asset and Rig Generation from a Single Scan (SIGGRAPH Asia 2020)

イメージ
Dynamic Facial Asset and Rig Generation from a Single Scan https://vgl.ict.usc.edu/Research/dynamicgeneration/ 単一の頭部スキャン結果から,個人のブレンドシェイプモデル,Face Rig,歯や目などの要素を生成する手法.ニュートラルの表情に加えFACS (Facial Action Coding System)に基づき抽出した26個の表情をスキャンした結果を学習用データとして用いている.各表情に対して,形状,アルベド,スペキュラ,ディスプレイスメントのデータを保持している. 学習はブレンドシェイプのモデル生成とブレンドシェイプの重み生成の2つのステージに分けて実施する.まず,アーティストが設定したブレンドシェイプの重みを利用してブレンドシェイプ生成のネットワークを学習する. 次に,ブレンドシェイプ生成の重みを生成するネットワークを学習する.これにより,単一のスキャン結果からブレンドシェイプのモデルおよび重みを生成するネットワークを学習することが出来る.

MakeItTalk: Speaker-Aware Talking-Head Animation (SIGGRAPH Asia 2020)

イメージ
MakeItTalk: Speaker-Aware Talking-Head Animation https://people.umass.edu/~yangzhou/MakeItTalk/ 音声を入力と1枚の顔画像を入力として,顔画像のアニメーション動画を生成する手法.ターゲット毎の学習は不要かつ3DMMなどのテンプレートモデルも不要なアルゴリズムであり,人物の顔以外の顔のようなものにも適用可能. 顔画像からは顔ランドマークを抽出し,このランドマークを音声に応じて移動させることで,顔をアニメーションさせる.音声についてはコンテンツと話者依存の情報(感情みたいなもの?)に分解し,それぞれ発話したさいのベースとなるアニメーションの生成,話者依存のアニメーションの生成する. 人物の顔が入力の場合は,生成されたランドマークの位置情報からPix2Pixのネットワークにより変形後の画像を生成する.また,非人物の場合は,Image Warpingによる画像の生成を行う.

Grasping Field: Learning Implicit Representations for Human Grasps (3DV 2020)

イメージ
Grasping Field: Learning Implicit Representations for Human Grasps https://github.com/korrawe/grasping_field 物体間の接触判定にSigned Distance Field (SDF)を利用する試み.SDFは物体の3次元形状復元で良く利用される空間表現で,物体表面を境に正負の値をとる.Grasping Fieldでは以下のように物体の接触面が0となるようなSDFを利用することで接触判定を可能にしている. これにより,接触,浸食,非接触を判断することができる.

Neural 3D Video Synthesis (arXiv Mar. 2021)

イメージ
Neural 3D Video Synthesis https://neural-3d-video.github.io/ Your browser does not support the video tag. 動的なシーンに対するNeural Radiance Fieldベースの新視点画像生成手法.同期撮影した動画像を入力として時空間のNeural Radiance Filedを生成する.単純に各時刻のフレーム群に対して NeRF を適用すると計算コストが膨大となり現実的では無いため,提案手法では,まずキーフレームベースでNeural Radiance Filedの構築を行っている.その後,中間のフレームについては,推定済みのキーフレーム情報を線形補完して得られるNeural Radiance Filedを初期値として学習を行う.そのため,提案されている手法ではフレーム間での動きは小さいことを仮定している. また,時空間の表現となるため,NeRFでは位置 x ,方向 d を入力とし色 c とその密度σの情報を取得していたが,以下のように提案手法では時刻tの情報も入力となる. NeRF と同様にPositional Encodingによって位置,方向,時刻の情報を高次元にマッピングして利用する方法も考えられるが,単純に時刻をマッピングしても時間方向の複雑な変形(炎の揺らぎのようなもの?)は再現することが難しい.そこで,提案手法では,時刻に関しては,潜在ベクトル z の形で表現し用いている. ただし,潜在ベクトルzについては,Positional Encodingを適用せずに利用する.これにより,複雑なシーンの動きを表現可能になるとのこと.実験ではGoPro Black Hero 7を21台同期撮影した動画像を入力として利用している. 実験結果を見る限り,炎のような三次元形状を手掛かりとして自由視点映像を生成する手法では難しいようなシーンに対しても,高品質な画像を生成を実現できていることが確認できる. キーフレームベースで処理を行うことでNeRFと比べ大幅に計算コストを削減することができているが,キーフレームに関してはNe

NeX: Real-time View Synthesis with Neural Basis Expansion (CVPR 2021)

イメージ
NeX: Real-time View Synthesis with Neural Basis Expansion https://nex-mpi.github.io/ Multiplane Image (MPI)を使った新視点画像を生成の研究.入力画像はfoward facingの画像12枚以上を想定している. MPIを使った新視点画像生成手法としては以前紹介した以下の論文などがある. Synthesizing Light Field From a Single Image with Variable MPI and Two Network Fusion (SIGGRAPH Asia 2020) https://moitkfm.blogspot.com/2021/03/synthesizing-light-field-from-single.html これまでのMPIベースの新視点画像生成では各平面の色情報としてRGBαの情報を保持していたが,NeXでは視線方向に応じた各ピクセルの色はNeural Networkによって推定された基底関数の組み合わせで表現される.基底関数は全てのピクセルで同じものを利用する. MLPの入力となる画素の位置x, y, dについては NeRF と同様にPositional Encodingを採用し,x, yについてはそれぞれ20次元,奥行dについては16次元にマップすることで56次元の入力となっている. 提案手法を用いることで,構造色のような視点位置によって見た目が大きく変化する複雑な反射も再現できていることが分かる.定量評価では,NeRFを含む既存手法よりも全てのデータセットにおいて高品質な画像を生成することが可能であった. また,提案手法はレンダリングにかかる時間も少なく,NeRFの約1000倍高速にレンダリングできる.デモページではサンプルのシーンで視点をインタラクティブに変化させることが出来る.実際に試してみたが,GeForce GTX 1080 TiのPCだと60fpsでの画像生成が可能だった. https://nex-mpi.github.io/viewer/viewer.html?scene=https://pureexe.github.io/food/1008

Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild (CVPR2020)

イメージ
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild https://elliottwu.com/projects/unsup3d/ CVPR2020でベストペーパーに選ばれた論文.画像中の物体は左右対称の形状をしていることを仮定し,1枚の画像から三次元形状を推定する. ネットワークではdepth, albedo, light, 視点を推定し,推定結果をもとにレンダリングを行い,レンダリング結果と入力画像が一致するように最適化を行っていく.対称性の制約を導入するために,推定結果の左右を反転した結果についても検証を行う.ただし,上の図のように前髪などの部分は左右対称でない場合もあるため,各領域の信頼度を算出するネットワークも利用する. 1枚の画像から3Dのモデルを作成する方法は様々提案されており,特に人の顔に関してはテンプレートモデルのフィッティングを利用した方法が主流になっている.一方で,この手法は左右の対称性のみを仮定しているため,人以外の対称性を持つ物体に関しても適用できる.しかしながら,推定される形状の品質はまだまだこれからという感じ. コード以外にもデモページが準備されており,画像をアップロードすることで簡単に手法を試してみることが出来るようになっている. https://www.robots.ox.ac.uk/~vgg/blog/unsupervised-learning-of-probably-symmetric-deformable-3d-objects-from-images-in-the-wild.html?image=004_face&type=human

Deformable Neural Radiance Fields (arXiv Nov. 2020)

イメージ
Deformable Neural Radiance Fields https://nerfies.github.io/ NeRF を自撮り動画へ対応させた手法.自撮り動画では,人物部分がわずかに動いてしまうため,単純にNeRFを適用しただけではアーティファクトが生じてしまう.そこで,非剛体物体のモデリングであるNon-Rigid ICPなどと同様に,フレーム間での光線の変形を考慮することで,基準となるフレーム(Canonical Frame)に各フレームの情報を統合している.光線の変形にはas-rigid-as-possible制約を利用し,また,背景部分は静的であるという制約が学習時に用いられている. 高品質な映像が生成できているが,FullHD画質の動画を入力した場合,V100GPU8枚で約1週間学習に時間がかかる. 2021.03.16. 追記 このPaperはCVPR2021には採択されなかったらしい。査読者ガチャでハズレを引いてしまったみたい。 https://twitter.com/jon_barron/status/1371619367142629376

Practical Face Reconstruction via Differentiable Ray Tracing (arXiv Jan. 2021)

イメージ
Practical Face Reconstruction via Differentiable Ray Tracing https://arxiv.org/abs/2101.05356 1枚の顔画像から3Dの顔モデルを生成する研究.生成されるモデルは3次元の形状に加え,Albedo, Specular, Roughnessのテクスチャマップを保持.また,生成の過程でIlluminationも推定. 提案手法では, A Morphable Face Albedo Model  (CVPR2020)で提案されたAlbedoとSpecularの情報を含んだ3D Morphable Model (3DMM)を入力の顔画像にフィッティングすることで,顔形状に加え初期のAlbedoとSpecularのテクスチャマップ,顔領域に対するライティングの情報を得ている.その後,Ray TracingベースのDifferentiable Rendererである redner を用いて,各テクスチャマップの最適化およびRoughnessマップの生成を行う.3DMMのフィッティング結果を最適化の際の制約として用いることで,安定したテクスチャの分離を実現している. また,光源環境についても推定を行っているが,環境マップのようなテクスチャを推定するのではなく,ライトステージのようにドーム状に設置した仮想ライトの強度を推定するようになっている.512x512画素のテクスチャ生成に,初期のフィッティングに約5分,Differentiable Renderによる最適化に約1分程度かかる. 論文の結果を見る限りではalbedoに関しては最適化前後でほとんど結果が変わっていないように見える.制約がきつすぎるのか?

読書感想文:キャラクタアニメーションの数理とシステム

イメージ
キャラクタアニメーションの数理とシステム - 3次元ゲームにおける身体運動生成と人工知能 - https://www.coronasha.co.jp/np/isbn/9784339029093/ キャラクターアニメーションに関する基礎知識を学ぶには良い本だと思う.数理とシステムというタイトルだが,数式による表現は最低限にとどめられている印象.おそらく高校数学の知識があるとすんなりと理解できるようになっていると思う.ただし,この本でキャラクターアニメーションに興味を持って実際に実装してみようと思うと別途詳細なアルゴリズムの勉強が必要になるかと思う. この本の発展版として実装に焦点を当てた本があると,これからキャラクターアニメーションを始める人たちにとってはとても有用だと思った.

DONeRF: Towards Real-Time Rendering of Neural Radiance Fields using Depth Oracle Networks (arXiv Mar. 2021)

イメージ
 DONeRF: Towards Real-Time Rendering of Neural Radiance Fields using Depth Oracle Networks https://depthoraclenerf.github.io/ 新視点画像を生成手法である NeRF におけるレンダリング(Inference)の高速化アルゴリズムの提案.フォーマットを見る限りSIGGRAPHに投稿された論文か? Your browser does not support the video tag. > 重点的にサンプリングすべき奥行を推定するDepth Oracle Networkを導入することにより,従来は光線上を等間隔にサンプリングする必要があったが,特定の奥行周辺のみのサンプリングでNeRFと同等の性能を実現することが可能となった.これにより,15fpsでのレンダリングが可能となった. この論文ではDepth Oracle Networkを導入する前に,NeRFにおいて光線上のサンプリング方法の違いによる画像品質の向上について調査を行っている.著者らの調査結果によると,均一にサンプリングするよりも,log変換によって視点に近い位置を重点的にサンプリングする方法,log変換後に視点から遠い空間を圧縮するwarpを組み合わせる方法,を採用することで生成画像の品質を向上できることが示されている. サンプリング方法の違いと画質の関係

Robust 3D Self-portraits in Seconds (CVPR2020)

イメージ
Robust 3D Self-portraits in Seconds http://www.liuyebin.com/portrait/portrait.html 人物の3DモデルをRGB-Dのシーケンスから生成する手法の提案.著者らの先行研究である DoubleFusion では, SMPLモデル を利用したトラッキングを行っていたが,SMPLモデルは衣服を身に着けていない人物のモデルであるため,ワンピースのような足の形状が隠れてしまう衣服などを来ていた場合にトラッキング精度が低下してしまう.そこで,単眼画像からの人物モデル生成手法である PIFu と組み合わせることで,トラッキング精度の低下を防いでいる. 提案手法では,RGB-Dカメラの前で人が自分で360度回転することで全身の撮影を行い,この撮影されたRGB-D動画像を入力として人物の3Dモデルを生成する.PIFuと異なり,RGB-Dの入力が得られるため,PIFuにおける空間のサンプリングは取得されたDepthの周辺に限定することができるため,より精度良く高速にモデルを生成することが可能となっている(RGBD-PIFu).RGBD-PIFuによって得られたモデルはトラッキングに用いられ,各フレームで取得されたDepth mapを使ってモデルをアップデートすることで詳細な形状を復元していく.トラッキングにはDoubleFusionと同様のアルゴリズムが利用されている.また,一度に全集を復元するのではなく,全周をいくつかのパーツ(portion)に分解して復元を行う.最終的に各パーツをBundle Adjustment (BA)によって統合する.ただし,全てのフレームを使ったBAは処理コストが高いため,各パーツ毎にキーフレームを選択し,このキーフレームを使って統合を行う.これにより,計算時間を大幅に抑えることが出来る.  

Synthesizing Light Field From a Single Image with Variable MPI and Two Network Fusion (SIGGRAPH Asia 2020)

イメージ
Synthesizing Light Field From a Single Image with Variable MPI and Two Network Fusion https://people.engr.tamu.edu/nimak/Papers/SIGAsia2020_LF/index.html 単眼画像からの新視点画像生成の研究.従来手法では,新視点画像生成のために視点位置から一定の間隔で設置したMultiplane Image (MPI)上へ入力画像を投影し,各奥行の平面に投影された画像を新視点画像上へ投影することで新視点画像の生成を行っていた.この場合,平面間に物体が存在するような場合は,物体を挟む2つの平面状に単一の物体の色情報が分配されてしまい,新視点画像上にゴーストが生じてしまうという問題があった.これを解決するために,提案手法では,投影先の平面の間隔を動的に設定するVariable MPIを導入している.これにより,新視点画像を生成した際に生じるゴーストを低減することができる. ネットワークは可視領域を処理するためのVisible CNN,遮蔽領域を処理するためのOccluded CNNで構成されている.最終的に2つのネットワークで生成された画像よりVisibility Maskを生成し,これを利用することでブレンディングし最終結果を得る.

Torch-Points3D: A Modular Multi-Task Framework for Reproducible Deep Learning on 3D Point Clouds (3DV2020)

イメージ
 Torch-Points3D: A Modular Multi-Task Framework for Reproducible Deep Learning on 3D Point Clouds https://github.com/nicolas-chaulet/torch-points3d 3次元コンピュータビジョンの国際会議である3DV2020で発表された論文で,アルゴリズムの提案ではなく、Deep Learningを使った種々の3次元点群処理アルゴリズムをpytorchフレームワーク上で利用可能にしベンチマークをしやすくしたという内容の論文. Torch-Points3Dには,Classification,Registration, Object Detectionなどの以下のようなタスクがサポートされている. また,3次元点群処理の分野では様々なConvolutionカーネルが提案されているが,代表的なものに関してはTorch-Points3dで利用可能になっている. さらに,学習のための代表的なデータセットも直接ダウンロードして扱えるようになっている.