16日前
制約のないシーン生成における局所的条件下のレンディアンスフィールド
Terrance DeVries, Miguel Angel Bautista, Nitish Srivastava, Graham W. Taylor, Joshua M. Susskind

要約
我々は、複雑で現実的な室内シーンの分布を学習するという課題に取り組む。本論文では、シーンを自由に移動するカメラからレンダリング可能な多数の局所的レディアンスフィールドに分解する能力を持つ、生成的シーンネットワーク(Generative Scene Networks: GSN)を提案する。本モデルは、新たなシーンの生成に用いる事前分布として利用できるほか、僅かな2D観測からシーンを補完する目的にも適している。近年の研究では、レディアンスフィールドの生成モデルが多視点の一貫性や視点依存の照明特性などを捉える能力を示している。しかしながら、これらのモデルは車両や顔といった単一オブジェクトの制限された視点観測に特化しており、現実的な室内環境の大きさと複雑さを適切に表現する能力に欠ける。本研究で提案する分解手法は、より大規模かつ複雑なシーンにもスケーラブルでありながら、細部や多様性を維持できる。さらに、学習された事前分布により、観測された視点とは大きく異なる視点からの高品質なレンダリングが可能となる。複数の異なるシーンデータセットにおいて、既存モデルと比較してGSNは定量的に優れたシーンレンダリング品質を実現している。