9日前
HDR-NeRF:ハイダイナミックレンジ Neural Radiance Fields
Xin Huang, Qi Zhang, Ying Feng, Hongdong Li, Xuan Wang, Qing Wang

要約
本稿では、異なる露出条件で撮影された低動的範囲(LDR)画像群から高動的範囲(HDR)放射輝度場を復元するための「高動的範囲ニューラルレンディアンスフィールド(HDR-NeRF)」を提案する。本手法を用いることで、異なる露出条件下での新しいHDR画像およびLDR画像の生成が可能となる。本手法の鍵となるのは、物理的な撮像プロセスをモデル化することである。このプロセスは、シーン上の点の放射輝度がLDR画像の画素値に変換される際、2つの隠れ関数(放射輝度場とトーンマッピング関数)を介して実現されることを規定している。放射輝度場は、シーンの放射輝度(0から+∞まで変化する値)を符号化し、対応する光線の発生点と方向を与えることで、光線の密度および放射輝度を出力する。一方、トーンマッパーは、カメラセンサーに到達する光線が画素値に変換されるプロセスをモデル化する。このとき、放射輝度と対応する露出時間の入力をもとに、光線の色が予測される。出力された放射輝度、色および密度は、従来のボリュームレンダリング技術を用いてHDRおよびLDR画像に投影されるが、学習のための教師信号として用いられるのは、入力となるLDR画像のみである。本手法の評価のため、新たに前方視点向けのHDRデータセットを収集した。合成シーンおよび実世界シーンにおける実験結果から、本手法が生成された画像の露出を正確に制御できること、また高動的範囲の画像を高精度でレンダリングできることを実証した。