
要約
高動態範囲(HDR)画像は物理世界の輝度情報を含んでおり、従来の低動態範囲(LDR)画像に比べてより現実的な体験を提供する。多くの画像が低動態範囲であるため、単一のLDR画像から失われた動的範囲を復元することは依然として重要な課題である。本研究では、深層ニューラルネットワークを用いて単一のLDR画像から失われた動的範囲を復元する新しい手法を提案する。本手法は、条件付き生成対抗ネットワーク(cGAN)構造を用いて推定されたマルチ露出スタックに基づき、HDR画像を生成する初めてのフレームワークである。このアーキテクチャでは、L1損失と生成対抗ネットワーク損失の組み合わせを目的関数としてネットワークを学習させる。さらに、従来のネットワークと比較して構造が簡素化されている。実験結果によれば、本手法は公開ベンチマーク上で既存手法と比較して、露光値が異なる現実的な画像から構成されるマルチ露出スタックを生成しつつ、アーティファクトの発生を回避した。また、本手法によって推定されたマルチ露出スタックおよびHDR画像は、他の最先端アルゴリズムと比較して、真値(ground truth)と著しく類似していることが示された。