
要約
近年、ディープラーニングは極端な低照度画像処理において驚くべき成果を上げている。単一画像処理の成功にかかわらず、動的なシーンにおける極端な低照度動画処理は、対応する真値(ground truth)を伴う生動画データを収集する困難さにより、依然として解決が難しい課題である。単一画像処理で用いられた長露光時間による真値データの収集は、動的なシーンでは実現不可能である。本論文では、照度が約1ルクス程度の極めて暗い生動画データに対するディープラーニング処理を提案する。この研究を支えるために、高解像度の生データを動画レートで取得した新しい低照度生動画データセットを構築した。この程度の暗さでは、信号対雑音比(SNR)は極めて低く(デシベル単位で測定すると負値)、従来の画像処理パイプラインは通常機能しなくなる。このような困難な問題に対処するため、新たな手法を提案する。学習ベースの処理パイプラインを丁寧に設計し、時間的安定性を促進する新たな損失関数を導入することで、真値が入手可能な静止系の生動画データ上でシメイズネットワークを学習させ、テスト時に動的シーンの動画へ一般化できるようにした。実験結果から、本手法がバースト処理、フレーム単位処理、および盲目的な時間的一貫性維持の観点で、最先端モデルを上回ることを示した。