
単一画像超解像(SISR)ネットワークは、歪み中心の損失(例:L1またはL2)を用いて訓練されるものと比べて、知覚的損失および対抗的損失を用いて訓練された場合、高いコントラストの出力を得ることができる。しかし、既存の研究では、局所的に変化する多様な形状の正確な復元には単一の知覚的損失では不十分であり、望ましくないアーティファクトや不自然な詳細が生成されやすいことが示されている。この問題に対処するため、知覚的損失、対抗的損失、歪み損失などの複数の損失関数を組み合わせるアプローチが試みられてきたが、最適な損失組み合わせを見つけることは依然として困難である。そこで本論文では、高解像度出力全体にわたり現実的な結果を生成するために、各領域に最適な目的関数を適用する新しいSISRフレームワークを提案する。具体的には、以下の2つのモデルから構成される:1)与えられた低解像度(LR)入力に対して最適な目的関数マップを推定する予測モデル、および2)目標となる目的関数マップを用いて対応する高解像度(SR)出力を生成する生成モデル。生成モデルは、複数の重要な目的関数を含む我々が提案する「目的関数軌道(objective trajectory)」に基づいて訓練され、1つのネットワークが軌道上の複合損失に対応する多様なSR結果を学習可能となる。一方、予測モデルは、LR画像とその対応する最適な目的関数マップ(軌道上から探索されたもの)のペアを用いて訓練される。5つのベンチマークにおける実験結果から、本手法はLPIPS、DISTS、PSNR、SSIMの各指標において、最先端の知覚指向型SR手法を上回ることが示された。視覚的評価においても、知覚指向の再構成性能において本手法の優位性が確認された。コードおよびモデルは、https://github.com/seungho-snu/SROOE にて公開されている。