
対照学習(contrastive learning)は、高レベルの視覚タスクにおいて主流のアプローチとして浮上しており、適切なネガティブサンプルを導入することで、その不適切な定式化(ill-posed nature)を克服するためのコンパクトな最適化空間を実現するという点で、低レベルの視覚タスクにも応用されてきた。しかしながら、従来の手法は手動で定義された、タスクに特化したネガティブサンプルに依存しており、しばしば顕著なタスク特有のバイアスを示すという問題がある。本論文では、この課題に対処するため、「歴史からの学習(learning from history)」と呼ばれる革新的な手法を提案する。この手法は、ターゲットモデル自身から動的にネガティブサンプルを生成するものであり、モデル対照学習による画像復元(Model Contrastive Learning for Image Restoration, MCLIR)として実装されている。本手法により、遅延モデル(latency models)がネガティブモデルとして再利用され、さまざまな画像復元タスクとの互換性が確保される。これを可能にするために、自己事前知識(Self-Prior)を導入したネガティブ損失(Self-Prior guided Negative loss, SPN)を提案する。このアプローチにより、提案するモデル対照学習フレームワークで再訓練された既存モデルは大幅に性能向上を達成する。実験結果から、さまざまなタスクおよびアーキテクチャにおいて、画像復元性能が顕著に向上することが示された。例えば、RESIDE室内データセットにおける画像霞消去(image dehazing)では、SPNで再訓練されたモデルが元のFFANetおよびDehazeFormerに対してそれぞれ3.41 dBおよび0.57 dBのPSNR向上を達成した。同様に、画像雨除け(image deraining)ではSPA-Dataデータセット上でIDTに対して0.47 dBの向上、4倍スケーリングの超解像(super-resolution)ではManga109データセット上で軽量版SwinIRに対して0.12 dBの向上を実現した。コードおよび再訓練済みモデルは、https://github.com/Aitical/MCLIR にて公開されている。