
要約
ドメイン一般化(Domain Generalization)とは、複数の異なるソースドメインから構成されるデータセットを用いてモデルを学習させ、そのモデルが学習時に見未曾有のターゲットドメインに対しても直接的に一般化できるようにする問題である。有望なアプローチとして、対照学習(contrastive learning)が挙げられる。これは、異なるドメインからのサンプル対間における豊かな意味的関係を活用することで、ドメイン不変な表現(domain-invariant representations)を学習しようとする手法である。代表的な手法として、異なるドメインに属するポジティブなサンプル対を近づけ、それ以外のネガティブなサンプル対を遠ざけるというアプローチがある。本論文では、対照学習に基づく従来の手法(例えば、教師あり対照学習)をドメイン一般化に直接適用しても効果が薄いことを明らかにした。我々は、異なるドメイン間には顕著な分布ギャップが存在するため、ポジティブなサンプル対間のアライメントを行うことは、モデルの一般化性能を阻害する要因であると主張する。この問題に対処するため、本研究では、従来のサンプル対間の関係を「プロキシ(proxy)対サンプル間の関係」に置き換える新たなプロキシベースの対照学習手法を提案する。これにより、ポジティブなアライメントに起因する問題が顕著に緩和される。4つの標準ベンチマークにおける実験結果から、本手法の有効性が確認された。さらに、ImageNetで事前学習されたモデルが提供されないというより複雑な状況においても、本手法は一貫して優れた性能を発揮することを示した。