
要約
ドメイン一般化(domain generalization)とは、複数のソースドメインを用いて、未観測のターゲットドメインに対しても汎化するモデルを学習するタスクである。多くの既存手法では、ドメイン間の分布を明示的に一致させるアプローチが採用されている。しかし、ターゲットドメインが利用できない状況下でドメイン一致を最適化するため、過学習のリスクが存在する。この問題に対処するために、本論文では自己蒸留(self-distillation)を活用したドメイン一般化手法を提案する。本手法は、複数のドメインにおいて意味のある誤った予測を許容することで、ドメインシフトに対して頑健なモデルの学習を目指している。具体的には、同一クラスラベルに属するが異なるドメインに属するデータの予測分布のアンサンブルと、各予測分布との一致を図る。さらに、特徴マップを標準化することで予測の一貫性を向上させる「デスタイライゼーション(de-stylization)」手法も提案する。2つのベンチマークにおける画像分類実験の結果、単一ソースおよび複数ソースの両設定において、提案手法が顕著な性能向上を示した。また、人物再識別(person-reID)実験においても本手法が有効であることを示した。すべての実験において、本手法は著しい性能向上を達成している。