
一方で、深層ニューラルネットワークは大規模なデータセットから効果的に学習することができる。他方で、そのデータ利用効率は低く、パラメータ数が膨大なため、多くのラベル付きデータを必要とする傾向にある。特に小規模なデータセットを用いる場合、適切な正則化がなければ、より大きなネットワークや深層ネットワークの学習は困難である。さらに、高品質なアノテーションが付与されたデータの収集は費用がかかり、時間がかかり、場合によっては現実的でない。このような状況に対処するための代表的な手法として、代替的な代表データセットからより多くのデータを用いてネットワークを学習する方法がある。しかし、この代表データセットの統計特性がターゲットデータと大きく異なる場合、悪影響を及ぼす可能性がある。この問題の根本的原因は「ドメインシフト(domain shift)」に起因する。代表ドメインから学習された特徴抽出器を用いた場合、シフトされたドメインからのデータは、個別に最適化された特徴を生成できず、性能が低下する。過去には、このドメインシフト問題を解決するための複数のドメイン適応(domain adaptation)手法が提案されてきた。本論文では、確率的近傍埋め込み(stochastic neighborhood embedding)技術と、新しく提案された修正ハウスドルフ距離(modified-Hausdorff distance)を巧みに組み合わせた新しいドメイン適応手法(d-SNE)を提案する。本手法はエンドツーエンドで学習可能であり、ニューラルネットワークの訓練に特に適している。広範な実験により、d-SNEが現在の最先端技術を上回り、異なるデータセット間のばらつきに対しても高いロバスト性を示すことが確認された。特にワンショット学習および半教師あり学習の設定においても、優れた性能を発揮する。さらに、d-SNEは複数のドメインを同時に適応する能力を有しており、多ドメイン環境における汎化性能も示している。