
ディープメトリック学習(Deep Metric Learning, DML)は、意味的な関係を事前に定義された距離尺度によって簡潔に表現できる表現空間を学習することを目的としている。現在最も高い性能を発揮する手法は、収束性および汎化性能の向上を図るために、クラスプロキシ(class proxies)をサンプルの代表として用いることが一般的である。しかし、こうしたプロキシ手法は、サンプルとプロキシ間の距離のみを最適化するにとどまる。使用される距離関数には固有の非一対一性(non-bijectiveness)が存在するため、この最適化は局所的に等方的な(isotropic)サンプル分布を引き起こす可能性があり、結果としてサンプル間の局所構造やクラス内関係の解明が困難になり、重要な意味的文脈が失われるリスクがある。この問題を軽減するために、本研究ではプロキシベースのディープメトリック学習に対する非等方性正則化(non-isotropy regularization, $\mathbb{NIR}$)を提案する。本手法は、正規化フロー(Normalizing Flows)を活用することで、各クラスのプロキシから対応するサンプルへの一意的な変換可能性(unique translatability)を強制する。これにより、プロキシの周囲に明示的に非等方的なサンプル分布を導入し、それを最適化の対象とすることができる。このアプローチにより、プロキシベースの目的関数は局所構造をより効果的に学習可能となる。広範な実験により、$\mathbb{NIR}$がCUB200-2011、Cars196、Stanford Online Productsといった標準ベンチマークにおいて、競争力あるさらには最先端の性能を達成しつつ、一貫した汎化性能の向上を示した。さらに、プロキシベース手法に特有の優れた収束特性も維持または向上させることができ、実用的な応用において極めて魅力的な手法であることが明らかになった。実装コードは以下のURLで公開されている:https://github.com/ExplainableML/NonIsotropicProxyDML。