17日前

深層特徴量学習におけるグループ損失

Ismail Elezi, Sebastiano Vascon, Alessandro Torcinovich, Marcello Pelillo, Laura Leal-Taixe
深層特徴量学習におけるグループ損失
要約

深層的なマトリクス学習(Deep metric learning)は、ニューラルネットワークを活用して高判別力を持つ特徴埋め込み(feature embeddings)を取得することで、クラスタリングや画像検索などのタスクにおいて優れた成果を上げている。これらの特徴埋め込みは、サンプルを異なるクラスに分類するのに利用可能である。このようなネットワークの学習に向けたスマートな損失関数やデータマイニング戦略の設計に多くの研究が注がれている。従来の多くは、ミニバッチ内のサンプルペアまたはトリプレットのみを対象として損失関数を計算しており、その多くは埋め込み間の距離に基づいている。本研究では、微分可能なラベル伝播(label-propagation)手法を基盤とした「Group Loss」という新しい損失関数を提案する。この損失関数は、グループ内のすべてのサンプル間で埋め込みの類似性を強制しつつ、異なるグループに属するデータポイント間の低密度領域を促進する。類似するオブジェクトは同一のグループに属すべきであるという滑らかさ仮定(smoothness assumption)をもとに、提案手法は分類タスク向けにニューラルネットワークを学習させ、クラス内サンプル間のラベル付けの一貫性を強制する。複数のデータセットにおいて、クラスタリングおよび画像検索のタスクで最先端の性能を達成した。また、アンサンブルなどの他の技術と組み合わせた場合の本手法の潜在的な有効性も示している。

深層特徴量学習におけるグループ損失 | 最新論文 | HyperAI超神経