7日前

Recall@kのサーロゲート損失:大規模バッチと類似度ミックスアップを用いた場合

Yash Patel, Giorgos Tolias, Jiri Matas
Recall@kのサーロゲート損失:大規模バッチと類似度ミックスアップを用いた場合
要約

本研究は、新しい損失関数、バッチサイズ、および新たな正則化手法の相互作用に着目し、検索用の深層視覚表現モデルの学習に焦点を当てる。検索におけるリコール(recall)は非微分可能であるため、勾配降下法による評価指標の直接最適化は不可能である。本研究では、リコールに対する微分可能な代替損失関数を提案する。GPUメモリのハードウェア制約を回避する実装により、極めて大きなバッチサイズでの学習が可能となり、これは検索データベース全体に対して計算される指標において不可欠である。さらに、ペアワイズスカラー類似度上で動作する効率的なミックスアップ正則化手法を用いることで、実質的なバッチサイズをさらに拡大する。提案手法は、深層距離学習に適用した場合、複数の画像検索ベンチマークにおいて最先端の性能を達成している。特に、インスタンスレベルの認識においては、平均精度(average precision)の近似値を用いて学習する類似手法を上回っている。

Recall@kのサーロゲート損失:大規模バッチと類似度ミックスアップを用いた場合 | 最新論文 | HyperAI超神経