HyperAIHyperAI

Command Palette

Search for a command to run...

Recall@kのサーロゲート損失:大規模バッチと類似度ミックスアップを用いた場合

Yash Patel Giorgos Tolias Jiri Matas

概要

本研究は、新しい損失関数、バッチサイズ、および新たな正則化手法の相互作用に着目し、検索用の深層視覚表現モデルの学習に焦点を当てる。検索におけるリコール(recall)は非微分可能であるため、勾配降下法による評価指標の直接最適化は不可能である。本研究では、リコールに対する微分可能な代替損失関数を提案する。GPUメモリのハードウェア制約を回避する実装により、極めて大きなバッチサイズでの学習が可能となり、これは検索データベース全体に対して計算される指標において不可欠である。さらに、ペアワイズスカラー類似度上で動作する効率的なミックスアップ正則化手法を用いることで、実質的なバッチサイズをさらに拡大する。提案手法は、深層距離学習に適用した場合、複数の画像検索ベンチマークにおいて最先端の性能を達成している。特に、インスタンスレベルの認識においては、平均精度(average precision)の近似値を用いて学習する類似手法を上回っている。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
Recall@kのサーロゲート損失:大規模バッチと類似度ミックスアップを用いた場合 | 記事 | HyperAI超神経