7日前

平均精度の最適化の再考:正例より前の負例にのみペナルティを課すだけで十分である

Zhuo Li, Weiqing Min, Jiajun Song, Yaohui Zhu, Liping Kang, Xiaoming Wei, Xiaolin Wei, Shuqiang Jiang
平均精度の最適化の再考:正例より前の負例にのみペナルティを課すだけで十分である
要約

平均精度(Average Precision, AP)の近似値最適化は、画像検索分野において広く研究されてきた。しかし、APの定義上、これらの手法は各正例(positive instance)の前に位置する負例(negative instance)と正例の両方の順位を考慮する。本研究では、損失関数の発生源はこれらの負例のみであるため、正例の前に位置する負例のみをペナルティ対象とすれば十分であると主張する。この観点から、正例の前にある負例にのみペナルティを与える新たな損失関数「Penalizing Negative instances before Positive ones(PNP)」を提案する。PNPは、各正例の前に存在する負例の数を直接最小化することを可能にする。さらに、APに基づく既存手法は固定かつ非最適な勾配割り当て戦略を採用している。そのため、損失関数の導関数を構築することで、さまざまな勾配割り当て戦略を体系的に検討し、増加する導関数を用いるPNP-Iと、減少する導関数を用いるPNP-Dを提案する。PNP-Iは、ハードな正例(hard positive instances)に大きな勾配を割り当てることで、それらに重点を置き、すべての関連するインスタンスをより近づけることを試みる。一方、PNP-Dはこのようなインスタンスにあまり注意を払わず、緩やかに修正を行う。実世界のデータにおいては、1つのクラスがしばしば複数の局所的クラスタを含むことが一般的である。この場合、PNP-Iはこれらのクラスタを無差別に集約してしまうが、PNP-Dはそれらを元の状態に保つ。したがって、PNP-Dのほうがより優れた性能を発揮する。3つの標準的な検索データセットにおける実験結果は、上述の分析と一貫した結果を示した。広範な評価により、PNP-Dが最先端(state-of-the-art)の性能を達成することが実証された。コードは以下のGitHubリポジトリで公開されている:https://github.com/interestingzhuo/PNPloss

平均精度の最適化の再考:正例より前の負例にのみペナルティを課すだけで十分である | 最新論文 | HyperAI超神経