Neubewertung der Optimierung der durchschnittlichen Genauigkeit: Es reicht aus, nur negative Instanzen vor positiven zu bestrafen

Die Optimierung der Approximation der Average Precision (AP) wurde für die Bildretrieval-Aufgabe weitgehend untersucht. Aufgrund der Definition von AP berücksichtigen solche Methoden sowohl die Rangfolge negativer als auch positiver Instanzen vor jeder positiven Instanz. Wir argumentieren jedoch, dass es ausreicht, lediglich negative Instanzen vor positiven zu bestrafen, da der Verlust ausschließlich von diesen negativen Instanzen herrührt. Dementsprechend schlagen wir eine neue Verlustfunktion vor, die als „Penalizing Negative instances before Positive ones“ (PNP) bezeichnet wird und direkt die Anzahl der negativen Instanzen vor jeder positiven Instanz minimiert. Zudem verwenden AP-basierte Methoden eine feste und suboptimale Strategie zur Gradientenzuweisung. Daher untersuchen wir systematisch verschiedene Ansätze zur Gradientenzuweisung durch die Konstruktion der Ableitungsfunctionen des Verlustes, was zu PNP-I mit steigenden Ableitungsfunctionen und PNP-D mit fallenden Ableitungsfunctionen führt. PNP-I legt mehr Gewicht auf schwierige (hard) positive Instanzen, indem es diesen größere Gradienten zuweist und darauf abzielt, alle relevanten Instanzen enger zusammenzurücken. Im Gegensatz dazu beachtet PNP-D solche Instanzen weniger und korrigiert sie langsam. Für die meisten realen Datensätze enthält eine Klasse in der Regel mehrere lokale Cluster. PNP-I sammelt diese Cluster blind zusammen, während PNP-D sie unverändert belässt. Daher ist PNP-D überlegen. Experimente auf drei Standard-Datensätzen für die Bildretrieval-Aufgabe ergeben konsistente Ergebnisse im Einklang mit der obigen Analyse. Umfangreiche Evaluationen zeigen, dass PNP-D die derzeit beste Leistung erreicht. Der Quellcode ist unter https://github.com/interestingzhuo/PNPloss verfügbar.