Proxy Anchor Loss für tiefes Metrik-Lernen

Bestehende Metrik-Lernverluste lassen sich in zwei Klassen einteilen: paarbasierte und Proxy-basierte Verluste. Die erste Klasse kann fein abgestimmte semantische Beziehungen zwischen Datenpunkten ausnutzen, verlangsamt jedoch im Allgemeinen die Konvergenz aufgrund ihrer hohen Trainingskomplexität. Im Gegensatz dazu ermöglicht die zweite Klasse eine schnelle und zuverlässige Konvergenz, kann jedoch die reichhaltigen Daten-zu-Daten-Beziehungen nicht berücksichtigen. In dieser Arbeit wird ein neuer Proxy-basierter Verlust vorgestellt, der die Vorteile sowohl der paarbasierten als auch der Proxy-basierten Ansätze nutzt und deren Einschränkungen überwindet. Durch die Verwendung von Proxys beschleunigt unser Verlust die Konvergenz und ist robust gegenüber verrauschten Etiketten und Ausreißern. Gleichzeitig ermöglicht er es den Embedding-Vektoren der Daten, sich in den Gradienten wechselseitig zu beeinflussen, um Daten-zu-Daten-Beziehungen auszunutzen. Unsere Methode wird an vier öffentlichen Benchmarks evaluiert, wobei ein Standardnetzwerk, das mit unserem Verlust trainiert wurde, die bisher beste Leistung erzielt und am schnellsten konvergiert.