Zerlegung der Auswirkungen verschiedener Verlustfunktionen mit Gradienten-Chirurgie

Paarweises Verlust ist ein Ansatz zur Metrik-Lernung, bei dem durch Optimierung einer Verlustfunktion ein semantisches Embedding erlernt wird, das sicherstellt, dass Bilder derselben semantischen Klasse näher zueinander abgebildet werden als Bilder unterschiedlicher Klassen. Die Literatur dokumentiert eine große und stetig wachsende Anzahl von Varianten paarenweiser Verluststrategien. In diesem Beitrag zerlegen wir den Gradienten dieser Verlustfunktionen in Komponenten, die beschreiben, wie sie die relative Position der Merkmale von Anchor-Positive- und Anchor-Negative-Paaren beeinflussen. Diese Zerlegung ermöglicht die Vereinheitlichung einer großen Sammlung aktueller paarenweiser Verlustfunktionen. Darüber hinaus führt die explizite Konstruktion paarenweiser Gradientenupdates, die diese Effekte separieren, zu Einblicken in die jeweilige Wirkungskraft und resultiert in einem einfachen Algorithmus, der die State-of-the-Art-Leistung für die Bildretrieval-Aufgabe auf den Datensätzen CAR, CUB und Stanford Online Products übertrifft.