HyperAIHyperAI
vor 2 Monaten

Tiefes Metriklernen mit BIER: Robuste Steigerung unabhängiger Einbettungen

Michael Opitz; Georg Waltner; Horst Possegger; Horst Bischof
Tiefes Metriklernen mit BIER: Robuste Steigerung unabhängiger Einbettungen
Abstract

Das Lernen von Ähnlichkeitsfunktionen zwischen Bildpaaren mit tiefen neuronalen Netzen führt zu stark korrelierten Aktivierungen der Einbettungen. In dieser Arbeit zeigen wir, wie die Robustheit solcher Einbettungen durch die Ausnutzung der Unabhängigkeit innerhalb von Ensembles verbessert werden kann. Zu diesem Zweck gliedern wir das letzte Einbettungslayer eines tiefen Netzes in ein Einbettungsensemble und formulieren das Training dieses Ensembles als ein Online-Gradient-Boosting-Problem. Jeder Lerner erhält ein neu gewichtetes Trainingsbeispiel vom vorherigen Lerner. Des Weiteren schlagen wir zwei Verlustfunktionen vor, die die Vielfalt in unserem Ensemble erhöhen. Diese Verlustfunktionen können entweder für die Gewichtsinitialisierung oder während des Trainings angewendet werden. Zusammen ermöglichen unsere Beiträge eine effektivere Nutzung großer Einbettungsgrößen, indem sie die Korrelation der Einbettung erheblich reduzieren und dadurch die Abrufgenauigkeit der Einbettung erhöhen. Unsere Methode funktioniert mit jeder differenzierbaren Verlustfunktion und führt während der Testphase keine zusätzlichen Parameter ein. Wir evaluieren unsere Metrik-Lernmethode anhand von Bildabrufaufgaben und zeigen, dass sie den Stand der Technik auf den Datensätzen CUB 200-2011, Cars-196, Stanford Online Products, In-Shop Clothes Retrieval und VehicleID übertrifft.