HyperAIHyperAI

Command Palette

Search for a command to run...

Tiefes Metriklernen mit BIER: Robuste Steigerung unabhängiger Einbettungen

Michael Opitz Georg Waltner Horst Possegger Horst Bischof

Zusammenfassung

Das Lernen von Ähnlichkeitsfunktionen zwischen Bildpaaren mit tiefen neuronalen Netzen führt zu stark korrelierten Aktivierungen der Einbettungen. In dieser Arbeit zeigen wir, wie die Robustheit solcher Einbettungen durch die Ausnutzung der Unabhängigkeit innerhalb von Ensembles verbessert werden kann. Zu diesem Zweck gliedern wir das letzte Einbettungslayer eines tiefen Netzes in ein Einbettungsensemble und formulieren das Training dieses Ensembles als ein Online-Gradient-Boosting-Problem. Jeder Lerner erhält ein neu gewichtetes Trainingsbeispiel vom vorherigen Lerner. Des Weiteren schlagen wir zwei Verlustfunktionen vor, die die Vielfalt in unserem Ensemble erhöhen. Diese Verlustfunktionen können entweder für die Gewichtsinitialisierung oder während des Trainings angewendet werden. Zusammen ermöglichen unsere Beiträge eine effektivere Nutzung großer Einbettungsgrößen, indem sie die Korrelation der Einbettung erheblich reduzieren und dadurch die Abrufgenauigkeit der Einbettung erhöhen. Unsere Methode funktioniert mit jeder differenzierbaren Verlustfunktion und führt während der Testphase keine zusätzlichen Parameter ein. Wir evaluieren unsere Metrik-Lernmethode anhand von Bildabrufaufgaben und zeigen, dass sie den Stand der Technik auf den Datensätzen CUB 200-2011, Cars-196, Stanford Online Products, In-Shop Clothes Retrieval und VehicleID übertrifft.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp