HyperAIHyperAI

Command Palette

Search for a command to run...

Harte negative Beispiele sind schwierig, aber nützlich

Hong Xuan Abby Stylianou Xiaotong Liu Robert Pless

Zusammenfassung

Die Triplet-Loss ist ein äußerst verbreiteter Ansatz für die Lernung von Distanzmetriken. Darstellungen von Bildern derselben Klasse werden so optimiert, dass sie im Embedding-Raum enger beieinander liegen als Darstellungen von Bildern unterschiedlicher Klassen. Viele Arbeiten zu Triplet-Loss-Funktionen konzentrieren sich auf die Auswahl der aussagekräftigsten Tripel von Bildern, wobei Strategien eingesetzt werden, die entweder semantisch dissimilare Beispiele derselben Klasse oder semantisch ähnliche Beispiele unterschiedlicher Klassen auswählen. Die vorherrschende Meinung in der vorangegangenen Forschung besagt, dass die Optimierung mit den schwersten (hardest) negativen Beispielen zu schlechtem Trainingsverhalten führt. Dies stellt ein Problem dar – die schwersten Negativen sind gerade die Fälle, in denen die Distanzmetrik die semantische Ähnlichkeit nicht korrekt erfasst. In diesem Paper charakterisieren wir den Raum der Tripel und leiten ab, warum schwere Negative das Training mit Triplet-Loss zum Scheitern bringen. Wir präsentieren eine einfache Korrektur der Verlustfunktion und zeigen, dass sich mit dieser Korrektur die Optimierung mit schweren negativen Beispielen als durchführbar erweist. Dies führt zu allgemeineren, besser übertragbaren Merkmalen und Ergebnissen im Bildretrieval, die die State-of-the-Art-Leistung für Datensätze mit hoher intra-klassischer Variabilität übersteigen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Harte negative Beispiele sind schwierig, aber nützlich | Paper | HyperAI