Command Palette
Search for a command to run...
VSE++: Verbesserung von visuellen-semantischen Einbettungen durch schwierige Negative
VSE++: Verbesserung von visuellen-semantischen Einbettungen durch schwierige Negative
Fartash Faghri David J. Fleet Jamie Ryan Kiros Sanja Fidler
Zusammenfassung
Wir stellen eine neue Technik zur Lernvisuellen-Semantischen Einbettungen für die cross-modale Retrieval vor. Inspiriert von der Verwendung schwer negativer Beispiele im strukturierten Vorhersagemodell und Rangverlustfunktionen, führen wir eine einfache Änderung an den gängigen Verlustfunktionen ein, die für multimodale Einbettungen verwendet werden. Diese Änderung, kombiniert mit Feinabstimmung und der Nutzung erweiterter Daten, führt zu erheblichen Verbesserungen in der Retrieval-Leistung. Wir präsentieren unseren Ansatz, VSE++ (Visual-Semantic Embeddings++), anhand der Datensätze MS-COCO und Flickr30K durch Ausblendungsstudien und Vergleiche mit bestehenden Methoden. Auf MS-COCO übertrifft unser Ansatz die state-of-the-art-Methoden um 8,8 % bei der Caption-Retrieval und um 11,3 % bei der Image-Retrieval (bei R@1).