MDMMT-2: Multidomain Multimodal Transformer für die Videoretrieval-Aufgabe – Ein weiterer Schritt hin zur Generalisierung

In dieser Arbeit präsentieren wir einen neuen State-of-the-Art für die Text-zu-Video-Retrieval-Aufgabe auf den Datensätzen MSR-VTT, LSMDC, MSVD, YouCook2 und TGIF, erreicht durch ein einzelnes Modell. Drei verschiedene Datenquellen werden kombiniert: schwach beschriftete Videos, von Laien annotierte Text-Bild-Paare sowie Text-Video-Paare. Eine sorgfältige Analyse verfügbarker vortrainierter Netzwerke ermöglicht die Auswahl der besten vorherigen Wissensbasen. Wir stellen ein dreistufiges Trainingsverfahren vor, das eine hohe Übertragungseffizienz des Wissens gewährleistet und die Nutzung von verrauschten Datensätzen während des Trainings erlaubt, ohne dass die Qualität des vorherigen Wissens abnimmt. Zudem wird eine doppelte Positions-Encodierung eingesetzt, um eine bessere Fusion verschiedener Modalitäten zu ermöglichen, und ein einfacher Ansatz zur Verarbeitung von nicht-quadratischen Eingaben wird vorgeschlagen.