HyperAIHyperAI
vor 17 Tagen

End-to-End Sprachübersetzung mit vortrainierten Modellen und Adaper: UPC am IWSLT 2021

Gerard I. Gállego, Ioannis Tsiamas, Carlos Escolano, José A. R. Fonollosa, Marta R. Costa-jussà
End-to-End Sprachübersetzung mit vortrainierten Modellen und Adaper: UPC am IWSLT 2021
Abstract

Diese Arbeit beschreibt die Einreichung des UPC Machine Translation-Teams für die IWSLT 2021-Aufgabe zum Offline-Sprachübersetzen. Die Aufgabe besteht darin, ein System zu entwickeln, das englische Audioaufnahmen aus TED-Talks in deutscher Textform übersetzen kann. Die eingereichten Systeme können entweder kaskadenartig oder end-to-end aufgebaut sein und entweder eine benutzerdefinierte oder vorgegebene Segmentierung verwenden. Unsere Einreichung ist ein end-to-end-Sprachübersetzungssystem, das vortrainierte Modelle (Wav2Vec 2.0 und mBART) mit Kopplungsmodulen zwischen Encoder und Decoder kombiniert und eine effiziente Feinabstimmungstechnik nutzt, bei der nur 20 % der Gesamtanzahl an Parametern trainiert werden. Wir zeigen, dass die Integration eines Adapters in das System und dessen Vortrainierung die Konvergenzgeschwindigkeit sowie die Endleistung verbessern kann, wodurch ein BLEU-Score von 27,3 auf dem MuST-C-Testset erreicht wird. Unser endgültiges Modell ist ein Ensemblesystem, das auf demselben Testset einen BLEU-Score von 28,22 erzielt. Zudem nutzt unsere Einreichung einen benutzerdefinierten Segmentierungsalgorithmus, der vortrainiertes Wav2Vec 2.0 zur Erkennung von Textabschnitten mit unübertragbarem Inhalt einsetzt und im Vergleich zur vorgegebenen Segmentierung eine Verbesserung um 2,5 bis 3 BLEU-Punkte auf dem IWSLT 2019-Testset ermöglicht.

End-to-End Sprachübersetzung mit vortrainierten Modellen und Adaper: UPC am IWSLT 2021 | Neueste Forschungsarbeiten | HyperAI