Transformateur de Légendes Audio

La légendage audio vise à générer automatiquement une description en langage naturel d'un extrait sonore. La plupart des modèles de légendage suivent une architecture encodeur-décodeur, où le décodeur prédit les mots en fonction des caractéristiques audio extraites par l'encodeur. Les réseaux neuronaux convolutifs (CNN) et les réseaux neuronaux récurrents (RNN) sont souvent utilisés comme encodeurs audio. Cependant, les CNN peuvent être limités dans la modélisation des relations temporelles entre les trames temporelles d'un signal audio, tandis que les RNN peuvent être limités dans la modélisation des dépendances à long terme entre ces trames. Dans cet article, nous proposons un Audio Captioning Transformer (ACT), qui est un réseau Transformer complet basé sur une architecture encodeur-décodeur et totalement exempt de convolutions. La méthode proposée possède une meilleure capacité à modéliser l'information globale au sein d'un signal audio ainsi qu'à capturer les relations temporelles entre les événements sonores. Nous évaluons notre modèle sur AudioCaps, qui est le plus grand ensemble de données de légendage audio publiquement disponible. Notre modèle montre des performances compétitives par rapport aux autres approches de pointe.