HyperAIHyperAI

Command Palette

Search for a command to run...

Exploration des mécanismes d'attention auto-associative pour la séparation de parole

Cem Subakan Mirco Ravanelli Samuele Cornell Francois Grondin Mirko Bronzi

Résumé

Les Transformers ont permis des progrès remarquables dans l'apprentissage profond. Ils surpassent souvent les modèles récurrents et convolutionnels sur de nombreuses tâches tout en tirant parti du traitement parallèle. Récemment, nous avons proposé le SepFormer, qui atteint des performances de pointe dans la séparation de paroles sur les jeux de données WSJ0-2/3 Mix. Ce travail explore de manière approfondie l'utilisation des Transformers pour la séparation de paroles. Plus précisément, nous étendons nos résultats précédents sur le SepFormer en présentant des performances sur des jeux de données plus exigeants, tels que LibriMix, WHAM! et WHAMR!. En outre, nous étendons notre modèle pour qu'il réalise également une amélioration du signal vocal, et fournissons des preuves expérimentales sur les tâches de suppression de bruit et de déréverbération. Enfin, pour la première fois dans le domaine de la séparation de paroles, nous étudions l'usage de mécanismes d'attention auto-efficients tels que Linformers, Lonformers et ReFormers. Nous constatons qu'ils réduisent de manière significative les besoins en mémoire. Par exemple, nous montrons que l'attention basée sur Reformer surpasse le modèle populaire Conv-TasNet sur le jeu de données WSJ0-2Mix, tout en étant plus rapide à l'inférence et comparable en termes de consommation mémoire.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Exploration des mécanismes d'attention auto-associative pour la séparation de parole | Articles | HyperAI