HyperAIHyperAI

Command Palette

Search for a command to run...

L’attention, c’est tout ce dont vous avez besoin pour la séparation vocale

Cem Subakan Mirco Ravanelli Samuele Cornell Mirko Bronzi Jianyuan Zhong

Résumé

Les réseaux de neurones récurrents (RNN) ont longtemps été l'architecture dominante dans l'apprentissage séquence-à-séquence. Toutefois, les RNN sont intrinsèquement des modèles séquentiels, ce qui empêche la parallélisation de leurs calculs. Les Transformers émergent comme une alternative naturelle aux RNN standards, en remplaçant les calculs récurrents par un mécanisme d'attention à plusieurs têtes. Dans ce travail, nous proposons le SepFormer, un nouveau réseau neuronal basé sur les Transformers et libre de RNN, dédié à la séparation de paroles. Le SepFormer apprend les dépendances à court et à long terme grâce à une approche multi-échelle utilisant des Transformers. Le modèle proposé atteint des performances de pointe (SOTA) sur les jeux de données standards WSJ0-2mix et WSJ0-3mix, obtenant un SI-SNRi de 22,3 dB sur WSJ0-2mix et un SI-SNRi de 19,5 dB sur WSJ0-3mix. Le SepFormer hérite des avantages de parallélisation des Transformers et parvient à des performances compétitives même lorsque la représentation encodée est sous-échantillonnée d’un facteur 8. Il est ainsi significativement plus rapide et moins exigeant en mémoire que les systèmes les plus récents de séparation de paroles offrant des performances comparables.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp