HyperAIHyperAI

Command Palette

Search for a command to run...

Pré-entraînement de modèle de parole pour la compréhension linguistique orale de bout en bout

Loren Lugosch Mirco Ravanelli Patrick Ignoto Vikrant Singh Tomar Yoshua Bengio

Résumé

Alors que les systèmes conventionnels de compréhension du langage parlé (SLU) transforment d'abord la parole en texte, puis le texte en intention, les systèmes SLU de bout en bout cartographient directement la parole à l'intention à travers un seul modèle entraînable. Atteindre une haute précision avec ces modèles de bout en bout sans une grande quantité de données d'entraînement est difficile. Nous proposons une méthode pour réduire les exigences en données des systèmes SLU de bout en bout, dans laquelle le modèle est d'abord pré-entraîné pour prédire des mots et des phonèmes, permettant ainsi d'apprendre de bonnes caractéristiques pour la SLU. Nous présentons un nouveau jeu de données SLU, Fluent Speech Commands, et montrons que notre méthode améliore les performances tant lorsque l'ensemble du jeu de données est utilisé pour l'entraînement que lorsque seule une petite partie est utilisée. Nous décrivons également des expériences préliminaires visant à évaluer la capacité du modèle à généraliser à de nouvelles phrases non entendues lors de l'entraînement.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Pré-entraînement de modèle de parole pour la compréhension linguistique orale de bout en bout | Articles | HyperAI