HyperAIHyperAI
il y a 2 mois

Perte généralisée de bout en bout pour la vérification vocale

Li Wan; Quan Wang; Alan Papir; Ignacio Lopez Moreno
Perte généralisée de bout en bout pour la vérification vocale
Résumé

Dans cet article, nous proposons une nouvelle fonction de perte appelée Generalized End-to-End (GE2E), qui rend l'entraînement des modèles de vérification vocale plus efficace que notre précédente fonction de perte Tuple-Based End-to-End (TE2E). Contrairement à TE2E, la fonction de perte GE2E met à jour le réseau d'une manière qui met l'accent sur les exemples difficiles à vérifier à chaque étape du processus d'entraînement. De plus, la fonction de perte GE2E n'exige pas une phase initiale de sélection d'exemples. Grâce à ces propriétés, notre modèle avec la nouvelle fonction de perte réduit l'erreur d'égalité relative (EER) de la vérification vocale de plus de 10 %, tout en diminuant le temps d'entraînement de 60 %. Nous présentons également la technique MultiReader, qui nous permet d'effectuer un ajustement de domaine - entraîner un modèle plus précis qui prend en charge plusieurs mots-clés (par exemple, « OK Google » et « Hey Google ») ainsi que plusieurs dialectes.