Command Palette
Search for a command to run...
Perte généralisée de bout en bout pour la vérification vocale
Perte généralisée de bout en bout pour la vérification vocale
Li Wan Quan Wang Alan Papir Ignacio Lopez Moreno
Résumé
Dans cet article, nous proposons une nouvelle fonction de perte appelée Generalized End-to-End (GE2E), qui rend l'entraînement des modèles de vérification vocale plus efficace que notre précédente fonction de perte Tuple-Based End-to-End (TE2E). Contrairement à TE2E, la fonction de perte GE2E met à jour le réseau d'une manière qui met l'accent sur les exemples difficiles à vérifier à chaque étape du processus d'entraînement. De plus, la fonction de perte GE2E n'exige pas une phase initiale de sélection d'exemples. Grâce à ces propriétés, notre modèle avec la nouvelle fonction de perte réduit l'erreur d'égalité relative (EER) de la vérification vocale de plus de 10 %, tout en diminuant le temps d'entraînement de 60 %. Nous présentons également la technique MultiReader, qui nous permet d'effectuer un ajustement de domaine - entraîner un modèle plus précis qui prend en charge plusieurs mots-clés (par exemple, « OK Google » et « Hey Google ») ainsi que plusieurs dialectes.