Labelisation fine stochastique à plusieurs états des glosses de langue des signes pour la reconnaissance continue de la langue des signes

Dans cet article, nous proposons un nouveau modèle stochastique pour divers composants d’un système de reconnaissance de langue des signes continue (CSLR) basé sur l’encodeur Transformer et la classification temporelle connexionniste (CTC). Plus particulièrement, nous modélisons chaque gloss de signe par un ensemble de plusieurs états, le nombre d’états étant une variable aléatoire catégorielle suivant une distribution de probabilité apprise, ce qui permet d’obtenir des étiquettes stochastiques à fort grain pour l’entraînement du décodeur CTC. Nous proposons également un mécanisme stochastique de suppression de trames ainsi qu’une méthode d’arrêt du gradient afin de faire face au problème sévère de surajustement lors de l’entraînement du modèle Transformer avec une perte CTC. Ces deux approches contribuent également à réduire significativement la charge de calcul d’entraînement, tant en temps qu’en espace. Nous avons évalué notre modèle sur des jeux de données populaires pour la CSLR et démontrons son efficacité par rapport aux méthodes de pointe.