Modèles d'apprentissage séquentiel neuronal pour la désambiguïsation du sens des mots

Les modèles de sens du mot (Word Sense Disambiguation) existent sous de nombreuses formes. Bien que les modèles supervisés obtiennent généralement les meilleurs résultats en termes de précision, ils perdent souvent du terrain face à des solutions plus flexibles fondées sur des connaissances, qui ne nécessitent pas d’entraînement par un expert linguistique pour chaque mot cible. Pour combler cet écart, nous adoptons une perspective différente et recourons à l’apprentissage de séquences pour formuler le problème de désambiguïsation : nous proposons et étudions en profondeur une série d’architectures neuronales end-to-end directement conçues pour cette tâche, allant des réseaux récurrents bidirectionnels à mémoire à court terme (LSTM) aux modèles encodeur-décodeur. Notre évaluation approfondie sur des benchmarks standards et dans plusieurs langues démontre que l’apprentissage de séquences permet de construire des modèles polyvalents pour tous les mots, capables de produire de manière cohérente des résultats de pointe, même en comparaison avec des experts linguistiques utilisant des caractéristiques spécifiquement conçues.