Command Palette
Search for a command to run...
Modèles d'apprentissage séquentiel neuronal pour la désambiguïsation du sens des mots
{ro Claudio Delli Bovi Roberto Navigli Aless Raganato}

Résumé
Les modèles de sens du mot (Word Sense Disambiguation) existent sous de nombreuses formes. Bien que les modèles supervisés obtiennent généralement les meilleurs résultats en termes de précision, ils perdent souvent du terrain face à des solutions plus flexibles fondées sur des connaissances, qui ne nécessitent pas d’entraînement par un expert linguistique pour chaque mot cible. Pour combler cet écart, nous adoptons une perspective différente et recourons à l’apprentissage de séquences pour formuler le problème de désambiguïsation : nous proposons et étudions en profondeur une série d’architectures neuronales end-to-end directement conçues pour cette tâche, allant des réseaux récurrents bidirectionnels à mémoire à court terme (LSTM) aux modèles encodeur-décodeur. Notre évaluation approfondie sur des benchmarks standards et dans plusieurs langues démontre que l’apprentissage de séquences permet de construire des modèles polyvalents pour tous les mots, capables de produire de manière cohérente des résultats de pointe, même en comparaison avec des experts linguistiques utilisant des caractéristiques spécifiquement conçues.
Benchmarks
| Benchmark | Méthodologie | Métriques |
|---|---|---|
| word-sense-disambiguation-on-supervised | Bi-LSTM<sub>att+LEX</sub> | SemEval 2007: 63.7* SemEval 2013: 66.4 SemEval 2015: 72.4 Senseval 2: 72.0 Senseval 3: 69.4 |
| word-sense-disambiguation-on-supervised | Bi-LSTM<sub>att+LEX+POS</sub> | SemEval 2007: 64.8* SemEval 2013: 66.9 SemEval 2015: 71.5 Senseval 2: 72.0 Senseval 3: 69.1 |
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.