Command Palette
Search for a command to run...
Modélisation à porte par emplacement pour une prédiction conjointe de remplissage d’emplacements et d’intention
{Yun-Nung Chen Keng-Wei Hsu Tsung-Chieh Chen Chih-Li Huo Yun-Kai Hsu Chih-Wen Goo Guang Gao}

Résumé
Les modèles basés sur les réseaux de neurones récurrents à attention ont atteint des performances de pointe pour la détection d’intention et le remplissage de champs conjoints, tout en disposant de poids d’attention indépendants. Étant donné que les champs et l’intention sont étroitement liés, ce papier propose une « porte de champ » (slot gate) visant à apprendre la relation entre les vecteurs d’attention relatifs à l’intention et à la slot, afin d’obtenir des résultats de cadre sémantique améliorés grâce à une optimisation globale. Les expériences montrent que le modèle proposé améliore significativement la précision au niveau de la phrase pour le cadre sémantique, avec une amélioration relative de 4,2 % et 1,9 % par rapport au modèle à attention sur les jeux de données de référence ATIS et Snips, respectivement.
Benchmarks
| Benchmark | Méthodologie | Métriques |
|---|---|---|
| intent-detection-on-atis | Slot-Gated BLSTM with Attension | Accuracy: 93.6 |
| intent-detection-on-snips | Slot-Gated BLSTM with Attension | Accuracy: 97.00 |
| slot-filling-on-atis | Slot-Gated BLSTM with Attension | F1: 0.948 |
| slot-filling-on-snips | Slot-Gated BLSTM with Attension | F1: 88.8 |
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.