Slot-Gated Modeling für die gemeinsame Slot-Füllung und Absichtsvorhersage
{Yun-Nung Chen Keng-Wei Hsu Tsung-Chieh Chen Chih-Li Huo Yun-Kai Hsu Chih-Wen Goo Guang Gao}

Abstract
Aufmerksamkeitsbasierte rekurrente neuronale Netzwerke für die gemeinsame Absichtserkennung und Slot-Füllung haben bereits die derzeit beste Leistung erzielt, weisen jedoch unabhängige Aufmerksamkeitsgewichte auf. Da zwischen Slot und Absicht eine starke Beziehung besteht, schlägt dieser Artikel ein Slot-Gate vor, das darauf abzielt, die Beziehung zwischen Absicht- und Slot-Aufmerksamkeitsvektoren zu lernen, um durch globale Optimierung verbesserte semantische Rahmenresultate zu erzielen. Die Experimente zeigen, dass das vorgeschlagene Modell die Genauigkeit der Satzebene bei der semantischen Rahmenbildung im Vergleich zum rein auf Aufmerksamkeit basierenden Modell jeweils um 4,2 % und 1,9 % relativ auf den Benchmark-Datensätzen ATIS und Snips signifikant steigert.
Benchmarks
| Benchmark | Methodik | Metriken |
|---|---|---|
| intent-detection-on-atis | Slot-Gated BLSTM with Attension | Accuracy: 93.6 |
| intent-detection-on-snips | Slot-Gated BLSTM with Attension | Accuracy: 97.00 |
| slot-filling-on-atis | Slot-Gated BLSTM with Attension | F1: 0.948 |
| slot-filling-on-snips | Slot-Gated BLSTM with Attension | F1: 88.8 |
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.