Command Palette
Search for a command to run...
Slot-Gated Modeling für die gemeinsame Slot-Füllung und Absichtsvorhersage
Slot-Gated Modeling für die gemeinsame Slot-Füllung und Absichtsvorhersage
Yun-Nung Chen Keng-Wei Hsu Tsung-Chieh Chen Chih-Li Huo Yun-Kai Hsu Chih-Wen Goo Guang Gao
Zusammenfassung
Aufmerksamkeitsbasierte rekurrente neuronale Netzwerke für die gemeinsame Absichtserkennung und Slot-Füllung haben bereits die derzeit beste Leistung erzielt, weisen jedoch unabhängige Aufmerksamkeitsgewichte auf. Da zwischen Slot und Absicht eine starke Beziehung besteht, schlägt dieser Artikel ein Slot-Gate vor, das darauf abzielt, die Beziehung zwischen Absicht- und Slot-Aufmerksamkeitsvektoren zu lernen, um durch globale Optimierung verbesserte semantische Rahmenresultate zu erzielen. Die Experimente zeigen, dass das vorgeschlagene Modell die Genauigkeit der Satzebene bei der semantischen Rahmenbildung im Vergleich zum rein auf Aufmerksamkeit basierenden Modell jeweils um 4,2 % und 1,9 % relativ auf den Benchmark-Datensätzen ATIS und Snips signifikant steigert.