Slot-Gated Modeling für die gemeinsame Slot-Füllung und Absichtsvorhersage

Aufmerksamkeitsbasierte rekurrente neuronale Netzwerke für die gemeinsame Absichtserkennung und Slot-Füllung haben bereits die derzeit beste Leistung erzielt, weisen jedoch unabhängige Aufmerksamkeitsgewichte auf. Da zwischen Slot und Absicht eine starke Beziehung besteht, schlägt dieser Artikel ein Slot-Gate vor, das darauf abzielt, die Beziehung zwischen Absicht- und Slot-Aufmerksamkeitsvektoren zu lernen, um durch globale Optimierung verbesserte semantische Rahmenresultate zu erzielen. Die Experimente zeigen, dass das vorgeschlagene Modell die Genauigkeit der Satzebene bei der semantischen Rahmenbildung im Vergleich zum rein auf Aufmerksamkeit basierenden Modell jeweils um 4,2 % und 1,9 % relativ auf den Benchmark-Datensätzen ATIS und Snips signifikant steigert.