SLIM: Explizite Slot-Intent-Zuordnung mit BERT für die gemeinsame Mehrfach-Intent-Erkennung und Slot-Füllung

Äußerungsbezogene Absichtserkennung und Token-basierte Slot-Füllung sind zwei zentrale Aufgaben für die natürliche Sprachverstehens (Natural Language Understanding, NLU) in aufgabenorientierten Systemen. Die meisten bestehenden Ansätze gehen davon aus, dass in einer Äußerung nur eine einzige Absicht vorliegt. In realen Szenarien treten jedoch häufig mehrere Absichten innerhalb einer einzigen Äußerung auf. In diesem Artikel stellen wir einen mehrabsichtsbasierten NLU-Framework namens SLIM vor, der gemeinsam die Erkennung mehrerer Absichten und die Slot-Füllung auf Basis von BERT lernt. Um die vorhandenen Annotationen vollständig auszunutzen und die Wechselwirkungen zwischen Slots und Absichten zu erfassen, führt SLIM einen expliziten Slot-Absicht-Klassifikator ein, der die many-to-one-Beziehung zwischen Slots und Absichten erlernt. Experimentelle Ergebnisse auf drei öffentlichen Datensätzen für mehrfache Absichten zeigen (1) die überlegene Leistung von SLIM im Vergleich zum aktuellen Stand der Technik bei der NLU mit mehreren Absichten und (2) die Vorteile, die aus dem Slot-Absicht-Klassifikator resultieren.