Ein auf Transformer basierender schwellenfreier Rahmen für Multi-Intent-NLU

Die Mehrfachabsichtserkennung in natürlicher Sprache (Multi-intent Natural Language Understanding, NLU) hat in letzter Zeit erhebliche Aufmerksamkeit erfahren. Sie ermöglicht die Erkennung mehrerer Absichten innerhalb einer Äußerung und ist daher besser an reale Anwendungsszenarien angepasst. Allerdings basieren die derzeit fortschrittlichsten joint NLU-Modelle hauptsächlich auf einer Schwellwert-basierten Strategie zur Erkennung mehrerer Absichten, was ein zentrales Problem mit sich bringt: Das Modell ist äußerst empfindlich gegenüber der Wahl der Schwellwert-Einstellungen. In diesem Artikel stellen wir ein transformer-basiertes, schwellwertfreies Modell für die Mehrfachabsichtserkennung (Threshold-Free Multi-intent NLU, TFMN) mit Multi-Task-Learning (MTL) vor. Konkret nutzen wir zunächst mehrere Schichten eines transformerbasierten Encoders, um mehrschalige Darstellungen zu generieren. Anschließend nutzen wir die Information über die Anzahl der Absichten in jeder Äußerung, ohne zusätzliche manuelle Annotationen zu benötigen, und führen eine ergänzende Aufgabe ein: die Absichtszahl-Erkennung (Intent Number Detection, IND). Darüber hinaus entwickeln wir einen schwellwertfreien Klassifikator für mehrfache Absichten, der die Ausgabe der IND-Aufgabe nutzt und die Erkennung mehrerer Absichten unabhängig von Schwellwerten ermöglicht. Umfassende Experimente zeigen, dass unser vorgeschlagenes Modell auf zwei öffentlichen Datensätzen für Mehrfachabsichtserkennung hervorragende Ergebnisse erzielt.