HyperAIHyperAI
vor 11 Tagen

Ein situationsabhängiges und ergebnisorientiertes Modell für die Mehrzweck-Sprachverstehensverarbeitung in gesprochener Sprache

Lizhi Cheng, Wenmian Yang, Weijia Jia
Ein situationsabhängiges und ergebnisorientiertes Modell für die Mehrzweck-Sprachverstehensverarbeitung in gesprochener Sprache
Abstract

Multi-Intent-Sprachverstehen (SLU), eine neuartige und komplexere Variante des SLU, erlangt zunehmende Aufmerksamkeit. Im Gegensatz zum traditionellen SLU besitzt jeder Intent in diesem Szenario einen spezifischen Geltungsbereich. Semantische Informationen außerhalb dieses Bereichs stören sogar die Intent-Detektion und erhöhen die Schwierigkeit der Intent-Erkennung erheblich. Noch gravierender ist, dass die Slot-Füllung, die auf diesen ungenauen Intent-Labels basiert, Fehlerfortpflanzungsprobleme verursacht, was zu einer unzufriedenstellenden Gesamtleistung führt. Um diese Herausforderungen zu bewältigen, schlagen wir in diesem Artikel ein neuartiges, auf Transformer basierendes Netzwerk namens Scope-Sensitive Result Attention Network (SSRAN) vor, das aus einem Scope Recognizer (SR) und einem Result Attention Network (RAN) besteht. Der Scope Recognizer weist jedem Token Informationen über seinen Geltungsbereich zu, wodurch die Störwirkung von außerhalb des Bereichs liegenden Tokens reduziert wird. Das Result Attention Network nutzt effektiv die bidirektionale Interaktion zwischen den Ergebnissen der Slot-Füllung und der Intent-Detektion, wodurch das Problem der Fehlerfortpflanzung gemildert wird. Experimente auf zwei öffentlichen Datensätzen zeigen, dass unser Modell die SLU-Leistung signifikant verbessert (5,4 % und 2,1 % Steigerung der Gesamtgenauigkeit gegenüber dem Stand der Technik).

Ein situationsabhängiges und ergebnisorientiertes Modell für die Mehrzweck-Sprachverstehensverarbeitung in gesprochener Sprache | Neueste Forschungsarbeiten | HyperAI