Command Palette
Search for a command to run...
Hierarchische Dialogverstehensmodelle mit speziellen Token und Aufmerksamkeit auf Sprecherebene
Hierarchische Dialogverstehensmodelle mit speziellen Token und Aufmerksamkeit auf Sprecherebene
Xiao Liu Jian Zhang† Heng Zhang† Fuzhao Xue Yang You
Zusammenfassung
Im Vergleich zu Standardtexten ist das Verstehen von Dialogen für Maschinen aufgrund der dynamischen und unerwarteten semantischen Änderungen in jeder Runde schwieriger. Um diese inkonsistenten Semantiken zu modellieren, schlagen wir ein einfaches, aber effektives hierarchisches Dialogverständnismodell vor, HiDialog. Speziell fügen wir zunächst mehrere spezielle Token in einen Dialog ein und schlagen eine turnbasierte Aufmerksamkeit (turn-level attention) vor, um die Turn-Einbettungen (turn embeddings) hierarchisch zu lernen. Anschließend wird ein heterogener Graphenmodul verwendet, um die gelernten Einbettungen zu verfeinern. Wir evaluieren unser Modell anhand verschiedener Dialogverstehensaufgaben, darunter die Extraktion von Dialogbeziehungen, die Erkennung von Dialogemotionen und die Klassifizierung von Dialogakten. Die Ergebnisse zeigen, dass unser einfacher Ansatz auf allen genannten drei Aufgaben den aktuellen Stand der Technik erreicht. Der gesamte Quellcode ist öffentlich verfügbar unter https://github.com/ShawX825/HiDialog.