HyperAIHyperAI

Command Palette

Search for a command to run...

Hierarchische Dialogverstehensmodelle mit speziellen Token und Aufmerksamkeit auf Sprecherebene

Xiao Liu Jian Zhang† Heng Zhang† Fuzhao Xue Yang You

Zusammenfassung

Im Vergleich zu Standardtexten ist das Verstehen von Dialogen für Maschinen aufgrund der dynamischen und unerwarteten semantischen Änderungen in jeder Runde schwieriger. Um diese inkonsistenten Semantiken zu modellieren, schlagen wir ein einfaches, aber effektives hierarchisches Dialogverständnismodell vor, HiDialog. Speziell fügen wir zunächst mehrere spezielle Token in einen Dialog ein und schlagen eine turnbasierte Aufmerksamkeit (turn-level attention) vor, um die Turn-Einbettungen (turn embeddings) hierarchisch zu lernen. Anschließend wird ein heterogener Graphenmodul verwendet, um die gelernten Einbettungen zu verfeinern. Wir evaluieren unser Modell anhand verschiedener Dialogverstehensaufgaben, darunter die Extraktion von Dialogbeziehungen, die Erkennung von Dialogemotionen und die Klassifizierung von Dialogakten. Die Ergebnisse zeigen, dass unser einfacher Ansatz auf allen genannten drei Aufgaben den aktuellen Stand der Technik erreicht. Der gesamte Quellcode ist öffentlich verfügbar unter https://github.com/ShawX825/HiDialog.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Hierarchische Dialogverstehensmodelle mit speziellen Token und Aufmerksamkeit auf Sprecherebene | Paper | HyperAI