HyperAIHyperAI
vor 2 Monaten

Ein Auto-Encoder-Anpassungsmodell für das Lernen von Satzebene-Semantischen Abhängigkeiten in der Dialoggenerierung

Liangchen Luo; Jingjing Xu; Junyang Lin; Qi Zeng; Xu Sun
Ein Auto-Encoder-Anpassungsmodell für das Lernen von Satzebene-Semantischen Abhängigkeiten in der Dialoggenerierung
Abstract

Die Generierung semantisch kohärenter Antworten stellt weiterhin eine große Herausforderung im Bereich der Dialoggenerierung dar. Im Gegensatz zu konventionellen TextgenerierungsAufgaben ist die Zuordnung zwischen Eingaben und Antworten in Konversationen komplexer, was ein tiefes Verständnis der semantischen Abhängigkeiten auf Satzebene erfordert – einer Beziehung zwischen den gesamten Bedeutungen von Eingabe und Ausgabe. Um dieses Problem anzugehen, schlagen wir ein Modell namens Auto-Encoder Matching (AEM) vor, das solche Abhängigkeiten lernt. Das Modell besteht aus zwei Auto-Encodern und einem Zuordnungsmodul. Die Auto-Encodern lernen die semantischen Darstellungen von Eingaben und Antworten, während das Zuordnungsmodul lernt, diese Darstellungen auf Satzebene zu verbinden. Experimentelle Ergebnisse sowohl automatischer als auch menschlicher Bewertungen zeigen, dass unser Modell im Vergleich zu Baseline-Modellen fähig ist, Antworten von hoher Kohärenz und Flüssigkeit zu generieren. Der Quellcode ist unter https://github.com/lancopku/AMM verfügbar.