Die Integration von gemeinsamen Einbettungen in goal-orientierte Dialoge durch Multi-Task-Lernen

Aufmerksamkeitsbasierte Encoder-Decoder-Neuronale Netzwerke haben kürzlich vielversprechende Ergebnisse in zielorientierten Dialogsystemen gezeigt. Allerdings haben diese Modelle Schwierigkeiten, über und mit wissensbasierten Zuständen zu argumentieren, während sie ihre Funktion der end-to-end Textgenerierung beibehalten. Da solche Modelle erheblich von der Integration von Benutzerabsichten und Wissensgraphen profitieren können, schlagen wir in dieser Arbeit eine RNN-basierte end-to-end Encoder-Decoder-Architektur vor, die mit gemeinsamen Einbettungen des Wissensgraphen und des Korpus als Eingabe trainiert wird. Das Modell bietet eine zusätzliche Integration der Benutzerabsicht neben der Textgenerierung und wird mit einem Paradigma des Multi-Task-Learnings sowie einer zusätzlichen Regularisierungstechnik trainiert, um das Generieren falscher Entitäten als Ausgabe zu bestrafen. Das Modell integriert ferner eine Entitätssuche im Wissensgraphen während der Inferenz, um sicherzustellen, dass die generierte Ausgabe auf dem bereitgestellten lokalen Wissensgraphen basierend wissensbasiert ist. Schließlich wurde das Modell unter Verwendung des BLEU-Scores evaluiert; empirische Bewertungen zeigen, dass unsere vorgeschlagene Architektur die Leistung zielorientierter Dialogsysteme verbessern kann.