HyperAIHyperAI
vor 2 Monaten

Globale-zu-lokale Speicherzeiger-Netzwerke für taskorientierte Dialoge

Chien-Sheng Wu; Richard Socher; Caiming Xiong
Globale-zu-lokale Speicherzeiger-Netzwerke für taskorientierte Dialoge
Abstract

Die end-to-end, task-orientierte Dialogführung ist herausfordernd, da Wissensbasen in der Regel groß, dynamisch und schwer in ein Lernframework zu integrieren sind. Wir schlagen die global-to-local Memory Pointer (GLMP)-Netzwerke vor, um dieses Problem anzugehen. In unserem Modell werden ein globaler Gedächtnisencoder und ein lokaler Gedächtnisdecoder vorgeschlagen, um externes Wissen zu teilen. Der Encoder kodiert den Dialogverlauf, modifiziert die globale Kontextdarstellung und generiert einen globalen Gedächtniszeiger. Der Decoder erzeugt zunächst eine Antwortskizze mit unbesetzten Feldern. Anschließend überträgt er den globalen Gedächtniszeiger, um das externe Wissen auf relevante Informationen zu filtern, und besetzt die Felder durch lokale Gedächtniszeiger. Wir zeigen empirisch, dass unser Modell die Kopiergenauigkeit verbessern und das häufige Problem von außerhalb des Vokabulars (out-of-vocabulary) abmildern kann. Als Ergebnis können GLMP sowohl bei der automatischen als auch bei der menschlichen Bewertung in beiden Datensätzen – dem simulierten bAbI-Dialogdatensatz und dem Stanford-Multidomänen-Dialogdatensatz zwischen Menschen – die bisher besten Modelle übertreffen.

Globale-zu-lokale Speicherzeiger-Netzwerke für taskorientierte Dialoge | Neueste Forschungsarbeiten | HyperAI