HyperAIHyperAI

Command Palette

Search for a command to run...

Globale-zu-lokale Speicherzeiger-Netzwerke für taskorientierte Dialoge

Chien-Sheng Wu†‡, Richard Socher‡ & Caiming Xiong‡

Zusammenfassung

Die end-to-end, task-orientierte Dialogführung ist herausfordernd, da Wissensbasen in der Regel groß, dynamisch und schwer in ein Lernframework zu integrieren sind. Wir schlagen die global-to-local Memory Pointer (GLMP)-Netzwerke vor, um dieses Problem anzugehen. In unserem Modell werden ein globaler Gedächtnisencoder und ein lokaler Gedächtnisdecoder vorgeschlagen, um externes Wissen zu teilen. Der Encoder kodiert den Dialogverlauf, modifiziert die globale Kontextdarstellung und generiert einen globalen Gedächtniszeiger. Der Decoder erzeugt zunächst eine Antwortskizze mit unbesetzten Feldern. Anschließend überträgt er den globalen Gedächtniszeiger, um das externe Wissen auf relevante Informationen zu filtern, und besetzt die Felder durch lokale Gedächtniszeiger. Wir zeigen empirisch, dass unser Modell die Kopiergenauigkeit verbessern und das häufige Problem von außerhalb des Vokabulars (out-of-vocabulary) abmildern kann. Als Ergebnis können GLMP sowohl bei der automatischen als auch bei der menschlichen Bewertung in beiden Datensätzen – dem simulierten bAbI-Dialogdatensatz und dem Stanford-Multidomänen-Dialogdatensatz zwischen Menschen – die bisher besten Modelle übertreffen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Globale-zu-lokale Speicherzeiger-Netzwerke für taskorientierte Dialoge | Paper | HyperAI