HyperAIHyperAI
vor 17 Tagen

NeuroLogic A*-ähnliche Decodierung: Konstruierte Textgenerierung mit Vorhersageheuristiken

Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers, Noah A. Smith, Yejin Choi
NeuroLogic A*-ähnliche Decodierung: Konstruierte Textgenerierung mit Vorhersageheuristiken
Abstract

Der dominierende Ansatz für die neuronale Textgenerierung basiert auf der linksnach-rechts-Entschlüsselung autoregressiver Sprachmodelle. Bei der eingeschränkten oder kontrollierten Generierung unter komplexen lexikalischen Beschränkungen ist jedoch Vorwissen erforderlich, um zukünftige, sinnvolle Pfade im Voraus planen zu können.Angetrieben durch den A-Suchalgorithmus schlagen wir NeuroLogic Aesque vor, einen Entschlüsselungsalgorithmus, der heuristische Schätzungen zukünftiger Kosten integriert. Wir entwickeln effiziente Vorausschau-Heuristiken, die für große Sprachmodelle geeignet sind, wodurch unsere Methode eine nahtlose Ersetzung für gängige Techniken wie Beam-Search oder Top-k-Sampling darstellt. Um eingeschränkte Generierung zu ermöglichen, bauen wir auf NeuroLogic-Entschlüsselung (Lu et al., 2021) auf und kombinieren deren Flexibilität bei der Einbindung logischer Beschränkungen mit A*esque-Schätzungen der zukünftigen Erfüllung solcher Beschränkungen.Unser Ansatz übertrifft auf fünf Generierungsaufgaben konkurrierende Baselines und erreicht neue SOTA-Leistungen bei der Tabellen-zu-Text-Generierung, eingeschränkter maschineller Übersetzung sowie Schlüsselwort-basierter Generierung. Die Verbesserungen sind besonders deutlich bei Aufgaben, die eine komplexe Erfüllung von Beschränkungen erfordern, oder in Few-Shot- oder Zero-Shot-Szenarien. NeuroLogic A*esque verdeutlicht das Potenzial der Entschlüsselung zur Verbesserung und Erweiterung der Fähigkeiten großer Sprachmodelle.