NeuroLogic A*-ähnliche Decodierung: Konstruierte Textgenerierung mit Vorhersageheuristiken

Der dominierende Ansatz für die neuronale Textgenerierung basiert auf der linksnach-rechts-Entschlüsselung autoregressiver Sprachmodelle. Bei der eingeschränkten oder kontrollierten Generierung unter komplexen lexikalischen Beschränkungen ist jedoch Vorwissen erforderlich, um zukünftige, sinnvolle Pfade im Voraus planen zu können.Angetrieben durch den A-Suchalgorithmus schlagen wir NeuroLogic Aesque vor, einen Entschlüsselungsalgorithmus, der heuristische Schätzungen zukünftiger Kosten integriert. Wir entwickeln effiziente Vorausschau-Heuristiken, die für große Sprachmodelle geeignet sind, wodurch unsere Methode eine nahtlose Ersetzung für gängige Techniken wie Beam-Search oder Top-k-Sampling darstellt. Um eingeschränkte Generierung zu ermöglichen, bauen wir auf NeuroLogic-Entschlüsselung (Lu et al., 2021) auf und kombinieren deren Flexibilität bei der Einbindung logischer Beschränkungen mit A*esque-Schätzungen der zukünftigen Erfüllung solcher Beschränkungen.Unser Ansatz übertrifft auf fünf Generierungsaufgaben konkurrierende Baselines und erreicht neue SOTA-Leistungen bei der Tabellen-zu-Text-Generierung, eingeschränkter maschineller Übersetzung sowie Schlüsselwort-basierter Generierung. Die Verbesserungen sind besonders deutlich bei Aufgaben, die eine komplexe Erfüllung von Beschränkungen erfordern, oder in Few-Shot- oder Zero-Shot-Szenarien. NeuroLogic A*esque verdeutlicht das Potenzial der Entschlüsselung zur Verbesserung und Erweiterung der Fähigkeiten großer Sprachmodelle.