HyperAIHyperAI
vor 17 Tagen

Kompositionale semantische Parsing mit großen Sprachmodellen

Andrew Drozdov, Nathanael Schärli, Ekin Akyürek, Nathan Scales, Xinying Song, Xinyun Chen, Olivier Bousquet, Denny Zhou
Kompositionale semantische Parsing mit großen Sprachmodellen
Abstract

Menschen können kompositionell schließen, wenn sie neuen Aufgaben gegenüberstehen. Frühere Forschung hat gezeigt, dass geeignete Prompting-Techniken große Sprachmodelle (LLMs) befähigen, künstliche Aufgaben zur kompositionellen Generalisierung wie SCAN zu lösen. In dieser Arbeit identifizieren wir zusätzliche Herausforderungen bei realistischeren semantischen Parsing-Aufgaben mit größerem Vokabular und verfeinern diese Prompting-Techniken, um ihnen gerecht zu werden. Unser bestes Verfahren basiert auf dem Least-to-Most-Prompting: Es zerlegt das Problem durch syntaktisches Parsing mittels Prompting, nutzt diese Zerlegung, um geeignete Exemplare auszuwählen, und generiert anschließend sequenziell die semantische Interpretation. Dieses Verfahren ermöglicht es uns, eine neue State-of-the-Art-Leistung für CFQ zu erreichen, wobei lediglich 1 % der Trainingsdaten verwendet werden, die traditionelle Ansätze benötigen. Aufgrund der allgemeinen Natur unseres Ansatzes erwarten wir, dass ähnliche Anstrengungen auch in anderen Aufgaben und Domänen zu neuen Ergebnissen führen werden, insbesondere bei wissensintensiven Anwendungen.

Kompositionale semantische Parsing mit großen Sprachmodellen | Neueste Forschungsarbeiten | HyperAI