HyperAIHyperAI

Command Palette

Search for a command to run...

Kompositionale semantische Parsing mit großen Sprachmodellen

Andrew Drozdov Nathanael Schärli Ekin Akyürek Nathan Scales Xinying Song Xinyun Chen Olivier Bousquet Denny Zhou

Zusammenfassung

Menschen können kompositionell schließen, wenn sie neuen Aufgaben gegenüberstehen. Frühere Forschung hat gezeigt, dass geeignete Prompting-Techniken große Sprachmodelle (LLMs) befähigen, künstliche Aufgaben zur kompositionellen Generalisierung wie SCAN zu lösen. In dieser Arbeit identifizieren wir zusätzliche Herausforderungen bei realistischeren semantischen Parsing-Aufgaben mit größerem Vokabular und verfeinern diese Prompting-Techniken, um ihnen gerecht zu werden. Unser bestes Verfahren basiert auf dem Least-to-Most-Prompting: Es zerlegt das Problem durch syntaktisches Parsing mittels Prompting, nutzt diese Zerlegung, um geeignete Exemplare auszuwählen, und generiert anschließend sequenziell die semantische Interpretation. Dieses Verfahren ermöglicht es uns, eine neue State-of-the-Art-Leistung für CFQ zu erreichen, wobei lediglich 1 % der Trainingsdaten verwendet werden, die traditionelle Ansätze benötigen. Aufgrund der allgemeinen Natur unseres Ansatzes erwarten wir, dass ähnliche Anstrengungen auch in anderen Aufgaben und Domänen zu neuen Ergebnissen führen werden, insbesondere bei wissensintensiven Anwendungen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Kompositionale semantische Parsing mit großen Sprachmodellen | Paper | HyperAI