HyperAIHyperAI

Command Palette

Search for a command to run...

Kann Syntax helfen? Verbesserung eines LSTM-basierten Modells zur Satzkompression für neue Domänen

D. Song an Jing Jiang Lejian Liao Chen Hui Ong Liangguo Wang Hai Leong Chieu

Zusammenfassung

In diesem Artikel untersuchen wir, wie die Domänenanpassungsfähigkeit eines auf Löschung basierenden Long Short-Term Memory (LSTM)-Neural Network-Modells für Satzkompression verbessert werden kann. Wir vermuten, dass syntaktische Informationen dazu beitragen, solche Modelle robuster über verschiedene Domänen hinweg zu machen. Wir schlagen zwei wesentliche Änderungen am Modell vor: die Verwendung expliziter syntaktischer Merkmale sowie die Einführung syntaktischer Constraints mittels Integer Linear Programming (ILP). Unsere Evaluierung zeigt, dass das vorgeschlagene Modell im Vergleich zum ursprünglichen Modell sowie zu einem herkömmlichen, nicht-neuralen Modell in einem cross-domain-Szenario bessere Ergebnisse erzielt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp