HyperAIHyperAI

Command Palette

Search for a command to run...

vor 4 Monaten

Aufmerksamkeitsregularisierte sequenz-zu-sequenz-Lernmethoden für die E2E-NLG-Herausforderung

{Qian Lin Biao Zhang Jinsong Su Jing Yang}

Abstract

Diese Arbeit beschreibt unser System, das für die End-to-End (E2E)-Natürlichsprachgenerierung (NLG)-Herausforderung eingesetzt wurde. Die Herausforderung sammelt einen neuen Datensatz für gesprochene Dialogsysteme im Restaurantbereich, der eine höhere lexikalische Vielfalt und syntaktische Variation aufweist und zudem eine Inhaltsauswahl erfordert (Novikova et al., 2017). Um diese Herausforderung zu bewältigen, verwenden wir das CAEncoder-verbesserte Sequenz-zu-Sequenz-Lernmodell (Zhang et al., 2017) und schlagen einen Aufmerksamkeits-Regulierer vor, um die Aufmerksamkeitsgewichte über die Eingabewörter gleichmäßiger zu verteilen sowie das Überanpassungsproblem zu kontrollieren. Ohne spezifische Anpassungen erzielt unser System bereits äußerst vielversprechende Ergebnisse. Insbesondere erreicht unser System eine ROUGE-L-Score von 0,7083, den besten Wert unter allen eingereichten Hauptsystemen.

Benchmarks

BenchmarkMethodikMetriken
data-to-text-generation-on-e2e-nlg-challengeZhang
BLEU: 65.45
CIDEr: 2.1012
METEOR: 43.92
NIST: 8.1804
ROUGE-L: 70.83

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Aufmerksamkeitsregularisierte sequenz-zu-sequenz-Lernmethoden für die E2E-NLG-Herausforderung | Forschungsarbeiten | HyperAI