HyperAIHyperAI

Command Palette

Search for a command to run...

vor 4 Monaten

Multi-View- und Multi-Task-Training von RST-Diskursparsern

{Anders S{\o}gaard Barbara Plank Chlo{\'e} Braud}

Multi-View- und Multi-Task-Training von RST-Diskursparsern

Abstract

Wir experimentieren mit verschiedenen Ansätzen zum Training von LSTM-Netzwerken zur Vorhersage von RST-Diskursbäumen. Die zentrale Herausforderung beim RST-Diskursparsen liegt in den begrenzten Mengen an Trainingsdaten. Um diesem Problem entgegenzuwirken, regularisieren wir unsere Modelle durch Aufgabenüberwachung aus verwandten Aufgaben sowie durch alternative Perspektiven auf Diskursstrukturen. Wir zeigen, dass ein einfacher LSTM-basierter sequenzieller Diskursparser von diesem Mehransichts- und Mehraufgaben-Framework profitiert und gegenüber unserer Baseline eine Fehlerreduktion von 12 bis 15 Prozent (abhängig von der Metrik) erreicht sowie Ergebnisse liefert, die denen komplexerer State-of-the-Art-Parsen vergleichbar sind.

Benchmarks

BenchmarkMethodikMetriken
discourse-parsing-on-rst-dtLSTM Sequential Discourse Parser (Braud et al., 2016)
RST-Parseval (Full): 47.5*
RST-Parseval (Nuclearity): 63.6*
RST-Parseval (Relation): 47.7*
RST-Parseval (Span): 79.7*

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Multi-View- und Multi-Task-Training von RST-Diskursparsern | Forschungsarbeiten | HyperAI