Multi-View- und Multi-Task-Training von RST-Diskursparsern
{Anders S{\o}gaard Barbara Plank Chlo{\'e} Braud}

Abstract
Wir experimentieren mit verschiedenen Ansätzen zum Training von LSTM-Netzwerken zur Vorhersage von RST-Diskursbäumen. Die zentrale Herausforderung beim RST-Diskursparsen liegt in den begrenzten Mengen an Trainingsdaten. Um diesem Problem entgegenzuwirken, regularisieren wir unsere Modelle durch Aufgabenüberwachung aus verwandten Aufgaben sowie durch alternative Perspektiven auf Diskursstrukturen. Wir zeigen, dass ein einfacher LSTM-basierter sequenzieller Diskursparser von diesem Mehransichts- und Mehraufgaben-Framework profitiert und gegenüber unserer Baseline eine Fehlerreduktion von 12 bis 15 Prozent (abhängig von der Metrik) erreicht sowie Ergebnisse liefert, die denen komplexerer State-of-the-Art-Parsen vergleichbar sind.
Benchmarks
| Benchmark | Methodik | Metriken |
|---|---|---|
| discourse-parsing-on-rst-dt | LSTM Sequential Discourse Parser (Braud et al., 2016) | RST-Parseval (Full): 47.5* RST-Parseval (Nuclearity): 63.6* RST-Parseval (Relation): 47.7* RST-Parseval (Span): 79.7* |
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.