vor 11 Tagen
Multi-View- und Multi-Task-Training von RST-Diskursparsern
{Anders S{\o}gaard, Barbara Plank, Chlo{\'e} Braud}

Abstract
Wir experimentieren mit verschiedenen Ansätzen zum Training von LSTM-Netzwerken zur Vorhersage von RST-Diskursbäumen. Die zentrale Herausforderung beim RST-Diskursparsen liegt in den begrenzten Mengen an Trainingsdaten. Um diesem Problem entgegenzuwirken, regularisieren wir unsere Modelle durch Aufgabenüberwachung aus verwandten Aufgaben sowie durch alternative Perspektiven auf Diskursstrukturen. Wir zeigen, dass ein einfacher LSTM-basierter sequenzieller Diskursparser von diesem Mehransichts- und Mehraufgaben-Framework profitiert und gegenüber unserer Baseline eine Fehlerreduktion von 12 bis 15 Prozent (abhängig von der Metrik) erreicht sowie Ergebnisse liefert, die denen komplexerer State-of-the-Art-Parsen vergleichbar sind.