vor 11 Tagen
Parsing von Diskursrepräsentationsstrukturen mit rekurrenten neuronalen Netzen und dem Transformer-Modell
{Mirella Lapata, Jiangming Liu, Shay B. Cohen}

Abstract
Wir beschreiben die von uns für die Aufgabe des Discourse Representation Structure (DRS)-Parsings im Rahmen der IWCS-2019-Shared-Task entwickelten Systeme. Unsere Ansätze basieren auf Sequence-to-Sequence-Modellierung. Zur Implementierung unseres Modells verwenden wir das Open-Source-System für neuronale Maschinenübersetzung, OpenNMT-py, das in PyTorch realisiert ist. Wir haben eine Vielzahl von Encoder-Decoder-Modellen auf Basis rekurrenter neuronaler Netze sowie des Transformer-Modells untersucht. Die Experimente werden auf der Standard-Benchmark-Datenbank des Parallel Meaning Bank (PMB 2.2) durchgeführt. Unser bestes System erreicht bei der DRS-Parsing-Shared-Task eine F1-Score von 84,8 %.