HyperAIHyperAI
vor 11 Tagen

Parsing von Diskursrepräsentationsstrukturen mit rekurrenten neuronalen Netzen und dem Transformer-Modell

{Mirella Lapata, Jiangming Liu, Shay B. Cohen}
Parsing von Diskursrepräsentationsstrukturen mit rekurrenten neuronalen Netzen und dem Transformer-Modell
Abstract

Wir beschreiben die von uns für die Aufgabe des Discourse Representation Structure (DRS)-Parsings im Rahmen der IWCS-2019-Shared-Task entwickelten Systeme. Unsere Ansätze basieren auf Sequence-to-Sequence-Modellierung. Zur Implementierung unseres Modells verwenden wir das Open-Source-System für neuronale Maschinenübersetzung, OpenNMT-py, das in PyTorch realisiert ist. Wir haben eine Vielzahl von Encoder-Decoder-Modellen auf Basis rekurrenter neuronaler Netze sowie des Transformer-Modells untersucht. Die Experimente werden auf der Standard-Benchmark-Datenbank des Parallel Meaning Bank (PMB 2.2) durchgeführt. Unser bestes System erreicht bei der DRS-Parsing-Shared-Task eine F1-Score von 84,8 %.

Parsing von Diskursrepräsentationsstrukturen mit rekurrenten neuronalen Netzen und dem Transformer-Modell | Neueste Forschungsarbeiten | HyperAI