Neurale AMR: Sequenz-zu-Sequenz-Modelle für Parsing und Generierung

Sequenz-zu-Sequenz-Modelle haben in einer breiten Palette von Anwendungen starke Leistungen gezeigt. Ihre Anwendung auf die Analyse und Generierung von Text unter Verwendung der Abstrakten Bedeutungsdarstellung (Abstract Meaning Representation, AMR) war jedoch bisher begrenzt, aufgrund der relativ geringen Menge an etikettierten Daten und der nicht sequenziellen Natur der AMR-Graphen. In dieser Arbeit stellen wir ein neues Trainingsverfahren vor, das diese Einschränkung durch die Nutzung von Millionen unetikettierter Sätze und sorgfältige Vorverarbeitung der AMR-Graphen überwinden kann. Für die AMR-Analyse erreicht unser Modell wettbewerbsfähige Ergebnisse mit einem SMATCH-Wert von 62,1, was derzeit die beste gemeldete Bewertung ohne erhebliche Nutzung externer semantischer Ressourcen ist. Für die AMR-Generierung stellt unser Modell eine neue Spitzenleistung mit einem BLEU-Wert von 33,8 dar. Wir präsentieren eine umfangreiche ablativen und qualitative Analyse, einschließlich starker Beweise dafür, dass sequenzbasierte AMR-Modelle robust gegen Ordnungsvariationen bei Graph-zu-Sequenz-Umwandlungen sind.