Die Grenzen der AMR-Parserung durch Selbstlernverfahren erforschen

Die Parsing-Leistung für die Abstract Meaning Representation (AMR) hat in den letzten zwei Jahren erheblich zugenommen, was sowohl auf den Einfluss von Transfer Learning als auch auf die Entwicklung neuer, speziell für AMR konzipierter Architekturen zurückzuführen ist. Gleichzeitig haben Selbstlernverfahren dazu beigetragen, die Leistungsgrenzen anderer Anwendungen im Bereich des natürlichen Sprachverstehens, wie beispielsweise der maschinellen Übersetzung oder der Fragebeantwortung, zu überschreiten. In diesem Paper untersuchen wir verschiedene Ansätze, wie bereits trainierte Modelle zur Verbesserung der AMR-Parsing-Leistung eingesetzt werden können, darunter die Generierung synthetischer Texte und AMR-Anmerkungen sowie die Verfeinerung des Aktionen-Orakels. Wir zeigen, dass diese Techniken – ohne zusätzliche menschliche Annotationen – bereits leistungsfähige Parser weiter verbessern und state-of-the-art-Ergebnisse sowohl auf AMR 1.0 als auch auf AMR 2.0 erzielen.