HyperAIHyperAI
vor 15 Tagen

ATP: AMRize Then Parse! Verbesserung der AMR-Parser mit PseudoAMRs

Liang Chen, Peiyi Wang, Runxin Xu, Tianyu Liu, Zhifang Sui, Baobao Chang
ATP: AMRize Then Parse! Verbesserung der AMR-Parser mit PseudoAMRs
Abstract

Da die Abstract Meaning Representation (AMR) implizit zusammengesetzte semantische Annotationen beinhaltet, vermuten wir, dass Hilfsaufgaben, die semantisch oder formal mit AMR verwandt sind, die AMR-Parser-Leistung besser verbessern können. Wir stellen fest, dass: 1) Die semantische Rollenannotation (SRL) und die Abhängigkeitsanalyse (DP) im Vergleich zu anderen Aufgaben – beispielsweise maschinelle Übersetzung (MT) oder Zusammenfassung – bei der Text-zu-AMR-Transformation trotz deutlich geringerer Datenmengen zu einer größeren Leistungssteigerung führen. 2) Um eine bessere Anpassung an AMR zu erreichen, sollten die Daten aus Hilfsaufgaben vor dem Training angemessen „AMRisiert“ werden, d. h. in PseudoAMR umgewandelt werden. Wissen aus flachen Parsing-Aufgaben kann effektiver auf das AMR-Parsing übertragen werden, wenn eine strukturelle Transformation vorgenommen wird. 3) Das Lernen über Zwischenaufgaben (intermediate-task learning) stellt ein überlegenere Paradigma dar, um Hilfsaufgaben in das AMR-Parsing einzuführen, im Vergleich zum Multitask-Lernen. Aus empirischer Sicht schlagen wir eine prinzipienbasierte Methode vor, um Hilfsaufgaben gezielt einzubeziehen, um die AMR-Parser-Leistung zu steigern. Umfangreiche Experimente zeigen, dass unsere Methode auf verschiedenen Benchmarks neue Sollwertleistungen erzielt, insbesondere hinsichtlich der Topologie-bezogenen Metriken.

ATP: AMRize Then Parse! Verbesserung der AMR-Parser mit PseudoAMRs | Neueste Forschungsarbeiten | HyperAI