Die Einbeziehung von Graphinformationen im transformerbasierten AMR-Parsing

Zusammenfassung: Abstract Meaning Representation (AMR) ist eine formale Semantikanalyse, die darauf abzielt, eine semantische Graphenabstraktion zu liefern, die einen gegebenen Text repräsentiert. Aktuelle Ansätze basieren auf autoregressiven Sprachmodellen wie BART oder T5, die durch Teacher Forcing feinjustiert werden, um eine linearisierte Version des AMR-Graphen aus einem Satz zu erzeugen. In dieser Arbeit stellen wir LeakDistill vor, ein Modell und eine Methode, die eine Modifikation der Transformer-Architektur untersuchen. Dabei werden strukturelle Adapter verwendet, um Graphinformationsstrukturen explizit in die gelernten Repräsentationen einzubinden und die Leistungsfähigkeit des AMR-Parsings zu verbessern. Unsere Experimente zeigen, dass durch das Einbetten von Worts-zu-Knoten-Zuordnungen zur Einbindung von Graphenstrukturinformationen in den Encoder während der Trainingsphase ein Stand-des-Wissens-AMR-Parsing durch Selbstwissen-Distillation erreicht werden kann, auch ohne zusätzliche Daten zu verwenden. Wir veröffentlichen den Code unter \url{http://www.github.com/sapienzanlp/LeakDistill}.