
要約
近年のモデルは、意味-roleラベリング(SRL)タスクに句構造知識を組み込むことで著しい性能向上が達成されることを示している。本論文では、構文構造をグラフ関係を埋め込みとして新たな方法で入力し、Transformerの自己注意機構に直接組み込むことで、構文構造を効果的に表現する「構文意識型グラフ対グラフ変換器(Syntax-aware Graph-to-Graph Transformer, SynG2G-Tr)」モデルを提案する。このアプローチにより、構文構造に従うような注意パターンにソフトなバイアスを導入しつつ、モデルがその情報を活用して代替的なパターンを学習することも可能となる。本モデルは、スパンベースおよび依存関係ベースのSRLデータセットにおいて評価され、CoNLL 2005およびCoNLL 2009データセットにおいて、ドメイン内およびドメイン外設定の両方で、従来の手法を上回る性能を達成した。