15日前

異種注意力を用いたLeviグラフAMRパーサー

Han He, Jinho D. Choi
異種注意力を用いたLeviグラフAMRパーサー
要約

バイアフィンデコーダーと組み合わせることで、トランスフォーマーはテキストからグラフへの変換(text-to-graph transduction)に効果的に適応し、AMRパーシングにおいて最先端の性能を達成している。しかし、これまでの多くの研究では、アークやラベルの予測のいずれか、あるいは両方においてバイアフィンデコーダーに依存している。実際には、デコーダーが使用する多くの特徴量は、既にトランスフォーマー自身が学習可能である。本研究では、トークン、コンセプト、ラベルといった異種データを一つの入力としてトランスフォーマーに供給し、その中でアテンションを学習する新しいAMRパーシングアプローチを提示する。さらに、トランスフォーマーから得られるアテンション行列のみを用いて、AMRグラフのすべての要素(コンセプト、アーク、ラベル)を予測する。提案モデルは、従来の最先端グラフパーサーよりもはるかに少ないパラメータ数で構成されているが、AMR 2.0および3.0の評価において、同等またはそれ以上の精度を達成している。