
要約
我々は異なる広範囲の意味解析タスクを変換パラダイムの下に統一し、意味表現を意味関係の系列を通じて逐次的に構築するための注意に基づくニューラルフレームワークを提案します。複数の注意メカニズムを利用することで、事前学習されたアライナーに依存せずに効果的に学習が可能となります。AMR(Abstract Meaning Representation)、SDP(Semantic Dependency Parsing)、UCCA(Universal Conceptual Cognitive Annotation)という3つの異なる広範囲の意味解析タスクでの実験結果は、我々の注意に基づくニューラル変換器がAMRとUCCAにおいて最先端の成果を向上させ、SDPにおいても最先端と競争力があることを示しています。