
要約
依存関係木は、テキスト内のエンティティ間の関係を抽出するために有用であることが証明されている豊富な構造的情報を伝えます。しかし、依存関係木から関連情報を効果的に利用しながら無関連な情報を無視する方法については、依然として課題が残っています。既存の手法では、関連する部分的な依存構造を選択するためにルールベースのハードプルーニング戦略を用いていますが、常に最適な結果を得られるわけではありません。本研究では、Attention Guided Graph Convolutional Networks (AGGCNs) という新しいモデルを提案します。このモデルは完全な依存関係木を直接入力として取り扱います。当モデルは、自動的に選択的に注目すべき関連サブ構造を学習するソフトプルーニングアプローチと解釈できます。クロスセンテンスn項関係抽出や大規模な文レベルの関係抽出など、様々なタスクにおける広範な実験結果から、当モデルが完全な依存関係木の構造的情報をより効果的に活用できること、そして従来の手法よりも著しく優れた結果を与えることが示されています。