
要約
本稿では、エンティティの表記と関係の同時抽出を目的とした、注目メカニズム(attention)を組み込んだ再帰型ニューラルネットワークを提案する。我々は、依存構造木(dependency trees)にアクセスせずに、長短期記憶(LSTM)ネットワークと注目メカニズムを組み合わせることで、エンティティ表記間の意味的関係を効果的に抽出できることを示す。自動コンテンツ抽出(ACE)コーパスを用いた実験の結果、LiとJi(2014)が提案した特徴ベースの同時モデルと比較して、本モデルは有意に優れた性能を示した。さらに、MiwaとBansal(2016)が提案したエンドツーエンドの木構造ベースLSTMモデル(SPTree)と比較したところ、エンティティ表記では1%以内、関係抽出では2%以内の誤差で同等の性能を達成した。詳細な分析により、本モデルは「主体-対象(Agent-Artifact)」関係において顕著に優れた性能を発揮する一方で、SPTreeは「物理的(Physical)」および「部分-全体(Part-Whole)」関係においてより優れた結果を示すことが明らかになった。