4ヶ月前

プリトレーニングされたトランスフォーマーを用いた一括複数関係抽出

Haoyu Wang; Ming Tan; Mo Yu; Shiyu Chang; Dakuo Wang; Kun Xu; Xiaoxiao Guo; Saloni Potdar
プリトレーニングされたトランスフォーマーを用いた一括複数関係抽出
要約

段落から複数の関係を抽出するための多くの手法は、段落に対して複数回の処理(マルチパス)を必要とします。実際には、複数回の処理は計算コストが高く、これが長い段落や大規模なテキストコーパスへの拡張を困難にしています。本研究では、段落を一度だけエンコードする(ワンパス)ことで複数の関係を抽出するタスクに焦点を当てています。我々の解決策は、事前学習済みの自己注意モデル(トランスフォーマー)に基づいています。まず、構造化予測層を追加して複数のエンティティペア間での抽出を扱い、次にエンティティ認識注意力技術を使用して各エンティティに関連する複数の関係情報を捉えるための段落埋め込みを強化します。我々は、この手法がスケーラビリティに優れており、標準的なベンチマークであるACE 2005において最先端の性能を達成できることを示しています。