HyperAIHyperAI

Command Palette

Search for a command to run...

プリトレーニングされたトランスフォーマーを用いた一括複数関係抽出

Haoyu Wang∗† Ming Tan∗† Mo Yu∗‡ Shiyu Chang‡ Dakuo Wang§ Kun Xu§ Xiaoxiao Guo‡ Saloni Potdar†

概要

段落から複数の関係を抽出するための多くの手法は、段落に対して複数回の処理(マルチパス)を必要とします。実際には、複数回の処理は計算コストが高く、これが長い段落や大規模なテキストコーパスへの拡張を困難にしています。本研究では、段落を一度だけエンコードする(ワンパス)ことで複数の関係を抽出するタスクに焦点を当てています。我々の解決策は、事前学習済みの自己注意モデル(トランスフォーマー)に基づいています。まず、構造化予測層を追加して複数のエンティティペア間での抽出を扱い、次にエンティティ認識注意力技術を使用して各エンティティに関連する複数の関係情報を捉えるための段落埋め込みを強化します。我々は、この手法がスケーラビリティに優れており、標準的なベンチマークであるACE 2005において最先端の性能を達成できることを示しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
プリトレーニングされたトランスフォーマーを用いた一括複数関係抽出 | 記事 | HyperAI超神経