17日前

生成型Transformerを用いた対照的トリプル抽出

Hongbin Ye, Ningyu Zhang, Shumin Deng, Mosha Chen, Chuanqi Tan, Fei Huang, Huajun Chen
生成型Transformerを用いた対照的トリプル抽出
要約

トリプル抽出は、自然言語処理および知識グラフ構築における情報抽出において重要なタスクである。本稿では、シーケンス生成に基づくエンドツーエンド型トリプル抽出タスクを再検討する。生成型のトリプル抽出は、長期依存関係の把握に難しく、信頼性の低いトリプルを生成する傾向があるため、本研究では、生成型トランスフォーマーを用いた対照的トリプル抽出モデルを提案する。具体的には、エンコーダデコーダ構造に基づく生成に向けた単一の共有トランスフォーマーモジュールを導入する。信頼性の高い抽出結果を得るため、新しいトリプル対照学習目的関数を提案する。さらに、モデル性能をさらに向上させるために、バッチ単位での動的アテンションマスキングおよびトリプル単位の補正メカニズムの2つの機構を導入する。NYT、WebNLG、MIEの3つのデータセットにおける実験結果から、本手法がベースライン手法よりも優れた性能を達成することが示された。