HyperAIHyperAI

Command Palette

Search for a command to run...

深層意味役割ラベリングにおける自己注意メカニズムの利用

Zhixing Tan; Mingxuan Wang; Jun Xie; Yidong Chen; Xiaodong Shi

概要

意味役割ラベリング(Semantic Role Labeling, SRL)は、自然言語理解への重要なステップと認識されており、広く研究が行われています。近年、再帰型ニューラルネットワーク(Recurrent Neural Networks, RNN)を用いたエンドツーエンドのSRLに注目が集まっています。しかし、RNNが構造的情報や長距離依存関係を処理することは依然として大きな課題となっています。本論文では、これらの問題に対処するための単純かつ効果的なアーキテクチャを提案します。我々のモデルは自己注意機構(self-attention)に基づいており、トークン間の距離に関わらず直接的な関係性を捉えることができます。我々の単一モデルはCoNLL-2005共有タスクデータセットでF1=83.4_1=83.41=83.4、CoNLL-2012共有タスクデータセットでF1=82.7_1=82.71=82.7を達成し、それぞれ前の最先端結果よりも1.8および1.0のF1_11スコアで優れています。さらに、我々のモデルは計算効率が高く、単一のTitan X GPU上で5万トークン/秒の解析速度を実現しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています