HyperAIHyperAI

Command Palette

Search for a command to run...

エンティティ情報で事前学習済み言語モデルを充実させた関係分類

Shanchan Wu; Yifan He

概要

関係分類は、エンティティ間の関係を抽出する重要な自然言語処理(NLP)タスクである。最新の関係分類手法は主に畳み込みニューラルネットワーク(Convolutional Neural Networks, CNN)や再帰型ニューラルネットワーク(Recurrent Neural Networks, RNN)に基づいている。最近では、事前学習されたBERTモデルが多くのNLP分類・シーケンスラベリングタスクで非常に成功した結果を示している。しかし、関係分類はこれらのタスクとは異なり、文全体と2つの対象エンティティの情報に依存する。本論文では、事前学習されたBERT言語モデルを活用し、対象エンティティからの情報を組み込んだモデルを提案する。対象エンティティの位置を特定し、事前学習済みアーキテクチャを通じて情報を転送し、2つのエンティティに対応する符号化を組み込むことで、この課題に取り組む。SemEval-2010タスク8の関係データセットにおいて、我々のモデルは既存の最先端手法に対して大幅な改善を達成した。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています