
要約
関係分類は、エンティティ間の関係を抽出する重要な自然言語処理(NLP)タスクである。最新の関係分類手法は主に畳み込みニューラルネットワーク(Convolutional Neural Networks, CNN)や再帰型ニューラルネットワーク(Recurrent Neural Networks, RNN)に基づいている。最近では、事前学習されたBERTモデルが多くのNLP分類・シーケンスラベリングタスクで非常に成功した結果を示している。しかし、関係分類はこれらのタスクとは異なり、文全体と2つの対象エンティティの情報に依存する。本論文では、事前学習されたBERT言語モデルを活用し、対象エンティティからの情報を組み込んだモデルを提案する。対象エンティティの位置を特定し、事前学習済みアーキテクチャを通じて情報を転送し、2つのエンティティに対応する符号化を組み込むことで、この課題に取り組む。SemEval-2010タスク8の関係データセットにおいて、我々のモデルは既存の最先端手法に対して大幅な改善を達成した。