HyperAIHyperAI

Command Palette

Search for a command to run...

複数の言及を用いて共参照を行うためのニューラルモデル

Bhuwan Dhingra Qiao Jin Zhilin Yang William W. Cohen Ruslan Salakhutdinov

概要

自然言語処理(NLP)の多くの問題は、文中で遠くに位置する可能性のある同一エンティティの複数の言及から情報を集約する必要がある。既存のリカレントニューラルネットワーク(RNN)層は短期依存関係に偏っており、そのためこのようなタスクには適していない。本研究では、共参照依存関係に偏った新たなリカレント層を提案する。この層は、外部システムから抽出した共参照アノテーションを使用して、同じクラスターに属するエンティティの言及を接続する。最先端の読解モデルにこの層を取り入れることで、Wikihop、LAMBADA、およびbAbi AIタスクという3つのデータセットにおいて性能が向上し、特に訓練データが少ない場合に大きな改善が見られた。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
複数の言及を用いて共参照を行うためのニューラルモデル | 記事 | HyperAI超神経