
要約
本研究では、エンドツーエンド共参照解決(E2E-CR)の性能向上を目的として、文間依存関係を学習する単語埋め込みモデルを提案する。従来のE2E-CRモデルは、入力された記事や会話の各文を個別に処理し、長短期記憶(LSTM)再帰ニューラルネットワークを用いて単語表現を生成するが、本研究では文間リンクのための線形文間リンクモデルおよび注意メカニズムを用いた文間リンクモデルを提案し、文間依存関係を学習する。これらの文間リンク戦略により、LSTMは現在の入力単語の表現を計算する際、文脈となる前後の文から重要な情報を活用できる。このアプローチにより、LSTMは現在の文だけでなく、全体の入力文書に含まれる知識も考慮した単語埋め込みを学習する。実験の結果、文間依存関係の学習が単語表現により豊かな情報をもたらし、ベースラインモデルと比較して共参照解決の性能が向上することが示された。