
要約
事前学習済み言語モデルの導入により、多くの複雑なタスク固有の自然言語処理(NLP)モデルが単純な軽量なレイヤーに簡略化された。この傾向に対する例外は、共参照解決(coreference resolution)である。共参照解決では、事前学習済みTransformerエンコーダーに高度に設計されたタスク固有のモデルが追加される。このアプローチは非常に効果的ではあるが、動的に構築されるスパン(span)およびスパンペア表現に起因して、メモリ使用量が非常に大きくなるという課題がある。その結果、長文の処理や1バッチ内で複数のインスタンスを同時に学習する能力が制限される。本研究では、スパン表現や手作業で設計された特徴量、ヒューリスティクスに依存しない軽量なエンドツーエンド型共参照解決モデルを提案する。提案モデルは現行の標準モデルと同等の性能を達成しつつ、構造がより単純で効率的である。