HyperAIHyperAI

Command Palette

Search for a command to run...

単語単位のコアファレンス解決

Vladimir Dobrovolskii

概要

最近の共参照解決モデルは、単語のスパン間の共参照リンクを発見するために、スパン表現に大きく依存している。テキスト長さをnnnとすると、スパンの数はO(n2)O(n^2)O(n2)、潜在的なリンク数はO(n4)O(n^4)O(n4)に達するため、このアプローチを計算上実現可能にするためにさまざまな削減(pruning)技術が不可欠である。本研究では、代わりに単語同士の共参照リンクを直接考慮し、その後で単語スパンを再構成するアプローチを提案する。これにより、共参照モデルの計算複雑度はO(n2)O(n^2)O(n2)まで低減され、すべての潜在的な参照表現を削除せずに扱うことが可能となる。また、これらの変更により、共参照解決においてSpanBERTはRoBERTaに大きく劣ることを実証した。高い効率性を維持しつつ、本モデルはOntoNotesベンチマークにおいて最新の共参照解決システムと競争力のある性能を達成している。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています