16日前

ゼロショット情報抽出を統一されたテキストからトリプルへの翻訳として捉える

Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, Dawn Song
ゼロショット情報抽出を統一されたテキストからトリプルへの翻訳として捉える
要約

我々は、情報抽出タスクの複数をテキストから三項組への翻訳フレームワークに統合した。各タスクを専用のデータセットおよびモデルに依存して解くのではなく、タスク固有の入力テキストと出力三項組の間の翻訳問題として定式化する。タスク固有の入力テキストを用いることで、事前学習された言語モデルが持つタスクに関する潜在的な知識を活用し、タスクに依存しない翻訳を実現する。さらに、どの関係情報がどの入力テキストに対応するかを予測するという単純な事前学習タスクが、タスク固有の出力を効果的に生成する手段であることを示した。これにより、本フレームワークを下流タスクへゼロショット転移することが可能となる。本研究では、オープン情報抽出(OIE2016、NYT、WEB、PENN)、関係分類(FewRelおよびTACRED)、事実探査(Google-REおよびT-REx)の各タスクにおいて、このフレームワークのゼロショット性能を評価した。モデルはほとんどのタスクに非自明な転移性能を示し、タスク固有の学習を一切行わずに、完全に教師あり手法と競合する結果を達成している。たとえば、オープン情報抽出の教師あり手法の訓練データを使用せずに、そのF1スコアを顕著に上回った。

ゼロショット情報抽出を統一されたテキストからトリプルへの翻訳として捉える | 最新論文 | HyperAI超神経