HyperAIHyperAI

Command Palette

Search for a command to run...

LinkBERT: ドキュメントリンクを使用した言語モデルの事前学習

Michihiro Yasunaga Jure Leskovec* Percy Liang*

概要

言語モデル(LM)の事前学習は、テキストコーパスから様々な知識を学び、下流タスクに貢献します。しかし、既存の手法であるBERTは単一のドキュメントをモデル化し、ドキュメント間の依存関係や知識を捉えることができません。本研究では、リンクBERTと呼ばれる新しいLM事前学習手法を提案します。この手法は、ドキュメント間のリンク(例えばハイパーリンク)を利用します。テキストコーパスをドキュメントのグラフとして捉え、リンクされたドキュメントを同じコンテキストに配置することでLM入力を生成します。その後、マスク言語モデリングと我々が新たに提案するドキュメント関係予測という2つの自己監督目的でLMを事前学習します。実験結果から、LinkBERTは一般領域(Wikipediaのハイパーリンクで事前学習)とバイオメディカル領域(PubMedの引用リンクで事前学習)における様々な下流タスクにおいてBERTを上回ることが示されました。特にマルチホップ推論やショット数が少ない質問応答タスク(HotpotQAおよびTriviaQAで+5%の絶対的な改善)において効果的であり、我々のバイオメディカルLinkBERTはBioASQやUSMLEなどの様々なBioNLPタスクで新たな最先端性能を達成しました(+7%)。我々は事前学習済みモデルLinkBERTとBioLinkBERT、ならびにコードとデータをhttps://github.com/michiyasunaga/LinkBERT にて公開しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています