HyperAIHyperAI

Command Palette

Search for a command to run...

CEDR: 文脈を考慮した文書の埋め込み表現によるランキング

Sean MacAvaney Arman Cohan Andrew Yates Nazli Goharian

概要

最近、ニューラルランキングアーキテクチャに多くの注目が集まっていますが、これらのモデルへの入力として使用される用語表現には比較的少ない関心が払われています。本研究では、事前学習済みの文脈化言語モデル(ELMoとBERT)をアドホック文書ランキングに利用する方法について調査しました。TRECベンチマークでの実験を通じて、既存のニューラルランキングアーキテクチャは文脈化言語モデルによって提供される追加の文脈から恩恵を受けることが確認されました。さらに、私たちはBERTの分類ベクトルを既存のニューラルモデルに組み込む共同アプローチを提案し、これが最先端のアドホックランキング基準を上回ることを示しました。この共同アプローチをCEDR(Contextualized Embeddings for Document Ranking)と呼びます。また、これらのモデルを使用してランキングを行う際の実用的な課題にも対処しており、それにはBERTによる最大入力長制限や文脈化言語モデルのランタイム性能への影響などが含まれます。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています