HyperAIHyperAI

Command Palette

Search for a command to run...

CEDR:上下文化文档嵌入用于文档排序

Sean MacAvaney Arman Cohan Andrew Yates Nazli Goharian

摘要

尽管近年来神经排序架构受到了广泛关注,但用于这些模型输入的词条表示却远未得到足够的重视。在本研究中,我们探讨了如何利用两种预训练的上下文语言模型(ELMo 和 BERT)进行临时文档排序。通过在 TREC 基准上的实验,我们发现现有的几种神经排序架构可以从上下文语言模型提供的额外上下文中受益。此外,我们提出了一种联合方法,将 BERT 的分类向量融入现有的神经模型中,并证明该方法优于当前最先进的临时文档排序基线。我们将这种联合方法称为 CEDR(用于文档排序的上下文嵌入)。我们还讨论了使用这些模型进行排序时面临的一些实际挑战,包括 BERT 对最大输入长度的限制以及上下文语言模型对运行时性能的影响。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供