HyperAIHyperAI

Command Palette

Search for a command to run...

广泛上下文语言模型作为阅读理解

Zewei Chu; Hai Wang; Kevin Gimpel; David McAllester

摘要

文本理解的进步得益于测试特定能力的大规模数据集的推动,例如最近用于阅读理解的数据集(Hermann 等,2015)。本文重点关注 LAMBADA 数据集(Paperno 等,2016),该数据集是一个需要超越当前句子范围的广泛上下文的词语预测任务。我们将 LAMBADA 视为一个阅读理解问题,并应用基于神经网络的阅读理解模型。尽管这些模型受到从上下文中选择词语的限制,但它们在 LAMBADA 上的表现从 7.3% 提高到了 49%,显著提升了现有技术水平。我们分析了 100 个实例,发现基于神经网络的阅读器在涉及根据对话或篇章线索从上下文中选择名字的情况下表现良好,但在需要共指消解或外部知识时则遇到困难。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供