2 个月前

广泛上下文语言模型作为阅读理解

Zewei Chu; Hai Wang; Kevin Gimpel; David McAllester
广泛上下文语言模型作为阅读理解
摘要

文本理解的进步得益于测试特定能力的大规模数据集的推动,例如最近用于阅读理解的数据集(Hermann 等,2015)。本文重点关注 LAMBADA 数据集(Paperno 等,2016),该数据集是一个需要超越当前句子范围的广泛上下文的词语预测任务。我们将 LAMBADA 视为一个阅读理解问题,并应用基于神经网络的阅读理解模型。尽管这些模型受到从上下文中选择词语的限制,但它们在 LAMBADA 上的表现从 7.3% 提高到了 49%,显著提升了现有技术水平。我们分析了 100 个实例,发现基于神经网络的阅读器在涉及根据对话或篇章线索从上下文中选择名字的情况下表现良好,但在需要共指消解或外部知识时则遇到困难。

广泛上下文语言模型作为阅读理解 | 最新论文 | HyperAI超神经