2 个月前

迭代交替神经注意力机制用于机器阅读

Alessandro Sordoni; Philip Bachman; Adam Trischler; Yoshua Bengio
迭代交替神经注意力机制用于机器阅读
摘要

我们提出了一种新颖的神经注意力架构,以解决机器理解任务,例如针对文档回答完形填空式问题。与以往的模型不同,我们并未将查询压缩为单一向量,而是采用了迭代交替注意力机制,该机制允许对查询和文档进行细致的探索。我们的模型在标准的机器理解基准测试中超越了现有的最先进基线模型,如CNN新闻文章和儿童书籍测试(Children's Book Test, CBT)数据集。