HyperAIHyperAI

Command Palette

Search for a command to run...

使用稀疏读写扩展记忆增强神经网络

J. Doe A. Smith

摘要

增强外部记忆的神经网络具有学习复杂任务算法解决方案的能力。这些模型在语言建模和机器翻译等应用中展现出巨大的潜力。然而,随着记忆量的增加,它们在空间和时间上的扩展性能较差——限制了其在现实世界领域的应用。本文提出了一种端到端可微分的记忆访问方案,我们称之为稀疏访问记忆(Sparse Access Memory, SAM),该方案保留了原有方法的表现力,同时能够在非常大的记忆库上高效训练。我们证明了SAM在空间和时间复杂度方面达到了渐近下界,并发现其实现比非稀疏模型运行速度快1000倍,物理内存消耗少3000倍。SAM在一系列合成任务和一次性Omniglot字符识别任务中的数据效率与现有模型相当,并且可以扩展到需要数万时间步长和大量记忆的任务。此外,我们还展示了如何将我们的方法适应于维护记忆之间时间关联性的模型,例如最近提出的可微分神经计算机(Differentiable Neural Computer)。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供