2 个月前

生成长序列的稀疏变换器

Rewon Child; Scott Gray; Alec Radford; Ilya Sutskever
生成长序列的稀疏变换器
摘要

变压器(Transformers)是强大的序列模型,但其所需的时间和内存随着序列长度的增加而呈二次增长。在本文中,我们引入了注意力矩阵的稀疏分解方法,将这一复杂度降低至$O(n \sqrt{n})$。此外,我们还提出了:a) 一种架构和初始化的变化,以训练更深的网络;b) 重新计算注意力矩阵以节省内存;c) 用于训练的快速注意力内核。我们将这些改进后的网络称为稀疏变压器(Sparse Transformers),并展示了它们可以使用数百层来建模长达数万时间步的序列。我们使用相同的架构对图像、音频和文本从原始字节进行建模,在Enwik8、CIFAR-10和ImageNet-64的数据密度建模方面达到了新的最佳水平。我们生成的无条件样本展示了全局连贯性和高度多样性,并证明原则上可以使用自注意力机制来建模长度超过一百万的时间步序列。