HyperAIHyperAI

Command Palette

Search for a command to run...

Transformers は RNN である:線形アテンションを用いた高速逐次生成 Transformers

Angelos Katharopoulos Apoorv Vyas Nikolaos Pappas François Fleuret

概要

Transformerは複数のタスクにおいて優れた性能を発揮するが、入力長さに関して二次的な計算量(O(N2)\mathcal{O}\left(N^2\right)O(N2))を持つため、非常に長いシーケンスに対しては実用上不可能なほど遅延してしまう。この制約を克服するため、自己注意機構(self-attention)をカーネル特徴マップの線形ドット積として表現し、行列積の結合性(associativity)を利用することで、計算量をO(N2)\mathcal{O}\left(N^2\right)O(N2)からO(N)\mathcal{O}\left(N\right)O(N)へと削減する。本研究では、この定式化が反復的(iterative)な実装を可能にし、自己回帰型Transformerの高速化を大幅に実現するとともに、それらが再帰型ニューラルネットワーク(RNN)との間に本質的な関係を持つことを明らかにする。提案する線形Transformerは、従来型Transformerと同等の性能を達成しつつ、非常に長いシーケンスに対する自己回帰予測において最大4000倍の高速化を実現している。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
Transformers は RNN である:線形アテンションを用いた高速逐次生成 Transformers | 記事 | HyperAI超神経