HyperAIHyperAI

Command Palette

Search for a command to run...

Transformers sind RNNs: Schnelle autoregressive Transformers mit linearer Aufmerksamkeit

Angelos Katharopoulos Apoorv Vyas Nikolaos Pappas François Fleuret

Zusammenfassung

Transformers erzielen beachtliche Leistungen bei mehreren Aufgaben, sind jedoch aufgrund ihrer quadratischen Komplexität bezüglich der Eingabesequenzlänge für sehr lange Sequenzen prohibitiv langsam. Um diese Einschränkung zu überwinden, formulieren wir die Self-Attention als lineares Skalarprodukt von Kernel-Funktionen und nutzen die Assoziativität von Matrixprodukten, um die Komplexität von O(N2)\mathcal{O}\left(N^2\right)O(N2) auf O(N)\mathcal{O}\left(N\right)O(N) zu reduzieren, wobei NNN die Länge der Sequenz bezeichnet. Wir zeigen, dass diese Formulierung eine iterative Implementierung ermöglicht, die die Autoregressivität von Transformers erheblich beschleunigt und deren Beziehung zu rekurrenten neuronalen Netzen aufzeigt. Unsere linearen Transformers erreichen eine vergleichbare Leistung wie herkömmliche Transformers und sind bei der autoregressiven Vorhersage sehr langer Sequenzen bis zu 4000-mal schneller.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Transformers sind RNNs: Schnelle autoregressive Transformers mit linearer Aufmerksamkeit | Paper | HyperAI