HyperAIHyperAI

Command Palette

Search for a command to run...

Les Transformers sont des RNN : des Transformers autoregressifs rapides à attention linéaire

Angelos Katharopoulos Apoorv Vyas Nikolaos Pappas François Fleuret

Résumé

Les Transformers obtiennent des performances remarquables sur plusieurs tâches, mais en raison de leur complexité quadratique par rapport à la longueur de l’entrée, ils sont prohibitivement lents pour des séquences très longues. Pour surmonter cette limitation, nous exprimons l’attention auto-encadrante comme un produit scalaire linéaire de cartes de fonctions noyaux, et nous exploitons la propriété d’associativité des produits matriciels afin de réduire la complexité de O(N2)\mathcal{O}\left(N^2\right)O(N2) à O(N)\mathcal{O}\left(N\right)O(N), où NNN représente la longueur de la séquence. Nous montrons que cette formulation permet une implémentation itérative qui accélère considérablement les Transformers autoregressifs et met en évidence leur relation avec les réseaux de neurones récurrents. Nos Transformers linéaires atteignent des performances comparables à celles des Transformers classiques, tout en étant jusqu’à 4000 fois plus rapides pour la prédiction autoregressive de séquences très longues.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp