HyperAIHyperAI

Command Palette

Search for a command to run...

Attention par Fonction Aléatoire

Hao Peng Nikolaos Pappas Dani Yogatama Roy Schwartz Noah A. Smith Lingpeng Kong

Résumé

Les Transformers sont des modèles de pointe pour diverses tâches de modélisation de séquences. Au cœur de ces modèles se trouve une fonction d’attention qui modélise les interactions par paires entre les entrées à chaque pas de temps. Bien que l’attention soit puissante, elle ne se généralise pas efficacement aux séquences longues en raison de sa complexité quadratique en temps et en espace par rapport à la longueur de la séquence. Nous proposons RFA, une attention à complexité linéaire en temps et en espace, qui utilise des méthodes de fonctions aléatoires pour approximer la fonction softmax, et explorons son application dans les Transformers. RFA peut être utilisée comme remplacement direct de l’attention softmax classique, tout en offrant un moyen simple d’apprendre avec un biais de récence grâce à un mécanisme de porte optionnel. Des expériences sur la modélisation du langage et la traduction automatique montrent que RFA atteint des performances similaires ou supérieures à celles des baselines Transformers fortes. Dans l’expérience de traduction automatique, RFA décode deux fois plus vite qu’un Transformer classique. Par rapport aux variantes efficaces existantes des Transformers, RFA se distingue par une performance compétitive à la fois en précision et en efficacité sur trois jeux de données de classification de textes longs. Notre analyse indique que les gains d’efficacité de RFA sont particulièrement marqués sur les séquences longues, ce qui suggère que RFA sera particulièrement utile dans les tâches nécessitant des entrées de grande taille, une vitesse de décodage rapide ou une empreinte mémoire réduite.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp