Command Palette
Search for a command to run...
SeerAttention-R : Adaptation de l'attention parcimonieuse pour le raisonnement à long terme
SeerAttention-R : Adaptation de l'attention parcimonieuse pour le raisonnement à long terme
Résumé
Nous présentons SeerAttention-R, un cadre d'attention creuse spécifiquement conçu pour la décodage de longue durée des modèles de raisonnement. Étendu à partir de SeerAttention, SeerAttention-R conserve le design d'apprentissage de l'attention creuse par un mécanisme de portes auto-distillé, tout en supprimant le regroupement des requêtes pour s'adapter au décodage auto-régressif. Grâce à une porte légère et intégrable, SeerAttention-R est flexible et peut être facilement incorporé dans les modèles préentraînés existants sans modifier les paramètres originaux. Nous démontrons que SeerAttention-R, formé avec seulement 0,4 milliard de jetons, maintient une précision de raisonnement quasi sans perte avec un budget de 4K jetons dans le benchmark AIME sous de grandes tailles de blocs d'attention creuse (64/128). En utilisant TileLang, nous avons développé un noyau de décodage creux hautement optimisé qui atteint des accélérations quasi théoriques allant jusqu'à 9 fois plus rapides que FlashAttention-3 sur GPU H100 à 90% de creux. Le code est disponible à l'adresse suivante : https://github.com/microsoft/SeerAttention.