Attention Aux Requêtes Groupées (GQA)
L'attention de requête groupée (GQA) est une méthode qui interpole entre l'attention multi-requêtes (MQA) et l'attention multi-têtes (MHA) dans les grands modèles de langage (LLM).Son objectif est d’atteindre la qualité du MHA tout en maintenant la vitesse du MQA.
Les principaux attributs de GQA comprennent :
- Interpolation:GQA est une méthode intermédiaire entre MQA et MHA, qui résout les lacunes du MQA, telles que la dégradation de la qualité et l'instabilité de la formation.
- efficacité:GQA optimise les performances tout en maintenant la qualité en utilisant un nombre intermédiaire d'en-têtes clé-valeur.
- compromis:GQA établit un équilibre entre la vitesse de MQA et la qualité de MHA, offrant un compromis favorable.