HyperAIHyperAI

Command Palette

Search for a command to run...

Cache KV

Date

il y a 2 ans

KV Cache, abréviation de Key-value Cache, est une technologie couramment utilisée pour optimiser les performances de raisonnement des grands modèles. Cette technologie peut améliorer les performances de raisonnement en échangeant de l’espace contre du temps sans affecter la précision des calculs. KV Cache est une technologie d'ingénierie importante pour optimiser les performances de raisonnement du transformateur.Tous les principaux frameworks d'inférence l'ont implémenté et encapsulé (par exemple, la fonction generate de la bibliothèque Transformers l'a encapsulé, et les utilisateurs n'ont pas besoin de transmettre manuellement past_key_values) et il est activé par défaut (use_cache=True dans le fichier config.json).

Références

【1】https://zhuanlan.zhihu.com/p/630832593

Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Cache KV | Wiki | HyperAI