HyperAIHyperAI

Command Palette

Search for a command to run...

Prune Une Fois Pour Toutes : Modèles Linguistiques Pré-Entraînés Épars

Ofir Zafrir Ariel Larey Guy Boudoukh Haihao Shen Moshe Wasserblat

Résumé

Les modèles de langage basés sur Transformer sont largement utilisés dans diverses applications du traitement du langage naturel. Toutefois, ils sont peu efficaces et difficiles à déployer. Ces dernières années, de nombreux algorithmes de compression ont été proposés afin d’améliorer l’efficacité d’implémentation des grands modèles basés sur Transformer sur des matériels cibles. Dans ce travail, nous présentons une nouvelle méthode d’entraînement de modèles pré-entraînés Transformer à faible densité, en combinant la suppression de poids (weight pruning) et la distillation de modèle. Ces modèles pré-entraînés creux peuvent être utilisés pour l’apprentissage par transfert sur une large gamme de tâches tout en conservant leur structure creuse. Nous illustrons notre méthode sur trois architectures connues, en construisant des modèles pré-entraînés creux BERT-Base, BERT-Large et DistilBERT. Nous montrons comment les modèles pré-entraînés creux que nous avons entraînés transfèrent leurs connaissances à cinq tâches naturelles du traitement du langage en subissant une perte d’exactitude minimale. En outre, nous détaillons une méthode permettant de compresser davantage les poids de ces modèles creux jusqu’à une précision de 8 bits grâce à un entraînement sensible à la quantification (quantization-aware training). Par exemple, en fine-tunant notre modèle BERT-Large creux sur SQuADv1.1 et en le quantifiant à 8 bits, nous obtenons un ratio de compression de 40× pour l’encodeur avec une perte d’exactitude inférieure à 1 %. À notre connaissance, nos résultats établissent le meilleur rapport compression-précision pour BERT-Base, BERT-Large et DistilBERT.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Prune Une Fois Pour Toutes : Modèles Linguistiques Pré-Entraînés Épars | Articles | HyperAI