HyperAIHyperAI

Command Palette

Search for a command to run...

Perte R2 : Perte de restriction de plage pour la compression et la quantification des modèles

Arnav Kundu Chungkuk Yoo Srijan Mishra Minsik Cho Saurabh Adya

Résumé

La quantification et la compression de modèles constituent des techniques largement utilisées pour réduire la consommation de ressources informatiques au moment de l’inférence. Bien que les travaux les plus récents aient atteint une précision raisonnable avec des bits plus élevés, comme 4 bits ou 8 bits, il reste un défi majeur à surmonter pour quantifier ou compresser davantage un modèle, par exemple à 1 bit ou 2 bits. Pour relever ce défi, nous nous concentrons sur les valeurs aberrantes présentes dans les poids d’un modèle pré-entraîné, qui perturbent la quantification à faible précision efficace. Dans ce travail, nous proposons une nouvelle fonction de perte, appelée Range Restriction Loss (R2-Loss), destinée à concevoir des modèles compatibles avec une quantification et une compression à faible nombre de bits en éliminant les valeurs aberrantes des poids pendant l’étape de pré-entraînement. En restreignant efficacement la plage des poids, nous modélisons la distribution globale de manière à obtenir une forme compacte, garantissant ainsi une haute résolution en quantification, ce qui permet aux techniques de compression et de quantification d’exploiter pleinement leurs capacités limitées de représentation numérique. Nous introduisons trois variantes distinctes de la R2-Loss : la R2-Loss L-inf, son extension appelée Margin R2-Loss, ainsi qu’une nouvelle fonction, la Soft-Min-Max R2-Loss, qui peuvent être utilisées comme pertes auxiliaires durant l’entraînement du modèle en précision pleine. Ces différentes versions de la R2-Loss s’adaptent à divers cas d’usage : la R2-Loss L-inf et la Margin R2-Loss s’avèrent particulièrement efficaces pour la quantification symétrique, tandis que la Soft-Min-Max R2-Loss montre des performances supérieures dans le contexte de la compression de modèles. Dans nos expérimentations, la R2-Loss améliore significativement la précision de la quantification à faible nombre de bits, qu’il s’agisse de techniques de quantification post-entraînement (PTQ), d’entraînement sensible à la quantification (QAT) ou de compression de modèles. Grâce à la R2-Loss, les performances sont améliorées respectivement à 59,49 % (contre 50,66 %) pour MobileNet-V2 avec 2 bits pour les poids et 8 bits pour les activations en PTQ, à 59,05 % (contre 55,96 %) pour MobileNet-V1 avec 2 bits pour les poids et les activations en QAT, et à 52,58 % (contre 45,54 %) pour ResNet18 avec compression à 1 bit pour les poids.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Perte R2 : Perte de restriction de plage pour la compression et la quantification des modèles | Articles | HyperAI