Perte R2 : Perte de restriction de plage pour la compression et la quantification des modèles

La quantification et la compression de modèles constituent des techniques largement utilisées pour réduire la consommation de ressources informatiques au moment de l’inférence. Bien que les travaux les plus récents aient atteint une précision raisonnable avec des bits plus élevés, comme 4 bits ou 8 bits, il reste un défi majeur à surmonter pour quantifier ou compresser davantage un modèle, par exemple à 1 bit ou 2 bits. Pour relever ce défi, nous nous concentrons sur les valeurs aberrantes présentes dans les poids d’un modèle pré-entraîné, qui perturbent la quantification à faible précision efficace. Dans ce travail, nous proposons une nouvelle fonction de perte, appelée Range Restriction Loss (R2-Loss), destinée à concevoir des modèles compatibles avec une quantification et une compression à faible nombre de bits en éliminant les valeurs aberrantes des poids pendant l’étape de pré-entraînement. En restreignant efficacement la plage des poids, nous modélisons la distribution globale de manière à obtenir une forme compacte, garantissant ainsi une haute résolution en quantification, ce qui permet aux techniques de compression et de quantification d’exploiter pleinement leurs capacités limitées de représentation numérique. Nous introduisons trois variantes distinctes de la R2-Loss : la R2-Loss L-inf, son extension appelée Margin R2-Loss, ainsi qu’une nouvelle fonction, la Soft-Min-Max R2-Loss, qui peuvent être utilisées comme pertes auxiliaires durant l’entraînement du modèle en précision pleine. Ces différentes versions de la R2-Loss s’adaptent à divers cas d’usage : la R2-Loss L-inf et la Margin R2-Loss s’avèrent particulièrement efficaces pour la quantification symétrique, tandis que la Soft-Min-Max R2-Loss montre des performances supérieures dans le contexte de la compression de modèles. Dans nos expérimentations, la R2-Loss améliore significativement la précision de la quantification à faible nombre de bits, qu’il s’agisse de techniques de quantification post-entraînement (PTQ), d’entraînement sensible à la quantification (QAT) ou de compression de modèles. Grâce à la R2-Loss, les performances sont améliorées respectivement à 59,49 % (contre 50,66 %) pour MobileNet-V2 avec 2 bits pour les poids et 8 bits pour les activations en PTQ, à 59,05 % (contre 55,96 %) pour MobileNet-V1 avec 2 bits pour les poids et les activations en QAT, et à 52,58 % (contre 45,54 %) pour ResNet18 avec compression à 1 bit pour les poids.