HyperAI

Réglage Fin Efficace Des Paramètres

Le réglage fin efficace des paramètres (PEFT) est une technique utilisée dans le traitement du langage naturel (NLP) pour améliorer les performances des modèles de langage pré-entraînés sur des tâches spécifiques en aval. Il s’agit de réutiliser les paramètres d’un modèle pré-entraîné et de l’affiner sur un ensemble de données plus petit, ce qui permet d’économiser des ressources informatiques et du temps par rapport à l’entraînement de l’ensemble du modèle à partir de zéro. PEFT atteint cette efficacité en gelant certaines couches du modèle pré-entraîné et en affinant uniquement les dernières couches spécifiques à la tâche en aval. De cette façon, le modèle peut être adapté à de nouvelles tâches avec moins de frais de calcul et moins d’exemples étiquetés. Bien que le PEFT soit un concept relativement nouveau, la mise à jour de la dernière couche d’un modèle est pratiquée en vision par ordinateur depuis l’introduction de l’apprentissage par transfert.

En 2024, l'équipe de Sun Maosong du département d'informatique de l'université Tsinghua a proposé un résultat de recherche connexe «Réglage efficace des paramètres pour les modèles linguistiques pré-entraînés à grande échelleL'article a été publié dans Nature Machine Intelligence. Ce résultat de recherche définit et décrit le problème du réglage Delta et passe en revue les recherches antérieures à travers un cadre unifié. Les méthodes de réglage Delta peuvent être divisées en trois groupes : les méthodes basées sur l'addition, les méthodes basées sur la spécification et les méthodes basées sur le reparamétrage. L'équipe de recherche a également proposé un cadre théorique du point de vue de l'optimisation et du contrôle optimal pour guider la conception ultérieure de la structure et de l'algorithme, et a mené une comparaison expérimentale complète et une analyse des performances de plus de 100 tâches de PNL.