Apprentissage efficace au moment de l'évaluation : ajustement fin actif des LLM

Les récents efforts visant le fine-tuning des modèles linguistiques s'appuient fréquemment sur une sélection automatique de données, souvent réalisée à l'aide d'une recherche de voisins les plus proches (Nearest Neighbors) dans de grandes bases de données. Toutefois, nous montrons théoriquement que cette approche a tendance à sélectionner des données redondantes, ce qui limite son efficacité voire nuit à la performance. Pour remédier à ce problème, nous proposons SIFT, un algorithme de sélection de données conçu pour réduire l'incertitude concernant la réponse du modèle face à un prompt donné, unifiant ainsi des idées issues de la recherche d'information et de l'apprentissage actif. Contrairement à la recherche de voisins les plus proches, qui échoue fréquemment en présence de duplication d'information, SIFT prend en compte cette duplication et optimise le gain d'information global des exemples sélectionnés. Nous évaluons principalement notre méthode dans le cadre du fine-tuning en temps de test pour la modélisation linguistique spécifique à un prompt sur le jeu de données Pile, et montrons que SIFT surpasse de manière cohérente la recherche de voisins les plus proches, avec un surcoût computationnel minimal. De plus, nous démontrons que nos estimations d'incertitude permettent de prédire les gains de performance du fine-tuning en temps de test, et nous utilisons cette propriété pour concevoir un algorithme adaptatif qui alloue les ressources computationnelles en temps de test proportionnellement aux gains de performance réels observés. Nous mettons à disposition la bibliothèque $\texttt{activeft}$ (Active Fine-Tuning), qui peut être utilisée comme remplacement immédiat de la recherche de voisins les plus proches.