Glisser-Déposer les LLM : Passez des Prompts aux Poids sans Supervision Préalable

Les méthodes modernes de réglage fin efficace en termes de paramètres (PEFT) telles que l'adaptation de rang faible (LoRA) réduisent le coût d'adaptation des grands modèles linguistiques (LLMs), mais nécessitent encore une optimisation distincte pour chaque jeu de données en aval. Nous présentons \textbf{Drag-and-Drop LLMs (\textit{DnD})}, un générateur de paramètres conditionné par les invites qui élimine l'entraînement spécifique à chaque tâche en mappant directement un petit nombre d'invites non étiquetées aux mises à jour des poids LoRA. Un encodeur textuel léger distille chaque lot d'invites en plongements conditionnels, qui sont ensuite transformés par un décodeur hyper-convolutif en cascade en l'ensemble complet des matrices LoRA. Une fois entraîné sur une collection diversifiée de paires invite-point de contrôle, DnD produit des paramètres spécifiques à la tâche en quelques secondes, offrant i) jusqu'à \textbf{12 000 fois} moins de surcoût que le réglage fin complet, ii) des gains moyens allant jusqu'à \textbf{30\%} en performance par rapport aux LoRA les mieux entraînés sur des benchmarks inédits de raisonnement communautaire, mathématiques, codage et multimodaux, et iii) une généralisation robuste inter-domaines malgré l'absence d'exposition aux données cibles ou aux étiquettes. Nos résultats montrent que la génération de paramètres conditionnée par les invites est une alternative viable à l'adaptation basée sur les gradients pour spécialiser rapidement les LLMs. Notre projet est disponible à \href{https://jerryliang24.github.io/DnD}{https://jerryliang24.github.io/DnD}.