Devinez l’Instruction ! L’apprentissage inversé rend les Modèles de Langage plus puissants apprentis zéro-shot

L’entraînement méta, qui affine le modèle de langage (LM) sur diverses tâches downstream en maximisant la probabilité de l’étiquette cible donnée l’instruction de tâche et l’instance d’entrée, a amélioré les performances de généralisation zéro-shot. Toutefois, les LM entraînés par méta-apprentissage peinent encore à généraliser à des tâches complexes comportant des étiquettes inédites non rencontrées durant l’entraînement méta. Dans cet article, nous proposons Flipped Learning, une méthode alternative d’entraînement méta qui entraîne le LM à générer l’instruction de tâche à partir de l’instance d’entrée et de l’étiquette. Lors de l’inférence, le LM entraîné avec Flipped Learning, appelé Flipped, sélectionne l’option d’étiquette la plus susceptible de générer l’instruction de tâche. Sur 14 tâches du benchmark BIG-bench, le modèle Flipped de taille 11B surpasse en moyenne T0-11B en mode zéro-shot ainsi qu’un modèle GPT-3 (175B) en mode trois-exemples, 16 fois plus grand, de 8,4 et 9,7 points respectivement. Flipped obtient des améliorations particulièrement importantes sur les tâches comportant des étiquettes inédites, dépassant T0-11B jusqu’à +20 % en score F1 moyen. Cela indique que la forte capacité de généralisation des tâches de Flipped provient d’une meilleure généralisation aux étiquettes nouvelles. Nous mettons à disposition notre code à l’adresse suivante : https://github.com/seonghyeonye/Flipped-Learning.