Évolution des prompts en contexte : une perspective ouverte et auto-répliquante

Nous proposons un nouveau paradigme de conception de prompts qui remet en question les idées reçues sur l'incitation des grands modèles linguistiques (LLM). Bien que les idées reçues mettent l'accent sur la rédaction soignée d'instructions et de démonstrations pour l'apprentissage en contexte (ICL), nous montrons que le tri de démonstrations aléatoires en un semblant d'« incohérence » ou « charabia » peut améliorer considérablement les performances sur une variété de tâches. Notamment, ce « charabia » égale ou dépasse systématiquement les techniques automatiques d'optimisation des prompts les plus avancées, réalisant des gains substantiels indépendamment de l'alignement du LLM. Cependant, trouver une stratégie de tri efficace n'est pas trivial, car les méthodes existantes d'attribution et d'algorithmes de compression des prompts échouent à produire des résultats robustes, sans parler de l'intuition humaine. À cet égard, nous proposons un cadre d'optimisation des prompts auto-découvert, PromptQuine, un cadre de recherche évolutionnaire qui cherche automatiquement la stratégie de tri par lui-même en utilisant uniquement des régimes à faible volume de données. De la même manière que la complexité émergente dans la nature — telle que le symbiotisme et l'autorganisation — apparaît en réponse aux contraintes de ressources, notre cadre évolue et affine des prompts non conventionnels mais hautement efficaces en exploitant uniquement les jetons présents dans le contexte. Nous démontrons son efficacité sur des tâches de classification, de réponse à des questions à choix multiples, de génération et de raisonnement mathématique à travers différents LLMs, tout en atteignant une bonne efficacité temporelle. Nous espérons que nos découvertes guideront les études mécanistes sur l'apprentissage en contexte et inciteront à développer des algorithmes de recherche plus ouverts pour une incitation plus efficace des LLMs.