Command Palette
Search for a command to run...
ConstraintLLM : un cadre neuro-symbolique pour la programmation par contraintes à l'échelle industrielle
Weichun Shi Minghao Liu Wanting Zhang Langchen Shi Fuqi Jia et al

Résumé
La programmation par contraintes (CP) est une technologie essentielle pour résoudre des problèmes d’optimisation sous contraintes (COPs) du monde réel, offrant des avantages tels qu’une sémantique de modélisation riche et une efficacité de résolution élevée. L’utilisation de modèles de langage à grande échelle (LLM) pour générer automatiquement des modèles formels à partir de COPs devient une approche prometteuse, visant à construire une intelligence artificielle neuro-symbolique fiable grâce à l’apport de solveurs symboliques. Toutefois, la CP a reçu moins d’attention que les travaux fondés sur des modèles de recherche opérationnelle (OR). Nous introduisons ConstraintLLM, le premier LLM spécifiquement conçu pour la modélisation en CP, entraîné à partir d’un LLM open-source via une fine-tuning supervisée multi-instruction. Nous proposons le module de récupération conscient des contraintes (CARM), destiné à renforcer les capacités d’apprentissage in-context, intégré dans un cadre Tree-of-Thoughts (ToT) doté d’un mécanisme guidé d’autocorrection. En outre, nous avons construit et publié IndusCP, le premier benchmark à l’échelle industrielle dédié à la modélisation en CP, comprenant 140 tâches exigeantes issues de divers domaines. Nos expérimentations montrent que ConstraintLLM atteint une précision de résolution de pointe sur plusieurs benchmarks, surpassant les méthodes de référence de deux fois sur le nouveau benchmark IndusCP. Le code et les données sont disponibles à l’adresse suivante : this https URL.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.