Un nouveau cadre pour aider l’IA à gérer l’incertitude et prendre des décisions alignées avec les valeurs humaines
Dans un monde de plus en plus dominé par l'intelligence artificielle (IA), la capacité des machines à prendre des décisions en situation d'incertitude devient cruciale. Willie Neiswanger, professeur assistant en informatique à l'Université du Sud de la Californie (USC Viterbi School of Engineering), a développé un nouveau cadre de modèles de langage à grande échelle (LLM) qui intègre des principes de la théorie de la décision et de la théorie de l'utilité. Ce projet, présenté lors de la conférence internationale ICLR en 2025 et publié sur arXiv, vise à améliorer la manière dont les IA gèrent l'incertitude, en combinant leurs forces à celles des humains. Selon Neiswanger, l'intelligence humaine et artificielle possèdent des avantages distincts. Les LLM, par exemple, sont capables de traiter rapidement de grandes quantités d'informations et de générer des scénarios possibles. Cependant, contrairement aux experts humains, qui peuvent exprimer leur degré de confiance ou reconnaître les limites de leurs connaissances, les LLM produisent souvent des réponses avec une apparente certitude, même lorsqu'elles sont basées sur des données incomplètes. Son travail se concentre sur la prise de décision dans des environnements incertains, notamment dans des domaines comme l'optimisation de systèmes, la conception d'expériences ou la découverte de matériaux et de médicaments. Il explore également comment les grands modèles de base, comme les LLM, peuvent être améliorés grâce à ces cadres décisionnels. Cela permettrait non seulement d'aider les humains à mieux gérer l'incertitude, mais aussi de réduire le besoin de données d'entraînement coûteuses ou de qualité élevée. Pour résoudre le problème de l'incertitude, Neiswanger et son équipe ont mis au point une méthode d'évaluation des incertitudes. Cette approche permet aux LLM de quantifier leur confiance dans leurs prédictions et de choisir des actions qui maximisent l'utilité en tenant compte des préférences humaines. Le processus consiste à identifier les variables incertaines pertinentes, puis à attribuer des scores de probabilité basés sur des rapports ou des données historiques, avant de les convertir en probabilités numériques. Les applications immédiates de cette recherche sont nombreuses. Dans le domaine des affaires, elle pourrait améliorer la planification stratégique en évaluant plus précisément les incertitudes du marché. En médecine, elle pourrait soutenir les diagnostics ou les choix thérapeutiques en tenant compte des incertitudes liées aux symptômes. Dans le quotidien, elle aiderait les utilisateurs à obtenir des conseils plus pertinents et éclairés. L’un des aspects les plus prometteurs de cette recherche est la capacité à aligner les recommandations des IA sur les valeurs humaines. En modélisant explicitement les préférences des parties prenantes, le cadre produit des solutions non seulement techniques, mais aussi acceptables en pratique. À l’avenir, Neiswanger souhaite élargir l’application de ce cadre à des domaines comme la recherche opérationnelle, la logistique et la santé. Un objectif clé est d'améliorer l'auditabilité humaine, c’est-à-dire de créer des interfaces qui expliquent de manière claire les raisons des décisions prises par les LLM. Des experts du secteur soulignent que cette approche représente un pas important vers une IA plus transparente et plus alignée avec les besoins humains. Les entreprises comme Google et Meta investissent également dans des modèles capables de gérer l'incertitude, ce qui montre l’importance croissante de cette problématique.