HyperAI
Back to Headlines

IA d'OpenAI et Google DeepMind remporte l'or aux Olympiades Mathématiques Internationales

il y a 15 heures

Google DeepMind a annoncé lundi que la version avancée de son modèle d'intelligence artificielle Gemini a obtenu une performance de niveau médaille d'or à l'International Mathematical Olympiad (IMO), en résolvant cinq des six problèmes extrêmement difficiles posés. Cette victoire marque un progrès significatif dans le domaine du raisonnement artificiel et place Google en tête dans la compétition entre les géants de la technologie pour développer l'IA de nouvelle génération. L’IMO, créé en 1959, est considéré comme la plus prestigieuse compétition de mathématiques pour les étudiants pré-universitaires. Chaque pays y envoie six jeunes mathématiciens élites pour résoudre six problèmes complexes couvrant l'algèbre, la combinatoire, la géométrie et la théorie des nombres. Environ 8% des participants humains reçoivent une médaille d'or. En 2024, Google DeepMind avait déjà réalisé un exploit avec ses systèmes combinés AlphaProof et AlphaGeometry, qui avaient obtenu une médaille d'argent en résolvant quatre problèmes sur six. Ce système nécessitait l’intervention d’experts humains pour traduire les problèmes de langage naturel vers des langages de programmation spécifiques et vice versa pour les preuves, ce qui prenait deux à trois jours de calcul. Cette année, Gemini Deep Think a opéré entièrement en langage naturel, produisant des preuves rigoureuses directement à partir des descriptions officielles des problèmes, et ce, tout en respectant le délai de 4,5 heures imposé par la compétition. Le succès de Gemini Deep Think s’explique par des méthodes d'entraînement novatrices, notamment l'utilisation de techniques d'apprentissage par renforcement avancées conçues pour exploiter des données de raisonnement multicritères, de résolution de problèmes et de démonstration de théorèmes. Le modèle a également eu accès à une collection curatée de solutions de haute qualité et a reçu des conseils généraux sur la manière d’aborder les problèmes de l’IMO. Selon le CEO de Google DeepMind, Demis Hassabis, l’approche de « pensée parallèle » a permis au modèle de simultanément explorer et combiner plusieurs solutions potentielles avant d’arriver à une réponse finale. Les solutions de Gemini ont été jugées « étonnantes en de nombreux aspects » par le président de l'IMO, Prof. Dr. Gregor Dolinar, qui a souligné leur clarté, précision et facilité de suivi. Google a déclaré que cette performance était le fruit d'une version améliorée de Gemini Deep Think, qui a obtenu 35 points sur 42, largement suffisant pour atteindre le seuil de la médaille d'or. En revanche, OpenAI a fait face à des critiques après avoir annoncé ses propres résultats de l'IMO sans participer au processus d'évaluation officiel. OpenAI a utilisé un modèle expérimental basé sur sa famille de modèles o1, qui a également résolu cinq problèmes sur six, obtenant 35 points. Cependant, ces résultats ont été évalués internement par un panel de trois anciens médaillés d'or de l'IMO, ce qui a été perçu par certains comme manquant de crédibilité. Thang Luong, chercheur chez Google DeepMind, a même affirmé que si les résultats d'OpenAI étaient jugés selon le guide de notation interne de l'IMO, ils n’auraient pas atteint le seuil de la médaille d'or. Cette année, Google DeepMind a choisi de respecter les règles de l'IMO, ne faisant son annonce que lorsque les résultats officiels ont été vérifiés par des experts indépendants et que les étudiants ont été acclamés. Cette approche mesurée a été saluée par la communauté de l'IA, qui a critiqué l'annonce prématurée d'OpenAI. Des utilisateurs des réseaux sociaux ont souligné le manque de respect d'OpenAI envers les étudiants et l'IMO, qualifiant cela de « manque de classe ». L’IA commence à montrer des capacités de raisonnement qui se rapprochent de celles des humains, capable de comprendre des problèmes décrits en langage naturel et d’appliquer une logique abstraite pour résoudre des cas nouveaux. Cette performance de Gemini démontre que l'IA peut désormais rivaliser avec les compétences humaines dans des tâches complexes requérant créativité, réflexion abstraite et synthèse de connaissances. Selon Ethan Mollick, professeur à l’École Wharton qui étudie l’IA, l’utilisation de modèles à grande échelle capables de généraliser à la résolution de problèmes novateurs est un signe encourageant. Junehyuk Jung, chercheur chez DeepMind, a souligné que Gemini a fait une observation brillante dans un problème où de nombreux concurrents humains ont appliqué des concepts de mathématiques de niveau master, trouvant une solution élégante et auto-contenue grâce à la théorie élémentaire des nombres. Dans le contexte de la course aux IA de nouvelle génération, estimée à 200 milliards de dollars, cette victoire de Google DeepMind a des implications pratiques immédiates. Google prévoit de rendre disponible une version de ce modèle Deep Think aux mathématiciens pour des tests avant de le déployer aux abonnés de Google AI Ultra, qui paient 250 dollars par mois pour accéder aux modèles d'IA les plus avancés de la compagnie. Cette avancée pourrait démocratiser des capacités analytiques sophistiquées dans diverses industries, sans nécessiter une programmation spécialisée ou des connaissances techniques approfondies. Cependant, des questions subsistent quant à la capacité de ces modèles à s'adapter efficacement aux défis plus complexes et moins bien définis du monde réel. Les problèmes de l'IMO sont structurés avec des critères de réussite clairs, contrairement aux décisions ambiguës et multifactorielles rencontrées dans la plupart des contextes professionnels et scientifiques. Google DeepMind prévoit de revenir à la compétition de l'année prochaine « en quête d’une note parfaite » et croit fermement que les agents combinant la fluidité en langage naturel avec un raisonnement rigoureux deviendront des outils inestimables pour les mathématiciens, les scientifiques, les ingénieurs et les chercheurs, contribuant ainsi à l'avancement de la connaissance humaine sur le chemin vers l'Intelligence Artificielle Générale (AGI). Malgré ces avancées, Gemini a également montré ses limites lorsqu'il a commencé par une hypothèse incorrecte sur le problème le plus difficile de la compétition, ne parvenant pas à se remettre en question et à trouver une solution. Seuls cinq étudiants humains ont réussi à résoudre ce problème, soulignant que même un IA de niveau médaille d'or a encore beaucoup à apprendre des jeunes mathématiciens. La réussite de Gemini à l’IMO reflète un changement majeur dans le développement de l’IA, où les modèles généralistes sont capables de performances qui dépassent celles des modèles spécialisés. Cela suggère que l’avenir de l’IA pourrait être marqué par des systèmes capables de résoudre des problèmes complexes à travers des domaines variés, en utilisant des capacités de raisonnement et de compréhension du langage naturel. Cette avancée est cruciale pour l’industrie de l’IA, où la transparence et la crédibilité sont devenues des enjeux majeurs.

Related Links