OpenAI瞄准未来五年:打造能自主科研的“自动研究员”
Il y a peu, The MIT Technology Review a publié un entretien exclusif avec deux figures clés d’OpenAI : Jakub Pachocki, directeur scientifique, et Mark Chen, directeur de la recherche. Plus récemment, les deux ont participé à une émission du podcast d’a16z, où ils ont élargi leurs réflexions sur la direction future d’OpenAI, en dévoilant pour la première fois de manière systématique un objectif ambitieux : construire un chercheur automatisé — une intelligence artificielle capable de découvrir de nouvelles connaissances et d’impulser des progrès scientifiques de manière autonome. Ce projet marque une évolution majeure, passant de l’ère du « vibe coding » — une programmation guidée par l’intuition et l’inspiration — vers une nouvelle forme de recherche, le vibe researching, où l’IA devient un partenaire créatif dans la découverte scientifique. De la réponse immédiate à la pensée intégrée : la vision de GPT-5 L’entretien commence par un retour sur la conception de GPT-5. Jusqu’alors, OpenAI opérait selon deux voies distinctes : les modèles GPT classiques, conçus pour des réponses rapides, et les modèles d’inférence o-series, capables de longues réflexions approfondies. Cette dualité créait une confusion pour les utilisateurs. « Nous ne voulons pas que les utilisateurs se demandent quelle version choisir », explique Mark Chen. L’objectif de GPT-5 est donc de fusionner ces deux approches : intégrer naturellement la capacité d’inférence dans le processus de réponse, en rendant l’intelligence agente — capable de planifier, d’itérer, d’apprendre de ses erreurs — le mode par défaut. L’évaluation à l’épreuve du progrès Cette évolution soulève une question fondamentale : comment mesurer le progrès d’un modèle quand les anciennes métriques atteignent leur plafond ? Jakub Pachocki reconnaît que de nombreux benchmarks traditionnels sont saturés. « Passer de 96 % à 98 % n’est pas nécessairement une avancée significative. » Il souligne que les modèles entraînés par apprentissage par renforcement peuvent exceller dans des domaines spécifiques, mais cela ne garantit pas une généralisation réelle. Le vrai défi, selon lui, est désormais de mesurer la capacité d’un modèle à découvrir quelque chose de nouveau. Les performances récentes en mathématiques et en compétitions de programmation sont, selon lui, les premiers signes prometteurs d’un tel potentiel. « Les prochaines étapes ne seront pas des améliorations de score, mais des découvertes concrètes. » Cette transition marque une mutation fondamentale : du simple traitement de données vers la création de connaissances. Vers un chercheur automatisé Le cœur de la stratégie d’OpenAI pour les cinq prochaines années ? Construire un chercheur automatisé. Ce système ne se limiterait pas à améliorer des modèles existants — comme dans l’apprentissage automatique — mais chercherait à produire des idées originales, à formuler de nouveaux problèmes, à proposer des hypothèses et à les tester sur des échelles de temps allant de plusieurs heures à plusieurs mois. Aujourd’hui, les modèles peuvent déjà résoudre des problèmes de niveau lycée en 1 à 5 heures. Le défi suivant est d’étendre cette capacité à des tâches à très long terme, tout en maintenant une cohérence logique et une mémoire efficace. Plus la tâche est longue, plus le risque d’erreur augmente. C’est là que l’inférence robuste devient essentielle : la capacité à analyser une erreur, à rebrousser chemin, à réinventer une stratégie. C’est précisément ce que Mark Chen appelle « résoudre un problème de mathématiques complexe » : une série d’essais, d’échecs, de réajustements. L’importance du cadre : apprentissage par renforcement et programmation Deux piliers soutiennent cette vision : l’apprentissage par renforcement (RL) et la programmation. Jakub Pachocki explique que l’union entre les grands modèles pré-entraînés et le RL a créé un environnement quasi infini pour tester des idées — un « terrain d’expérimentation » qui résolvait un problème historique : la construction d’un environnement réeliste pour l’entraînement. Par ailleurs, la sortie de GPT-5 Codex illustre une autre avancée : transformer l’intelligence brute en outil pratique. Ce nouveau modèle ne se contente plus de générer du code, mais comprend les subtilités du développement réel — style, lisibilité, gestion de la complexité. Pour Jakub Pachocki, ancien compétiteur de programmation, cette évolution est bouleversante : « Il peut refactoer un projet de 30 fichiers en 15 minutes. » Cette transformation a rendu le vibe coding — programmer par intuition — la norme. Bientôt, ce sera vibe researching : la recherche guidée par l’intuition, soutenue par l’IA. Le chercheur idéal : persévérance et intuition Quel est le profil du chercheur idéal ? Pour Jakub Pachocki, c’est la persévérance. La recherche, c’est explorer des chemins probables d’échec, apprendre de ses erreurs, et continuer. Mark Chen ajoute que l’expérience est cruciale : elle permet de choisir des problèmes à la fois ambitieux et réalisables, d’identifier les bonnes questions, et de gérer ses émotions face à l’échec. OpenAI cherche des personnes capables de relever des défis majeurs, souvent considérés comme impossibles. Ce n’est pas la notoriété, mais la capacité à résoudre des problèmes complexes — quelle que soit leur origine (physique, théorie informatique, finance) — qui est valorisée. Une culture de la recherche fondamentale Enfin, la culture d’OpenAI repose sur une mission claire : la recherche fondamentale. Les chercheurs sont protégés des pressions produits, libres d’explorer des idées à long terme. Même si les projets semblent dispersés — modèles de diffusion, raisonnement, programmation — ils convergent tous vers l’objectif ultime : le chercheur automatisé. Quand on leur demande où investir davantage, les deux répondent sans hésitation : le calcul. « On n’arrête jamais de vouloir plus de puissance », dit Jakub Pachocki. Pour lui, la contrainte de calcul restera une constante, bien au-delà des prédictions selon lesquelles les données deviendraient le nouveau frein. En somme, OpenAI ne cherche plus seulement à construire des modèles plus intelligents, mais à créer une intelligence qui cherche, qui découvre, et qui, un jour, pourrait faire avancer la science comme un humain — mais à une échelle et à un rythme inédits.