OpenAI lance Prism, l’outil qui inquiète la communauté scientifique face à l’explosion de la recherche "sous influence IA"
Un nouvel outil d’OpenAI, baptisé « Prism », vient d’être lancé, suscitant de nouvelles inquiétudes parmi la communauté scientifique. Ce nouvel environnement de travail, conçu pour aider les chercheurs à rédiger, organiser et améliorer leurs articles, apparaît comme une avancée prometteuse. Pourtant, son lancement coïncide avec des études alarmantes montrant une surproduction d’articles scientifiques assistés par l’intelligence artificielle, souvent de qualité médiocre. Prism, qui combine des fonctionnalités d’écriture assistée, de synthèse de documents et d’analyse de données, vise à accélérer le processus de publication. Il permet aux chercheurs de générer des premières versions d’articles, de reformuler des paragraphes ou encore de proposer des hypothèses basées sur des données existantes. Bien que ces fonctionnalités puissent être utiles, elles inquiètent certains experts. En effet, elles risquent de faciliter la production de « recherche à la chaîne », où la quantité prime sur la rigueur. Des études récentes, notamment une analyse publiée dans la revue Nature, révèlent que le nombre d’articles scientifiques contenant des éléments générés par l’IA a augmenté de plus de 300 % en deux ans. Or, ces travaux présentent souvent des failles méthodologiques, des erreurs factuelles ou des citations inexactes. Certains auteurs, pressés par les délais ou les exigences de publication, utilisent l’IA pour remplir des sections entières sans vérification critique, ce qui nourrit la notion de « slop » — un terme désignant une production scientifique superficielle, peu fiable et souvent redondante. L’arrivée de Prism, bien qu’officiellelement conçue pour soutenir la recherche, pourrait amplifier ce phénomène. En rendant l’écriture plus facile, l’outil pourrait encourager une culture où la rapidité de publication l’emporte sur la qualité du contenu. De plus, les éditeurs de revues scientifiques peinent à mettre en place des mécanismes de détection efficaces pour identifier les contributions générées par l’IA, ce qui rend difficile la mise en œuvre de normes éthiques et de contrôles rigoureux. La communauté scientifique est divisée. Certains voient dans Prism une opportunité d’augmenter la productivité, notamment dans des domaines où les ressources sont limitées. D’autres craignent que cette technologie ne mène à une dévaluation du travail de recherche, où les articles deviennent des compilations de contenus générés par machine, sans véritable contribution humaine critique. Face à ces enjeux, des appels à une régulation plus stricte se font entendre. Des experts demandent que les revues scientifiques exigent une déclaration claire des contributions d’IA dans chaque article, tout comme elles le font aujourd’hui pour les financements ou les conflits d’intérêts. D’autres préconisent des normes internationales pour encadrer l’usage de l’IA dans la recherche, afin de préserver l’intégrité du savoir scientifique. En somme, si Prism et d’autres outils similaires ont le potentiel de transformer positivement la recherche, ils risquent aussi de propulser la science vers un marasme de « slop » si leurs usages ne sont pas encadrés avec prudence. Le défi n’est plus seulement de produire plus de recherche, mais de garantir qu’elle soit fiable, vérifiable et véritablement innovante.
