HyperAIHyperAI

Command Palette

Search for a command to run...

Conférence internationale sur l’IA infiltrée par des relectures générées par IA

Une importante conférence internationale sur l’intelligence artificielle, l’ICLR 2026, a été au cœur d’un scandale majeur après que des outils de détection de texte généré par IA ont révélé que près de 21 % des évaluations par les pairs étaient entièrement rédigées par des modèles linguistiques à grande échelle (LLM), tandis que plus de la moitié des avis contenaient des traces d’usage d’IA. Cette découverte, rendue possible grâce à une analyse menée par Pangram Labs, une entreprise spécialisée dans la détection de contenu généré par IA, a suscité une vive inquiétude au sein de la communauté scientifique. Plus de 19 000 articles et près de 76 000 rapports de relecture ont été examinés en seulement 12 heures, grâce à un outil développé par Max Spero, fondateur de Pangram Labs. Le chercheur Graham Neubig, de l’université Carnegie Mellon, avait déjà remarqué des anomalies dans les évaluations reçues : des formulations excessivement longues, des listes à puces répétitives et des demandes d’analyses inhabituelles, éloignées des standards habituels en recherche en apprentissage automatique. Après avoir lancé un appel sur X (anciennement Twitter) pour obtenir une analyse indépendante, il a été contacté par Pangram Labs. Les résultats ont confirmé ses soupçons : 15 899 rapports de relecture étaient entièrement générés par IA. Par ailleurs, 199 articles soumis (1 %) étaient entièrement écrits par IA, et 9 % contenaient plus de 50 % de texte généré automatiquement. Des chercheurs comme Desmond Elliott, de l’université de Copenhague, ont confirmé que leurs évaluations suspectes correspondaient aux flags détectés. L’un de ses rapports, qui a classé son article à la limite entre acceptation et rejet, contenait des résultats numériques erronés et des formulations étranges — des signes caractéristiques de hallucinations générées par les LLM. Cette situation a profondément affecté leur confiance dans le processus de relecture académique. Les organisateurs de l’ICLR 2026, dont Bharath Hariharan, directeur scientifique de la conférence, ont reconnu l’ampleur du problème, qualifié de « premier cas à grande échelle » de ce type. Ils annoncent désormais l’intégration d’outils automatisés pour vérifier les soumissions et les évaluations, afin de garantir la conformité aux politiques sur l’usage de l’IA. Cette initiative pourrait servir de modèle pour d’autres conférences scientifiques confrontées à une montée en puissance de l’IA dans les processus académiques. Les experts soulignent que si l’IA peut accélérer certaines tâches, son utilisation non déclarée dans la relecture compromet l’intégrité du système académique. Des spécialistes estiment que la transparence, la traçabilité et des normes claires sur l’usage de l’IA sont désormais indispensables pour préserver la crédibilité de la recherche. L’expérience de l’ICLR 2026 marque un tournant critique dans la manière dont la communauté scientifique doit s’adapter à l’ère de l’intelligence artificielle.

Liens associés

Conférence internationale sur l’IA infiltrée par des relectures générées par IA | Articles tendance | HyperAI