Un nouvel outil d’IA repère les revues scientifiques douteuses pour protéger l’intégrité de la recherche
L’un des principaux avantages des revues scientifiques à accès ouvert est de rendre les articles de recherche disponibles gratuitement et immédiatement en ligne, ce qui élargit leur diffusion et supprime les barrières liées au coût. Tout utilisateur disposant d’une connexion Internet peut ainsi accéder à la connaissance, partout dans le monde. Toutefois, la croissance rapide de ce modèle a également favorisé l’émergence de revues douteuses qui exploite les frais de publication versés par les auteurs. Promettant une publication rapide, ces publications négligent souvent le processus de relecture par les pairs. À présent, une nouvelle intelligence artificielle (IA) permet de repérer des signes révélateurs de telles revues, aidant ainsi les chercheurs à éviter de publier dans des établissements peu fiables. Dans une étude publiée dans Science Advances, des chercheurs décrivent comment ils ont entraîné une IA pour agir comme un détective. Ils ont alimenté le modèle avec plus de 12 000 revues de haute qualité et environ 2 500 publications jugées de mauvaise qualité ou douteuses, auparavant incluses dans le Directory of Open Access Journals (DOAJ) avant d’être retirées pour violation des règles. L’IA a ainsi appris à repérer des indicateurs d’alerte sur les sites web des revues, tels qu’un manque d’information sur le comité éditorial, une conception web soignée ou encore des taux de citations très faibles. Les chercheurs ont ensuite appliqué leur modèle à un ensemble de données comprenant 93 804 revues à accès ouvert provenant d’Unpaywall, une plateforme qui aide à trouver des versions gratuites d’articles souvent protégés par des paywalls. L’IA a ainsi identifié plus de 1 000 revues suspectes jusqu’alors inconnues, qui publient collectivement des centaines de milliers d’articles. L’étude ne nomme pas les revues concernées, notamment pour éviter des représailles juridiques. Toutefois, elle indique que de nombreuses publications douteuses proviennent de pays en développement. Bien que cette méthode basée sur l’IA soit efficace pour repérer à grande échelle des revues problématiques, elle présente toutefois des limites. Le taux de faux positifs atteint actuellement 24 %, ce qui signifie qu’environ une revue légitime sur quatre est malgré tout étiquetée comme suspecte. Comme l’expliquent les auteurs dans leur article, cela souligne la nécessité de combiner l’analyse automatisée avec une évaluation humaine. « Nos résultats montrent le potentiel de l’IA pour des contrôles d’intégrité à grande échelle, tout en mettant en évidence la nécessité de combiner ce tri automatisé avec une revue par des experts. » Protéger l’intégrité scientifique Les chercheurs estiment que des recherches ultérieures pourront affiner les fonctionnalités de l’IA, afin qu’elle reste à la hauteur des stratégies en constante évolution des éditeurs douteux. Ce combat est sans fin, et exige à la fois des regards attentifs humains et des systèmes d’IA de plus en plus performants. En s’associant, humains et machines peuvent guider les auteurs loin des publications trompeuses et préserver l’intégrité de la recherche scientifique à l’échelle mondiale.
