HyperAIHyperAI

Command Palette

Search for a command to run...

Les auteurs, meilleurs juges de leurs propres travaux ? Une nouvelle méthode de classement auto-réalisé teste sa valeur dans les conférences d’IA face à la surcharge de soumissions

Le nombre de soumissions aux conférences internationales de pointe en intelligence artificielle a explosé, avec certaines manifestations voyant leurs chiffres augmenter de plus de dix fois en une décennie. Cette surcharge n’est pas seulement le reflet de la croissance rapide de la recherche mondiale en IA, souligne Buxin Su, mathématicien à l’Université de Pennsylvanie à Philadelphie. Les conférences attirent souvent plusieurs soumissions provenant du même auteur, ce qui pose un défi majeur : qui va trier ces travaux pour identifier ceux qui sont les plus prometteurs et de haute qualité ? Dans une étude publiée en octobre sur la plateforme arXiv, Su et ses collègues proposent un système novateur : les auteurs soumettant plusieurs papiers doivent les comparer entre eux et les classer selon leur qualité et leur potentiel d’impact. Ces classements auto-évalués sont ensuite calibrés à l’aide des évaluations des pairs (qui n’ont pas accès aux classements des auteurs), permettant ainsi d’identifier les meilleures contributions. Cette méthode a été testée sur 2 592 papiers soumis par 1 342 chercheurs à la conférence ICML 2023, tenue à Honolulu, Hawaï. Dix-huit mois après l’événement, l’équipe a évalué l’impact réel de chaque article en analysant leurs citations et en les comparant aux scores d’évaluation calibrés. Les résultats montrent que les papiers classés en tête par leurs auteurs ont reçu deux fois plus de citations que ceux classés en bas. « Les classements auto-évalués sont un excellent prédicteur de l’impact à long terme », affirme Su. « Et les scores calibrés reflètent mieux la qualité réelle. » La conférence ICML 2026, qui se tiendra à Séoul plus tard cette année, sera la première à adopter officiellement cette méthode, annonce Su, membre du comité d’intégrité de la conférence. Il précise que bien que cette approche puisse s’appliquer à tout type de conférence scientifique, elle serait particulièrement utile dans le domaine de l’IA, où le nombre de soumissions multiples est élevé. L’étude révèle que dans plus des trois quarts des soumissions ICML 2023, au moins un auteur avait déposé plusieurs travaux. En outre, les conférences sont de plus en plus submergées par des articles générés par l’IA, ce qui accentue la pression sur les comités de relecture. L’idée de classement auto-évalué suscite à la fois de l’enthousiasme et des réserves. « C’est une idée vraiment originale et passionnante », reconnaît Nihar Shah, informaticien à l’Université Carnegie Mellon à Pittsburgh. Toutefois, il doute que les auteurs soient capables de prédire avec précision l’impact de leurs travaux. « L’idée que les auteurs seraient meilleurs que les pairs dans leurs prédictions pourrait être une conséquence de la méthode utilisée, pas une vérité du monde réel. » Malgré cela, Shah, qui a été président de l’intégrité scientifique à ICML 2025 à Vancouver, apprécie toute initiative visant à répondre à la surcharge des soumissions. « C’est un problème que nous ne savons pas encore résoudre. » Emma Pierson, informaticienne à l’Université de Californie à Berkeley, partage cette vision enthousiaste. « On sait quel papier est son « bébé », celui qu’on aime le plus », dit-elle. « Le classement par l’auteur pourrait être une source précieuse d’information, à condition qu’il soit honnête. » Toutefois, elle et Shah s’inquiètent tous deux de la possibilité que certains chercheurs tentent de manipuler le système — par exemple en surclassant leurs travaux faibles pour compenser des critiques négatives des pairs.

Liens associés

Les auteurs, meilleurs juges de leurs propres travaux ? Une nouvelle méthode de classement auto-réalisé teste sa valeur dans les conférences d’IA face à la surcharge de soumissions | Articles tendance | HyperAI