Wikipedia contre l’IA : les bénévoles déclenchent une offensive contre le contenu frauduleux généré par les chatbots
Face à l’explosion de contenus générés par l’intelligence artificielle, Wikipedia se bat contre une marée de textes de mauvaise qualité, souvent remplis d’informations fausses et de références fictives. Face à cette menace, la communauté de bénévoles de Wikipedia a mis en place une réponse coordonnée, décrite par Marshall Miller, directeur produit à la Wikimedia Foundation, comme un « système immunitaire » en évolution. « Ils sont vigilants pour garantir que le contenu reste neutre et fiable », explique-t-il. « À mesure que l’internet évolue, et que des outils comme l’IA apparaissent, ce système immunitaire s’adapte à un nouveau défi. » L’un des principaux outils de riposte est la suppression rapide des articles clairement générés par l’IA et non examinés par leur auteur. Contrairement à la procédure habituelle, qui prévoit une discussion de sept jours, cette nouvelle règle permet aux administrateurs de supprimer immédiatement les articles présentant trois signes caractéristiques : un style trop fluide ou artificiel, une structure répétitive, et l’absence de sources fiables. Cette mesure vise à éviter que les éditeurs expérimentés ne perdent des heures à nettoyer des contenus inutiles ou trompeurs. Les contributeurs ont également mis au point une liste de signes typiques du contenu produit par les chatbots, notamment l’usage excessif de tirets longs (« — »), de connecteurs comme « moreover », ou de termes promotionnels tels que « époustouflant ». D’autres indices incluent l’emploi de guillemets ou d’apostrophes courbes au lieu de droites. Toutefois, Wikipedia insiste sur le fait que ces éléments ne doivent pas être des critères uniques de suppression, afin d’éviter les erreurs d’interprétation. Le projet WikiProject AI Cleanup, lancé pour lutter contre le flot croissant de textes non sourcés et mal rédigés, s’appuie sur ces repères pour identifier rapidement les contributions suspectes. Par ailleurs, la Wikimedia Foundation, bien que ne définissant pas les politiques, a dû naviguer entre les divergences de vue au sein de la communauté. En juin, elle a suspendu une expérimentation visant à afficher des résumés générés par l’IA en tête des articles, suite à une forte opposition. Malgré ces tensions, la Fondation n’est pas opposée à l’IA, à condition qu’elle améliore la qualité du contenu. « C’est une lame à double tranchant », reconnaît Miller. L’IA peut en effet générer de grandes quantités de contenu bas de gamme, mais elle peut aussi aider les éditeurs. La Fondation utilise déjà l’IA pour détecter les modifications vandaliques, et son nouveau plan stratégique prévoit de développer des outils d’assistance pour automatiser des tâches répétitives, comme la traduction. Un outil non basé sur l’IA, Edit Check, vise à accompagner les nouveaux contributeurs en les aidant à respecter les règles de neutralité et de citation. Il peut ainsi rappeler d’ajouter des sources ou vérifier le ton du texte. Une fonction « Paste Check » est en cours de développement pour interroger les utilisateurs qui collent de longs passages, en leur demandant si ils les ont rédigés eux-mêmes. Certains utilisateurs proposent même d’obtenir une estimation du pourcentage de texte généré par un chatbot. « Nous suivons les communautés pour identifier ce qui est utile », conclut Miller. L’objectif reste clair : utiliser l’intelligence artificielle pour renforcer les éditeurs, pas les remplacer.