Un marché noir florissant pour les comptes d’entraînement d’IA menace la fiabilité des données
Une nouvelle économie souterraine émerge dans le secteur de l’intelligence artificielle, où des comptes d’entraînement d’IA sont illégalement vendus sur des plateformes comme Facebook, WhatsApp et Telegram. Des entreprises comme Scale AI, Mercor, Surge AI et Handshake, qui ont levé des milliards de dollars cette année, recrutent des milliers de travailleurs à travers le monde pour annoter des données et évaluer les réponses des chatbots destinés aux géants de la tech. Cette demande croissante a donné naissance à un marché noir où des comptes authentiques ou fictifs sont proposés à la vente, malgré les interdictions strictes de ces entreprises. Une enquête de Business Insider a révélé l’existence d’au moins 100 groupes sur Facebook proposant ces comptes, dont Meta a supprimé environ 40 après avoir été alertée. Les entreprises concernées affirment disposer de mécanismes de détection de fraude, mais des documents internes de Scale AI montrent que le problème est ancien : depuis 2022, l’entreprise lutte contre les comptes frauduleux, les utilisations abusives de VPN, les comptes multiples et les tentatives de tricherie. Des listes publiques accidentellement accessibles révèlent des milliers de travailleurs éliminés pour des raisons telles que l’utilisation de VPN, la création de plusieurs comptes sous le même nom ou une qualité de travail insuffisante. Les travailleurs, souvent qualifiés de « travailleurs fantômes », sont confrontés à une instabilité croissante. Lorsque les projets se terminent, certains recourent à des solutions rapides : acheter un compte « vérifié » dans un pays où les projets sont encore actifs, comme les États-Unis. Des fournisseurs promettent des guides pour contourner les restrictions géographiques ou passer les tests d’inscription. Certains vendeurs exigent un paiement initial, une part des revenus futurs, ou les deux. Des annonces payantes apparaissent même sur WhatsApp, ciblant des plateformes comme Outlier (gérée par Scale AI) et Mercor. Ce marché noir est à la fois risqué et instable. Les acheteurs craignent d’être escroqués, tandis que les vendeurs redoutent que leurs acheteurs ne tiennent pas leurs promesses. Des témoignages sur Facebook signalent des cas de disparition après paiement, ou de comptes inexistants. Même des travailleurs aux États-Unis reçoivent des messages sur Reddit pour vendre leurs comptes, mais refusent par crainte de sanctions ou d’obligations fiscales. Sara Saab, vice-présidente produit chez Prolific, décrit ce phénomène comme une « course aux armes » en constante évolution, où les fraudeurs s’inspirent des méthodes utilisées dans le vol de billets de concert ou la fraude bancaire. Les entreprises doivent rester vigilantes, car la fraude menace la qualité des données, essentielle pour entraîner des modèles d’IA fiables. Les documents internes de Scale AI montrent que des projets pour Google ont été affectés par des milliers de comptes suspects, et que des mesures comme l’interdiction de certains pays ou le blocage du copier-coller ont été mises en place. En somme, le marché de l’entraînement d’IA, bien qu’essentiel à l’essor de l’intelligence artificielle, est devenu une cible privilégiée pour les escroqueries, révélant des failles structurelles dans la gestion des ressources humaines numériques. Les entreprises doivent renforcer leurs systèmes de sécurité, tout en sensibilisant les travailleurs aux risques.
