OpenAI prie ses contractuels de partager leur travail réel, suscitant des inquiétudes sur la confidentialité
OpenAI serait en train de demander à des contractuels de télécharger des travaux réels effectués dans des emplois passés ou actuels, selon un rapport de Wired. Cette initiative fait partie d'une stratégie plus large adoptée par plusieurs entreprises spécialisées dans l'intelligence artificielle, qui recrutent des prestataires pour produire des données d'entraînement de haute qualité, dans l'objectif de permettre à leurs modèles d'automatiser progressivement des tâches de bureau. Dans le cas d'OpenAI, une présentation interne indiquée par le journal mentionne que les contractuels doivent décrire les tâches qu'ils ont accomplies dans leurs anciens ou nouveaux postes, puis télécharger des exemples concrets de leur travail « réel » – des documents tels qu’un fichier Word, un PDF, une présentation PowerPoint, un fichier Excel, une image ou un dépôt de code. L’important, selon les directives, est de fournir l’output final, et non une simple synthèse. Avant le téléchargement, les contractuels sont invités à supprimer toute information sensible ou confidentielle, notamment des données personnelles ou des éléments propres à l’entreprise. OpenAI leur recommande d’utiliser un outil baptisé « Superstar Scrubbing », intégré à ChatGPT, pour nettoyer les fichiers. Malgré ces précautions, l’avocat spécialisé en propriété intellectuelle Evan Brown a mis en garde contre les risques juridiques liés à cette pratique. Selon lui, cette approche « expose fortement l’entreprise à de grands risques », car elle repose sur une « confiance considérable » en la capacité des contractuels à identifier eux-mêmes ce qui est ou non confidentiel. Cette situation pourrait entraîner des violations de droits de propriété intellectuelle ou des fuites de données sensibles, surtout si les travailleurs ne sont pas suffisamment formés ou motivés à respecter les règles. Un porte-parole d’OpenAI n’a pas souhaité commenter ces informations. Cette démarche soulève toutefois des questions éthiques et légales croissantes autour de la manière dont les entreprises recueillent et utilisent des données humaines pour entraîner leurs modèles d’intelligence artificielle, notamment lorsqu’il s’agit de contenus produits dans des contextes professionnels protégés.
