HyperAIHyperAI

Command Palette

Search for a command to run...

Chine sur le point de restreindre l’utilisation des échanges chat pour entraîner l’IA

La Chine envisage de renforcer les règles régissant l’utilisation des historiques de conversation pour entraîner les systèmes d’intelligence artificielle. L’Administration nationale de l’espace numérique a annoncé samedi avoir élaboré des mesures visant à limiter la manière dont les plateformes d’IA collectent et exploitent les échanges utilisateur. Ces propositions visent à garantir que les services d’IA interactifs « à la manière humaine », comme les chatbots ou les compagnons virtuels, soient sûrs et sécurisés. Bien que la Chine encourage l’innovation dans ce domaine, elle insiste sur la nécessité d’une gouvernance rigoureuse et d’une supervision progressive pour éviter les abus et la perte de contrôle. Selon le projet de règlement, les plateformes devront informer les utilisateurs lorsqu’ils interagissent avec une IA, leur offrir la possibilité d’accéder ou de supprimer leur historique de conversation, et obtenir un consentement explicite avant d’utiliser leurs échanges pour entraîner des modèles ou de les partager avec des tiers. Pour les mineurs, une autorisation supplémentaire du tuteur sera requise, qui pourra également demander la suppression des données personnelles de l’enfant. Ces dispositions sont actuellement soumises à une consultation publique, avec un délai de réponses fixé à la fin janvier. Les analystes estiment que cette initiative reflète un équilibre entre sécurité et développement. Lian Jye Su, analyste principal chez Omdia, souligne que limiter l’accès aux logs de conversation pourrait ralentir l’amélioration des chatbots, car ces données sont essentielles à l’apprentissage par renforcement, un pilier de l’efficacité des IA conversationnelles. Toutefois, il note que l’écosystème chinois de l’IA est solide, disposant de vastes ensembles de données publics et privés, et que cette mesure s’inscrit dans une logique de sécurité nationale et d’intérêt collectif. Certaines conversations, estime-t-il, sont trop sensibles pour être traitées comme du simple « matériel d’entraînement ». Wei Sun, analyste principale en IA chez Counterpoint Research, juge que ces dispositions ne visent pas à freiner l’innovation, mais à orienter son développement. Elles renforcent la protection des utilisateurs et préviennent les pratiques opaques liées aux données. En outre, une fois la fiabilité prouvée, les fournisseurs pourraient étendre l’usage de l’IA humaine à des domaines socialement utiles, comme la diffusion culturelle ou le soutien aux personnes âgées. Face à un contexte de vieillissement rapide, ces mesures peuvent être perçues comme un encouragement, encadré, à développer des interactions IA à l’échelle, en lien avec l’intérêt public. Ce projet intervient dans un contexte de préoccupations croissantes sur la confidentialité des échanges avec les chatbots. En août, des révélations ont montré que des travailleurs indépendants de Meta pouvaient accéder à des conversations privées, parfois très intimes, pour évaluer les réponses d’IA. Meta affirme disposer de politiques strictes pour limiter l’accès aux données personnelles, mais l’incident a suscité des inquiétudes. Un ingénieur Google en sécurité de l’IA a également mis en garde contre le risque d’exposition de données sensibles, soulignant que les utilisateurs doivent protéger leurs informations pour éviter qu’elles ne tombent entre les mains de cybercriminels ou de brokers de données.

Liens associés