HyperAIHyperAI

Command Palette

Search for a command to run...

Anthropic va entraîner ses modèles sur vos conversations — voici comment vous protéger

Anthropic va commencer à entraîner ses modèles d’intelligence artificielle sur les données des utilisateurs, notamment les transcripts de conversations et les sessions de codage, sauf si les utilisateurs choisissent de s’opposer à cette utilisation. L’entreprise prolonge également sa politique de conservation des données à cinq ans — à condition que les utilisateurs ne choisissent pas de s’opposer. Tous les utilisateurs devront prendre une décision d’ici le 28 septembre. En cliquant sur « Accepter » maintenant, les utilisateurs autorisent Anthropic à utiliser leurs données pour entraîner ses modèles, ainsi qu’à les conserver jusqu’à cinq ans. Cette modification s’applique aux « nouvelles conversations ou sessions de codage reprenant après une interruption ». Même si vous acceptez l’utilisation de vos données, les discussions ou sessions antérieures non reprises ne seront pas concernées. Toutefois, si vous reprenez une conversation ancienne ou une session de codage, vos données pourront alors être utilisées. Ces changements s’appliquent à toutes les offres grand public de Claude, y compris Claude Free, Pro et Max, ainsi qu’à Claude Code, même lorsque ces services sont utilisés depuis un compte lié à l’un de ces abonnements. En revanche, ils ne s’appliquent pas aux versions destinées aux entreprises — comme Claude Gov, Claude for Work, Claude for Education — ni aux utilisations via API, y compris via des plateformes tierces comme Amazon Bedrock ou Google Cloud’s Vertex AI. Les nouveaux utilisateurs devront choisir leur préférence lors de l’inscription à Claude. Les utilisateurs existants devront le faire via une fenêtre contextuelle, pouvant être reportée en cliquant sur « Plus tard », mais ils seront contraints de se prononcer avant le 28 septembre 2025. Il est toutefois important de souligner que de nombreux utilisateurs pourraient accepter rapidement sans lire les conditions, attirés par le gros bouton « Accepter » en lettres capitales. La fenêtre affiche en effet en gros : « Mises à jour des Conditions et Politiques pour les Consommateurs », suivi d’un texte indiquant qu’une mise à jour entrera en vigueur le 28 septembre 2025, avec un bouton « Accepter » visible. En petit, une ligne précise : « Autoriser l’utilisation de vos conversations et sessions de codage pour améliorer les modèles d’IA d’Anthropic », accompagnée d’un interrupteur « Activé/Désactivé », qui est par défaut sur « Activé ». Beaucoup pourraient donc cliquer sur « Accepter » sans modifier cette option. Pour s’opposer à l’utilisation de ses données, il suffit de désactiver l’interrupteur lors de l’affichage de la fenêtre. Si vous avez déjà accepté sans le savoir, vous pouvez modifier votre choix en allant dans les Paramètres, puis dans l’onglet Confidentialité, puis dans la section Paramètres de confidentialité, et en désactivant l’option « Aider à améliorer Claude ». Les utilisateurs peuvent changer leur décision à tout moment via ces paramètres, mais cette nouvelle décision n’aura d’effet que sur les données futures : les données déjà utilisées pour l’entraînement ne peuvent pas être retirées. « Pour protéger la vie privée des utilisateurs, nous utilisons une combinaison d’outils et de processus automatisés pour filtrer ou masquer les données sensibles », indique Anthropic dans son billet de blog. « Nous ne vendons pas les données des utilisateurs à des tiers. »

Liens associés

Anthropic va entraîner ses modèles sur vos conversations — voici comment vous protéger | Articles tendance | HyperAI