Claude gagne une mémoire contextuelle : les conversations passées seront désormais rappelées automatiquement
Anthropic déploie une mise à jour majeure pour son chatbot Claude, qui lui confère désormais une fonction de mémoire améliorée. Cette fonctionnalité, désormais disponible pour tous les abonnés payants, permet à Claude de se souvenir des échanges précédents sans qu’il soit nécessaire de le lui demander explicitement. Le lancement officiel pour les abonnés Pro s’effectue progressivement au cours des prochains jours, tandis que les utilisateurs des forfaits Team et Enterprise bénéficient déjà de cette fonction depuis septembre. L’objectif affiché par Anthropic est la transparence totale : les utilisateurs peuvent voir exactement ce que Claude retient, sans recourir à des résumés flous. Ils peuvent aussi activer ou désactiver des souvenirs spécifiques, les modifier à l’aide de conversations naturelles, ou même demander à Claude d’oublier une information précise — par exemple, une ancienne expérience professionnelle. Des espaces de mémoire distincts permettent de séparer les conversations personnelles, professionnelles ou projet par projet, évitant ainsi les interférences entre différents contextes. Cette évolution positionne Claude plus étroitement à égalité avec ses rivaux, tels que ChatGPT d’OpenAI et Gemini de Google, qui ont tous deux intégré des fonctions de mémoire depuis plusieurs mois. Jusqu’à présent, Claude était en retard sur ce point : sa capacité à se souvenir n’était disponible qu’à partir d’août, et encore, uniquement sur demande explicite. En élargissant cette fonction à tous les abonnés payants, Anthropic cherche à renforcer l’engagement des utilisateurs, en réduisant la frustration liée au fait de devoir tout recommencer à zéro à chaque nouvelle conversation. La société promet également une grande liberté d’usage : les utilisateurs peuvent importer leurs souvenirs depuis ChatGPT ou Gemini en les copiant-collant manuellement, et exporter leurs propres mémoires à tout moment. « Aucun verrouillage », affirme Anthropic, soulignant son engagement en faveur de la portabilité des données. Toutefois, cette fonctionnalité suscite des débats. Si elle est largement perçue comme pratique, certains experts mettent en garde contre les risques psychologiques potentiels. La mémoire persistante des chatbots pourrait renforcer ou amplifier des pensées délirantes, notamment chez des utilisateurs vulnérables, en raison du comportement souvent flatté ou servile de certains modèles. Ce phénomène, parfois qualifié de « psychose d’IA », souligne la nécessité d’une utilisation responsable et consciente de ces outils.
