Claude intègre une mémoire des conversations pour mieux suivre vos projets
Anthropic a lancé une fonction de mémoire pour son chatbot Claude, permettant au modèle de se souvenir des conversations précédentes. Cette fonctionnalité, dévoilée lundi dans une vidéo YouTube, permet à l’utilisateur de demander à Claude de retrouver et résumer les échanges antérieurs, par exemple sur un projet ou une préparation de voyage. Le chatbot peut alors proposer de poursuivre le travail là où il s’était arrêté, offrant ainsi une continuité naturelle dans les échanges. « Plus jamais perdez de vue votre travail », affirme Anthropic, soulignant que Claude peut désormais rappeler les discussions passées, faciliter les références croisées et permettre de développer des idées sans devoir tout recommencer à zéro. La fonction est disponible sur tous les appareils — web, bureau et mobile — et permet de séparer les projets et espaces de travail pour une meilleure organisation. Elle est actuellement accessible aux abonnés des forfaits Max, Team et Enterprise, avec une activation simple via les paramètres du profil, dans l’onglet « Recherche et références aux conversations ». Les autres abonnements devraient bénéficier de cette fonction dans les prochaines semaines. Toutefois, une nuance importante : cette mémoire n’est pas persistante comme celle de ChatGPT d’OpenAI. Selon Ryan Donegan, porte-parole d’Anthropic, Claude ne stocke pas automatiquement les données des utilisateurs ni ne construit de profil personnel. Il ne rappelle les conversations que lorsque l’utilisateur le demande explicitement. Cette évolution s’inscrit dans la course à l’innovation entre les géants de l’intelligence artificielle, où Anthropic et OpenAI s’affrontent sur plusieurs fronts : modes vocaux, fenêtres contextuelles plus larges, nouveaux abonnements, et surtout, fonctionnalités qui renforcent l’engagement des utilisateurs. Récemment, OpenAI a lancé GPT-5, tandis qu’Anthropic vise une levée de fonds qui pourrait valoriser l’entreprise jusqu’à 170 milliards de dollars. Les fonctions de mémoire sont devenues un levier stratégique pour fidéliser les utilisateurs, en rendant les chatbots plus « accrocheurs » et intégrés à leurs workflows. Toutefois, ces fonctionnalités suscitent aussi des débats. Certaines personnes ont commencé à traiter ChatGPT comme un thérapeute, tandis que d’autres signalent des troubles psychiques liés à ces interactions, phénomène qualifié par certains de « psychose ChatGPT ». Ces enjeux soulignent la nécessité d’une utilisation responsable des IA, même au cœur de fonctionnalités de plus en plus puissantes.