Claude d’Anthropic désormais capable de se souvenir automatiquement de vos conversations précédentes
Anthropic a annoncé que son chatbot Claude peut désormais « se souvenir » automatiquement des conversations précédentes, sans qu’il soit nécessaire de le demander explicitement. Cette fonctionnalité, actuellement disponible uniquement pour les utilisateurs des versions Team et Enterprise, permet à Claude d’intégrer de manière proactive les préférences de l’utilisateur, le contexte d’un projet en cours ou encore les priorités principales dans chacune de ses réponses. Alors qu’Anthropic avait déjà permis aux utilisateurs payants de demander à Claude de se souvenir des échanges la mois dernière, la mise à jour actuelle rend ce rappel automatique. Cette mémoire s’étend également aux projets, une fonctionnalité qui permet aux utilisateurs Pro et Team de générer des éléments comme des schémas, des maquettes de sites web ou des graphiques à partir de fichiers téléchargés directement dans le chat. Le système semble particulièrement orienté vers les aspects professionnels : il peut retenir des informations telles que les processus d’équipe ou les besoins des clients. Toutefois, Anthropic insiste sur le fait que cette mémoire est entièrement facultative. Les utilisateurs peuvent consulter, modifier ou supprimer les données stockées via le menu des paramètres. « En fonction de ce que vous demandez à Claude de prendre en compte ou d’ignorer, il ajustera les souvenirs qu’il utilise », précise l’entreprise. Parallèlement, Anthropic lance une nouvelle fonctionnalité d’incognito, disponible pour tous les utilisateurs : les conversations en mode incognito ne seront ni sauvegardées dans l’historique ni réutilisées dans les échanges futurs. Cette option s’inscrit dans une tendance partagée par les grands acteurs du secteur, Google ayant déjà introduit des « conversations privées » pour son assistant Gemini en août. Il convient de noter que l’arrivée de mémoires transverses entre conversations a déjà suscité des préoccupations. Un rapport du New York Times publié le mois dernier a notamment lié le déploiement de cette fonctionnalité sur ChatGPT à une hausse des signalements de conversations « délirantes » ou incohérentes de la part de l’IA. Anthropic reste vigilant sur ces enjeux, tout en poursuivant son effort pour offrir une expérience plus fluide et personnalisée, tout en respectant la confidentialité des utilisateurs.
