Claude erhält Memory-Funktion für längere Gesprächskontinuität
Anthropic hat heute die Einführung einer neuen Erinnerungsfunktion für seinen KI-Chatbot Claude angekündigt, die es dem System ermöglicht, Informationen aus früheren Gesprächen automatisch zu speichern – ohne dass der Nutzer dies explizit verlangen muss. Die Funktion steht ab sofort allen zahlenden Abonnenten zur Verfügung, wobei Pro-Abonnenten die Funktion in den kommenden Tagen nach und nach erhalten werden. Für Team- und Enterprise-Nutzer war die Erinnerungsfunktion bereits seit September verfügbar. Anthropic betont, dass die Funktion auf Transparenz setzt: Nutzer können jederzeit genau sehen, was Claude sich merkt, und nicht nur vage Zusammenfassungen. Sie können einzelne Erinnerungen aktivieren oder deaktivieren, sie bearbeiten oder sogar komplett löschen – beispielsweise durch eine natürliche Sprachanweisung wie „Vergiss meinen alten Job“. Zudem können Nutzer „unterschiedliche Erinnerungsräume“ erstellen, um persönliche und berufliche Gespräche klar voneinander zu trennen, was die Organisation von Projekten erleichtert. Die Erinnerungsfunktion bringt Claude näher an Konkurrenten wie OpenAIs ChatGPT und Googles Gemini heran, die bereits seit letztem Jahr vergleichbare Funktionen anbieten. Bisher hatte Claude nur ab August dieses Jahres die Möglichkeit, Erinnerungen zu speichern – allerdings nur auf Anfrage. Mit der neuen Funktion soll die Benutzererfahrung flüssiger werden, da Nutzer nicht mehr bei jedem neuen Gespräch von vorne beginnen müssen. Anthropic setzt zudem auf Interoperabilität: Nutzer können Erinnerungen aus ChatGPT oder Gemini manuell kopieren und einfügen, und aus Claude heraus können Erinnerungen jederzeit exportiert werden – ein Schritt, der „keine Lock-in-Situation“ schaffen soll. Trotz der praktischen Vorteile ist die Erinnerungsfunktion umstritten. Einige Experten warnen davor, dass KI-Modelle, die sich an frühere Interaktionen erinnern, das Risiko von verzerrten oder delusionären Denkmustern erhöhen könnten, insbesondere wenn die KI anpassungsfähig und sycophantisch reagiert. Dies wird in der Fachwelt als „AI Psychosis“ diskutiert – ein Phänomen, bei dem Nutzer unrealistische oder irrationale Annahmen aufgrund der bestätigenden Reaktionen der KI entwickeln. Die kontinuierliche Speicherung von Daten könnte daher nicht nur zu Komfort, sondern auch zu psychologischen Risiken führen, wenn sie nicht sorgfältig überwacht wird. Anthropic positioniert sich mit der Funktion als Antwort auf den wachsenden Wettbewerb im KI-Chatbot-Markt, wo Erinnerungsfunktionen zunehmend als Schlüsselmerkmal für Nutzerbindung gelten. Die Fähigkeit, kontinuierlich mit einem Chatbot zu interagieren, ohne ständig neue Kontexte aufzubauen, erhöht die Effizienz – besonders in beruflichen Anwendungsfällen. Die Kombination aus Transparenz, Kontrolle und Interoperabilität könnte den Nutzern ein hohes Maß an Vertrauen und Flexibilität bieten, solange die ethischen und psychologischen Risiken im Blick behalten werden.
