Claude erhält Gedächtnisfunktion für Gespräche
Anthropic hat am Montag eine viel erwartete Erinnerungsfunktion für seinen KI-Chatter Claude vorgestellt, die es Nutzern ermöglicht, frühere Gespräche mit dem Bot abzurufen und weiterzuführen. In einem YouTube-Video zeigte das Unternehmen, wie ein Nutzer nach den Inhalten von vor einer Reise geführten Gesprächen fragt – Claude durchsucht daraufhin die Chatverläufe, fasst sie zusammen und fragt dann, ob die Arbeit an demselben Projekt fortgesetzt werden soll. „Verliere nie wieder den Faden deiner Arbeit“, heißt es in der Ankündigung. „Claude erinnert sich an deine vorherigen Gespräche, sodass du Projekte nahtlos weiterführen, frühere Diskussionen zitieren und Ideen aufbauen kannst, ohne jedes Mal von vorne anzufangen.“ Die Funktion ist ab sofort für die Abonnements „Max“, „Team“ und „Enterprise“ verfügbar und funktioniert über Web, Desktop und Mobilgeräte. Nutzer können sie in den Einstellungen unter „Profil“ aktivieren, indem sie „Suchen und Referenzen in Chats“ einschalten. Andere Tarife sollen in Kürze folgen. Ein entscheidender Unterschied zu OpenAIs ChatGPT liegt darin, dass Claudes Erinnerung nicht automatisch oder dauerhaft aktiv ist. Laut Anthropic-Sprecher Ryan Donegan speichert der Bot keine dauerhaften Nutzerprofile und greift nur dann auf vergangene Gespräche zurück, wenn der Nutzer explizit danach fragt. Es handelt sich also nicht um eine persistente Erinnerung, sondern um eine on-demand-Referenzfunktion. Die Einführung der Erinnerungsfunktion ist Teil des intensiven Wettlaufs zwischen Anthropic und OpenAI, bei dem beide Unternehmen kontinuierlich neue Funktionen wie Sprachmodi, größere Kontextfenster und neue Abonnementmodelle vorstellen, um Nutzerbindung und „Stickiness“ zu erhöhen. Kurz vor der Ankündigung von Anthropic hatte OpenAI GPT-5 vorgestellt, während Anthropic derzeit eine Finanzierungsrunde anstrebt, die das Unternehmen auf bis zu 170 Milliarden US-Dollar bewerten könnte. Die Entwicklung von Erinnerungsfunktionen bei KI-Chats ist umstritten. Während einige Nutzer sie als nützlich für die Produktivität schätzen, gibt es auch Bedenken: ChatGPT wurde kritisiert, weil Nutzer es als Therapeutin nutzten – was zu psychischen Belastungen führte, die als „ChatGPT-Psychose“ diskutiert werden. Anthropic setzt damit auf eine vorsichtige Herangehensweise, die Transparenz und Kontrolle der Nutzer priorisiert, ohne die Daten dauerhaft zu speichern. Industrielle Experten begrüßen die Funktion als Schritt hin zu smarteren, kontextbewussten KI-Interaktionen, betonen aber gleichzeitig die Notwendigkeit klarer Grenzen und ethischer Rahmenbedingungen. Anthropic gilt als führend in der Entwicklung verantwortungsvoller KI, was die neue Funktion unterstreicht. Die Firma positioniert sich damit als Alternative zu OpenAI, die stärker auf marktbeherrschende Funktionen setzt.