HyperAIHyperAI

Command Palette

Search for a command to run...

Claude erinnert sich nun automatisch an frühere Gespräche

Anthropic hat seinen KI-Chatbot Claude nun mit einer automatischen Erinnerungsfunktion ausgestattet, die es ihm ermöglicht, Inhalte früherer Gespräche ohne explizite Aufforderung zu berücksichtigen. Diese Funktion ist zunächst nur für Nutzer der Teams- und Enterprise-Pläne verfügbar und ermöglicht es Claude, individuelle Präferenzen, Projektkontexte sowie zentrale Arbeitsprioritäten kontinuierlich zu berücksichtigen. Im Gegensatz zur vorherigen Version, bei der Nutzer aktiv nach Speicherung von Gesprächsinhalten fragen mussten, erinnert sich Claude nun automatisch – sofern der Nutzer dies aktiv zulässt. Die Erinnerungsfunktion ist eng mit der Projekt-Engine von Claude verbunden, die es Pro- und Teams-Nutzern erlaubt, auf Basis hochgeladener Dateien Diagramme, Webdesigns und Grafiken zu generieren. Dabei werden vor allem arbeitsrelevante Informationen wie Teamprozesse oder Kundenanforderungen erfasst. Anthropic betont, dass die Erinnerungsfunktion vollständig optional ist und Nutzer jederzeit über das Einstellungsmenü auf die gespeicherten Daten zugreifen, bearbeiten oder löschen können. Zudem kann der Nutzer festlegen, welche Informationen Claude berücksichtigen oder ignorieren soll, wodurch die Kontrolle über den KI-Verlauf erhalten bleibt. Parallel dazu führt Anthropic „Inkognito-Chats“ für alle Nutzer ein: Diese Gespräche werden nicht in der Chat-Historie gespeichert und werden auch in zukünftigen Interaktionen nicht berücksichtigt – eine Funktion, die bereits von Google mit seinem Gemini-Chatbot eingeführt wurde. Die Einführung von kontinuierlichen Erinnerungen bei KI-Chatbots ist mittlerweile ein branchenweites Phänomen: OpenAI hatte bereits vor einigen Monaten eine ähnliche Funktion für ChatGPT eingeführt. Kritisch wurde jedoch darauf hingewiesen, dass solche Erinnerungen möglicherweise zu „irrealen“ oder „delusionären“ Antworten führen können, wie eine Berichterstattung des New York Times im vergangenen Monat nahelegte, die einen Anstieg solcher Fälle mit der Einführung von Cross-Chat-Gedächtnissen bei ChatGPT in Verbindung brachte. Experten sehen die Funktion als wichtigen Schritt zur Verbesserung der KI-Interaktion im Arbeitskontext, warnen aber vor einer zu starken Abhängigkeit von kontinuierlichen Erinnerungen, insbesondere wenn diese fehlerhaft oder ungenau sind. Anthropic positioniert sich damit klar im Wettbewerb mit OpenAI und Google, indem es sowohl erweiterte Speicherfunktionen als auch Datenschutzoptionen anbietet. Die Kombination aus kontinuierlicher Erinnerung und privaten Chats unterstreicht den Fokus auf Flexibilität und Nutzerkontrolle – ein entscheidender Vorteil für Unternehmen, die KI in sensiblen Arbeitsprozessen einsetzen wollen.

Verwandte Links